应对生成式人工智能 欧盟监管机构重新“立规矩”
【欧洲时报5月23日编译】随着开发更强大的人工智能服务(如ChatGPT)的竞赛加速,一些监管机构却仍在依靠旧法律来控制可能颠覆社会和企业运营方式的技术。欧盟正在起草新的、最前沿的人工智能规则,随着生成式人工智能技术快速发展而出现的隐私和安全问题,新规则可能为解决这些问题设定全球基准。今年4月,欧洲国家隐私监管机构成立了一个特别工作组,以解决ChatGPT的问题。
如何证明侵犯版权?
路透社报道,生成式人工智能模型经常会犯各种错误,并可能导致严重后果。如果银行或政府部门用人工智能加速决策,一些人可能会被不公平对待。包括Alphabet旗下的谷歌和微软在内的大型科技公司已经停止使用那些在存在道德风险的人工智能产品,比如某些金融产品。
在欧盟,欧盟人工智能法案的提案将使OpenAI等公司披露用于训练模型时所用的任何受版权保护的材料,如书籍或照片。
不过,参与起草欧盟提案的政界人士之一谢尔盖·拉戈丁斯基表示,证明侵犯版权并非易事。“这就像在你写自己的小说之前,读了数百本小说,如果真的复制了一些东西并发表,这是一回事,但如果你没有直接抄袭别人的材料,那么你仅是为了训练自己写作内容,这就无关紧要了。”
监管意见难达共识
法国数据监管机构CNIL的技术主管贝特朗·派莱斯表示,该机构已开始“创造性地思考”现有法律如何适用于人工智能。他表示:“尽管我们的重点仍然是数据和隐私保护,但我们正在研究全面的影响。”该组织正在考虑使用GDPR条款来保护个人免受自动化决策的影响。“在目前这个阶段,法律尚未完善,”派莱斯说,“形成统一意见需要一些时间,而且不同的监管机构可能会有不同观点。”
在英国,金融市场行为监管局是负责起草涉及人工智能的新指导方针的几个国家监管机构之一。监管局一位发言人表示,正与伦敦的艾伦图灵研究所以及其他法律和学术机构磋商,提高对该技术的理解。此外,在监管机构适应技术进步的同时,一些业内人士也呼吁加强与企业领导人的接触。