OpenAI首席执行官Sam Altman警告说,欧盟的AI监管新规可能会迫使OpenAI撤出欧洲市场。
当地时间周三,Altman在伦敦大学学院的一个活动间隙表示,他对欧盟正在酝酿的《人工智能法案》有“很多担忧”。
(资料图片)
他特别提到欧洲议会本月通过的授权草案,该草案可能会把GPT-4等大型语言模型列入“高风险”系统名单,并计划为其建立风险管理系统。OpenAI此前曾辩称,其通用系统本身并不具有高风险。
“这里的细节确实很重要,”Altman说,“我们将努力遵守,但如果我们无法做到合规,我们将停止运营......我们会尝试,但可能存在技术限制。”
Altman还说,他已经与欧盟监管机构会面讨论人工智能法案,并补充说OpenAI对该法案目前的措辞提出了很多批评。
在当天早些时候的一次台上采访中,Altman对媒体表示,他更偏好介于传统的欧洲和美国之间的监管方式。
不止OpenAI,谷歌等美国大型科技公司最近频繁出访欧洲各国,试图就监管问题影响欧盟决策层。
据英国《金融时报》周四报道,谷歌首席执行官Sundar Pichai本周在布鲁塞尔会见了欧盟高官,包括负责人工智能法案的主要欧洲议会议员Brando Benifei和Dragoş Tudorache。三位与会人士表示,Pichai强调需要对AI进行适度监管。
Pichai还会见了负责监督人工智能法案的欧盟数字主管Thierry Breton。Breton告诉英国《金融时报》,他们讨论了引入“人工智能公约”——一套非正式的指导方针,供人工智能公司在规定正式生效之前遵守。
欧盟《人工智能法案》最初旨在监管人工智能的特定、高风险用途,但ChatGPT的爆火引发了新的思考,今年5月初,欧洲议会通过了《人工智能法案》提案的谈判授权草案,向更严厉的AI监管迈出关键一步。
新规要求AI大模型开发商识别并降低其技术在应用中可能带来的风险,并要求他们对其使用方式承担部分责任。除此以外,新规还要求他们提交用于训练AI模型的受版权保护的数据文件,方便用户后续启动索赔程序。
该法案预计于2025年生效,今年6月中旬提交欧洲议会全会表决,之后欧洲议会将与欧盟理事会就法律的最终形式进行谈判。
风险提示及免责条款 市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。