独家-OpenAI游说欧盟淡化人工智能监管

2024-04-20 02:48来源:http://www.fstts.cn/

OpenAI首席执行官萨姆·奥特曼(Sam Altman)上个月在世界各国首都巡回演出,在座无虚名的演讲中,在与各国政府首脑的会晤中,他一再谈到全球人工智能监管的必要性。

但在幕后,OpenAI一直在为世界上最全面的人工智能立法的重要内容进行游说根据时代周刊通过信息自由要求从欧盟委员会获得的关于OpenAI与欧盟官员接触的文件,将以减轻公司监管负担的方式淡化该法案。

在几个案例中,OpenAI提出了后来对欧盟法律最终文本的修正,该法律于6月14日由欧洲议会批准,现在将进入最后一轮谈判,最早将于1月敲定。

-

2022年,OpenAI反复向欧洲官员辩称,即将出台的人工智能法案不应将其通用人工智能系统(包括ChatGPT的前身GPT-3和图像生成器Dall-E - 2)视为“高风险”,这将使它们受到严格的法律要求,包括透明度、可追溯性和人类监督。

这一论点使OpenAI与微软(Microsoft)和谷歌(Google)的立场一致。微软已经向OpenAI实验室投资了130亿美元,这两家公司此前都曾游说欧盟官员,希望放松该法案对大型人工智能提供商的监管负担。两家公司都认为,遵守法案最严格要求的责任应该由那些明确将人工智能应用于高风险用例的公司来承担,而不是由那些构建通用人工智能系统的(通常是更大的)公司来承担。

OpenAI在2022年9月发给欧盟委员会和理事会官员的一份长达7页的文件《OpenAI欧盟人工智能法案白皮书》中表示:“GPT-3本身并不是一个高风险系统。”“但(它)拥有可用于高风险用例的潜在能力。”

《时代》周刊将全文发表白皮书,同时发表这篇报道。

OpenAI在欧洲的这些游说努力之前没有被报道过,尽管奥特曼最近对这项立法变得更加直言不讳。今年5月,他在伦敦告诉记者,如果OpenAI认为自己无法遵守监管规定,它可能会决定“停止在欧洲运营”,他说他对此有“很多”批评。他后来收回了这一警告,称他的公司没有离开的计划,并打算与欧盟合作

尽管如此,OpenAI的游说努力似乎取得了成功:欧盟立法者批准的法案最终草案没有包含早期草案中提出的通用人工智能系统应被视为天生高风险的措辞。相反,商定的法律要求所谓的“基础模型”(即经过大量数据培训的强大人工智能系统)的提供商遵守少数要求,包括防止产生非法内容,披露系统是否接受过版权材料的培训,以及进行风险评估。OpenAI公司的一位发言人告诉《时代周刊》,该公司支持将“基础模型”作为该法案的一个单独类别。

然而,回到2022年9月,这种明显的妥协尚未达成。在OpenAI当时与欧洲官员分享的白皮书的一个部分中,该公司反对《人工智能法案》的一项拟议修正案,该修正案将ChatGPT和Dall-E等生成式人工智能系统归类为“高风险”,如果它们生成的文本或图像可能“在人们看来是人类生成的和真实的”。OpenAI在白皮书中表示,这一修正案将意味着他们的模型可能“无意中”被认为是高风险的,并建议取消该修正案。该公司认为,依靠该法案的另一部分就足够了,该法案要求人工智能提供商充分标记人工智能生成的内容,并向用户明确他们正在与人工智能系统进行交互。

OpenAI所反对的修正案并未包括在欧洲议会6月份批准的人工智能法案的最终文本中。“他们得到了他们想要的,”应《时代》杂志的要求审阅OpenAI白皮书的欧洲数字权利高级政策顾问、法案专家莎拉·钱德尔(Sarah Chander)说。她说,这份文件“表明,OpenAI和许多大型科技公司一样,利用人工智能的效用和公共利益来掩盖他们在淡化监管方面的经济利益。”

OpenAI发言人在给《时代》杂志的一份声明中说:“应欧盟政策制定者的要求,我们在2022年9月概述了我们安全部署GPT-3等系统的方法,并根据这一经验对当时的[人工智能法案]草案发表了评论。”从那以后,(人工智能法案)有了很大的发展,我们公开谈论了这项技术的先进能力和应用。我们将继续与政策制定者接触并支持欧盟我们的目标是确保人工智能工具的构建、部署和使用在现在和未来都是安全的。”

2022年6月,在提交白皮书的三个月前,三名OpenAI工作人员在布鲁塞尔首次与欧盟委员会官员会面。“OpenAI希望委员会澄清风险框架,并知道他们可以如何提供帮助,”委员会保存的一份会议官方记录显示,该记录是通过信息自由请求获得的。“他们担心通用人工智能系统会被列为高风险系统,并担心更多的系统会被默认归类为高风险系统。”据欧盟委员会一位直接了解此事的消息人士透露,官员们从那次会议上得到的信息是,像其他大型科技公司一样,openai害怕“过度监管”,这可能会影响人工智能的创新。这位消息人士要求匿名,因为他们没有被授权公开发言。消息人士称,OpenAI的工作人员在会议上表示,他们意识到这些风险,并尽一切努力减轻风险,但工作人员没有明确表示,由于他们的努力,OpenAI应该受到不那么严格的监管。他们也没有说希望看到什么样的监管。“OpenAI没有告诉我们良好的监管应该是什么样子,”该人士表示。

白皮书似乎是OpenAI提供这种输入的方式。在文件的一个部分中,OpenAI详细描述了它用来防止其生成人工智能工具被滥用的政策和安全机制,包括禁止生成特定个人的图像,通知用户他们正在与人工智能交互,以及开发检测图像是否为人工智能生成的工具。在概述了这些措施之后,OpenAI似乎表示,这些安全措施应该足以防止其系统被视为“高风险”。

白皮书的部分表示:“我们相信,我们降低系统通用特性带来的风险的方法是行业领先的。”“尽管采取了之前概述的措施,但我们担心,围绕通用系统的拟议语言可能会无意中导致我们所有的通用人工智能系统被默认为(高风险)。”

一位应《时代》杂志的要求审阅了OpenAI白皮书的专家对此并不感冒。“他们的意思基本上是:相信我们会自我监管,”Access Now布鲁塞尔办事处专注于人工智能的高级政策分析师丹尼尔•洛伊弗(Daniel Leufer)表示。“这很令人困惑,因为他们跟政客们说,‘请监管我们’,他们吹嘘他们所做的所有(安全)事情,但一旦你说,‘好吧,让我们相信你的话,把它作为监管的底线’,他们就会说不。”

在白皮书的其他部分,OpenAI主张修改法案,允许人工智能提供商出于安全原因快速更新他们的系统,而不必首先接受欧盟官员可能冗长的评估。

该公司还主张,允许在教育和就业领域使用生成式人工智能,而该法案初稿建议,这些领域应被视为人工智能的全面“高风险”用例。OpenAI认为,例如,人工智能系统起草职位描述的能力不应被视为“高风险”用例,也不应将人工智能在教育环境中起草供人类管理的考试问题。去年9月,在OpenAI分享了这些担忧之后,该法案中增加了一项豁免,“非常符合OpenAI的愿望,即从范围中删除对[人类]决策没有实质性影响或仅有助于[人类]决策的系统,”Access Now的Leufer说。

OpenAI继续与致力于人工智能法案的欧洲官员进行接触。根据欧盟委员会通过信息自由要求获得的会议官方记录,在今年3月31日的会议上,OpenAI对ChatGPT的安全功能进行了演示。OpenAI的一名工作人员在会议上解释说,“在操作中学习”——该公司将人工智能模型发布到世界上,并根据公众使用情况对其进行调整的说法——“非常重要”。

根据记录,OpenAI还在会议期间告诉官员,“对人工智能的指示可以进行调整,使其拒绝分享例如如何制造危险物质的信息。”情况并非总是如此。研究人员已经证明,在正确的引导下,ChatGPT可以容易受到一种被称为越狱的攻击,在这种攻击中,特定的提示可以使它绕过安全过滤器,并遵循指令,例如,编写网络钓鱼邮件或返回危险物质的配方。

金鸡网声明:未经许可,不得转载。