SB-1047 法案(如果一切按计划进行且州长加文·纽瑟姆签署)将于 9 月 30 日成为法律)可能会决定硅谷的未来。有人说这是好事。另一些人说这是自 OpenAI 发布 ChatGPT 以来两年来加州在人工智能方面犯下的最严重错误。
民主党参议员斯科特·维纳 (Scott Wiener) 于 2024 年 2 月提出这项法案,旨在规范加州前沿人工智能领域,该法案的灵感来自乔·拜登的《人工智能行政命令》。维纳将该法案描述为“通过为最大、最强大的人工智能系统的开发者建立明确、可预测、常识性的安全标准,确保大规模人工智能系统安全发展的立法”。
我读过它(修订后的最新版本)。即使对于像我这样对法律知之甚少、对加州技术具体法规知之甚少的人来说,它也不难。即使你不是法律专家或人工智能专家,我也强烈建议你去读一读。如果这项法案获得通过,它将成为美国国内外其他法规的先例。你们中的许多人都是加州人(实际上有 25% 之多!),但即使你们中不是加州人的人,看一看也会受益匪浅。
无论如何,这里有一个简短的总结,其中包含了我认为根据目前技术水平更为突出的细节:
- 开发人员(devs,理解为受该法案影响的 AI 模型训练人员)必须对他们训练或微调的受该法案保护的模型进行广泛的内部安全测试(包括“不安全的训练后修改”),该法案在 2027 年之前包括:训练成本超过 1 亿美元的模型。训练需要超过 10²⁶ FLOP 计算能力的模型。只要预训练模型已经是受保护的模型,则成本超过 1000 万美元或微调超过 3×10²⁵ FLOP 的模型。这些模型的衍生品(例如副本和改进模型)。
- 开发人员必须创建并实施全面的安全协议(作为其他开发人员和用户的详细操作手册):该协议的重点是“采取合理的措施”以确保万无一失。开发人员必须每年进行审查以记录变化。从 2026 年起,他们必须聘请第三方审计师。他们必须提交年度合规声明。
- 开发人员必须实施终止开关,以完全关闭涵盖的模型(包括关心关闭的后果,但不涉及开发人员未掌握的模型的衍生品)。
- 如果开发商不遵守规定或者没有及时或按形式报告事件,总检察长将有权采取法律行动。
- 对举报人提供额外保护(最近非常需要)。
如果该法案获得通过,人工智能和生成式人工智能的发源地硅谷将经历深刻的变革。过去两年的快速发展和大胆的创业精神将成为过去的记忆。一些行业参与者会考虑搬迁,但韦纳保证这不是一个好选择:该法案不仅影响总部位于加州的公司,还影响任何在那里开展业务的公司。
不过,也有一线希望。定义 AI 模型是否受该法案“覆盖”的门槛数字相当高。1 亿美元和 10²⁶ FLOP 是大多数参与者无法企及的数字,尤其是开源独立开发者和小型实验室。这就是为什么有些人说这项法律既不会损害初创企业也不会损害创新——它只会影响谷歌和 Meta 等最大、最富有的公司。
然而,两年前的GPT-4 已经花费了超过 1 亿美元,如果我们考虑进展速度的话,10²⁶ FLOP 可能并不那么昂贵。鉴于此,一些业界和学术界的知名人士表示,该法案确实会扼杀创新。
在反对该法案的人中,有领先的实验室——谷歌、Meta 和 OpenAI。Anthropic最初也反对该法案——这让很多人感到惊讶,因为它一直支持以安全 AI 为重点的监管——但在向维纳发送了一封包含修正案的信函后,这家初创公司认为,更新后的法案“可能带来的好处大于其成本”。
大型实验室在该法案中拥有最明显的经济利益。他们是人工智能竞赛的绝对赢家,也是在任何潜在的泡沫破裂事件中生存下来的几率最高的人。任何限制前沿进展速度的法律对他们来说都是坏事。他们支持——甚至敦促——国家对人工智能进行监管,但突然间一项州法案就比什么都没有更糟糕了?奇怪的是,他们的立场似乎为那些指责他们踢开梯子战术的人辩护。
他们是否想要监管或扼杀创新以确保不受威胁的竞争?他们是否只是想通过每天登上新闻头条来炒作他们所销售的技术?他们是否真诚地呼吁联邦立法者采取行动,还是这只是他们知道会失败的一种美德公关举动?很难说。但我很容易驳斥他们的论点;通过在一个不负责任的空间里自由漫游,他们可以赢得很多。
彭博社分享了 OpenAI 对维纳的回应,其重点是任何高风险的人工智能监管都应该在联邦层面进行,而不是以“州法律拼凑”的形式:
一套由联邦政府主导的人工智能政策,而不是各州法律的拼凑,将促进创新,并使美国能够引领全球标准的发展。因此,我们与其他人工智能实验室、开发人员、专家和加州国会代表团成员一起,对 SB 1047 表示反对,并欢迎有机会概述我们的一些主要担忧。
(我个人对 OpenAI 和 Sam Altman 的看法是,他们希望成为国家政府控制的项目的一部分,将人工智能转变为地缘政治优势,就像对抗纳粹和苏联的曼哈顿计划一样。因此,Altman 对人工智能和法案的看法介于大型科技公司的商业化方法和如果我们无意中制造出人工智能超级智能,它可能会杀死我们所有人的观点之间,这更接近 Anthropic 的立场。)
维纳回应道:国会什么也不会做。选择联邦法律是可以的,但如果替代方案是什么都不做,那该怎么办?他用这句话结束了对业界反对该法案的回应:“SB 1047 是一项非常合理的法案,它要求大型人工智能实验室做他们已经承诺要做的事情,即测试他们的大型模型是否存在灾难性的安全风险。”
行动吧,大实验室。
但这不仅仅是工业领域。
我对待行业诉求的态度是倾听,然后忽略它们 — — 直到其他没有隐性利益的人真诚地表达同样的担忧(这适用于任何股东,比如a16z,而不仅仅是模型制造商)。然后我会认为值得听听他们说的话。
事实确实如此。
一些个人声音主要来自学术界(甚至包括维纳的党内同事),他们反对该法案。他们认为该法案“意图良好,但缺乏依据”。原因何在?人工智能是一种双重用途技术。它既可用于善意,也可用于邪恶——就像所有其他发明一样。
反对这种全面监管的主要论点是,无论是人工智能还是其他任何技术都不应该在技术层面受到如此严格的监管。相反,政府应该监管技术的应用方式。开发人员应该免于承担下游恶意行为者滥用的负担,也不必承担遵守监控和广泛报告的额外义务的负担。
以下是斯坦福大学教授、ImageNet 创建者李飞飞:
如果 SB-1047 法案通过成为法律,它将损害我们刚刚起步的 AI 生态系统,尤其是那些已经对当今科技巨头不利的部分:公共部门、学术界和“小科技”。SB-1047 法案将不必要地惩罚开发人员,扼杀我们的开源社区,并阻碍学术 AI 研究,同时无法解决它旨在解决的实际问题。
斯坦福大学教授、谷歌大脑联合创始人吴恩达 (Andrew Ng)说道:
这项法案有很多问题,但我只想重点讨论其中一点:它定义了一个不合理的“危险能力”称号,如果有人使用他们的模型做了超出该法案对伤害定义的事情(例如造成 5 亿美元的损失),大型人工智能模型的构建者可能会承担责任。这对任何人工智能构建者来说几乎都是不可能保证的。
Yann LeCun、Jeremy Howard和其他许多人也发表过类似的言论。
“但是,侵权法又如何呢?” Ketan Ramakrishnan说:
……关于危险仪器的制造商/经销商何时采取不合理行动,并因此应或应该因疏忽导致其滥用而承担责任,存在合理的争论。但“只有用户才承担责任”不是法律,也不应该如此。
“只有人工智能的用户才承担责任”对我来说也没有任何意义。
如果你开发了一项技术(你知道它可能有害)却没有注意确保其安全,而有人滥用它,那么期望用户成为唯一责任方是不合理的。前沿人工智能模型应该需要手册,现在制造它们的公司将被迫制作手册作为安全协议。SB-1047 可能会通过增加没人愿意做的烦人工作来扼杀创新,但也许不惜一切代价推动创新从来都不是一件好事。
我认为,对于大型实验室、小型实验室、私营公司、开源和学术界来说,存在一些合理的中间立场。它既不应该是零监管,也不应该是“你将承担你所创造的东西的全部负担”。这项法案是否一针见血,需要法律学者和公正的人工智能专家来评估。我将听从他们对这些问题的判断。
在支持该法案的学者中,我们发现 Geoffrey Hinton 和 Yoshua Bengio 等人与 Yann LeCun 一起被称为“人工智能教父”,是当今人工智能领域最知名的人物之一。他们都对自己参与发明的技术的未来表示担忧,并明确支持监管。
SB 1047 采取了一种非常明智的方法来平衡 [人工智能的惊人前景和风险]。我仍然对人工智能通过改进科学和医学来拯救生命的潜力充满热情,但我们必须制定真正有力的立法来应对风险。加州是开始这一进程的自然之地,因为这是这项技术起飞的地方。
我们不能让企业自行评估,然后简单地做出一些好听的保证。我们不会接受制药、航空航天和食品安全等其他技术领域出现这种情况。为什么人工智能应该受到不同对待?从自愿承诺到法律承诺,为企业提供公平的竞争环境非常重要。在许多人质疑企业是否负责任地行事之际,我希望这项法案能够增强公众对人工智能发展的信心。
我的结论是,这些争论错综复杂,往往难以形成明确的立场。然而,对于一个基本上不受监管、准备深刻影响我们世界的行业来说,它们至关重要。最终,我认为整个对话背后有两个问题。我想说,人们对 SB-1047 法案(以及未来的法律)的回答与他们对法案的反应非常吻合:
- 国家是否应该对技术创新的方式有发言权?
- 我们应该更多地以创新第一还是安全第一的心态采取行动?
RA/SD 衍生者AI训练营。发布者:chris,转载请注明出处:https://www.shxcj.com/archives/5380