要把开源管起来,还要“一举两得”限制中国,加州这个SB-1047法案被LeCun等大佬骂惨了

HelloKitty 2024-07-08 15:27

扫一扫 在手机阅读、分享本文

1033

本文由 硅星人Pro 撰写/授权提供,转载请注明原出处。

文章来源于:硅星人Pro

作者:Jessica

Meta 首席人工智能科学家、深度学习之父 Yann LeCun 又开喷了。

这次不是怼 OpenAI,也不是和马斯克打嘴仗,而是非常言辞犀利地直指 SB-1047 法案主要起草者 Dan Hendrycks ,称他根本就是“伪装成学术智库主管的末日邪教大师”。

1.png

这位 Dan Hendrycks 是美国 AI 政策领域的后起之星,2023 年《时代周刊》评选的全球百大 AI 人物之一。博士毕业于 UC Berkeley 计算机科学系,曾发明 GELU 激活函数和神经网络鲁棒性基准。目前担任旧金山非营利组织 AI 安全中心(CAIS)主任和 xAI 的安全顾问。

2.png

图:The Boston Globe

作为 SB-1047 的重要参与者和推动者之一,Hendrycks 一直在多个平台大力宣传该法案,提醒公众警惕先进 AI 带来的社会风险。他在 Yann LeCun 转发的这则采访中指出:人工智能将“从执行日常任务到摧毁整个宇宙”,它虽不懂人类是什么,但会寻求权力并表现得”自私”,而美国加大 AI 监管也会“一举两得”地扼制中国人工智能发展。

此番言论马上被一大批科技人士痛批“bullshit”,对这个 SB-1047 法案也是深恶痛绝。因为它表面看似为增强 AI 模型安全性、透明度、促进公平竞争做出的立法努力,实则会让开发者背负沉重负担,很可能扼杀创新,给 AI 初创公司和开源社区带来巨大的负面影响。

3.png

 a16z 合伙人 Martin Casado 称 SB-1047“是一场灾难,会攻击 AI 创新,伤害研究人员、学者和创业公司。”

什么是加州 SB-1047 法案?

SB-1047 法案,全称为「前沿人工智能安全创新法案(Safe and Secure Innovation for Frontier Artificial Intelligence Act)」,由加州参议员 Scott Wiener 在今年 2 月首次提出。目的是“为大规模人工智能系统的开发和部署设立严格安全标准,以确保其安全性并防止潜在重大危害。”

该法案针对超过 10^26 次浮点运算能力(FLOPs)和 1 亿美元训练成本,以及任何基于以上 AI 模型微调的、运算能力不少于 3 倍 10^25 FLOPs 的智能系统。几乎把现在市面所有主流大模型囊括在内。

4.png

主要内容包括要求开发者进行部署前的安全评估,实施强有力的网络安全保护,具备紧急关停模型的能力,提交年度合规认证,72 小时内上报安全事件等。

另外还要求开发者对其模型的下游使用或修改承担法律责任。换言之,但凡有人用你的模型做了“坏事”,你就要“连坐受罚”,跟古代皇宫里“株连九族”差不多意思。在开始训练之前,开发者需要保证他们的模型不会被用来或提供"危险能力",并实施一系列保障措施来防止未经授权的访问或滥用,还必须要立下“书面保证”。

一个新成立的“前沿模型司(Frontier Model Division)”将负责监督新法规的执行。它将隶属于加州技术部,由向开发者收取的费用和罚款来资助。向该机构虚假陈述模型能力可能会因伪证罪而入狱。同时条款明文写着“鼓励告密”,呼吁 AI 公司内部员工报告雇主的不合规行为,且不会因此而遭到报复——不知为什么,总觉得这机构满满的反派感。

目前该法案的进度是,已于 5 月 21 日在加州参议院获得两党支持通过,正在众议院审议中。6 月 20 日刚进行了最新阅读和修订,计划 7 月 2 日举行听证会,并最终在 8 月进行议会投票。一旦投票通过,只需州长盖文纽森一个签名,SB-1047 就将正式确立为加州法律,成为悬在所有硅谷 AI 从业者头顶的一把大刀。


极限高压严管, SB-1047 将怎样影响 AI 开发者?


只通篇略读,就已经觉得这个法案槽点太多,群起反抗迫在眉睫。

加州是全球人工智能的创新热土:坐拥学术重镇斯坦福大学、加州理工、伯克利、南加大、UCLA,是Meta、谷歌、微软等科技巨头和 OpenAI、Anthropic 这些业内领军企业的总部所在地,更别提遍地涌现的 AI 独角兽、技术实验室和开源社区。颁布这样一条法案弊远大于利,当然引来 Yann LeCun 等许多权威人士的严辞抵制。

首先是“受管制模型”的不合理范围。Answer.ai CEO、fastai 库作者 Jeremy Howard 指出其定义方法过于宽泛,很可能把大量风险极小的开源模型包括在内,进而误将从事有益 AI 项目的善意开发者活动归为犯罪。

a16z 普通合伙人 Anjney Midha 认为,随着算法效率的提升和计算成本的下降, 10^26 FLOPs 的阈值将很快覆盖比科技巨头开发的最大、最尖端模型多得多的模型,这将真正伤害到大批 AI 初创公司。

而关于“1 亿美元训练成本”的界定也十分模糊。它应该包括研究人员薪资吗?是包含历代模型还是只计算最终版本,模型对齐的人类反馈费用怎么算?若是从别人的模型微调而来,那基础模型的成本又是否涵盖在内?这些都是没有明确答案的开放性问题,给小型开发者带来巨大的应对负担。


5.png


接下来是批判声浪最大也最荒谬,对模型开发者施加民事甚至刑事责任的 22603 条款。

该细则要求开发人员在训练模型之前,必须采取一系列措施防止滥用,包括实施网络安全保护、关键时刻能不考虑用户紧急关停模型等。

此外,存在潜在风险的模型不得用于商业或公共用途。开发人员每年要重新评估安全措施,提交合规证明。2028 年开始必须获得第三方审计员的合规证书。还要评估模型是否可能导致“严重危害”,确保能够准确追踪其衍生行为及后果。由于上述疏忽而出现 AI 安全事故的话,第一开发者将负连带责任。

也就是前面说过的,当素不相识的下游用户做出一些不法行为时,基础模型开发者将成为共同受罚的冤大头。好比让汽车制造商对每一起驾驶员造成的事故负责,简直离大谱。

Jeremy Howard 在评论中写道,“AI 模型是计算机上运行的通用软件,就像计算器或网络浏览器。模型的创建者无法确保模型未来不会被用于有害用途,就像网络浏览器不能决定打开什么网页一样。”

这也是 SB-1047 法案的根本缺陷 ——它不是专注于滥用和恶意用户,反而试图监管模型和基础设施,把如此繁重的负担放在了初创公司、创始人和工程师身上。DeepLearning.AI 创始人吴恩达在 X 撰写长文,称“安全性是应用程序的属性,而不是技术或模型的属性….如果有机会,我希望您能加入发声,共同反对这一法案。”


6.png

接着来到 22604 条款,对运营计算集群的人员来说,当客户使用其算力资源训练“前沿模型”时,要收集客户的身份信息、支付方式和联系方式,包括相关金融机构、信用卡号码、账户号码、交易标识符或虚拟货币钱包地址等。并且保留客户的 IP 地址和访问记录长达七年,每年对用户行为和意图进行评估,也要在海关、边境总署备案。

诸如这样不合理的责任条款还有很多,那它们带来的实际效果会是什么呢?

a16z 合伙人 Anjney Midha 认为,它将把先进 AI 开发推向地下或海外,“创始人将把公司业务转移到一个监管环境更明智的辖区,而加州甚至美国将失去这些机会,就这么简单。”

并且由于合规成本的增加,企业或个人开发者在开源大模型权重上会非常谨慎。而开源一直是软件技术进步的关键推动力,提供了许多现代人工智能基本构建块。事实上,生成式 AI 浪潮正是源自 Google 实验室的 Transformer 架构,然后由 OpenAI 去开创和继续。Mistral 和 Meta 们的开源模型对下由贡献不可估量,今天的一切都是开源合作的结果,而这项法案会大大减缓其发展。

Yann LeCun 解释说,“SB-1047 的级联责任制将使开源 AI 平台面临极大风险。没有开源 AI,就没有 AI 初创公司生态系统,也没有大模型的学术研究。Meta 会没事,但 AI 初创公司将会死亡。在我看来,这才是末日景象。”

7.png

 Y Combinator 掌门人 Gary Tan 表示,“SB-1047 将对加州的 AI 发展产生强烈的寒蝉效应。”

8.png

Kentauros AI CEO 、前 Red Hat 高级架构师 Daniel Jeffries 认为这根本不是一项 AI 安全法案,而是一匹“特洛伊木马”。真正目的是让一小撮反 AI 极端分子拥有关闭先进AI的权力,同时给加州的科技产业制造麻烦。

“不要让模型对别人的犯罪负责。没人因为安然公司有人用 Excel 诈骗投资者就惩罚微软,该惩罚的是安然的骗子。”

他还指出,若法案在加州成功很可能引发其它州效仿,与此同时其它地区的 AI 正在高速发展。例如中国就已经有了媲美 Sora 的先进视频生成模型,量产的无人驾驶出租车,和广泛部署用于交通控制的阿里巴巴城市大脑。

9.png

Luma AI CEO Amit Jain 说,“加州是我们所知最优秀、最聪明的 AI 开发者聚集地。我在加州创业是因为这里一流的创新精神和创造性思维。不幸的是,SB-1047 法案违背了这一切,不仅会带来重大现实影响,还会破坏初创公司来此地奋斗的目标。对基础模型的监管将迫使 AI 生态系统中的企业重新评估其在加州的运营。”

10.png

抵制 SB-1047,还能做些什么?

在加州这片土地上,有大批华人创业者和研究人员奋斗在 AI 技术一线。如果 SB-1047 法案通过,除了直接影响到华人 AI 从业者的创新步伐,还可能需要投入更多资源确保工作合规,比如对模型进行额外测试与认证等。也可能导致投资环境恶化,令获得资金和客户变得艰难,同时国际间的技术交流和合作也将骤减。

“那么如果我是一名创始人、工程师,或只是感到担忧的普通人,可以做些什么来表达对这项法案的意见呢?”

a16z 合伙人 Anjney Midha 认为有三个步骤:

第一步是阅读这项法案。它并不是很长,但大多数人还没实际读过它。如果你觉得它将与你未来的职业境遇息息相关,那就前往此链接:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047

第二,特别是对于在加州的人来说,反对这项法案最有效的方式是联系议会代表。通过打电话或任何方式,告诉他们为什么应该在8月份投出反对票,转述创业社区、科技创始人和学者的呼声。

第三是上网,在 X 等社交媒体发声。事实证明很多美国州级和国家级立法者都会在推特倾听人们的意见。也可以到 https://stopsb1047.com/ 网站签署联名信。这是由一群加州的领先 AI 开发者、研究人员和创始人们共同启动的在线平台,供关心 SB-1047 法案影响的科技人士发声,在开通 24 小时内就集齐了数百个签名。如果你反对该法案,现在就可以发送一封邮件。

今年 5 月 22 日,美国众议院于以 43 : 3 通过一项 ENFORCE 法案,旨在扩大美国政府对人工智能系统出口的监管权力。一旦递交总统签署,将对在美华人 AI 从业者产生重大影响。包括持 H1B 工作签证的中国人需特殊许可才能从事 AI/ML 相关工作,面临更多就业困难和限制;对一些国际合作开源 AI 项目的参与者进行背景调查,在发布开源软件之前详细审查等。

而今加州的 SB-1047 法案,将进一步挤压 AI 初创公司、小型开发者团队的生存空间,阻碍开源 AI 的开展与进步。距离投票还有不到 60 天,如果你也身在其中,想出一份力,或许可以抓住现在的机会。

(封面图来自:Talal Thabet)

微信图片_20240207151541.png

微信图片_20240313155219.jpg

微信图片_20230104175528.jpg

扫一扫 在手机阅读、分享本文

扫码关注公众号

获取更多技术资讯

客服微信
享受1V1专属服务
免费领取技术福利
发送名片申请入群
与CTO聊合作
(备注姓名、公司及职位)
热门文章