美国加州再推五项新法案以加强AI监管,但最受争议的一项仍悬而未决
图片来源:视觉中国
蓝鲸新闻9月18日讯(记者 朱俊熹)面对一项突飞猛进的新技术,法律和监管往往是滞后的。随着生成式AI正以日新月异的节奏影响着生活的方方面面,欧盟、中国、美国等全球多地都加快了与AI相关的立法。
当地时间9月17日,美国加利福尼亚州州长Gavin Newsom签署多项AI相关法案。其中三项法案旨在管控通过AI生成的深度伪造或其他欺骗性内容,另两项法案则与保护演员的数字肖像有关。
加州是美国人工智能浪潮的中心,拥有数十家全球领先的AI企业,包括OpenAI、Anthropic、谷歌、Meta等。目前,美国在联邦层面尚未出台统一的AI监管法案,因此加州的AI立法对于美国其他地区乃至全球都将具备参考意义。据路透社统计,加州立法机构在今年立法季已提出65项涉及AI的法案,其中一些已被否决。
最新通过的"Deepfake"法案
加州州长Gavin Newsom最新签署的三项Deepfake(深度伪造)法案均与美国选举密切相关,旨在严厉打击选举活动中使用AI制作和传播深度伪造内容的行为。
其中,AB 2839法案将作为紧急法规立即生效,以规范2024年美国总统大选。该法案禁止任何个体或其他实体恶意分发与选举有关的欺骗性深度伪造内容,这些内容可能会损害候选人的声誉,破坏公众对选举结果的信心。这项新法案将适用时间从选举前120天内延长至选举后60天内,进一步覆盖计票过程。同时还支持已当选官员、候选人、选举官员对深度伪造内容分发者提起民事诉讼,寻求损害赔偿。
另外两项法案将于明年1月起正式生效。AB 2655法案要求拥有超百万加州用户的大型网络平台在选举前后的特定时期内,对虚假内容进行识别、标记和删除,包括社交媒体、视频平台、搜索引擎等。另一项AB 2355法案则规定在使用AI生成或大幅更改选举广告时,应对此进行明确披露。
Deepfake包括"AI换脸"、改变面部原有特征、生成全新人脸等形式,仅需特定对象的部分图片和音视频素材,通过AI就能得到足以乱真的深度伪造内容。近年来随着Deepfake合成内容愈发逼真,这项技术越发频繁地与生成淫秽色情内容、网络诈骗等违法犯罪行为相挂钩,例如近期发生的韩国Deepfake "N号房"、"AI马斯克"诈骗等事件。
Deepfake内容也被广泛运用于选举中。今年7月,世界首富埃隆·马斯克在他所拥有的社交媒体X上发布了一段关于美国副总统兼民主党总统候选人卡马拉·哈里斯的深度伪造视频。该视频篡改了哈里斯的原始音频,使她在视频中对拜登、女性有色人种等发表评论。Gavin Newsom当时曾在X上回应称,在这样的选举广告中操纵声音应该是违法的,他将在几周内签署一项法案,以确保这是非法的。
除此之外,Gavin Newsom还签署了另外两项与好莱坞演艺人员相关的AI法案。其中一项规定未经演员许可的情况下,雇主不能通过人工智能复制他们的声音或肖像。另一项法案禁止将已故表演者的数字复制品用于电影、电视节目等商业用途,除非事先获得遗产管理者的同意。
除了美国加州,深度伪造技术以假乱真的强大能力正在引起全球监管机构的关注,中国也在跟进监管的步伐。9月14日,国家网信办就《人工智能生成合成内容标识办法(征求意见稿)》公开征求意见。征求意见稿要求,网络信息服务提供者应当按照有关强制性国家标准的要求,对生成合成内容进行显式或隐式标识。网络信息内容传播平台也应当采取措施,规范生成合成内容传播活动。
意见纷纷的SB 1047法案
对加州州长Gavin Newsom来说更棘手的,是摆在他桌上的还有一份备受争议的AI法案SB 1047。这项法案已获得州议会通过,Gavin Newsom必须在9月30日之前决定签署或否决该法案。
SB 1047法案要求对功能强大的前沿人工智能模型进行安全测试。开发者在构建大模型时必须评估其是否有合理能力造成或实质上促成重大损害,包括制造生物武器或造成网络攻击。大模型厂商需要针对这些风险采取保护措施,如必须在新模型中设置"终止开关",确保在出现问题时能随时关闭。
这项拟议法案将适用于在加州开展业务的AI企业,即使他们的总部或主要业务设在其他地方。同时,法案明确针对的是训练成本超1亿美元且达到一定计算能力的大模型,这覆盖了当下最为领先的一些AI模型。AI创企Anthropic首席执行官Dario Amodei曾提到,GPT-4o之类的模型训练成本约为1亿美元,目前正在开发的一些大模型训练成本可能高达10亿美元,未来三年内这一数字将可能飙升至100亿美元甚至1000亿美元。
9月17日,Gavin Newsom在一场活动上表达了他对是否签署SB 1047法案的顾虑。他提到,SB 1047立法可能会产生巨大影响,并产生"寒蝉效应"。加州在人工智能领域占据了主导地位,但在几年内签署错误的法案可能会对其竞争力产生深远影响。
这项AI安全法案在科技行业内同样引发了激烈的意见交锋。支持者包括同为"AI教父"、图灵奖得主的Geoffrey Hinton和Yoshua Bengio等科研人员,他们认为该法案能够有效保证前沿人工智能系统的安全发展,使其不损害公众利益。
马斯克也在X上发帖呼吁,虽然这是一个可能让一些人感到不安的艰难决定,但加州应该通过SB 1047法案。而Anthropic的CEO Dario Amodei表示,对于这项法案可能会阻碍创新的担忧已大大减轻,现在认为法案的好处可能超过其成本,但对此并不确定,法案中仍有一些方面让他们感到担忧或模棱两可。
反对者一列则站着前美国众议院议长南希·佩洛西、"AI教母"李飞飞、Meta首席科学家Yann LeCun等多位知名人士和风投公司Andreessen Horowitz等大型机构。他们抨击该法案过度惩罚开发者,认为这将会扼杀创新,对开源社区、学术研究等造成严重损害。
谷歌、Meta、OpenAI等科技公司也对SB 1047法案表示反对。OpenAI在致法案提出者、加州参议员Scott Wiener的一封信中明确指出,SB 1047将减缓AI创新步伐,导致一流的工程师和企业家离开加州,到其他地方寻找更大的机会。OpenAI认为,应由联邦政府而非各州来监管AI风险,这样才能为人工智能实验室和开发者提供清晰度和确定性,同时保障公共安全。
8月底,OpenAI和Anthropic与美国政府签署了一项协议,将允许美国人工智能安全研究所在其AI大模型发布之前和之后都可以进行访问,以评估模型的能力及其安全风险。这一机构是去年根据拜登签署的一项AI相关的行政命令而成立的,旨在评估前沿AI模型已知和新出现的风险。
在上周发布全新推理大模型o1后,OpenAI承认该模型在CBRN(化学、生物、放射性和核武器)方面被评定为"中等风险",这是OpenAI迄今为止对其模型给出的最高风险。OpenAI称,o1模型能够辅助专家复制已知的生物武器威胁。它还能展现出类似人类的推理能力,就同一主题,o1生成的书面论据与人类撰写的文本具有相似的说服力。
AI先驱Yoshua Bengio表示,"如果OpenAI确实像他们报告的那样,跨过了CBRN的‘中等风险’水平,这只会加强出台SB 1047这样的立法来保护公众的重要性和紧迫性。"
页:
[1]