电脑桌面
添加LFA律法网到电脑桌面
安装后可以在桌面快捷访问

生成式人工智能法律监管框架(一):美国篇

栏目:律法实务作者:马瑞娜来源:北京市环球律师事务所时间:2024-10-06 15:56:05浏览:4收藏
引言

生成式人工智能(通常简称为生成式AI或GAI)是一种能够根据用户指令或需求生成原创内容的人工智能技术,涵盖了文本、图像、视频、音频以及软件代码等多种形式。相比于传统人工智能,生成式AI的核心优势在于其“数据+模型+产品”的完整体系。通过高级机器学习或深度学习模型,生成式AI能够模拟人类大脑的学习和决策过程,识别并编码海量数据中的模式和关联,精准解析用户的自然语言请求或问题,并生成与之相关的新内容。
2022年ChatGPT的问世不仅标志着生成式人工智能技术的重大突破,更在全球范围内掀起了一场前所未有的创新浪潮。凭借这一技术的迅速崛起,全球第四次生产力革命正在以空前的速度和规模加速推进。至2024年,全球人工智能市场规模已突破1840亿美元,相较2023年增长近500亿美元。预计到2030年,这一数字将超过8260亿美元。[1]
生成式人工智能的迅猛发展正在为全球立法带来前所未有的挑战。随着这一技术的广泛应用,世界各国政府及国际组织已加速推进相关立法进程。企业亟需密切关注法规动态,并灵活应对政策变革,通过技术创新和合规管理,确保在日益激烈的市场竞争中占据领先优势。
一、生成式人工智能的风险类别

(一)生成信息失准
由于生成式人工智能具有“数据+模型+产品”的特性,任何一个环节的失误都可能导致最终产出出现不准确、偏见或误导性的内容。在这些技术问题尚未完全解决之前,行业从业者和律师必须充分认识到这些与这些技术长期共存的风险点。
哈布斯堡AI
生成式人工智能模型在大规模互联网数据上进行训练,这些数据本身就可能包含不准确或带有偏见的内容,甚至部分数据来源于其他人工智能的输出。与人类不同,AI目前只能在已有的数据基础上进行训练,而无法直接在物理世界中自行获取经验,因此很难有效区分准确与不准确的信息。这种使用未经清洗数据进行训练的过程,就如同人类在学习时依赖未经审查的错误教材或基于错误的学习笔记。人工智能研究员兼播客主持人Jathan Sadowski将这种基于“近亲繁殖”数据训练,而非依赖人类源数据的AI模型称为“哈布斯堡AI”(Habsburg AI)[2]。
为应对这一挑战,许多科技公司已开始尝试通过改变数据来源来提高AI模型的质量。例如,英伟达推出的Omniverse Replicator,旨在利用实地数据与物理原理相结合生成合成数据,从而改进人工智能的训练过程。
AI幻觉
生成式AI模型的基础技术主要依赖于词元(Token)拆分和权重计算来决定生成文本序列,而非人类的逻辑推理。这种基于统计的叠加权重计算方法,虽然在处理大规模数据时表现出色,但也伴随着无法避免的错误输出。当训练数据量过大时,AI可能会检测到训练数据中实际上并不重要的方面,导致“过度拟合”(Overfitting)。这些技术问题会导致AI给出一些现实中不会出现的答案,这种输出错误被称为AI幻觉(AI Hallucination)[3]。
有关AI幻觉的最著名例证是Mata v. Avianca案[4]。在此案中,一名纽约律师代表客户的伤害索赔,依赖ChatGPT进行法律研究,引用了ChatGPT编造的案例。很多科技公司也在尝试解决这一问题,比如谷歌最新退出的DataGemma,就是尝试通过交错检索生成技术(RIG)来提高输出内容的准确性、减少AI幻觉。OpenAI最新退出的o1-preview也在尝试使用增强学习模型模拟训练人类思考问题,进一步优化GAI的逻辑推理和解决复杂问题的能力。
对AI生成信息的过度依赖
生成式AI产品的设计初衷并非用于区分真伪,其主要功能是生成模仿人类语言的内容,而非验证信息的真实性。在实际应用中,产品的设计目的与用户的需求常常存在错配,导致用户在未经过验证的情况下可能接受错误的AI输出。此外,研究表明,在人机共同决策的过程中,人类往往倾向于过度依赖AI系统的建议。[5]这种现象不仅可能导致决策失误,还可能加剧对AI技术的过度依赖。
这些问题要求AI产品的开发者与用户在使用协议及其他应用场景中对产品的功能和目的达成共识,并建立公平合理的风险分配机制。开发者应清楚告知用户AI产品的局限性和潜在风险,而用户在依赖AI输出前也有责任进行必要的验证和审查,以避免盲目信任。
(二)知识产权(IP)相关风险
生成式AI的广泛应用和推广引发了新的知识产权问题,为知识产权持有人、AI开发者以及AI用户带来了前所未有的商业风险。这些问题包括生成内容的归属、模型训练过程中使用的版权材料的合法性,以及由AI创作的作品是否享有知识产权保护等复杂议题。随着生成式AI技术的持续发展,各方需要在法律框架、商业实践和技术创新中权衡利益。
IP侵权
在训练过程中,许多人工智能系统抓取并使用受知识产权保护的内容,因而这一训练过程、训练后的AI模型及其生成的内容均可能涉及知识产权侵权的风险。目前,现有的知识产权侵权案件主要集中在版权和商标问题上,但未来也可能涉及专利发明、设计图等其他领域。
许多知识产权侵权诉讼目前正在审理中,其中较为知名的案件是Getty Images vs. Stability AI[6],该案件中,Stability AI被指控在未经授权或补偿的情况下使用超过1200万张受著作权保护的图像进行训练,以开发其文本转图像工具。
由于AI训练的特殊行,这类侵权案件的原告可能面临一些特殊挑战。首先,生成式AI公司的训练过程通常缺乏透明度,原告几乎无法获得训练数据包,以证明其使用了受保护的文献。其次,人工智能的输入与输出之间并不存在稳定的因果关系,很多时候,输出的内容是基于多个来源的数据共同启发而生成的,并不涉及直接复制。此外,在输出环节,AI与用户的交互过程也增加了复杂性,如果输出内容侵权,如何界定AI公司与用户之间的责任分担,亦是每个侵权案件中需要详细厘清的核心问题。
AI输出内容的IP权属
根据目前的美国案例法,人工智能自身不能作为作者或发明者对其生成的内容进行知识产权保护。美国宪法规定,国会有权在有限的时间内确保作者和发明家对其著作和发明的专有权,以此推动科学和实用艺术的进步。[7]然而,宪法并未明确说明“作者”和“发明家”是否可以是人工智能主体。该问题直到2023年Thaler v. Perlmutter案[8](泰勒案)才有了明确的判例。
泰勒案的核心争议在于,人工智能系统自主生成的作品(例如一幅名为“天堂的最近入口”的画作)是否应受到著作权保护。法院深入探讨了著作权法中“作者”的定义,发现该术语在著作权法或宪法中均未明确界定。基于著作权法的立法历史以及宪法旨在激励人类创造力的目的,法院最终认定,著作权保护仅适用于人类创作的作品。
除了著作权,泰勒还尝试为其人工智能系统DABUS设计的两种产品(一个使用分形几何构造的食品容器和一个在紧急情况下吸引注意力的闪烁灯塔)申请专利,但这些申请被美国专利商标局(USPTO)拒绝。该局认为,只有自然人才可以在专利申请中被指定为发明人。在后续的诉讼[9]中,美国联邦巡回上诉法院确认了这一立场,明确指出只有自然人才能成为发明者。
(三)数据及隐私保护
保密信息的泄露
在使用生成式AI过程中,用户往往会输入提示词或上传文件,若其中包含保密信息,这些数据不仅有可能被AI平台存储或审查,甚至可能被用于大模型的训练,进而在其他用户的交互中被意外输出。这种保密信息泄露的风险对企业和个人都构成了重大威胁。
为应对此问题,许多科技公司已采取多种措施,如实施数据脱敏、访问控制以及数据加密等技术手段,以保护用户上传的敏感信息。此外,一些公司针对特定客户开发了专用平台,在此类平台中,设立了与大模型隔离的防护机制,确保保密信息不会被同化至大模型中,例如在AI预测蛋白结构的应用中。这些手段有助于增强数据安全性,降低信息泄露风险。
侵犯数据隐私权
目前,美国联邦层面尚未通过统一的数据保护法案,最接近全国统一数据保护的法案是美国隐私权法案(American Privacy Rights Act, APRA),该法案目前仍在审议中[10]。在该法案获得通过之前,联邦层面主要通过《联邦贸易委员会法案》(FTC Act)[11]来规范企业的隐私承诺以及个人信息的保护。此外,在金融、医疗和儿童隐私等特定领域,也有相应的法规进行管理。各州也出台了针对数据隐私保护的立法,例如加州在2008年通过的加州消费者隐私法(California Consumer Privacy Act, CCPA)[12]。
生成式AI的基础在于数据集,许多数据集可能包含大量用户的个人信息或基于这些信息生成的衍生数据,而这些数据的获取和使用有时并未经过用户的明确同意或知情授权,这引发了广泛的隐私保护问题。此外,生成式AI的跨州和跨国特性也对不同地区法律的协调性提出了更高的要求。
深度伪造(Deepfake)
深度伪造(Deepfake)内容是指由人工智能生成或操纵的音频或视频,这些内容可能让人误以为是真实的,特征在于未经本人同意的情况下,人们似乎说了或做了他们并未实际说过或做过的事情。
未经授权使用或模仿某人的声音或形象,不仅侵犯隐私权,声音和形象的模仿还可能导致声誉损害,还可能引发欺诈或诽谤等法律诉讼。因此,企业和组织在使用视频或语音生成技术时应保持谨慎,确保遵守他人的知识产权和隐私权。例如,可以通过实施内容审核和用户身份验证等措施,来减少深度伪造技术的滥用风险。
(四)AI相关服务和技术跨境的政策性风险
随着人工智能技术的迅猛发展,各国政府出于国家安全和技术竞争的考量,纷纷制定了对高科技出口的管制政策,尤其是针对AI技术、训练数据及相关硬件的出口。这些政策将处于长期的动态调整过程中,要求投资者、行业参与方和观察者持续关注并及时跟进相关变动。
例如,从2020年以来,美国商务部逐步将部分与AI相关的技术纳入其出口管制清单,特别是用于图像识别、语音识别和深度学习的AI算法。近年来,美国进一步限制特定国家和区域(含中国)获取可用于AI训练和运行的高性能计算设备和半导体设备,包括英伟达(NVIDIA)、AMD等公司生产的用于AI模型训练的GPU芯片[13]。
此外,美国总统拜登也在2023年签署了一项行政命令,限制美国对中国关键技术领域的投资。这项命令针对三个主要领域:半导体与微电子、量子信息技术和人工智能[14]。根据相应指定的拟议规则(Advance Notice of Proposed Rulemaking ,ANPRM),在人工智能方面,美国财政部考虑考虑要求美国实体在与中国开发(网络安全、数字取证、渗透测试、机器人控制、窃听设备、定位跟踪或面部识别)等领域的人工智能软件企业进行交易时向财政部报备[15],具体的监管措施仍有待观察美国财政部最终发布的监管政策。
二、美国AI监管框架

在深入探讨人工智能(AI)法律监管框架之前,有必要简要介绍美国的立法体系。美国法律体系由联邦法律和州法律两个层面构成。联邦法律由美国国会制定,通常始于众议院议员的提案,经过众参两院的讨论和通过后,提交总统签署。州法律则由各州的立法机构制定,其立法程序因州而异,州法律主要管辖本州事务。联邦法与州法的关系并非简单的垂直管辖。国会作为联邦立法机构,依据宪法赋予的权力制定涉及跨州贸易、国际贸易、专利法等领域的法律。宪法未授予国会的权力,由各州保留,这意味着在某些领域,州拥有完全的立法权和管理权,不受联邦法律限制。此外,在非联邦独享立法权的领域,如贸易、商标等,各州亦可进行立法规范。若联邦法与州法在某些领域发生冲突,州法律必须根据美国宪法中的最高法律效力条款(Supremacy Clause),在联邦宪法的限度内进行立法。
尽管美国宪法未赋予总统直接参与立法的权力,但总统基于行政权力或国会授权,有权依据宪法监督所有法律的执行。总统作为联邦最高行政首长,可以通过发布“行政命令”对联邦所属各机构进行具有法律效力的指示。这些行政命令通常由政府部门、管理和预算办公室(OMB)或白宫起草,旨在为整个行政系统提供明确指引。
此外,美国作为判例法国家,在司法裁判中采取“遵循先例”原则。根据这一原则,某一判决中的法律规则不仅适用于该案,还通常作为先例适用于未来该法院或下级法院管辖的案件。因此,法官通过审理案件创设案例法先例,实际上参与法律规则的制定过程。
(一)联邦层面及总统行政命令
在联邦层面,美国已发布多项框架性指导原则以治理生成式人工智能。2023年5月,拜登-哈里斯政府更新了国家人工智能研究与开发战略计划,该计划在延续2016年和2019年人工智能发展战略的基础上,重申了此前提出的八项政策,并增加了第九项政策,强调建立规范与协调的国际人工智能研究合作机制,特别关注解决环境可持续发展、医疗保健和制造业等全球性挑战。
总体而言,美国在人工智能治理方面遵循两项基本原则:
1. 创新优先与监管后置:为推动人工智能技术的快速发展,联邦政府一方面加大对相关机构的资金支持,另一方面要求监管保持高度灵活性,以为技术创新创造充足的空间。两党在风险监控的尺度上仍存在严格程度上的一些分歧。在实际的规则制定过程中,可以观察到监管者与顶尖技术公司之间保持密切沟通,许多科技企业也在积极游说政府以降低风险监管的要求。
2. 国家安全与大国竞争:美国高度重视人工智能技术所带来的国家安全挑战,要求政府内部加强对人工智能的培训与安全监管,并强调潜在的网络安全与国家安全风险。未来,美国可能会进一步加强对人工智能相关技术的出口管控,以维护其技术竞争优势并强化技术竞争壁垒。
近年来,联邦政府针对人工智能监管的系列行政命令、法规及政策性文件主要包括:

序号

类型及生效时间

名称

主要内容

1.

行政命令

02/14/2019

保持美国在人工智能领域的领导地位

Maintaining American Leadership in Artificial Intelligence[16]

为保持美国在人工智能研发和应用领域的全球领先地位,该文件提出了五项核心原则。这些原则包括:推动人工智能技术的重大突破、制定恰当的技术标准、培养未来的人工智能研究人员和用户、建立公众对人工智能技术的信任与信心,以及维护美国在人工智能领域的技术优势。此外,文件还设定了六个战略目标,具体包括:促进对人工智能研发的持续投资、提升对高质量联邦数据和计算资源的可及性、降低应用人工智能技术的障碍、确保技术标准能够反映联邦的创新需求和公众信任优先事项、培训下一代美国人工智能研究人员与用户,以及制定并实施保护美国在人工智能和技术领域竞争优势的行动计划。

2.

行政命令

12/08/2022

在联邦政府中推广使用值得信赖的人工智能

Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government[17]

该命令要求各机构在人工智能的设计、开发、获取和应用过程中,严格遵循一系列原则,以确保其合法性、可靠性、安全性、透明性和问责性。这些原则旨在增强公众对人工智能应用的信任与信心,同时有效保护隐私、公民权利及公民自由。此外,命令还要求管理与预算办公室(OMB)制定统一的政策指导,以支持人工智能的应用,确保各机构在实施这些原则时保持一致性。

3.

行政命令

10/30/2023

安全、可靠和值得信赖地开发和使用人工智能

Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence[18]

文件要求制定相应标准,以确保人工智能系统的安全性和可靠性,并吸引与留住在人工智能及其他关键新兴技术领域的人才。同时,文件强调减轻人工智能可能加剧的隐私风险,确保数据的合法性、安全性和隐私保护。此外,文件要求确保人工智能的发展与应用使工人能够从新创造的机会中受益,促进公平和公民权利,防止人工智能被用于加剧歧视和不平等现象。同时,还进一步要求保护消费者免受欺诈、歧视和隐私威胁,确保人工智能在医疗、交通、教育等领域的安全与负责任使用。

4.

法规

10/17/2022

人工智能培训法

AI Training Act[19]

该法案要求白宫管理和预算办公室(OMB)为政府执行机构的采购人员(例如,负责项目管理或物流的工作人员)建立或提供人工智能培训计划,确保他们充分掌握与人工智能相关的技术能力与潜在风险。这一举措旨在提升员工的专业素养,从而在项目实施过程中做出更为审慎和有效的决策,推动政府在人工智能领域的安全应用与高效运营。

5.

法规

01/01/2021

国家人工智能倡议法案

National Artificial Intelligence Initiative Act[20]

法案要求在白宫科技政策办公室(OSTP)设立国家人工智能倡议办公室(NAIIO),负责协调联邦机构的人工智能相关活动,制定战略计划以推动人工智能研究与开发,并促进政府、行业、学术界与国际合作伙伴之间的协作。此外,该法案还要求多个联邦机构,包括国家科学基金会(NSF)、国防部(DoD)、能源部(DoE)及国家卫生研究院(NIH),共同资助人工智能研究,开发相关技术,并实施相应的政策。这一系列举措旨在强化美国在人工智能领域的领导地位,推动技术创新与应用的协同发展。

6.

法规

12/27/2020

政府人工智能法案

AI in Government Act[21]

法案要求通过建立人工智能卓越中心、实施培训项目、制定采购指南、促进跨机构协作、强调伦理使用、确保数据质量,以及推动公私合作,全面提升联邦政府对人工智能技术的应用。这些举措旨在提高政府工作的效率与效能,优化服务交付,同时确保人工智能的负责任使用,以保护隐私、公民权利和自由。通过这种综合性策略,法案力求在推动技术进步的同时,维护社会的公正与道德标准。

7.

法规

草案

算法责任法案

Algorithmic Accountability Act[22]

法案要求某些依赖人工智能自动决策系统进行关键决策的企业,研究并报告这些系统对消费者的影响。这些关键决策包括对消费者生活具有重大影响的领域,如医疗保健、住房、教育机会及金融服务的成本或可用性。在与相关利益相关者进行协商后,美国联邦贸易委员会(FTC)须发布相应的法规以落实该法案。这一要求旨在确保企业对其使用的人工智能系统的潜在影响进行充分评估,从而保护消费者权益,促进透明度与责任感。

8.

法规

草案

国家人工智能委员会法

National AI Commission Act[23]

该法案旨在立法部门设立国家人工智能委员会,其目的是通过适当的监管措施减轻人工智能相关风险,同时促进美国在这一领域的创新与发展。该委员会需由两党共同组成,成员数量应由民主党与共和党各自任命,保持平衡。此外,委员会成员应包括科技专家、公众代表、行业人士以及政府官员,以确保多元化视角和专业知识的全面涵盖。

9.

法规

草案

数字平台委员会法案

Digital Platform Commission Act[24]

该法案要求设立一个专门委员会,负责监管数字平台,促进用户之间以及用户与提供商品和服务的实体(包括在线服务)之间的互动。该委员会具备制定规则、进行调查和规范数字平台的权力,成员应包括技术专家、数字平台代表以及来自非营利公共利益团体和学术界的专家,以确保在监管过程中充分考虑各方利益和专业意见。

10.

法规

草案

全球技术领导法案

Global Technology Leadership Act[25]

该法案旨在设立一个全球竞争分析办公室,负责评估美国在关键新兴技术(包括人工智能)领域相较于其他国家的表现,以便为美国政策的制定提供指导,并提升国家的竞争力。

11.

法规

草案

透明自动化治理法案

Transparent Automated Governance Act[26]

该法案要求管理和预算办公室(OMB)为联邦机构提供有关如何安全采用人工智能(AI)项目的指导。此外,OMB还将指导各机构如何为公众提供一个针对人工智能生成决策进行上诉的流程。

12.

非约束性框架文件

人工智能权利法案蓝图

Blueprint for an AI Bill of Rights[27]

该文件由白宫科技政策办公室(OSTP)制定,构建了一套权利保护框架,确立了五个关键原则:确保系统的安全与有效性、预防算法歧视、保护数据隐私、对决策提供通知与解释,并确保人类始终能够寻求人工智能以外的替代方案。OSTP认为,基于这五个原则,应为开发者提供详细的指导,以推动建立一个符合伦理的人工智能生态系统。

13.

非约束性框架文件

01/26/2023

美国国家标准与技术研究院(NIST)人工智能风险管理框架

National Institute of Standards and Technology AI Risk Management Framework[28]

美国国家标准与技术研究院于2023年和2024年陆续发布了两版人工智能风险管理框架,该框架梳理了生成性人工智能可能带来的独特风险因素,并为行业监管者、从业人员及其用途提供了可行的风险降低参考方案。

14.

非约束性框架文件

07/26/2024

NIST-AI-600-1,人工智能风险管理框架:生成人工智能概况

NIST-AI-600-1, Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile[29]

15.

非约束性框架文件

11/17/2020

人工智能应用监管指南

Guidance for Regulation of AI Applications[30]

该文件是由白宫管理和预算办公室(OMB)发布的备忘录,旨在为政策制定者和监管机构提供关于人工智能(AI)技术监管的原则性指导。备忘录强调,法规制定的出发点应当是促进AI创新,政府机构应避免采取无端阻碍人工智能创新和增长的监管或非监管行动,以提高灵活性。

16.

自愿承诺

07/21/2023

领先人工智能公司自愿承诺管理人工智能带来的风险

Voluntary Commitments from Leading AI Companies to Manage the Risks Posed by AI[31]

白宫召集了七家领先的人工智能公司(包括亚马逊、Anthropic、谷歌、Inflection、Meta、微软和OpenAI)签署自愿承诺,确保在发布AI产品之前进行安全测试,关注网络安全,及时修复漏洞,开发水印系统以识别AI生成内容,公开报告AI系统的能力与局限性,并优先研究与AI相关的社会风险等问题。

17.

政府合作

12/05/2022

TTC可信赖人工智能和风险管理联合路线图

TTC Joint Roadmap on Evaluation and Measurement Tools for Trustworthy AI and Risk Management[32]

美欧贸易和技术委员会(TTC)发布的《可信赖人工智能和风险管理联合路线图》约定,双方将在术语规范、标准制定和风险监测等三个方面指导人工智能的风险管理与可信赖发展,并推动相关国际标准的制定。

18.

国家安全委员会报告

03/01/2021

国家安全委员会AI报告

National Security Commission on AI Report[33]

美国国家人工智能安全委员会(NSCAI)的任务是向总统和国会提出建议,其关于人工智能的报告提出了一项综合国家战略,旨在重组政府、调整国家定位,并团结美国最亲密的盟友与合作伙伴,以应对即将到来的人工智能加速竞争与冲突时代。报告的第一部分概述了美国在抵御与人工智能相关的各种威胁方面应采取的措施,第二部分则阐述了人工智能竞争的关键要素,并建议政府应采取积极行动,以促进人工智能创新,从而提升国家竞争力并保护美国的核心优势。

19.

参议院动态

09/07/2023

两党人工智能立法框架

Bipartisan legislative framework for AI[34]

美国两党参议院领导人宣布了一项两党合作的人工智能立法框架。该框架的主要内容包括:要求新设立监管机构,并要求开发复杂通用人工智能模型或用于高风险情境的公司事先向该机构申请许可;明确人工智能公司在侵权情况下的损害赔偿法律路径;加强人工智能的出口管制;并要求人工智能开发者向用户及其他公司披露有关训练数据、限制、准确性和安全性的基本信息等。


(二)州法层面
目前,美国大部分州正在考虑制定本州的人工智能监管法律,各州的关注重点各不相同。一些州希望在算法和数据监管上采取相对联邦政府更为严格的风险管控策略,而另一些州则希望将重点放在联邦政府较少监管的领域。
以加利福尼亚州为例,加州作为众多人工智能创新的发源地以及美国好莱坞的中心,其当前的立法方向主要聚焦于三个领域:首先,保护表演者免受未经授权的人工智能数字复制品的侵害;其次,禁止在选举中使用由人工智能生成的深度伪造和虚假广告;最后,对具有潜在重大社会影响的前沿人工智能模型的开发者施加较为严格的责任规定。
这些立法措施在产业界、科技界和学术界引发了一定程度的反对声浪,主要反馈意见包括:(1)对言论自由的侵犯:限制大型社交媒体在选举期间发布广告被视为对言论自由的侵犯;(2)对技术创新的限制:人工智能作为一项新兴技术,正处于快速发展阶段,过早立法可能会阻碍技术的创新和进步;以及(3)州法先行的弊端:不同州之间法律的差异可能导致法律环境的复杂性,许多人工智能初创企业需要承受高昂的合规成本和法律资源,以应对复杂的州法和联邦法规定。

序号

进展

名称

主要内容

1.

已通过投票,待州长签署

08/29/24

AB-2013 生成式人工智能:训练数据透明度

AB-2013 Generative artificial intelligence: training data transparency[35]

该法案要求加州技术部门与其他跨部门机构合作,在最迟于2024年9月1日之前,对所有政府部门已提议、正在开发或采购,以及正在使用的高风险自动化决策系统进行全面盘点。

此外,该法案还规定,最迟于2026年1月1日,所有向加州居民提供生成式人工智能系统或服务的开发者必须在其网站上公开有关用于训练这些生成式人工智能系统或服务的数据的相关文档。该文档应包括系统或服务开发过程中所使用数据集的概要。

2.

州长已于09/19/2024签署同意,法案自2026年1月1日起开始施行

SB-942加州人工智能透明度法案

SB-942 California AI Transparency Act[36]

该法案要求政府秘书处统筹调查数字内容监管的可行性与障碍,评估内容包括深度伪造等问题。此外,该法案还要求受监管的人工智能供应商免费向用户提供公开可访问的人工智能检测工具,使用户能够选择合理地披露相关内容是否由人工智能生成。

具体要求包括:人工智能供应商需在生成内容时明确提供可以证明该内容来源的网络链接,如果发现第三方被授权人未能遵守签署披露要求,供应商须在96小时内撤销其授权。违反相关法律的供应商和被授权商将面临罚款。

3.

已通过投票,待州长签署

08/29/24

SB-1047 前沿人工智能模型安全与保障创新法案

SB-1047 Safe and Secure Innovation for Frontier Artificial Intelligence Models Act[37]

该法案要求具有潜在重大社会影响的前沿人工智能模型的开发者,在开始模型训练及投入使用后的五年内,必须具备及时实施全面关停的能力,并制定书面且独立的安全和保障协议。此外,开发者需保留安全和保障协议及其任何更新或修订的记录,并向总检察长提供未编辑的安全和保障协议的访问权限。

自2026年1月1日起,开发者每年需聘请第三方审计师对上述规定的遵守情况进行独立审计,同时向总检察长提交合规声明并报告人工智能安全事件。此外,负责运营计算集群的人员应评估潜在客户是否计划利用计算集群训练具有潜在重大社会影响的前沿人工智能模型。

法案赋予总检察长提起民事诉讼的权力,并设立举报人保护制度。法案还要求成立前沿模型委员会,每年评估“具有潜在重大社会影响的前沿人工智能模型”的定义范围,并创建名为“CalCompute”的公共云计算集群,以促进研究与创新,造福公众。

4.

州长已于09/17/2024签署同意,作为紧急立法生效

AB-2839 选举:欺骗性媒体广告

AB-2839 Elections: deceptive media in advertisements[38]

该法案规定,在候选人出现在选票上的选举前60天内,禁止分发某些具有重大欺骗性的音频或视频媒体。该禁令将在加州选举结束后120天内生效,并在特定情况下适用于选举后的60天内。

5.

州长已于09/17/2024签署同意,附条件生效

AB-2665捍卫民主免受深度伪造欺骗法案

AB-2655 Defending Democracy from Deepfake Deception Act of 2024[39]

该法案要求大型在线平台在加州选举前后特定时期内,禁止发布与选举相关的具有重大欺骗性的内容,并对某些额外的不真实、虚假或误导性内容进行标注。此外,该法案将纳入对《民事诉讼法》第35节的其他修改,这些修改只有在本法案与AB-2839同时颁布且最终生效的情况下才会生效。

6.

州长已于09/17/2024签署同意

AB-2602 违反公共政策的合同:个人或专业服务:数字复制品

AB-2602 Contracts against public policy: personal or professional services: digital replicas[40]

该法案旨在保护表演者免受未经授权的人工智能数字复制品的侵害。其中,AB-2602规定,任何合同不得包含未告知演员数字复制品使用方式的条款,即演员在律师或工会代表的参与下,必须明确知晓其数字化身的使用途径。此外,AB-1836进一步保护已故演员的肖像权,要求娱乐公司在发行其“数字复制品”时,必须获得其家庭或遗产的许可。

7.

州长已于09/17/2024签署同意

AB-1836 肖像使用:数字复制品

AB-1836 Use of likeness: digital replica[41]


(三)案例法层面
除了联邦和州层面的立法,许多与人工智能相关的风险管控还依赖于案例法的发展。除了前文提到案例,以下是一些在AI法律领域具有影响力的著名案例:
某短视频社交平台数据隐私案[42]
某短视频社交平台T因其算法自动收集未成年用户的数据而面临多起隐私诉讼,最终达成9200万美元的和解。这起案件展示了AI驱动平台在未成年人数据保护方面的高风险,同时引发了对数据使用透明度的讨论。和解协议规定,T平台需定期发布透明度报告,详细说明其数据处理和安全措施。
某数据分析公司数据抓取案[43]
此案涉及某职场社交平台L用户数据的抓取问题。数据分析公司H使用AI技术抓取L公开数据进行分析,L试图阻止这一行为,认为其侵犯了用户隐私。双方最终以和解达成一致,和解协议规定H公司需赔偿L平台50万美元,并立即且永久停止对L平台的数据抓取及基于抓取数据的开发行为。
某社交技术公司算法歧视案[44]
美国住房与城市发展部(HUD)指控某社交技术公司M的广告算法在住房广告中存在种族和性别等歧视性行为。M平台的广告投放系统使用机器学习算法,该算法部分依赖于种族、国籍和性别特征,以确定广告商目标受众中的哪些人士实际收到住房广告。此案以和解结案,根据和解协议,M将停止使用依赖歧视性算法的住房广告工具,并开发新系统以解决其广告投放系统中个性化算法导致的种族和其他差异歧视。此外,M平台需向美国政府支付11.5万美元罚款。
某电动车公司自动驾驶诉讼
根据美国国家公路交通安全管理局(NHTSA)的分析数据,自2019年以来,某电动车企业T使用的自动驾驶技术(Autopilot)已涉及数百起事故[45]。针对T企业自动驾驶功能的多起诉讼[46]涉及AI技术在驾驶事故中的责任认定问题,挑战了自动驾驶AI系统的安全性、透明性和AI责任分配问题。
这些案例覆盖了AI技术应用的多个关键领域,包括知识产权、隐私、算法公平性、自动驾驶侵权责任等,反映了AI技术在法律实践中所面临的复杂挑战。乔治华盛顿大学的一项公益研究项目正在持续跟踪AI相关的诉讼案例[47],通过判例的发展,法律界和企业可以更好地应对AI带来的新兴法律风险。
三、结语

生成式人工智能的迅猛发展为各个行业带来了前所未有的机遇与挑战。这一技术的应用,不仅推动了生产力的提升,还促进了创新思维的迸发。无论是在医疗、金融、教育还是娱乐等领域,生成式AI都展示出了其变革性的潜力。然而,随之而来的风险与挑战也不容忽视,其固有的不确定性和潜在的滥用问题引发了法律、伦理和社会层面的广泛关注。
在应对这些挑战时,美国正逐步建立一个原则先行、立法后置的AI法律监管框架。这一框架涵盖了多个关键领域,包括技术的公平性与透明性,旨在消除算法偏见,确保AI系统的稳健性和可靠性等。此外,知识产权保护和数据隐私问题也成为监管的重点,以应对生成式AI在内容创作和数据使用中可能引发的法律纠纷和隐私侵犯问题。从全球治理的角度来看,美国非常强调从技术竞争出发,保持AI技术的领先性并促进创新,以强化其AI技术在国际舞台上的领先优势。
在下一篇环球科技法前沿系列中,我们将深入探讨中国的AI法律监管框架。比较中美两国在AI监管方面的差异。我们还将为从事AI业务或购买AI服务的企业用户提供法律合规与风险管控方面的实用建议,帮助他们在快速变化的技术环境中稳步前行,降低潜在的法律风险,抓住发展机遇。
注释:
[1] “Global AI Market Size 2030.” Statista. Retrieved September 12, 2024 (https://www.statista.com/forecasts/1474143/global-ai-market-size).
[2] “What is Habsburg AI?”. Feed the AI. Retrieved September 24, 2024 (https://www.feedtheai.com/what-is-habsburg-ai/)
[3] “What are AI Hallucinations?”. IBM. Retrieved September 24, 2024 (https://www.ibm.com/topics/ai-hallucinations#:~:text=AI%20hallucinations%20are%20when%20a%20large%20language%20model,that%20are%20nonexistent%2C%20creating%20nonsensical%20or%20inaccurate%20outputs.)
[4] “Here’s What Happens When Your Lawyer Uses ChatGPT”, New York Times, Retrieved September 12, 2024 (https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html).
[5] “AI Overreliance Is a Problem. Are Explanations a Solution?” Retrieved September 13, 2024 (https://hai.stanford.edu/news/ai-overreliance-problem-are-explanations-solution).
[6] Getty Images (US), Inc. v. Stability AI, Inc. Retrieved September 13, 2024 (https://blogs.gwu.edu/law-eti/ai-litigation-database-search/case-detail-page/?pid=94).
[7] Article 1, Section 8 of the U.S. Constitution. “The Congress shall have Power to promote the Progress of Science and useful Arts, by securing for limited Times to Authors and Inventors the exclusive Right to their respective Writings and Discoveries”, Retrieved September 13, 2024 (https://constitution.congress.gov/constitution/).
[8] Thaler v. Perlmutter et al. Retrieved September 13, 2024 (https://blogs.gwu.edu/law-eti/ai-litigation-database-search/case-detail-page/?pid=81).
[9] Thaler v. Commissioner of Patents, Thaler v. Comptroller General of Patents Trade Marks and Designs. Retrieved September 13, 2024 (https://blogs.gwu.edu/law-eti/ai-litigation-database-search/case-detail-page/?pid=51, https://blogs.gwu.edu/law-eti/ai-litigation-database-search/case-detail-page/?pid=50).
[10] H.R.8818 - American Privacy Rights Act of 2024, Retrieved September 13, 2024 (https://www.congress.gov/bill/118th-congress/house-bill/8818/text)
[11] Federal Trade Commission Act, Retrieved September 13, 2024 (https://www.ftc.gov/legal-library/browse/statutes/federal-trade-commission-act)
[12] California Consumer Privacy Act, Retrieved September 13, 2024 (https://www.oag.ca.gov/privacy/ccpa)
[13] 美国商务部对中华人民共和国实施先进计算和半导体制造的出口管制新规,Retrieved September 13, 2024 (https://china.usembassy-china.org.cn/zh/commerce-implements-new-export-controls-on-advanced-computing-and-semiconductor-manufacturing-items-to-the-peoples-republic-of-china-prc/)
[14] Executive Order on Addressing United States Investments in Certain National Security Technologies and Products in Countries of Concern. Retrieved September 13, 2024 (https://www.whitehouse.gov/briefing-room/presidential-actions/2023/08/09/executive-order-on-addressing-united-states-investments-in-certain-national-security-technologies-and-products-in-countries-of-concern/)
[15] Outbound Investment Security Program. Retrieved September 13, 2024 (https://home.treasury.gov/policy-issues/international/outbound-investment-program).
[16] https://www.federalregister.gov/documents/2019/02/14/2019-02544/maintaining-american-leadership-in-artificial-intelligence
[17] https://www.federalregister.gov/documents/2020/12/08/2020-27065/promoting-the-use-of-trustworthy-artificial-intelligence-in-the-federal-government
[18] https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/
[19] https://www.congress.gov/bill/117th-congress/senate-bill/2551
[20] https://www.congress.gov/116/crpt/hrpt617/CRPT-116hrpt617.pdf
[21] https://www.congress.gov/116/bills/hr133/BILLS-116hr133enr.pdf
[22] https://www.congress.gov/bill/117th-congress/house-bill/6580/text
[23] https://lieu.house.gov/sites/evo-subsites/lieu.house.gov/files/evo-media-document/national-ai-commission-bill.pdf
[24] https://www.congress.gov/bill/118th-congress/senate-bill/1671/text?s=1&r=6
[25] https://www.congress.gov/bill/118th-congress/senate-bill/1873/text
[26] https://www.congress.gov/bill/118th-congress/senate-bill/1865/text
[27] https://www.whitehouse.gov/ostp/ai-bill-of-rights/
[28] https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-1.pdf
[29] https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.600-1.pdf
[30] https://www.whitehouse.gov/wp-content/uploads/2020/11/M-21-06.pdf
[31] https://www.whitehouse.gov/briefing-room/statements-releases/2023/07/21/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-leading-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/
[32] https://www.nist.gov/system/files/documents/2022/12/04/Joint_TTC_Roadmap_Dec2022_Final.pdf
[33] https://www.nscai.gov
[34] https://www.blumenthal.senate.gov/newsroom/press/release/blumenthal-and-hawley-announce-bipartisan-framework-on-artificial-intelligence-legislation
[35] https://digitaldemocracy.calmatters.org/bills/ca_202320240ab2013
[36] https://digitaldemocracy.calmatters.org/bills/ca_202320240sb942?slug=CA_202320240SB942
[37] https://digitaldemocracy.calmatters.org/bills/ca_202320240sb1047?slug=CA_202320240SB1047
[38] https://digitaldemocracy.calmatters.org/bills/ca_202320240ab2839?slug=CA_202320240AB2839
[39] https://digitaldemocracy.calmatters.org/bills/ca_202320240ab2655?slug=CA_202320240AB2655
[40] https://digitaldemocracy.calmatters.org/bills/ca_202320240ab2602?slug=CA_202320240AB2602
[41] https://digitaldemocracy.calmatters.org/bills/ca_202320240ab1836?slug=CA_202320240AB1836
[42] https://news.bloomberglaw.com/privacy-and-data-security/tiktok-92-million-privacy-deal-granted-final-approval-by-judge
[43] https://natlawreview.com/article/hiq-and-linkedin-reach-proposed-settlement-landmark-scraping-case
[44] https://www.justice.gov/opa/pr/justice-department-secures-groundbreaking-settlement-agreement-meta-platforms-formerly-known
[45] https://www.caranddriver.com/news/a44185487/report-tesla-autopilot-crashes-since-2019/
[46] https://news.bloomberglaw.com/product-liability-and-toxics-law/tesla-settles-over-fatal-autopilot-crash-on-eve-of-trial
[47] https://blogs.gwu.edu/law-eti/ai-litigation-database/
转载自北京市环球律师事务所 马瑞娜
分享:
上一篇:已经是第一篇下一篇:管理人在破产案件中的履职智慧

阅读排行

确认删除?
QQ
  • QQ点击这里给我发消息
回到顶部