所在位置:

首页

>

正文

美国针对人工智能发布迄今最详细最高级别的监管规定

2023年11月07日

来源:中国国际贸易促进委员会北京市分会

2023年11月07日

来源:中国国际贸易促进委员会北京市分会

一、主要内容

2023年10月30日,美国总统拜登签署通过《安全、可靠和可信赖的开发和使用人工智能(AI)》的行政命令。具体内容,包括不限于:

(一)AI安全新标准

1.要求最强大AI系统的开发者与美国政府共享其安全测试结果和其他关键信息。《国防生产法》要求开发任何可能对国家安全、国家经济安全或公共卫生和安全构成严重风险的基础模型的公司在训练模型时通知美国政府,并分享所有红队测试的结果。

2.制定标准、工具和测试以帮助确保AI系统的安全、可靠和可信赖。①美国国家标准与技术研究院(NIST)将为红队测试制定严格标准,以确保在公开发布前的安全性。②美国国土安全部(DHS)将上述标准应用于关键基础设施领域,并建立AI安全委员会。③美国能源部和国土安全部将解决AI系统对关键基础设施的威胁,以及化学、生物、放射性、核和网络安全风险。

3.制定严格的新生物合成筛选标准,防止利用AI设计危险生物材料的风险。资助生命科学项目的机构将制定激励机制,以确保适当的筛选、管理可能由AI加剧的风险。

4.制定检测AI生成内容和验证官方内容的标准和最佳实践,制定关于内容验证和水印标记的指导方针,明确标注AI生成的内容。

5.建立高级网络安全计划,开发AI工具来发现和修复关键软件中的漏洞。

6.命令国家安全委员会和白宫办公室制定一份关于AI和安全的国家安全备忘录,确保美国军方和情报机构在执行任务时安全、道德和有效地使用AI,并将指导行动打击对手在军事上使用AI。

(二)保护美国人的隐私

1.优先支持加速开发和使用隐私保护技术来保护美国人的隐私,包括使用尖端AI技术、让AI系统在保护训练数据隐私的同时进行训练。

2.加强隐私保护研究和技术,如保护个人隐私的加密工具,为研究协调网络提供资金以推进快速突破和发展。国家科学基金会将与该网络合作,推动政府采用最先进的隐私保护技术。

3.评估机构如何收集和使用商业可用信息,特别是包含个人身份识别数据的商业可用信息,加强针对AI风险的联邦机构隐私指导。

4.为政府制定评估隐私保护技术有效性的指导方针,包括AI系统中使用的技术。

(三)促进公平和公民权利

1.为业主、联邦福利计划和联邦承包商提供明确的指导,防止AI算法被用来加剧歧视。

2.通过培训、技术援助以及司法部和联邦民权办公室在调查和起诉与AI相关的民权侵犯行为的最佳实践进行协调,解决算法歧视问题。

3.通过制定在判刑、假释和缓刑、预审释放和拘留、风险评估、监视、犯罪预测和预测性警务以及法医分析中使用AI的最佳实践,确保刑事司法系统的公平性。

(四)维护消费者、患者和学生的权益

1.推动在医疗保健中负责任地使用AI和开发负担得起的救命药物。卫生和公共服务部将建立一个安全程序,接收并处理涉及AI不安全医疗行为的报告。

2.创造资源来支持教育工作者部署AI教育工具,如学校中的个性化辅导,发挥AI改变教育的潜力。

(五)支持工人

1.制定原则和最佳实践,通过解决工作替代、劳动标准、工作场所公平、健康和安全、数据收集等问题,减轻AI对工人的危害并最大化其提供的好处。

2.编写一份关于AI对劳动力市场潜在影响的报告,研究和确定加强政府对面临劳动力中断的工人的支持方案。

(六)推动创新和竞争

1.通过“国家人工智能研究资源”(NAIRR)试点,在全美范围内推动人工智能研究。

2.为小型开发者和企业家提供技术援助和资源,帮助小型企业将AI突破商业化,并鼓励联邦贸易委员会(FTC)行使其权力,促进公平、开放和有竞争力的AI生态系统。

3.通过现代化和简化签证标准、面试和审查,提升在关键领域拥有专业知识的高技能移民和非移民在美国学习、停留和工作的便利性。

(七)提升美国海外领导力

1.扩大双边、多边和多方利益相关者的参与,共同合作研究AI。

2.与国际合作伙伴和标准组织一起加速制定和实施AI标准,确保技术安全、可靠、可信赖和可互操作。

3.推动在海外安全、负责任和保障权利的AI发展和部署,以推进可持续发展和减轻对关键基础设施的危险。

(八)确保政府负责和有效使用AI

1.发布政府机构使用AI的指南,包括保护权利和安全的标准,改善AI采购,加强AI部署。

2.通过更快、更高效的合同签订,帮助政府更快、更便宜、更有效地获得指定的AI产品和服务。

3.加快AI专业人才的招聘,各机构将为相关领域的员工提供人工智能培训。

二、相关背景

2023年7月21日、9月12日,共计15家人工智能企业自愿做出承诺,同意拜登政府提出的一系列AI保障措施,包括允许独立专家在AI系统发布前进行安全测试,优先研究和报告与AI相关的社会风险,并允许第三方发现和报告AI系统的安全漏洞等,以防范AI的潜在风险,帮助推进安全、可靠和可信的人工智能开发。15家人工智能企业分别是:亚马逊(Amazon)、谷歌(Google)、Meta(原Facebook)、Anthropic、Inflection、微软(Microsoft)、Open AI、Adobe、Cohere、IBM、英伟达(Nvidia)、Palantir、Salesforce、Scale AI和Stability。

2023年10月30日,七国集团(G7)发布《开发先进人工智能系统组织的国际行为准则(International Code of Conduct for Organizations Developing Advanced AI Systems)》。

红队测试,是指模拟现实世界的潜在攻击者对特定目标进行网络攻击,以测试目标的安全系统是否存在漏洞、评估目标对于恶意攻击的检测和恢复能力。

三、中国企业应关注的重点

建议正在或有意开发和使用人工智能的企业重点关注此信息,尤其是业务存在涉美连接点的企业,应持续跟踪美国关于AI开发和使用的监管动态,尽早调整自身发展策略和应对措施。

(信息来源:美国白宫官方网站)

 

 

《跨境合规》信息内容仅供大家参考,不能视为做决策的唯一依据。如有意见及反馈信息,请与我们联系。

联系人:北京市贸促会法律事务部吕红军

电子邮箱:lvhongjun@ccpitbj.org

联系电话:010-88070494

 

(法律事务部供稿)

主办:北京市贸促会     建设运维:北京市贸促会综合事务中心

京1CP证12017809号-3|京公网安备110102000689-3号