查看原文
其他

美国白宫发布总统人工智能行政命令270天以来的行动成果

张嘉雯 译 清华大学智能法治研究院
2024-08-28


九个月前,拜登总统发布了一项具有里程碑意义的行政命令,以确保美国在发展人工智能的潜力以及管理其风险方面处于世界领先地位。


这项行政命令是在去年15家美国领头AI公司的自愿性承诺的基础上制定的。今天,美国政府宣布苹果公司已经签署了自愿性承诺,进一步巩固了自愿性承诺作为负责任AI创新的基石地位。


此外,联邦机构报告称其按计划完成了行政命令中规定的270天行动,并且按时完成了至今所有其他要求中的任务。各机构在针对较长时间框架的工作上也取得了进展。


行政命令发布后,哈里斯副总统发出一系列行动号召,并成为全球AI安全峰会上主要政策演讲的一部分。整个拜登政府的各个机构都采取了积极的行动。政府采取措施减少AI带来的安全和安保风险、保护美国公众的隐私、促进公平和民权、维护消费者和工人的权益、推动创新和竞争、提升美国在全球的领导地位等等。机构今天的报告中完成的行动包括以下内容:




管理安全和安保风险


行政命令指示各机构采取全面行动来防范及解决人工智能的安全和安保风险,包括发布重要的安全指南和建设测试和评估人工智能的能力。在270多天内,各机构已经取得以下进展:


1. AI 安全研究所发布新技术指南,征询公众意见。该指南适用于领先的 AI 开发人员,用于管理对双重用途基础模型是否被滥用的评估。AISI 的指南详细介绍了领先的 AI 开发者如何防范越来越强大的 AI 系统被滥用,从而损害个人、公共安全和国家安全,以及开发者如何提高其产品的透明度。


2. 国家标准与技术研究院发布了关于管理生成式AI风险和安全开发生成式AI系统和双重用途基础模型的最终框架。这些文件在NIST的AI风险管理框架基础上再提供了新的指引,为个人、组织和社会提供了管理AI风险的框架。这些框架已在美国和全球广泛采用。NIST还向白宫提交了一份报告,概述了减少合成内容风险的工具和技术。


3. 国家能源部开发和扩展了 AI 测试平台和模型评估工具。DOE与机构间合作伙伴相协调,利用其测试平台来估AI模型的安全性和安全性。着重测试AI模型可能对关键基础设施、能源安全和国家安全构成的风险。DOE的测试平台也用于探索新型AI硬件和软件系统,如提高AI信任感的隐私增强技术。美国国家科学基金会还发起了一项计划,资助联邦政府以外的研究人员设计和规划设计和规划AI的测试平台。


4. 美国国防部和国土安全部报告了AI试点项目,测试AI技术保护重要政府软件。试点项目分别用于解决用于军事部门和一般政府网络中的漏洞,以确保在实际运用AI技术的安全性和可靠性。这些行动建立在先前的工作基础上,在政府行政命令发布后180天内推进此类试点。


5. 性别政策委员会和科技政策办公室发布了行动号召,打击基于图像的性虐待,包括AI生成的合成内容。基于图像的性虐待行为,作为人工智能技术滥用中增长速度最快的有害应用之一,已经引起了广泛关注。行动号召呼吁科技企业及其它行业利益相关方积极参与,共同采取有效措施遏制这一滥用。该倡议的提出,源副总统自哈里斯在伦敦举行的人工智能安全峰会上的讲话。在讲话中,她明确指出,深度伪造技术所引发的性虐待图像问题,已成为一个迫在眉睫的威胁,迫切需要国际社会共同努力应对。




将人工智能人才引进政府


去年,行政命令启动了一项覆盖全政府的AI人才引进计划,成功吸引了数百名AI及相关领域的专业人士加入政府部门。这些受聘专家正在从事AI的关键工作,如提供AI应用的许可信息、就联邦政府在AI领域的投资方向提供建议,以及制定政府使用AI的政策框架。


1. 为了加强联邦政府在国家安全和非国家安全任务中的AI应用能力,AI人才引进计划至今已实施200余次招聘活动,涵盖总统创新奖学金AI团队和国土安全部(DHS)的AI分队。


2. 根据AI人才引进计划六个月以来的进展报告,白宫科技政策办公室宣布了一系列来自整个技术生态系统的新承诺,包括近1亿美元的资金投入,旨在强化公共利益技术生态系统,并构建基础设施,以促进技术人员进入政府服务领域。





推进负责任的人工智能创新


拜登总统的行政命令明确指示,需进一步采取措施实现人工智能的潜力,并巩固美国在AI创新领域的领先地位。同时,该命令强调必须确保AI在经济和社会中负责任的发展与使用。在行政命令发布后的270天内,各机构已取得以下进展:


1. 即将完成并发布深入探讨双重用途基础模型的潜在益处、风险及其影响的报告,涵盖一系列针对性的政策建议。这些模型权重广泛可用。美国商务部在编纂此报告过程中,广泛征集各领域专家和利益相关者的意见,充分考虑数百条公众意见。


2. 通过国家人工智能研究资源(NAIRR)的试点项目,向超过80个研究团队提供了必要的计算能力和AI资源。基础设施计划由国家科学基金会(NSF)主导,并与能源部(DOE)、国立卫生研究院(NIH)以及其他政府及非政府合作伙伴共同合作,为国内AI研究和教育界提供支持。计划所资助的项目覆盖了深度伪造技术的检测、AI安全性的提升,实现下一代医学诊断技术的发展等关键且优先发展的领域。


3. 发布教育领域内如何设计安全、可靠且值得信赖的AI工具的指南。该指南深入探讨了教育技术开发者在设计人工智能应用时,应如何充分考虑其对学生和教师的积极影响,同时积极促进教育公平、促进民权、建立信任并提高透明度。该工作基于教育部在2023年发布的关于人工智能在教学与学习中应用的建议报告。


4. 发布评估涉及AI技术发明的专利申请资格的指南,以及其他新兴技术的指南。美国专利商标局的指南将指导AI领域的发明者保护其AI发明,并帮助专利审查员审查AI发明的专利申请。


5. 发布联邦政府过去四年推进可信赖AI的研发报告。国家科学技术委员会的报告审查了近30亿美元的年度联邦AI研发预算。


6. 启动一项2300万美元的计划,推动隐私增强技术(PETs)的应用,以解决现实问题。国家科学基金会(NSF)通过新近的“隐私保护数据共享实践”项目,与行业和机构伙伴合作,共同投资于隐私增强技术的部署、完善和扩展,并建立测试平台,加速其在实际的应用和推广。


7. 宣布追加数百万美元投资,旨在推进全社会的负责任AI发展和使用。这些投资包括通过NSF的“新兴和新颖技术体验学习”项目投资3000万美元,支持AI等领域的包容性体验学习;以及通过NSF的ExpandAI项目投资1000万美元,该项目助力少数族裔服务机构建立AI研究能力,促进多样化AI技术人才发展。




推进美国在国际上的领导地位


拜登总统的行政命令中强调,美国应当领导全球努力,释放AI的潜力并应对其挑战。为推进美国在AI领域的领导地位,各机构已采取以下措施:


1. 发布全球AI标准参与计划:国家标准与技术研究院(NIST)制定了一项综合计划,该计划汇集了公共和私营部门的广泛意见。计划确立了AI标准工作的目标和优先领域,并为美国各利益相关者,包括政府机构,制定了具体的行动方案。NIST及其他机构将在180天内报告优先行动事项的进展情况。


2. 制定指导方针,管理AI对人权带来的潜在威胁:美国国务院发布《AI与人权风险管理概要》指南,由美国国际开发署与国家标准与技术研究院(NIST)密切合作制定。该文件基于NIST的AI风险管理框架,向全球政府、私营部门和民间社会提出行动指南,识别和管理AI在设计、开发、部署和使用过程中对人权构成的风险。


3. 启动全球AI安全研究所网络:建立了一个由AI安全研究所和其他政府支持的科学办公室组成的全球网络,在技术层面推进AI安全。该网络将加速关键信息的交流,推动共同或通用的安全评估和政策。


4. 发起里程碑式的联合国大会决议:该决议获得一致通过,并由超过100个共同提案国共同支持,提出了全球各国促进安全和可靠使用AI、应对全球挑战的共同愿景。


5. 扩大由美国主导的《关于负责任地军事使用人工智能和自主技术的政治宣言》的国际支持:目前已有55个国家批准了这一政治宣言,该宣言概括如何负责任地开发、部署和使用军事AI技术的规范。


下表列出了联邦政府各个机构根据行政命令要求而完成的工作清单:




注:本公众号原创文章著作权均归属于清华大学智能法治研究院,需转载者请在本公众号后台留言或者发送申请至computational_law@tsinghua.edu.cn,申请需注明拟转载公众号/网站名称、主理者基本信息、拟转载的文章标题等基本信息。非标记原创的自译、自编文章(含翻译作品、汇编作品),可以标记来源后以非盈利方式转载使用。


素材来源官方媒体/网络新闻
继续滑动看下一个
清华大学智能法治研究院
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存