我在布鲁塞尔到海湾会议上学到的:世界人工智能治理

强大的人工智能技术每天都在对开源和社会提出更多问题。人工智能正在为重要的突破做出贡献,我们才刚刚开始看到它为气候、健康、农业和交通(仅举几例)等领域带来的创新潜力。最近我参加了布鲁塞尔到海湾:世界人工智能治理会议,该会议由伯克利法学院的法律、能源与环境中心(CLEE)和欧盟驻美国代表团主办,以更多地了解国际人工智能政策的现状。

布鲁塞尔到海湾:世界人工智能治理会议汇集了一批专家小组,进一步探讨欧盟、美国和加利福尼亚州的行动。这些实体都在致力于负责任的人工智能监管倡议

  • 《人工智能法案》——全球首个通过具有约束力的、基于风险的方法来监管人工智能流程和应用的主要司法管辖区,正在由欧盟推进
  • 美国政府发布的(非约束性)《人工智能权利法案》,以及美国国家标准与技术研究院(NIST)制定的自愿性《人工智能风险管理框架》
  • 加利福尼亚州议会正在提出的众多人工智能法案

召集了两个小组,就与这些法规相关的重要议题进行讨论

  • 这些举措将如何帮助最大限度地利用人工智能(包括生成式人工智能)提供的机会,又将如何最大限度地降低风险?
  • 相似之处在哪里,不同之处又在哪里?
  • 这些措施将有多有效?
  • 我们可以从彼此身上学到什么?
  • 世界其他地方呢?

会议共有两个小组,以下是我学到的内容的总结。

现状:欧盟和美国的人工智能治理策略

主持人:Brandie Nonnecke,加州大学伯克利分校CITRIS政策实验室创始主任

小组成员

  • Lucilla Sioli,欧盟委员会通信网络、内容和技术总司(DG CONNECT)人工智能和数字产业主管
  • Elham Tabassi,美国国家标准与技术研究院(NIST)信息技术实验室新兴技术副主管。
  • Rebecca Bauer-Kahan,加利福尼亚州议会议员
  • Gillian Hadfield,多伦多大学施瓦茨·里斯曼技术与社会研究所主席兼主任

加利福尼亚州的Bauer-Kahan表示,她的办公室正忙于听取“行业和创新者的意见”。 后来我得以提问,关于研究学术界和非营利组织是否参与了这场对话。 她在回答我的问题时澄清说,讨论最初是从学术界开始的,现在确实包括了创造技术的创新者和任何有兴趣加入对话的人。

开源开发者不被认为是需要倾听的单独行动者类别。 我们在这方面还有工作要做。 她明确表示,她提出的立法遭到了整个硅谷的强烈反对。 即使各个扎克伯格、皮查伊、马斯克、奥特曼公开表示行业希望人工智能受到监管,但当他们去萨克拉门托时,他们唱的是另一首歌。

所有小组成员都同意,平衡创新和监管是微妙的。 Hadfield强调,自我监管不起作用,她很高兴看到欧盟率先采取行动。 但她也注意到,ChatGPT的推出迫使欧洲监管机构审查欧盟《人工智能法案》草案。

小组还就驱动投资以评估人工智能系统和建立标准的需求达成了许多共识。 来自远程连线的Sioli表示,欧盟委员会尚未找到评估和控制人工智能的工具。 Hadfield建议建立政府沙箱,开发者可以在受控环境中展示他们的系统:如果他们通过测试,他们可以获得一个“复选标记”。 这在我听起来像是欧盟委员会为《网络弹性法案》采取的方法……听起来很简单,但在实践中我们看到这是一个棘手的主张。

未来之路:全球化世界中人工智能治理的机遇与障碍

主持人:Brandie Nonnecke,加州大学伯克利分校CITRIS政策实验室创始主任

小组成员

  • Kilian Gross,欧盟委员会通信网络、内容和技术总司(DG CONNECT)人工智能政策制定与协调部门主管
  • Miriam Vogel,国家人工智能咨询委员会(NAIAC)主席,EqualAI总裁兼首席执行官
  • Pamela Samuelson,理查德·M·谢尔曼杰出法学教授,加州大学伯克利分校法律与技术中心联合主任
  • Jen Gennai,谷歌负责任创新创始人兼主管
  • Navrina Singh,CredoAI创始人兼首席执行官

首先发言的是Kilian Gross,他解释了《人工智能法案》的基本原则,它是如何基于风险以及禁用和限制用途的。 对他来说,机会在于欧洲为世界监管奠定基础,就像GDPR为世界上所有想在欧洲开展业务的公司设定了基本规则一样。

在谈到《人工智能法案》时,Gross多次强调缺乏治理工具,这在一定程度上揭示了该立法的雄心壮志。 当被问及时,他使用了诸如“我们希望会有工具供政府监督人工智能质量”或“应该有系统来认证……”之类的句子,这并没有发出任何迹象表明人工智能法案所需的 инфраструктура 将在欧盟委员会设定的两年期限内准备就绪。

对于Samuelson来说,全球人工智能的最大障碍是套利。 小型公司、初创创新者和研究生将简单地选择不在监管环境过于繁琐的环境中运营。 在快速变化的环境中制定能够对所有参与者产生积极激励的法规非常复杂,而且没有太多先例可循。 对她来说,信中呼吁的六个月暂停期是对人工智能治理讨论的警钟。 她非常怀疑是否需要专门针对人工智能的法规。 她提出了另一种方法:采用现有法律,看看它们是否已经涵盖了人工智能用例。 例如,采用《美国残疾人法案》、隐私和反歧视法、版权法,并逐一检查哪些条款没有涵盖人工智能。 这可以在协作研讨会中完成,每个小组负责一项法律。 我觉得这个建议很棒。

小组成员谈到了人工智能治理和监控的工具和框架,表明这个领域已经存在一些要素。 舞台上的两家公司,谷歌和CredoAI,谈到了美国国家标准与技术研究院(NIST)开发的人工智能风险管理框架,以及他们实施的自我监管。 小组成员区分了通用人工智能模型(如GPT-4)和更垂直的系统,如医疗诊断或银行贷款申请。 检测和衡量偏差或测试有效性的需求是不同的,对于通用人工智能,可用工具较少。

主持人Brandie Nonnecke做得非常出色,使两个出色的小组以极快的节奏进行讨论。 我迫不及待想看她的电视连续剧《科技炒作》!

如果您想观看这两场小组讨论的录像,您可以注册并跳转到录像。