DPGA 成员参与开源人工智能定义研讨会

数字公共产品联盟 (DPGA) 成员在亚的斯亚贝巴举行的会议信息量很大。开源促进会 (OSI) 领导了一个研讨会来定义开源人工智能,并参加了 DPGA 的人工智能实践社区 (CoP) 随后进行的演示。房间里大约有 40 人,分成七组,每组 5-6 人。他们被要求单独审查开源人工智能定义草案的四个基本要素并提供建议。 很少有人熟悉人工智能系统的开发,几乎没有律师。 听众主要是政策制定者和 DPG 产品负责人(而非开发人员)。

开源人工智能研讨会的结果

大部分人同意,所示的措辞相当不错,但需要进行一些调整。 大多数小组都渴望扩大定义的范围,以包括伦理原则。

一些最值得注意的评论

  • 为了研究人工智能系统,必须能够理解人工智能系统背后的设计假设,另一组建议添加对结果可解释性的参考。
  • 一个小组强调,研究人工智能系统的目的是为了获得信心,了解其构成的风险、局限性,并为改进它提供途径。 他们建议更详细的措辞,以明确能够检查其组件(数据集、假设、代码等)非常重要。 他们还补充说,数据并非绝对需要完全公开,隐私是其中一个原因。
  • 关于“修改”问题,该小组建议简化措辞,将 ... 替换为“输出”。
  • 关于“共享”,该小组建议将可共享性限制在负责任的目的范围内,并将其建议的范围扩展到“使用”。
  • 需要有第五项原则“不作恶”

一个小组的意外结果是,他们认为草案定义中的动词(研究、使用、修改、共享)不足,人工智能需要新的动词。 他们集思广益,提出了一个初步列表:训练、维护(管理和存储)、评估(其能力)和调用模型。 这是一次引人入胜的对话,我承诺会与主要倡导者继续进行。

收到的评论让我有机会在结束研讨会时解释了为什么开源定义没有规定遵守法律,并避免讨论伦理,以及为什么 OSI 建议将这些问题移到许可证之外,纳入项目治理和政策中。

看到 DPGA 成员对开源及其积极变革的力量抱有如此好的评价,以至于人们希望它能做得更多好事,这令人振奋。 但是将伦理原则注入开放定义中会使其负担过重。 OSI 将不得不做更多的工作来解释,定义不应像 Meta、Alphabet 或其他任何人一样规定“可接受的使用”。 伦理考量具有高度的背景相关性,像开源定义和未来的开源人工智能定义这样的通用标准很少能合理地涵盖明确的答案。 另一方面,DPG 标准是包含伦理考量更合适的文件,因为它更符合技术部署的背景。

实践社区会议的记录

下午的后半段是关于人工智能系统作为数字公共产品的实践社区会议,由 DPGA 和联合国儿童基金会共同主办。 他们展示了区分人工智能系统组件开放程度的初步方法。 实践社区面临着非常艰巨的任务,有两个主要障碍。 第一个是在开源人工智能的明确定义存在之前,他们必须提出更新 DPG 标准以涵盖人工智能的提案。 第二个是他们需要研究负责任的人工智能和开放人工智能的交叉点,在“开放”的价值与尚未完全理解的一系列风险之间取得平衡。 所有这些都发生在技术快速发展和人工智能商业生态系统向四面八方散布恐慌、不确定和怀疑 (FUD) 的同时。

我一直对这种梯度方法持高度怀疑态度,这与 Hugging Face 的 Irene Solaiman 提出的方法没有太大区别。 正如一位听众所说:为 DPG 人工智能引入梯度方法可能会为软件也引入梯度方法创造机会,从而淡化 DPG 标准中对开源软件的要求。 随着创建“准开源”许可证的竞赛,这种威胁太真实了,不容忽视。 我认为开源人工智能可以像开源软件一样是二元的,实现这一目标的方法不是关注人工智能系统的各个组件,而是关注整体。 OSI 关于开源人工智能定义的下一阶段工作将 точно 探索这一方面,更深入地研究实际示例。 为了研究、使用、共享和修改像 LAIoN 的 Open Assistant 这样的东西,我需要什么?