针对 NTIA 人工智能开放模型权重征求意见稿的有力回应

国家电信和信息管理局 (NTIA) 发布了关于具有广泛可用模型权重的双重用途基础人工智能模型征求意见稿,并已收到 362 条评论

除了开放源代码促进会 (OSI) 与 Mozilla 和民主与技术中心 (CDT) 起草的联合信函外,OSI 还发送了自己的信函,重点介绍了我们创建统一、公认的开放源代码 AI 定义的多方利益相关者流程。

以下是一些来自非营利组织和公司的评论列表。

来自其他非营利组织的评论

  • 斯坦福大学以人为本人工智能 (HAI) 和普林斯顿大学的研究人员 建议 联邦政府优先了解开放基础模型与专有模型相比的边际风险,并根据这种边际风险制定政策。他们的回复还强调了开放基础模型的几项独特优势,包括更高的创新性、透明度、多样化和竞争力。
  • 维基媒体基金会 建议 监管方法应支持和鼓励开放技术的有益用途的发展,而不是依赖更封闭的系统来降低风险。维基媒体认为,开放且广泛可用的人工智能模型以及部署它们所需的必要基础设施,可以通过减轻历史上在访问、学习和使用知识方面的劣势,成为世界各地许多司法管辖区的均衡力量。
  • EleutherAI 研究所 建议 采用开放源代码 AI,并警告说,限制开放权重模型是一种代价高昂的干预措施,但收益相对较小。EleutherAI 认为,开放模型使接近部署环境的人员能够更好地控制其模型的功能和使用限制,研究模型在部署期间的内部行为,并检查训练过程,尤其是训练数据,以了解模型在特定用例中部署是否安全。它们还降低了准入门槛,使模型的运行成本更低,并使用户的用例需要严格保护隐私(例如,医疗、政府福利、个人财务信息)能够使用。
  • MLCommons 建议 使用标准化基准,这将是降低具有和不具有广泛可用开放权重的模型风险的关键组成部分。MLCommons 认为,具有广泛可用开放权重的模型允许整个人工智能安全社区(包括审计员、监管机构、民间团体、人工智能系统用户和人工智能系统开发人员)参与基准开发过程。与开放数据和模型代码一起,开放权重使社区能够清晰、完整地了解给定的安全基准正在衡量什么,从而消除围绕模型如何训练或优化的任何令人困惑的不透明性。
  • 人工智能联盟 建议 监管应以独立的、基于证据的研究为基础,研究评估开放基础模型带来的边际风险的可靠方法;负责任地开发开放基础模型的有效风险管理框架;以及在监管与开放基础模型为扩大技术访问和促进经济增长带来的好处之间取得平衡。
  • 人工智能信任联盟 建议 监管应保护增加人工智能模型和工具访问权限的诸多好处。人工智能信任联盟认为,不应人为地限制开放性,理由是错误地认为这会降低风险。
  • Access Now 建议 NTIA 广泛思考人工智能的发展如何重塑或巩固企业权力,尤其是在“大型科技公司”方面。Access Now 相信以可持续、资源友好的方式开发和使用人工智能系统,考虑到模型对边缘化社区的影响以及这些社区如何与全球南方相交。
  • 人工智能伙伴关系 (PAI) 建议 NTIA 的工作应以以下原则为指导:所有基础模型都需要风险缓解措施;适当的风险缓解措施将因模型特性而异;无论是开放模型还是封闭模型,风险缓解措施都应与风险成比例;自愿框架是解决方案的一部分。
  • R Street 建议 采取务实的步骤来实现人工智能安全,依靠多方利益相关者的流程以更灵活、敏捷和迭代的方式解决问题。政府不应任意限制开放源代码人工智能系统的能力,这可能会导致净竞争劣势。
  • 计算机与通信行业协会 (CCIA) 建议 基于风险进行评估,强调开放模型为人工智能开发人员和用户提供了更好的安全性、更少的偏见和更低的成本。CCIA 承认,绝大多数美国人每天都在使用基于开放源代码软件的系统(有意或无意)。
  • 信息技术产业委员会 (ITI) 建议 采用基于风险的方法来对待开放基础模型,因为并非所有模型都构成同等程度的风险,并且风险管理是整个人工智能价值链的共同责任。
  • 数据创新中心 建议 美国政策制定者在国际层面捍卫开放人工智能模型,将其作为其继续拥抱全球数据自由流动的一部分。它还鼓励他们从过去关于双重用途技术(例如加密)的辩论中吸取教训,并避免对基础模型施加限制,因为此类政策不仅最终无法有效解决风险,而且还会减缓创新、减少竞争并降低美国的竞争力。
  • 国际法律与经济中心 建议 人工智能监管必须以经验证据和数据驱动的决策为基础。要求以可靠的证据基础作为干预的门槛,将有助于政策制定者避免对耸人听闻或毫无根据的人工智能恐惧做出反应的陷阱。
  • New America 的开放技术研究所 (OTI) 建议 采取协调一致的跨部门方法,旨在确保蓬勃发展的开放模型生态系统的巨大潜在好处符合美国的利益,以对抗或至少抵消主导的封闭人工智能系统和权力持续集中在少数公司手中的趋势。
  • 电子隐私信息中心 (EPIC) 建议 NTIA 认真对待人工智能模型在整个开放梯度中出现的细微优势、劣势和监管障碍,强调与封闭系统相比,权重广泛可用的人工智能模型可以促进对人工智能系统和更大竞争的更独立评估。
  • 软件与信息行业协会 (SIIA) 建议 对基础模型采用基于风险的方法,该方法考虑开放的程度和类型。SIIA 认为,开放性已经证明是研究和创新的催化剂,它基本上使人工智能生态系统中许多参与者能够民主化地访问自行开发成本过高的模型。
  • 未来协会 建议 政府应建立风险类别(即“高风险”或“不可接受风险”的 designation)、阈值和与评估结果相对应的风险缓解措施。未来协会担心,过度限制性政策可能导致市场集中,阻碍行业和学术界的竞争和创新。人工智能市场缺乏竞争可能会产生深远的连锁反应,包括可能扼杀提高行业透明度、安全性和问责制的努力。反过来,这可能会削弱监测和减轻与双重用途基础模型相关的风险以及制定循证决策的能力。
  • 商业软件联盟 (BSA) 建议 NTIA 避免限制开放基础模型的可用性;以经验证据为基础制定解决开放基础模型风险的政策;并鼓励实施保障措施以提高开放基础模型的安全性。BSA 认识到开放基础模型为消费者和企业带来的巨大好处。
  • 美国商会 建议 NTIA 基于可靠的科学做出决策,而不是基于开放模型会增加社会风险的未经证实的担忧。美国商会认为,开放源代码技术使开发人员能够在各个领域进行构建、创造和创新,这将推动未来的经济增长。

来自公司的评论

  • Meta 建议 NTIA 建立由科学指导的风险评估、基准和评估的通用标准,并指出美国开发的开放基础模型的广泛可用性符合美国国家利益。Meta 强调,开放源代码使人工智能的好处民主化,而这些好处对美国和世界各地的社会都可能意义深远。
  • 谷歌 建议 对该技术进行严格而全面的评估,以评估收益和风险。谷歌认为,开放模型允许包括新兴市场在内的世界各地的用户进行实验和开发新应用程序,降低准入门槛,并使各种规模的组织更容易竞争和创新。
  • IBM 建议 保留和优先考虑人工智能开放创新生态系统的关键优势,以提高人工智能安全性、提升国家竞争力并促进该技术的民主化和透明化。
  • 英特尔 建议 对负责任的设计和实施进行问责,以帮助减轻潜在的个人和社会危害。这包括建立健全的安全协议和标准,以识别、解决和报告潜在的漏洞。英特尔认为,开放性不仅可以更快地推动技术和创新进步,还可以更快、更透明地发现潜在危害以及社区补救和解决。英特尔还认为,开放人工智能开发对于促进创新和公平获取人工智能至关重要,因为开放创新、开放平台和横向竞争有助于提供选择和建立信任。
  • Stability AI 建议 监管必须支持多样化的人工智能生态系统——从构建封闭产品的大公司到使用、改进和共享开放技术的日常开发人员。Stability AI 认识到,开放模型促进了人工智能的透明度、安全性、隐私性、可访问性、竞争和基层创新。
  • Hugging Face 建议 建立最佳实践标准,以现有工作为基础,并优先考虑人工智能开发链及其部署环境中“安全设计”的要求。Hugging Face 认为,开放权重模型有助于竞争、创新以及对人工智能系统的广泛理解,从而支持有效和可靠的开发。
  • GitHub 建议 监管风险评估应权衡可能危害的经验证据与广泛可用的模型权重的益处。GitHub 认为,开放源代码和广泛可用的人工智能模型支持人工智能开发和安全研究,以及在跨学科研究中使用人工智能工具。迄今为止,研究人员已将这些模型归功于支持以下工作:提高人工智能模型的可解释性、安全性和安全性;提高人工智能模型的效率,使其能够使用更少的资源并在更易于访问的硬件上运行;以及推进参与式、基于社区的人工智能构建和治理方式。
  • 微软 建议 培养健康且负责任的开放源代码人工智能生态系统,并确保政策促进创新和研究。这将通过直接与开放源代码社区互动以了解政策干预对其的影响来实现,并在需要时进行调整以解决关注的风险,同时最大限度地减少对创新和研究的负面影响。
  • Y Combinator 建议 NTIA 和所有利益相关者认识到开放权重人工智能模型的巨大前景,同时确保这项技术的发展符合我们的价值观。Y Combinator 认为,人工智能模型的开放程度是塑造这项变革性技术轨迹的关键因素。高度开放的模型,其权重可供广泛的开发人员访问,为人工智能能力的民主化和跨领域的创新提供了无与伦比的机会。Y Combinator 亲眼目睹了开放模型推动的令人难以置信的进步,越来越多的初创公司正在利用这些强大的工具来开创突破性的应用。
  • AH Capital Management, L.L.C. (a16z) 建议 NTIA 警惕关于开放模型风险的笼统说法以及呼吁区别对待开放模型和封闭模型的呼吁,特别是那些旨在将自己与市场竞争隔离开来的人工智能公司提出的呼吁。a16z 认为,开放模型促进创新,降低准入门槛,防止偏见,并允许此类模型利用更广泛的人工智能(“AI”)社区的集体专业知识并从中受益。
  • Uber 建议 推广广泛可用的模型权重,以刺激人工智能领域的创新。Uber 认为,通过使基础人工智能模型的访问民主化,来自不同背景的创新者可以基于现有框架进行构建,从而加快技术进步的步伐并增加该领域的竞争。Uber 还认为,广泛可用的模型权重、源代码和数据对于促进问责制、促进风险缓解方面的协作以及促进合乎道德和负责任的人工智能开发是必要的。
  • Databricks 建议 对高能力人工智能模型的监管应侧重于面向消费者的部署和高风险部署,义务应侧重于部署者。Databricks 认为,开放模型的好处大大超过了边际风险,因此即使在前沿水平也应允许开放权重。