人工智能的复兴以及为什么开放创新至关重要

在我们之前的文章中,我们重点介绍了开源社区近几个月来在大型语言模型 (LLM) 方面取得的各种进展。第二部分将重点关注当前正在进行的各种人工智能监管工作,以及这将如何影响开放创新。虽然一些监管对于创建人工智能的安全保障措施非常重要,但过度监管实际上可能会对开源开发者和初创公司产生负面影响,从而抑制创新。

与专有解决方案相比,开源大型语言模型 (LLM) 有潜力提供许多优势,即更多的控制权、更强的隐私保护、更低的成本、更好的结果和更高的性能。出于这些原因,个人和组织正在考虑专有解决方案的替代方案。

与此同时,世界各国政府都在担心人工智能技术普遍向公众开放的后果,并开始起草法规以应对这些担忧。

6月14日,欧盟投票决定推进《人工智能法案》,该法案将人工智能的应用划分为不同的风险类别。虽然许多人对欧洲议会开创性的工作表示赞赏,但其他人则担心过度监管会扼杀创新。

在美国,白宫正在起草一份《人工智能权利法案》的蓝图,向研究人员、技术专家、倡导者、记者和政策制定者征求意见。值得强调的是,有3个组织已就此事在美国国会表达了意见。

5月16日,Stability AI 分享了一份详细的文件,强调了开放模型对于透明、有竞争力和有弹性的数字经济的重要性。Stability AI 首席执行官埃马德·莫斯塔克评论道:“这些技术将成为我们数字经济的支柱,公众对其发展进行审查至关重要。开放模型和开放数据集将通过透明度帮助提高安全性、促进竞争并确保美国在关键人工智能能力方面保持战略领导地位。基层创新是美国最伟大的资产,开放模型将有助于将这些工具交到全国各地的工人和企业手中。”

在一次更令人担忧的国会证词中,OpenAI 首席执行官萨姆·奥特曼呼吁进行广泛的监管,包括成立一个新的政府机构负责人工智能模型的许可。如果国会决定朝着这个方向前进,这将为小型初创公司和开源开发者制造监管地狱。OpenAI 如此关注人工智能监管的一个原因是,它希望创造竞争优势(或护城河),从而抑制来自挑战者的创新。泄露的谷歌内部文件强调了开源模型将如何胜过谷歌和 OpenAI。

6月22日,另一份更为乐观的国会证词来自 Hugging Face 首席执行官克莱门特·德朗格,他辩护了开源模型在推进创新、促进公平竞争和确保负责任发展方面的重要性。德朗格强调,开源原则使人工智能民主化,并在该领域促进更具包容性和协作性的未来。

值得注意的是,开源模型的形成方式不仅来自研究人员和开发人员社区,也来自企业。一家名为 Mistral 的初创公司泄露的推介备忘录批评了 OpenAI 等大型企业如何采用“封闭技术方法”——不发布他们构建的模型,而只允许人们通过 API 访问它们。相比之下,Mistral 强调他们如何押注开源模型,并将重点放在隐私和安全上,以此来获得市场份额。这种方法帮助他们筹集了 1.05 亿欧元的资金。

另一家在开源模型上大举押注的公司是 Databricks,Apache Spark 背后的公司,估值达 380 亿美元。在他们最近的Data + AI Summit 上,该峰会在旧金山莫斯康尼会议中心吸引了 12,000 名与会者,以及 75,000 名在线参与者,Databricks 首席执行官阿里·戈兹再次强调了他致力于推广开源模型,将其作为人工智能民主化道路的承诺。作为这项承诺的一部分,Databricks 宣布以 13 亿美元收购 MosaicML。MosaicML 以其最先进的 MPT 大型语言模型而闻名。

最近,Meta 发布了 Llama 2。虽然这本身不是一个开源模型,因为它包含限制商业用途的条款,但 Meta 已经认识到社区贡献的重要性,这基于他们在使用 PyTorch 等其他开源项目方面的经验。通过向来自世界各地的开发者和研究人员社区提供源代码,它允许项目以原始作者未曾预见的方式快速发展。

如果您有兴趣了解更多关于开源和人工智能的信息,请参加我们的“深度探索:定义开源人工智能”系列活动。在线研讨会的征集提案 (CFP) 现已开放,我们正在寻找讨论人工智能监管及其对开放创新影响的提案