信任人工智能,必须公开透明。句号。
[赞助商观点]
作者:Heather Meeker,OSS Capital
机器学习已经存在很长时间了。但在 2022 年末,深度学习和大型语言模型的最新进展开始改变游戏规则,并进入公众视野。人们开始思考,“我们热爱开源软件,所以,我们也应该拥有开源人工智能。”
但是,什么是开源人工智能?答案是:我们尚不清楚。
机器学习模型不是软件。软件是由人类编写的,比如我。机器学习模型是经过训练的;它们基于人类提供的输入数据自动学习。当程序员想要修复计算机程序时,他们知道自己需要什么:源代码。但是,如果您想修复模型,则需要更多:用于训练它的软件、用于训练它的数据、训练它的计划等等。这要复杂得多。并且完全重现它,从困难到几乎不可能。
开源定义是为软件而制定的,现已进入第三个十年,并取得了惊人的成功。每个人都在使用标准的开源许可证。访问源代码是一个鲜活的、可操作的概念,人们每天都在使用。但是,当我们尝试将开源概念应用于人工智能时,我们需要首先回到原则。
要使某事物成为“开源”,它需要具有一个最重要的品质:透明性。如果人工智能正在筛选您的工作、医疗待遇或决定刑期,该怎么办?您想知道它是如何工作的。但是,目前的深度学习模型是一个黑匣子。如果您查看模型的输出,则不可能知道模型是如何或为何得出该输出的。您所能做的就是查看输入,以查看其训练是否正确。但这远不如查看源代码那么直接。
人工智能有潜力极大地造福我们的世界。现在是历史上我们第一次拥有信息和技术来解决我们最大的问题,例如气候变化、贫困和战争。有些人说人工智能会毁灭世界,但我认为它有助于拯救世界的希望。
但是首先,我们需要信任它。要信任它,它需要公开透明。
作为消费者,您应该要求您使用的人工智能是开放的。作为开发人员,您应该知道您拥有哪些权利来研究和改进人工智能。作为选民,您应该有权要求政府使用的人工智能是公开透明的。
没有透明度,人工智能注定要失败。人工智能可能非常强大和有能力,以至于人们已经对它感到恐惧。没有透明度,人工智能可能会步加密货币的后尘——一项具有巨大潜力的技术,却因不信任而被关闭。我希望我们能够在这种情况发生之前弄清楚如何保证透明度,因为人工智能可以帮助我们解决的问题是紧迫的,而且我相信如果我们共同努力,我们可以解决这些问题。
—-
开源促进会聚集了一群领导者,他们将在我们即将举行的深度探讨:定义开源 AI 网络研讨会系列中展示围绕人工智能和开源主题的想法。注册是免费的,您可以参加 2023 年 9 月 26 日至 10 月 12 日期间举行的任何或所有会议并提出问题。在此处注册!