第四集:文字记录
“DGW:有些人只是想下载这款软件,用它来制作色情内容。如果他们不懂编程,而存在这种限制,那就能阻止他们。这是一个有意义的障碍。这是一个减速带。它不会阻止你继续前进,但它会使前进更加困难、更加缓慢,并且可以阻止一些危害。
即使在开放源代码和自由软件的规定范围内,我认为我们也可以更具创造性地思考,如何将我们认为不道德或不符合伦理的用户限制在我们软件的使用范围之外,而不是将其视为非黑即白的问题。”
[介绍]
[00:00:37] SM:欢迎收听“深度探索人工智能”播客,这是由开放源代码促进会推出的播客。我们将探讨人工智能如何影响自由和开源软件,从开发者到企业,再到我们所有人。
“深度探索人工智能”由我们的赞助商 GitHub 赞助。开源人工智能框架和模型将为软件的下一个时代带来变革性影响,推动每个行业发展,普及知识,并降低成为开发者的门槛。随着这种演变持续进行,GitHub 很高兴参与并支持 OSI 的“深度探索人工智能”和开源项目,并欢迎所有人为对话做出贡献。
[00:01:18] 播音员:任何赞助商均无权或机会批准或不批准本播客的内容。
[访谈]
[00:01:23] SM:今天我们采访的是卡内基梅隆大学计算机科学学院的博士生大卫·威德。他一直在从伦理角度研究人工智能,特别是研究软件工程师在人工智能的信任和伦理方面面临的挑战。他曾在英特尔实验室、微软和美国国家航空航天局喷气推进实验室 (JPL) 进行过这项研究。
大卫,感谢您今天加入我们,谈论您的研究,以及您从开发者的角度了解到的关于人工智能和伦理的知识。欢迎您,大卫。
[00:01:55] DGW:非常感谢您,斯特凡诺。我很高兴来到这里。并且我感谢这次机会。
[00:02:00] SM:请告诉我们您为什么选择人工智能伦理作为您的研究重点。您在这个话题中发现了什么如此引人入胜的地方?
[00:02:08] DGW:我们可能都同意,无论好坏,人工智能正在改变我们的世界。当我们开始思考伦理人工智能的含义时,特别是当我看到,伦理人工智能的讨论是由强大的公司、政府和精英大学推动的时候,我认为这种讨论的展开方式存在风险。
我们研究的问题并不是那些影响最边缘化群体的问题,而这些群体通常被排除在科技公司等机构的决策之外。它们是这些权力系统面临的问题。它们是这些人最关注的问题。而我们提出的解决方案几乎不会对这些强大的利益集团构成威胁。有些事情很重要,并且会带来有意义的改变,但不会引发根本性的批判。
我喜欢退后一步,对围绕人工智能伦理出现的叙事进行更批判性的思考,并问:“我们遗漏了什么?什么没有被说出来?” 基于我们关注的内容,什么没有被关注?这就是我推动研究的方式。
[00:03:03] SM:您最近展示了您发表的一篇论文,题为“开源中‘伦理人工智能’的局限性和可能性”。您与您的合著者 Dawn Nafus Dabbish 和 James Herbsleb 共同关注了深度伪造技术。对于我们这些需要一些背景知识的人来说,什么是深度伪造?请举例说明这项技术如何用于好的或坏的目的。
[00:03:29] DGW:本质上,深度伪造是一种视频,其中一个人的肖像被叠加或替换,伪造到另一个人的身体上。因此,您将一个人的脸放在另一个人的脸上,他们就可以出现在视频中。有时,这更多的是无害的娱乐用途。您可以——这是模仿,政治模仿。您可能看过深度伪造的奥巴马或深度伪造的汤姆·克鲁斯。有时是为了艺术。在我们认为的深度伪造和计算机图形以及电影《阿凡达》之类的东西之间,实际上存在一些重叠。这些是更有趣的用途。
现在,有点棘手的是中间部分,我们开始思考什么是政治模仿,什么是假新闻?对于一个人来说似乎是模仿的东西,如果模仿的是有权势的政治家或领导人,实际上可能会欺骗其他人。
我认为真正被低估的是真正困难的用途,真正令人讨厌的用途,真正具有破坏性的用途,不幸的是,这些用途构成了深度伪造的大部分。一项研究发现,绝大多数深度伪造描绘的是女性的非自愿色情内容。因此,他们将您可能认识的人(例如名人)的肖像叠加到色情演员身上。然后这可能会导致焦虑、失业、健康问题和就业问题。
[00:04:43] SM:这太糟糕了,因为如果我理解正确的话,这项技术也变得越来越好,以至于很难区分真假。因此,容易受骗或缺乏经验的人可能会被欺骗,相信这是真的。
[00:04:59] DGW:完全正确。当我们谈论这项技术变得更好,并且变得更具说服力时,您完全正确。它变得越来越容易使用。它在欺骗或伪造视频的方式上越来越准确。我认为这提出了一个重要的问题。很难想到如何改进这项技术,使其改变其造成的危害,因为危害是其使用方式固有的。
这不像对工具进行技术改进就能减少偏见或修复隐私泄露,在这种情况下,这真的没有意义。关键在于它的使用方式。当它变得更好时,很难想到这如何也能解决伦理问题,或者如何解决伦理问题。
[00:05:33] SM:好的,让我们来谈谈这个伦理问题。例如,您的论文侧重于开源。但是这些深度伪造技术在专有和开源论坛中都可用。伦理影响似乎略有不同,无论我们是在公司环境中、专有的,还是在开源社区内。您认为这两种方法之间有哪些对比?让我们从公司场景开始,重点关注大型科技公司。这些科技公司在开发或使用时有什么责任?或者它们拥有什么样的权力和控制权?
[00:06:12] DGW:即使当他们可能不想承认这一点时,他们也拥有很大的权力和控制权。一个很好的例子是谷歌的 Maven 项目,这是他们与国防部签订的一份合同,目的是使用(我相信是)计算机视觉来帮助改进战争无人机的目标定位。我认为我们经常——这些大型科技公司试图认为他们的技术是中立的。我们只是为人们提供工具,让他们用于好的或坏的目的。但这是一种情况,他们知道它被用于什么目的。他们知道,即使从技术上来说它不是被用来杀人,他们也知道它可以帮助提高效率。我认为科技工作者动员起来并大声疾呼的一个很好的例子是对这个项目的强烈反对。
现在,我后来了解到,我认为它在某种程度上已经恢复了。我们也看到了这一点,科技公司越来越多地投资于负责任的人工智能和伦理人工智能研究。试图找到从系统中消除偏见的方法。试图找到使这些系统更易于理解和更易于解释的方法。我认为这很好。但我认为我们还必须关注这些系统最终是如何被使用的,而不仅仅是它们是如何构建或如何实现的。
总而言之,他们拥有很大的控制权和权力。我认为我们必须小心地调查他们选择在哪里使用这种控制权,以及他们选择在哪里投资于这些伦理人工智能问题。
[00:07:29] SM:为了澄清一下,Maven 项目不是深度伪造技术。它更像是一个通用的人工智能计算机视觉工具。
[00:07:36] DGW:是的,是的,绝对是这样。说到——我的意思是,这是一个公平的观点。说到公司或集中式专有技术在深度伪造背景下的区别,有很多闭源专有的深度伪造服务,作为软件即服务运行,您可以在其中上传视频并上传一些源图像,并在无法访问源代码或无法访问中间步骤的情况下获得伪造内容。
由于它是集中式的,因此在这种情况下实际上有更多控制的机会。他们可以像专有系统那样,在其中设置色情内容之类的过滤器,但在开源中感觉不到这一点。我想我们接下来会谈到这一点。
[00:08:14] SM:基本上,专有系统和公司可以选择与谁合作,他们的客户是谁,还可以选择工具内部的可能性,例如他们可以准备的输出类型。
相比之下,开源开发者社区包括许多志愿开发者。您的研究在这里揭示了一个难题。似乎开源许可证限制了开发者对其软件使用方式的责任感和控制权。
[00:08:46] DGW:许可证的产物以及人们构想开源和自由软件许可证的方式,不歧视使用领域,不歧视人和团体,以及自由软件是自由零,这些在法律上规定了遵循这些要求的许可证,在法律上规定了您不能歧视或不能控制下游开发者或下游用户如何使用您的软件。这与众不同,因为通常情况下,不以开源方式许可其软件的软件公司,对如何以及由谁使用其软件拥有合同控制权,并且通常甚至可以控制用于什么目的。
然而,由于开源软件中常见的许可策略,开源并没有感受到这种控制。这对很多事情都有好处。例如,有人发现一种专有的深度伪造工具嵌入了加密货币矿工,该矿工从使用它的人那里窃取电力和周期。对于开源来说,这并非完全是坏消息。但这说明了一个重要的区别,以及在开源与专有公司环境中可以预防哪些类型的危害。
在开源案例中,我认为重要的是要意识到,在许可领域中作为法律规定开始的东西,通常会渗透到文化中。这不仅仅是我指出的。但它以一种方式渗透到文化中,开发者不觉得他们可以或应该能够控制他们的软件如何被使用,这归因于他们习惯于使用的许可证。
[00:10:11] SM:这也是我们在开放源代码促进会经常提出的论点,即法律许可证和版权许可证中的法律规定只是一个层面,它融入了项目内部的社会规范和协作规范,而不是法律强制规定的。实际上,许可证只是一种工具。但您的研究还探讨了您的受访者的一些看法,他们认为他们对自己生产的产品的自主性有限。首先是技术必然性的概念。例如,一种观点,基本上是说潘多拉魔盒已经被打开了。
[00:10:49] DGW:这是一个很有说服力的观点。这个想法是——我将念一段我参与者的引言。一位参与者说:“技术就像蒸汽机。它只是变得越来越好、越来越快、越来越强大。” 仿佛这是自然发生的。仿佛这发生在没有任何人的推动下。技术史学家、技术哲学家批判了这种技术自然而然地变得更好或自然而然地改进的想法,认为这是一种用来消除个人自主感或限制个人自主感的东西,即技术必然性。
特别是在开源案例中,我的一些参与者在构建这种深度伪造工具时说:“深度伪造软件只会继续变得更好。” 并且存在竞争项目。还有其他开源项目也在尝试做我们正在做的事情。因此,即使我选择停止从事这项工作,即使我拒绝付出劳动,这种算法或系统类型仍将继续改进。深度伪造的真实性将继续提高。即使没有我的劳动,我们的项目也是如此。
我认为这在某种程度上是正确的,但它可能不会改进得那么快。并且它可能不会改进得那么迅速。并且可能不会有这些类型的技术创新。因此,我认为我们必须批判性地看待技术必然性的想法,因为它似乎会限制个人的自主性。您和我一样清楚,许多开源项目需要更多的劳动。他们需要更多的帮助。因此,如果他们选择接受这些劳动,选择接受志愿者的努力并将其投入到其他地方,那实际上可以有所作为。
[00:12:13] SM:这是一个非常有趣的话题,因为它也与我对围绕 PGP(优秀隐私密码算法和工具)的对话的记忆重叠,长期以来,美国将 PGP 视为武器。甚至加密也被认为是武器,对吧?长期以来,在美国境外进行商业活动是不安全的,因为更高级别的加密方案不可用。
时至今日,仍然存在这种二分法,即想要在手机上进行加密的人们,是为了与恐怖分子使用相同类型技术的威胁相抗衡。但是,您在开发者中发现的另一种看法是技术中立性。因此,您在开发者中发现的另一种看法是技术中立性,即如果有人画了一些冒犯性的东西,您不能责怪油漆制造商。
[00:13:11] DGW:枪不会杀人。是人杀人。这些是美国真正的文化问题,对吧?技术中立性的想法是真实存在的——不仅仅是在美国,而且在政治论述中也占据着重要地位。枪不会杀人。是人杀人。我们以前听过这句话。这是一个很好的口号,但我认为我们需要更努力地思考它。因为枪支的设计目的是很好地完成某件事。因此,即使它们不会字面上杀死某人,我认为它们也会使某些事情变得容易。
[00:13:35] SM:自动地,是的。自主地。对。
[00:13:38] DGW:是的,没错。如果发生这种情况,我们就会面临另一整套问题。但它们的设计目的是使某些事情更容易,并使某些事情更难。我喜欢举的一个例子是,您可以像扔飞盘一样扔枪,但它是一个非常糟糕的飞盘,而且不会很有趣。您可以用飞盘杀死某人。但它不是为此目的设计的。而且这将非常困难。
我认为,在许多情况下,技术中立性的想法是错误的。我不是第一个指出这一点的人。许多科学和技术研究学者都问过“人造物有政治性吗?”(Langdon Winner)。至少在我的观点看来,归根结底,您设计事物的方式或您实施系统的方式,与该系统所提供的用途之间存在联系。
可供性,中间的联系,粘合剂,您设计的东西,您设计系统的方式,使某些事情更容易,某些事情更难,这会影响事物的使用方式。然后,这会拆解并挑战技术中立性的想法。
在深度伪造的例子中,或者更普遍地在开源的例子中,我听到有人争辩说,即使我们要在我们的软件中加入技术色情限制,例如,因为它是开源的,任何人都可以去删除这些限制。任何人都可以去删除这些限制。现在,这是真的。从字面上看,开源是开放的。如果您具备编程知识,就可以删除代码中内置的限制。
但是,正如我的一位参与者指出的那样,并非每个人都具备这种知识。有些人只是想下载这款软件,用它来制作色情内容。如果他们不懂编程,而存在这种限制,那就能阻止他们。这是一个有意义的障碍。这是一个减速带。它不会阻止你继续前进。但它会使前进更加困难、更加缓慢。并且可以阻止一些危害。
即使在开放源代码和自由软件的规定范围内,我们也可以更具创造性地思考,如何将我们认为不道德或不符合伦理的使用限制在我们软件的使用范围之内,而不是将其视为非黑即白的问题。它并不总是会阻止所有滥用行为,或者我们根本不阻止任何滥用行为。但在中间存在灰色地带。挑战技术中立性的想法是我们开始看到这些灰色地带的方式。
[00:15:42] SM:这是一个很好的观点,因为很多时候我与持有这种非黑即白方法的开发者交谈。他们接受的训练是以数学术语思考。例如,如果 A 发生,那么 B 就是结果。
[00:15:54] DGW:我认为每个社区的规范都会有所不同。我认为有些社区会更愿意采取更严格的方法。更倾向于尝试引导人们进行某些有益于社会的用途,并远离某些令人担忧的社会用途。我认为,仅仅承认存在广泛的灰色光谱将非常非常重要。我认为您将我们的讨论引向具体的危害示例或世界中的具体示例是正确的,因为这使利害关系感觉适当地高。
如果我们采纳“好吧,我们无法阻止所有有害用途。所以我们不妨将伦理问题留给用户,不要尝试”的观点,我认为这是令人担忧的。因为即使我们阻止了少数或大约 10% 的有害用途,这仍然会明显改变个人所遭受的危害。例如,对于那些被制作成非自愿色情作品的女性来说,这是一个很大的数字。如果这阻止了你被制作成虚假色情作品,并且阻止了你失业或产生焦虑,那这就是一件真实的事情。思考不是我们阻止所有危害,或者我们甚至不尝试的框架,可能是发展该领域对话并摆脱技术中立性观念的好方法。
[00:17:08] SM:您的研究还揭示了一个有趣的二分法,即开源的透明度和问责制在实施和使用之间可能存在差异。关于伦理人工智能,为什么开源在实施目的方面很棒,但在使用方面却不太好?
[00:17:26] DGW:这是我们大家都知道一段时间了,但没有命名的东西。我不会假装是我想到它的。但我认为我们在论文中命名的是实施性危害和使用性危害之间的光谱——或者我们称之为连续体。
实施性危害是您可以通过以不同的方式构建软件来解决的问题。开源案例中的一个很好的例子是累犯预测算法的想法。这些算法旨在预测在刑事司法程序中被指控的人是否会累犯,是否会再次犯罪。
这些系统在许多情况下——好吧,我想说在大多数情况下,都是有偏见的。无论是由于他们使用的数据,还是他们训练算法的方式,甚至是他们在特定环境中使用的方式。如果它们是实施性危害,如果代码中存在数据问题或实施问题,或者代码中存在偏见问题,那么使这些开源可以让更多人审查它们。可以让更多人质疑这个系统并发现实施性危害。在更广泛的范围内——不仅仅是累犯案例。但在更广泛的案例中,也许可以发现隐私泄露,或者发现未检查到的错误,即伦理错误,这些错误可以通过加强审查来修复。
由于开源是开放的,可以自由检查,并且可以自由地——例如,在许多情况下,任何人都可以提交拉取请求或提交更改来修复这些实施性危害或实施造成的危害,我认为开源做得特别好。
[00:18:58] SM:当然,这是真的。当我们谈论非常纯粹的软件意义上的软件时,例如 90 种风格和非人工智能,长期以来都是如此,因为我们一直在谈论代码的可检查性或可重现性。您可以下载源代码并在您自己的机器上重新编译它,并证明在运行后实际上可以获得相同的确定性结果。
当我和人工智能系统的开发者交谈时,我得到了一个更模糊的答案,因为可检查性本身变得有点复杂,具体取决于模型或算法。我完全理解您的观点。总的来说,我们希望系统能够——我们应该能够检查它们并审查它们,并确保尤其是在我们让它们负责为我们做出决策之前。
[00:19:42] DGW:我同意。我认为我们应该将此与使用性危害进行对比。在连续体的另一端,开源允许源代码的透明性。因此,可以追究实施性危害的责任。您可以知道是谁添加了什么功能。如果出现问题,您可以修复它。
对于使用性危害,开源在线发布供任何人用于任何目的,无法追踪谁将其用于什么目的。无法了解用途的透明度。并且无法追究这些用途的责任。这会反过来影响到开发人员。
深度伪造案例就是一个例子,对吧?这不是工具的构建方式或实施方式的问题。而是它的使用方式的问题。并且由于它是开源的,任何人都可以使用它来造成危害。因此,这就是它有点更成问题、有点更令人担忧的地方。开源允许一些使用性危害在没有同等程度的用途透明度和由此用途引起的危害的问责制的情况下不受检查。
[00:20:38] SM:然后是关于透明度的条款。例如,我们目前还没有来自这方面的规范或法律义务。目前正在进行一些研究。欧盟已经开始更多地关注人工智能,就像欧盟一直在关注数据挖掘并开始对其进行监管一样。围绕人工智能和艺术的这些透明度和问责制问题,也是您的研究对象,它们正在受到监管。
[00:21:09] DGW:我很高兴有更多人关注这些问题,因为我认为我们对透明度和问责制的含义有着非常狭隘和重复的看法。
[休息]
[00:21:19] SM:“深度探索人工智能”由我们的赞助商 DataStax 赞助。DataStax 是一家实时数据公司。借助 DataStax,任何企业都可以调动实时数据,并快速构建智能、高度可扩展的应用程序,从而成为数据驱动型企业,并充分释放人工智能的潜力。借助 AstraDB 和 Astra Streaming,DataStax 在任何云上以开放数据堆栈独特地交付了世界上最具可扩展性的数据库 Apache Cassandra 的强大功能,以及先进的 Apache Pulsar 流技术。
DataStax 每天都在新兴的人工智能无处不在的未来中引领开源创新周期。请访问 datastacks.com 了解更多信息。
[00:21:59] 播音员:任何赞助商均无权或机会批准或不批准本播客的内容。
[访谈继续]
[00:22:03] SM:您还与我分享了,与您的研究形成对比的是,您与 NASA 共同撰写的另一篇论文。将深度伪造论文和 NASA 论文进行比较,让您对开发者如何看待人工智能以及他们最终如何信任人工智能有了另一种视角。请向我们简要介绍一下。
[00:22:20] DGW:这篇论文的简要重点是,我有幸在美国宇航局的一个站点工作,当时他们正在为即将到来的太空任务开发和开始使用自动编码工具,这是一种自动构建软件的工具。我是一个旁观者,并且非常感谢这种特权。
但这里存在一个信任问题,对吧?因为如果您试图使用这种新的工具来自动化一些程序员的劳动,以自动化的方式完成它,您会信任它吗?这些人,和我一样,都是太空迷,对吧?例如,我们的墙上贴着过去任务的照片。我们有,你知道的,雕像。并且希望这次任务成功的想法是极端的。美国宇航局在一些文献中被称为高可靠性组织。风险很大,你知道吗?
他们正在开发这个框架,顺便说一句,它是开源的。然后,也尝试将其用于即将到来的太空任务。我认为这与深度伪造案例形成对比很有用,因为在美国宇航局的案例中,每个人都可以同意什么是危害。如果宇宙飞船爆炸,如果它坠毁,如果它在地球轨道外停止工作,那是一件坏事。这对我来说看起来很糟糕。这对你来说看起来很糟糕。无论您是创建软件的人还是使用软件的人,这看起来都很糟糕。对于什么是好,什么是坏,存在规范性共识。这有助于说明深度伪造案例,因为在什么是好,什么是坏方面,不存在规范性共识。
开发该工具的社区强烈设定了规范,即您不得将此工具用于非自愿色情内容和其他有害用途。但是,在该工具的开发人员和该工具的用户之间,并非在每种情况下都存在规范性共识。他们无法控制用户,甚至无法与用户达成规范性共识。
对社区不利的事情,当然,他们采取了措施来朝着积极的方向设定这些规范,我认为这很棒,也是更广泛的开源社区可以学习的东西。但是,他们并非总是能够与无数用户和匿名用户达成规范性协议,许多用户不在他们的组织中,因此无法像在 NASA 那样联系到他们。而在 NASA,存在这种规范性协议。
[00:24:33] SM: 他们能够进行控制,并且知道用户是谁。
[00:24:38] DGW: 事实上,他们一开始就对什么是好的用途,什么是坏的用途达成了共识。也许在某个遥远的地方有人,也许某个不同的国家行为者可能不同意美国太空任务的成功是件好事,他们可能会试图破坏它。但至少在开发和使用该软件的组织内部,对于什么是好的用途和坏的用途,或者什么是好的结果和坏的结果,存在规范性协议,这与深度伪造案例中开发者和用户之间的情况不同。
[00:25:05] SM: 事实上,现在,社区一直在讨论编码辅助技术,比如 Copilot 或 Code Whisperer。而 NASA 已经拥有更成熟的产品。它实际上正在交付进入飞行任务的代码。不仅仅是一个原型。
[00:25:22] DGW: 当然。我知道,对吧?我认为这非常令人兴奋。这也是他们确实需要信任它的部分原因,因为——我的意思是,我确信你我都尝试过 Copilot 并编写了几行代码,这很有趣。而且风险很高。它真的需要有效。这种信任在这些类型的环境中尤为重要,信任你的工具。这就是我们在那篇论文中试图研究的内容。
[00:25:45] SM: 郑重声明,我不是开发人员。我对 Copilot 的实验与随便玩玩,看看它会吐出什么东西差不多。但我无法判断。
[00:25:55] DGW: 当我们谈到 Copilot 时,这有点题外话,但我认为 Copilot 对开源来说是令人担忧的。我的意思是,我认为它在很多方面都很令人兴奋。但我认为我有一些特别的担忧。因为用开源代码训练专有系统是否有效?是否可以接受?如果你不这样做,那么就使用你训练它的数据条款来许可它。我的意思是,在许多情况下,Copilot 会逐字生成许可文本。MIT 许可证、宽松许可证、Copyleft 许可证,如 GPL。但它会逐字生成许可文本,这表明它可以逐字吐出许可代码,而这可能或可能不尊重它吐出的许可证。这目前是一个法律灰色地带。我已经和比我聪明得多,而且实际上是律师的律师谈过了。但这更像是一个更广泛的对话,即 Copilot 的想法,尤其是在代码意义上,当不清楚它是否遵循许可限制时,对开源意味着什么?
[00:26:58] SM: 这些确实是社区正在询问 Copilot、Whisperer 和其他我确信正在开发中但我们尚不知道的工具的重要问题。我想,对我来说,从根本上来说,这是一个公平性问题。当开发人员编写代码并发布它,使其可供全世界使用,并采纳一项共同协议,即“我将其提供给全世界,并承诺其他用户也获得相同的权利。”那时我们并不知道。过去,这些开发者或任何在互联网上撰写和发布任何内容的人,都不知道他们的文本主体,他们的创作,将被用来训练一台机器,这台机器将做一些其他的事情。无论是使用图片的 DALL-E,还是 Copilot,还是 GPT 3 吐出诗歌和简短的网页。这是一件新鲜事。这是一项新的权利。欧洲委员会已经编纂了这项新的数据挖掘权利。在美国法律体系中,我认为没有同等的东西。但可能也会有类似的东西。无论我们在过去贡献了什么,如果我们不希望它可供公司或任何人用于训练数据集,我们都必须采取行动。
所有我们过去上传到 Flickr 等数据集中的图片又会怎么样呢?我们当时认为这些规范是公平的。比如,对于知识共享,我们说,“好的,知识共享署名-相同方式共享。我把这张照片给你,只要你保持它原样,并以相同的属性和相同的权利与他人分享。现在,那张照片是我的脸,被用来训练一个系统,该系统可以检测到我自己去购物或去街头抗议。这公平吗?老实说,我没有答案。我认为我们作为一个社会,需要问问自己,我们做了什么?我们想生活在一个什么样的世界里?在平衡普通公民与开发者和其他行动者的权力方面,条件是什么?
[00:29:09] DGW: 你提出了一个非常有趣的问题,关于法律和规范之间的区别。因为通常,规范是我们所有人都能感受到和体验到,并且在某种程度上期望的事情。这可能符合也可能不符合当前的法律制度,或者正如你提出的,这在法律上可能只是一个未决的问题。
当我上传——当我第一次使用 Facebook 时,我不知道,我大概 13 岁左右。我当时上传的是生日派对之类的照片。我是否可以接受 ClearView AI 使用这些照片来构建面部识别系统,并将其出售给执法部门和其他机构?我想,如果你当时问我,我会说,“什么是面部识别?”而且,不。我的意思是,我没有听说过那个案例。但我认为,如果默认设置是公司和政府有权抓取你的数据并用于任何目的,除非你采取具体行动选择退出,那将非常可怕。因为像你我这样的人都知道这件事,对吧?但我认为,对于没有空闲时间参加播客的普通人来说。
[00:30:13] SM: 而且,几乎不可能行使选择退出的权利,因为已经上传了太多兆字节和千兆字节的图片。我已经记不清我把照片放在哪里了。然后,曾经存在的服务,现在已经不复存在了。它们去哪儿了?我们生活在一个有趣的世界。
回到你 13 岁的时候,我的意思是,当你 13 岁的时候,你是否意识到你基本上是在通过上传照片并添加朋友的标签,以及建立你的面孔随着年龄增长的历史来训练机器?
[00:30:48] DGW: 嗯,我是否明确意识到?可能没有。但我要指出的是,我当时是个书呆子。所以,每次我在我的脸上画一个框,告诉 Facebook 我在照片里,每次我在我朋友的脸上画一个框,让他们知道我放了他们的照片时,都会出现这样的问题,再次谈到公司将开发什么样的解决方案以及为什么?这里存在这样的问题,比如,“是的,这对我来说有点用,我可以知道我在哪些照片里。”这对开发该功能的人员也很有用。Facebook 可以知道我的社交网络是谁,以便他们可以向我出售更精准的广告,这也很有用。所以,也许不是 13 岁的 David。但就像,总会有一种“这里发生了什么?”的感觉。我认为我们所有人都有这种好奇心。
[00:31:32] SM: 这就是为什么我认为谈论人工智能伦理很重要,因为公司的责任和他们拥有的控制权也意味着他们拥有需要平衡的力量。
[00:31:45] DGW: 我完全同意你的看法。当我们开始谈论伦理人工智能时,如果我们只让公司主导这场对话,而不关注开源,也不关注公共部门组织,那么我认为我们将得到一个非常特殊的伦理人工智能概念,以及存在哪些问题,而这将受到大型科技公司利益的驱动。
[00:32:06] SM: 对于更广泛的开源社区,你认为关键的启示是什么?当我们围绕人工智能和伦理构建讨论框架时,你对如何为人工智能带来最佳未来并帮助它变得更值得我们信任有什么看法?
[00:32:22] DGW: 我希望通过这些论文提出的重要问题是,我认为我们需要开始这场对话。我认为我们还不清楚。我不会假装我的论文对你的问题有一个明确的答案。但我很乐意开始。我喜欢把这看作是好消息和坏消息。我们先从坏消息开始,因为以乐观的语气结束总是好的。我认为我们必须意识到,将可用于危害的软件放在网上,让任何人将其用于任何用途可能是令人担忧的,可能会以专有的闭源软件不会的方式造成危害。我认为我们需要更多地谈论这个问题。我认为我们需要认识到这一点。
关键在于一旦你认识到这一点,你实际上会怎么做。但我认为,再次回到我们之前关于灰色地带的讨论,这不是非黑即白的。这不像你要么把它做成闭源,并为谁可以使用它以及用于什么用途签订合同,并以这种方式许可它,要么你把它做成开源。中间存在一些领域。正如我研究的社区那样,你可以设定规范。即使你是完全开源的,你也可以设定规范,说明你的社区可以接受该软件的使用方式。你可以提升对社会有益的案例,并对有害案例引起的危害进行教育。
还有道德来源运动,它使用许可证来禁止某些类型的用途。并且有很多关于这是否构成开源许可证的讨论——从技术上讲是否是开源许可证。但我认为我从该运动中获得的更深层次的启示是,你可以以多种方式使用许可,或者你至少可以使用许可证来影响多种方式的规范。我认为这只是进一步讨论的内容。我不认为应该断然拒绝它。
我们可以找到哪些方法来影响(如果不是完全控制)世界上发布的开源软件的使用方式?我认为这就是坏消息,承认我们发布可能有害的软件,这些软件可以免费在线提供给所有人使用,可能会造成危害。
现在,转向乐观的情况。通过在这场对话中关注开源,我认为我们还没有谈到在这种情况下大型科技公司造成的一些危害。这里存在利润动机。我可以引用很多研究。大量优秀的研究表明,当你受到利润动机驱动时,进行伦理人工智能有多么困难。当你与希望你做某些事情而不是其他事情的经理一起工作时。当你没有能力以你认为有帮助的方式解决伦理危害或改变规范时。
我认为开源在这方面的优势始终如一,那就是可以设定自己规范的社区的多样性,可以重塑这些规范,以此来试验伦理人工智能可能意味着什么,而这并不依赖于营利性公司的环境。开源中这种激进的实验精神也是思考伦理人工智能意味着什么,或在不同背景下可能意味着什么的一种有希望的方式。
[00:35:09] SM: 我完全赞成实验。我完全赞成。我认为我们正处于新事物的早期阶段。如果我们不玩,如果我们不尝试不同的变化,如果我们不让自己变得灵活,那么我们将不会取得太大进展。你有什么结束语或想分享的东西吗?比如,你未来在做什么?
[00:35:31] DGW: 我非常乐意与任何听众讨论这项研究。我希望这能开启对话。我绝不认为我拥有所有答案,我想向大家学习。我也很乐意在 Twitter 上联系。我在 Twitter 上讨论了很多我的研究、我的艺术、我的行动主义。我的 Twitter 账号是 Davidthewid。我很乐意在那里向你学习,并在那里与你互动。
由于我还在攻读博士学位,我还没有摆脱它。我开始研究人工智能伦理在供应链中可能是什么样子。承认软件不是在一个组织中一次性开发的。你会混合使用各种东西。你从那里获取一些片段。你从那里获取一些模块。这些东西组合在一起。这意味着人工智能伦理必须考虑到这个现实,即这是一个供应链问题,就像伦理在实体产品领域一直是一个供应链问题一样。这就是我正在研究的。如果有人对此有想法,我也很乐意交流。
[00:36:24] SM: 谢谢你。谢谢你,David。
[00:36:26] DGW: 我喜欢这次对话。谢谢你。
[节目尾声]
[00:36:27] SM: 感谢收听。感谢我们的赞助商 Google。记得在你的播客播放器上订阅以获取更多剧集。请评论和分享,这有助于更多人找到我们。访问 deepdive.opensource.org,在那里你可以找到更多剧集,了解这些问题。你可以捐款成为会员。会员是我们能够完成这项工作的唯一原因。
如果你对本集或对 Deep Dive AI 有任何反馈,请发送电子邮件至 [email protected] 本播客由开源倡议组织制作,Nicole Martinelli 提供帮助。音乐由 Jason Shaw of our genetics.com 提供,根据知识共享署名 4.0 国际许可协议授权。链接在剧集注释中。
[00:37:09] 播音员: 本播客中表达的观点是演讲者个人的观点,不代表他们雇主、他们所属组织、他们的客户或他们的顾客的观点。所提供的信息不是法律建议。没有任何赞助商有权或有机会批准或不批准本播客的内容。
[节目结束]