第二集:文字记录

AT: 我们知道人工智能系统的许多技术堆栈是开放的。它基于——由开放代码资助。但这并没有解决我们讨论过的黑盒子的任何问题,即可能造成的危害。我认为我们需要采取开源的精神,开放的精神,但真正寻找一些新的解决方案。”

[引言]

[00:00:22] SM: 欢迎收听“深度探讨:人工智能”播客,来自开源促进会。我们将探讨人工智能如何影响自由和开源软件,从开发者到企业,再到我们所有人。

[赞助商信息]

[00:00:37] SM: “深度探讨:人工智能”由我们的赞助商 GitHub 支持。开源人工智能框架和模型将为软件的下一个时代带来变革性影响; 进化每个行业,普及知识,并降低成为开发者的门槛。

随着这种演变的继续,GitHub 很高兴参与并支持 OSI 对人工智能和开源的深入探讨,并欢迎所有人为对话做出贡献。

任何赞助商都没有权利或机会批准或不批准本播客的内容。

[访谈]

[00:01:08] SM: 欢迎大家。今天我们采访的是开放未来基金会的战略主管阿列克·塔科夫斯基,这是一个欧洲开放运动智库。他是一位社会学家、活动家和战略家,长期活跃于社会运动。他也是 Creative Commons 的董事会成员。欢迎您,阿列克。感谢您抽出时间。

[00:01:30] AT: 你好,斯特法诺。谢谢你的邀请。

[00:01:33] SM: 让我们开始谈论人工智能,以及它如何影响普通生活。您看到的这些部署到社会中的应用程序如何影响现实生活中的人们?

[00:01:46] AT: 我们当然生活在一个有趣的时代,一个技术变革的时代,在我成年的 30 年里,情况可能一直如此,但有一种感觉,有些新的东西,对吧,这些所谓的 AI 技术确实与之前的互联网技术浪潮不同。

现在,我认为有趣的是你说我们可以看到它们。实际上,我认为诀窍在于,在许多情况下,我们看不到它们。关于什么是人工智能技术,什么不是,以及已经发生的事情和我们期望发生的事情之间,也存在很多困惑,我认为这在新兴技术中很典型。它们的功能介于虚构、原型、部署和主流之间,对吧?这就是它们所处的曲线。

[00:02:32] SM: 到处都有些魔力。

[00:02:33] AT: 有很多魔力,很多人喜欢撒更多的魔力,超过实际存在的。我也喜欢有时用来替代人工智能的术语,即自动化决策。听起来有点技术性,当然,它的意思有所不同。我认为这是一个很好的术语。基本上,自动化决策意味着在某些情况下,人类不再为你做决定,而是由某些系统来做决定。在这种情况下,比如说,传统上城市里的某个官僚可能会决定你的孩子将去哪所学校,或者你是否有资格获得一些社会支持。 越来越多情况下,这将由自动化系统完成,其中人工智能系统是一个特定的类别。

[00:03:17] SM: 是的。这个术语非常清楚地传达了我们正在谈论的内容,这真是太棒了。我们正在谈论的是为你做决定的人工智能系统。这真的很清楚,而不是魔力。

[00:03:29] AT: 是的。我喜欢它,因为它还将这种对话与关于人工智能的未来主义对话,以及我们已经意识到的问题联系起来。在许多情况下,你不需要先进的技术,但仍然是由非人类做出决定。在波兰,例如,关于提供失业救济金的决定是由所谓的自动化系统做出的。甚至 Panopticon 基金会还进行了大规模调查。他们发现该系统实际上是一个可以用电子表格描述的算法。

这是一个非常简单的系统。它收集了 10 个问题的输入。公务员询问申请福利的人,并使用一些非常基本的功能来说“是”或“否”。问题是,这可以吗,因为里面真的没有隐藏任何人工智能?有人怀疑有,但没有得到证实。我认为答案是,是的,这仍然是一个问题。更重要的是,这些系统越来越频繁地实际上是人工智能驱动的,对吧?内部发生了一些机器学习组件。我们可能应该预期,在未来几年,会有越来越多的此类系统。

[00:04:40] SM: 是的。您在那里引入了一个非常重要的部分,您发现波兰的失业系统实际上有一个非常简单的算法,可以检查并且易于理解,甚至可以修复,以便发现不公平或错误,而适当的人工智能系统实际上是不可用的。这是神经网络内部的模糊性之一,尤其难以诊断或难以调查以预测其结果。在这种情况下,我们的现实生活受到了自动化决策的影响。监管机构是如何处理这个问题的?他们知道吗?他们注意到了吗?

[00:05:23] AT: 至少在欧洲,他们知道。我认为现在是时候这样做了,因为我相信这些人工智能系统尚未大规模部署。您提出了一个有效的观点。这是它们面临的巨大挑战。问题与所有自动化相同,但解决问题的方式要困难得多,因为这里有一个美丽的符号——黑盒子,对吧?它将内部的东西隐藏起来。这正是他们系统的情况。它们的复杂性基本上使它们更难分析、评估其影响等等。

我参与了 AlgorithmWatch(一个德国基金会)进行的一项名为“自动化社会”的研究,该研究调查了欧洲部署此类人工智能系统的案例。说实话,公开已知的案例还太少。这里可能需要一个警告。如果你在城市、小公司、国家政府中寻找,你找不到它们,但显然,然后就会有这些大型平台,我们知道它们正在广泛且越来越多地使用机器学习机制,但方式并不真正清楚。我们都使用搜索引擎,到目前为止,几乎可以肯定是由人工智能驱动的。

我们使用社交网络来过滤内容,很可能使用人工智能技术。同样,黑盒子出现了,没有确定性。这是一个有点奇怪的时刻,你既可以说,“不,我真的没有在我周围看到这些技术。” 你也可能同样正确地说,“嘿,它们无处不在。你手机中选择的任何应用程序,它们都可能在那里。”

[00:06:56] SM: 是的,没错。我的意思是,从在陌生的城市街道上导航和定向,到叫出租车。我一直想知道,我在街道上行走或开车穿过街道的决定,在多大程度上是由广告商在某个时候驱动的。疑虑依然存在,因为我们真的不从外部知道。没有标签应用于此应用程序来说明它受到了这个和那个的影响。

所以您提到欧盟似乎在人工智能领域非常活跃,他们发布了《人工智能法案》。您能否简要概述一下它是什么或处于什么阶段?

[00:07:34] AT: 《人工智能法案》提案是去年发布的一系列监管措施之一,这真的是欧洲在数字领域的重大监管推动,对吧?我们有最近通过的《数字市场法案》和《数字服务法案》,它们监管平台。我们有一整套数据治理机制,顺便说一句,我认为这些机制与人工智能对话有关。然后我们有了《人工智能法案》。我提到了“自动化社会”这项研究,该研究表明,目前部署的系统还不多,因为我认为这恰恰表明现在是时候就人工智能监管进行对话了。

我很高兴它现在正在发生,因为我们知道,政策的部署速度比技术慢。你需要给它们时间。我认为欧洲通过这些法律是在给自己时间。当然,问题在于,是什么样的监管?这是一个好的监管吗?也许我们简要回顾一下该文件,它基本上提出了什么,我认为关键类别是风险。实际上,欧洲一直在开发一种他们称之为“值得信赖的人工智能”的方法。然后,这种方法,人工智能要值得信赖,最大的问题是它是否具有风险。该法规实际上并未涵盖所有人工智能案例。它真正关注两个问题。哪些类型的人工智能用途或技术非常危险,应该被彻底禁止?哪些技术或使用它们的背景是高风险的?因此,风险程度很高,你真的需要规范它们的使用。

这基本上就是该法案试图做的。就禁止的用户而言。这是一个非常短的列表。它包括潜意识扭曲,这有点像科幻小说听起来的类别,但实际上,监管机构认为存在可以潜意识地影响人类的人工智能用途,这应该被禁止,这很有趣。但随后,更现实的禁止是社会信用评分,以及通常被描述为在中国部署的机制,作为公民,你会根据你的为人来获得评分。这些旨在在欧洲被禁止。

禁止实时生物识别,所以基本上是从部署在城市空间的所有摄像头获取数据,让你实时识别人的技术。这些旨在被禁止,尽管基本上有一些公共安全的例外情况。然后最后一个类别是利用漏洞的技术。所以找到一些方法,也许让老年人做一些违背他们意愿的事情,利用他们不了解技术的事实。这些都是真正的高级别风险。你可以争论这个列表是否好。我很高兴欧洲正在考虑禁止例如社会信用评分。

[00:10:29] SM: 这非常有趣。我想知道,如果你作为客户有五星级评价,这将如何分类。

[00:10:35] AT: 如果这属于该类别,或者如果只是政府的评分被禁止,那么你就会获得折扣。我的理解是,这主要针对政府,而且这种想法是你开始结合来源。我认为,最大的风险在于,你有一些五星级评分,你在俱乐部派对上表现如何,我可以想象这会发生。然后,这些数据会与你的雇主共享,并进一步决定你的,我不知道,健康档案,对吧?所有这些情景,我认为,都是危险的情景,但实际上,当你说社会信用评分时,问题在于,然后有人真的给你一个分数。有一些信息,例如,在中国,他们正在考虑分数可以决定你是否获得护照,对吧?一些基本权利受到限制。

[00:11:23] SM: 是的。我也在意大利的一些城市看到了类似的实验开始,他们对公民在某些环境中的行为进行评分,以便他们可以获得税收折扣,如垃圾处理等等。我不知道其中有多少人工智能参与其中,但在任何情况下,这都是非常可怕的提议。

[00:11:45] AT: 我认为更广泛的类别是高风险情况,其中他们正在考虑的是在就业背景下使用人工智能。与工作相关的所有类型的人力资源决策,在教育和与职业问题相关的使用。对学生进行评分,他们学习得如何,试图确定他们将成为什么样的人,在执法中使用,例如预测性政策的这些想法。美国有一些备受瞩目的案例,他们试图使用以前的犯罪和逮捕数据来确定谁会再次犯罪。

人们似乎喜欢这种情景,因为它们来自科幻电影,但它们确实充满了风险,基本上影响了公民的基本权利,对吧?如果一个系统在你犯罪之前就认定你有罪,我认为这真的很严重。另一个高风险领域是移民。我住在波兰,我们刚刚经历了来自乌克兰的大规模难民潮。我认为这突然变得非常相关。这些人,再说一遍,他们非常脆弱,并且有关于如何部署可能基本上是不人道的系统的想法。最后一个类别是正义和民主,再次是一个非常基本的问题,你不应该使用人工智能技术来玩弄民主。

[00:13:07] SM: 这是《人工智能法案》的一部分。它是关于那些过于危险的技术。

[00:13:12] AT: 整个问题是,那么你引入什么监管?该提案附带了一系列措施,基本上如果你想概括一下,包括三件事,影响评估和监测这些系统的部署,它们不会被放任不管,有人会问问题,如果我在学校系统中引入这些技术会发生什么?第二件事是透明度。你提到了标签。我是否意识到那里有一个人工智能系统?我是否意识到它的决定?我可以被告知它是基于什么做出决定的吗?

第三类是人工监督。例如,在什么情况下你可能可以要求,你好,我希望这个决定由人来复审,对吧?而不是机器。当然,这变得更加复杂,但基本上欧洲正在考虑,当人工智能的使用可以被称为高风险时,这些类型的法规就开始适用。当然,立即开始并在去年一直在进行的巨大辩论是,这些措施是否足够。当然,有一群人说不,我们需要对人、基本权利进行更严格的保护。当然,还有另一方说这些措施会过度扼杀创新。现在正在就此进行相当激烈的政策辩论。

[00:14:32] SM: 谁在参与这些辩论?什么样的人?你觉得欧洲有哪些类型的群体在影响对话?

[00:14:40] AT: 在某种程度上,这几乎是一种陈词滥调,就像在大多数政策辩论中一样。你有行业和活动家。这是两个真正强大的力量,我故意说活动家,因为我认为这项监管面临的挑战,就像许多数字政策一样,很难让普通民众参与进来。欧洲实际上去年做了一个非常有趣的项目,称为“欧洲未来会议”,它确实通过不同的方式让公民发声。你可以在线提交提案,然后所有提案都被考虑在所谓的公民大会中。

在这些情况下,他们真正挑选了随机的欧洲人,其作用有点像议会议员。当然,他们没有通过法律,但他们就一系列建议达成一致,这些建议已发送给欧盟委员会,委员会承诺至少会考虑这些建议。那里发生的事情,我认为非常能说明问题的是,人们被给予了非常广泛的问题。你会很高兴听到有很多关于开源政策的提案,这在某种程度上非常强烈,但最终,结果表明,普通欧洲人真正理解了关于隐私的信息。有人要求尊重隐私。

仍然是为人们提供互联网和技术的这个基本问题很重要,但除此之外,他们没有提到任何正在被监管的事情。他们没有提到平台。他们没有提到人工智能。他们没有提到数据。为什么?我认为这只是太复杂了。这个角色是由公民社会活动家扮演的,他们主要是数字权利活动家。他们关注的政策是那些将保护基本权利、保护公民的政策。我认为他们是辩论中非常强大的声音。

显然,行业是另一种声音,我认为,到现在为止,它有一个明显的路线。通常他们会说监管不好。我不认为现在欧洲有人会说对人工智能不进行监管是好的。我认为对于这些极其危险的情景,人们一致认为应该禁止它们。但随后,行业很快就准备好表示,关于透明度、关于披露其工作原理的一些措施将对欧洲的创新业务构成挑战。

[赞助商信息]

[00:16:54] SM: “深度探讨:人工智能”由我们的赞助商 DataStax 支持。DataStax 是一家实时数据公司。借助 DataStax,任何企业都可以调动实时数据,并快速构建智能、高度可扩展的应用程序,以成为数据驱动型企业,并释放人工智能的全部潜力。借助 AstraDB 和 Astra Streaming,DataStax 以独特的方式交付了 Apache Cassandra 的强大功能(世界上最具可扩展性的数据库),以及任何云上开放数据堆栈中的高级 Apache Pulsar 流技术。

DataStax 每天都在新兴的无处不在的人工智能未来中留下开源创新周期。请访问 datastax.com 了解更多信息。

任何赞助商都没有权利或机会批准或不批准本播客的内容。

[访谈继续]

[00:17:38] SM: 看起来欧洲真的在采取与美国不同的标准,在美国,至少在这个层面上似乎还没有这样的法规。我很高兴听到,因为开源促进会通过这项研究,我们试图做的是尝试理解框架,就像我们对开源软件所做的那样。我们提供了一种方法来识别开发者和公民在数字空间中享受生活的基本需求是什么。我们希望至少在人工智能方面也能有类似的东西,说,“看,我们可以创新,我们可以进行监管,我们真的应该关注这些具体的行为。”

似乎已经从我们早期的对话中出现了一些有趣的模式,我们希望能够检查,例如,模型,并了解这些人工智能系统真正建议的是什么。它们为什么会做出一些决定?我们需要继续进行这种对话。解决这个问题不会很简单。事实上,在这一点上,理解一下,因为这些是新技术,它们现在正在被引入市场,并且正在受到监管,过去有哪些监管影响了新技术的出现,这将很有趣?

[00:18:56] AT: 在欧洲,当然,当你问到这个问题时,每个人都会立即想到 GDPR,即提供数据保护规则的法规。我认为它是在五年多前通过的,但现在是时候看看这样的法规会发生什么了。你必须真正谦虚地对待变化和原因,对吧?它不容易实施。它需要付出很多努力才能实现,每个人都愿意承认,有时它会适得其反,对吧?即使是一个非常简单的事情,在欧洲政策辩论中也抛出了一个技术术语,即法律的协调。

基本上,这个术语的意思是,我们在欧洲有近 30 个成员国,每个成员国都有不同的法律体系,有时欧盟通过了适用于整个欧盟的统一法律,但有时它的运作方式是,它们通过一项指令,然后根据当地情况进行调整。然后你可能会陷入这样的境地,你认为你有一个规则,例如,用于给予同意或用于监管教育中的人工智能,但你也会发现它在意大利、波兰和荷兰的运作方式完全不同。你陷入了一些巨大的混乱,这对任何试图建立泛欧业务的公司来说都是一个挑战。这对公民来说是一个理解的挑战。这对政策制定者来说是一个机会。

然后你学到了一些简单的经验教训,比如尝试协调它。然后尝试制定统一的规则。但是对于这项人工智能监管,我认为真正有趣的是,也许这有点回到你关于谁参与辩论的问题?我真正感兴趣的是针对高风险情况的这些规则。我们的规则不仅仅是为了保护公民。我认为,关于基本上是问题的很多辩论,例如,我们将如何安全?我们的权利将如何受到保护?我认为还有更多问题需要提出,而开源社区或开放内容社区非常擅长提出这些问题,即,我们将如何以明智、合理和可持续的方式使这项技术具有生产力?

我认为这是应该提出这个问题的地方,当你想到影响评估或透明度或标签时,因为我认为你可以使用相同的工具,有趣的想法。比如说,人工智能系统注册表,从一种方法来看,它们只是为了限制这项技术,对吧?这项技术被视为有风险,甚至危险,但从不同的角度来看,它只是创建了一个框架,在这个框架中可以提出问题,这项技术如何才能被良好地利用?对吧?因为我认为,当我们只谈论风险时,可能会忘记这一点,即这些技术有积极的用途,你可以找到利用数据造福公众的方法,这是一个巨大的承诺,但这需要明智的监管。

[00:21:43] SM: 是的。我们听说过人工智能系统现在能够折叠蛋白质,预测蛋白质如何折叠,因此这些系统已经在帮助生物技术行业的Researchers调查更有希望的部分。因此,机器实际上并没有告诉如何解决生物学问题,但它给出了似乎更有希望的部分。它存在一些风险,但实际上,其中有一些非常有帮助和非常有趣的技术。正如您所说,作为开源和开放内容社区,我们非常擅长做的事情已经有很多年了,我们有能力做到这一点。就是找到好的用途,并将好的技术交到许多开发者、许多内容创作者手中。

[00:22:31] AT: 我认为,这里的诀窍在于目标是相同的,但可能我们需要考虑新的工具,对吧?我来自开放内容的 Creative Commons 传统,它大量借鉴了开源理念和方法,并且基本上部署了这个最基本但也非常实用的工具,即开放许可证,对吧?许可机制确实解决了很多关于访问、关于内容知识产权代码共享的问题。

我认为,这就是关于人工智能的辩论有趣的原因,因为它在某种程度上表明了仅仅说开放它的局限性,对吧?我们知道,人工智能系统的许多技术堆栈是开放的,它基于开放代码资助。但这并没有解决我们讨论过的黑盒子的任何问题,即可能造成的危害。我认为我们需要采取开源的精神,开放的精神,但真正寻找一些新的解决方案。

[00:23:26] SM: 绝对是这样。我看到的最基本的区别是,在传统软件的背景下,代码和数据非常、非常清晰地定义和非常清晰地分离。但是当涉及到人工智能时,数据就变成了模型的输入,软件就变成了消耗该模型的东西。它们以一种新的方式纠缠在一起,我们需要探索和更多地理解。我们也需要帮助监管机构理解这一点,因为现在还处于早期阶段。可能很少有活动家完全了解系统内部发生的事情,而且影响也不同。

[00:24:03] AT: 这就引出了能力问题,我认为这很重要。我认为,欧洲的这些政策辩论通常过于关注法律本身,以至于它们给辩论参与者一种感觉,即问题真的可以通过法律、仅通过监管来解决。我不认为是这样,因为法律非常擅长的一件事是,例如,保护和减少危害。法律很难做到的一件事是能力建设。你不能通过一项法律说,让我们提高公共部门理解人工智能、部署人工智能、合作开发开源共享系统的能力,我认为这是我们希望看到的情景。

这就是为什么政策总是有第二个方面,即关于资助政策、研究政策,这是一个完全不同的领域,对吧?我认为它们应该一起看待,因为我认为,挑战,我确信全世界都面临着,但欧洲尤其面临着如何增加这些附加能力。我们知道,商业行为者部署这些系统的速度快得多,《人工智能法案》等法规旨在,我还没有提到,但有趣的是,它们的target是那些部署、开发和部署这些技术的人。而不是用户,而是基本上是创造者、公司,例如,公共部门很可能会从这些公司租赁这些技术,在一些公私合作伙伴关系中。

这是等式的一方面。这种想法是,你需要看看企业如何利用这些技术,但随后我们看看,比如说,公共部门。如果你想到高风险领域的列表,如果你听到教育、职业培训之类的事情,很多都是公共的,对吧?比如说,如果你试图想象一个学校系统。我真的很喜欢思考教育,思考那里的人的技能,不仅仅是一所学校,而是比如说城市级别的学校系统。甚至可能在部委中,他们处理复杂系统的能力真的很低。除非我们提高这种能力,否则他们基本上将依赖供应商。

当然,你可以有一个情景,这就是《人工智能法案》的情景,你在其中监管供应商,以确保他们做得好,但我真的也对我们如何建设能力的情景感兴趣,对吧?开源系统如何在社区中部署,在教育案例中如何部署?好吧,有点难以想象教育工作者自己会这样做,但也许在系统内可以有一些专门的部门和专家,他们有能力理解这些技术并与它们合作。

[00:26:37] SM: 您提到在欧盟部署的各种对话、各种法规中,有一项是关注数据的。您能谈谈这个吗,因为我认为它是相关的?

[00:26:50] AT: 确实,它是相关的,但没有太多人提到,政策制定是一项如此孤立的努力。我们有人工智能圈子,然后你有数据圈子。当然,有一些重叠,但好像是两个不同的现实,最终,显然,人工智能是由数据驱动的。欧洲有一项欧洲数据战略,其中有几个非常大胆的要素。一旦他们发现有趣的东西,因为他们打破了基本上市场将解决一切的逻辑。他们可以像对待财产一样对待数据的逻辑。已经通过了一项法案,称为《数据治理法案》。目前正在讨论的一项法案,称为《数据法案》,其背后有一些非常大胆的想法,即所谓的公共数据空间的概念。

它仍然有点模糊,但基本上,欧洲设想在关键领域,例如健康或交通运输行业。你将拥有这些可互操作的共享数字空间,数据在不同的参与者之间流动,可能包括私人、公共和公民,可能不是完全开放的。这肯定不会是开放数据,可能不一定是免费的或在免费增值模式下,但尽管如此,也不是在一切都获得许可并在适当的关税控制下的模式中。

这似乎确实受到了commons等思想的影响。当然,这里的术语使用得很模糊,但基本上,在某种程度上,数据作为公共物品、作为共享物品进行治理、管理。正如我所说,轮廓尚不清楚,但我认为这是一个非常吸引人的想法。我们主要被技术所吸引。人工智能是一个吸引人的术语,但有时政策提出的这些设置,我认为也同样吸引人。

[00:28:36] SM: 还有,在我看来,欧洲是唯一批准了数据挖掘权的国家。这是否在版权法案中?

[00:28:46] AT: 是的,在版权指令中。

[00:28:48] SM: 好的。您能否简要说明一下数据挖掘权?

[00:28:52] AT: 这是来自不同领域的另一块拼图,但最终,它完全融入了人工智能的讨论,因为基本上,数据挖掘这个术语描述了您想用人工智能做的很多事情。您想获取大量大数据,并运行各种计算技术,这将为您提供新的见解和新的知识。这些方法越来越多地可以被贴上人工智能的标签,但传统上被称为文本和数据挖掘。这一直是版权指令中的一个重大辩论。这被定义为知识产权问题,因为基本上,他们试图解决的是这个挑战。今天有很多数据可用,但您不允许使用它,对吧?您几乎可以从互联网上抓取数据,但有人可能拥有这些数据的版权或其他类型的权利。

然后,通过的规则对我来说不够广泛,主要是因为它们将此限制在非商业研究、活动和机构,对吧?这对科学研究有好处,并且是大学和其他研究机构非常需要的自由,但同样,如果您将所有关于我们可以用数据做什么的想法放在一起。如果我们确保访问数据,这项法规可能会更广泛。我认为在新的欧洲数据战略中,当然,总是会有一个问题,这些规则将如何协同发挥作用,但关于数据将如何共享,有一些新的想法。

例如,有一个非常强烈的提议,可能会要求物联网设备、电动滑板车、语音助手的生产商共享他们收集的数据,这可能会真正开启巨大的可能性,创造真正新的用途,并将真正改变这个市场。我认为文本和数据挖掘是一个真正与研究紧密相关的术语,而其他方法并不真正关注研究,而是寻找其他使用数据的方式。

[00:30:48] SM: 最后,版权指令允许默认开放数据用于数据挖掘,但仅限于非商业目的和研究目的。

[00:30:58] AT: 为了研究。是的。这总是同样的问题。这是一个巨大的转变。总比没有好,但够大吗?我认为政策的问题,以及已经完成的版权指令和正在进行的像人工智能法案这样的法案的问题是,您会感觉到这些是千载难逢的情况,对吧?基本上,每隔 20 年,您可能会期望这种情况发生一次。《数字服务法案》刚刚通过,它建立在所谓的《信息社会指令》之上,后者现在已经 20 年了,正好 20 年。如果您认为您有一个机会,一代人只有一次机会,您真的希望把它做好。那么更大的挑战是,您真的希望它具有面向未来的能力,因为您希望您的法律在技术几乎每年都在部署,并且可以改变事物平衡的现实中发挥作用。

这也许是最大的问题,也是最大的辩论,制定正确的规则是一回事?但我认为在几乎每一项法案中,您都需要加入这些条款,使其具有面向未来的能力。好吧,您可能列出了四种可怕的人工智能用途,但您是否有审查它的流程?您是否会在三五年或十年后回来审查该列表或审查您的透明度机制?我认为,如果您不包含这些,很可能技术会让您的法律过时。

[00:32:21] SM: 是的。在保持面向未来和允许创新与监管之间保持微妙的平衡。

那么从行业的角度来看,从开源倡议的成员和行业成员、倡导团体和个人的角度来看,您认为我们应该做些什么?

[00:32:38] AT: 嗯,首先,您应该参与这些政策辩论。我希望这很清楚。我认为一些公司看到了这些问题,但基本上,这可能需要重新定义专注于开源的意义,对吧?这只是拼图的一部分。这是拼图中非常重要的一部分。我认为我们也都需要为更大的拼图承担责任。这也适用于我更熟悉的委员会,即开放内容委员会。顺便说一句,我真的很欣赏维基媒体基金会所做的工作,我认为它恰好具有这种广阔的视野。它考虑知识和内容,但它也把自己视为一个平台,并参与平台监管的辩论,甚至更广泛地,经常考虑整个生态系统。

我认为这就是我们都需要做的,因为有必要承担责任。我真的很欣赏您所说的,开源倡议和其他行业参与者确实在努力理解开放性在这个新的技术现实中的含义。开放对于人工智能意味着什么?因为我认为一方面需要加强一些经过良好测试的方法。我认为开源代码是一个非常好的主意。但另一方面,它确实需要创造性地重新思考开放的意义。

[00:33:56] SM: 您考虑过吗?开放对您来说意味着什么?您对开放人工智能有什么愿望?

[00:34:03] AT: 我们实际上正在做一个项目,也许值得一提,我们在研究一个非常具体的案例,一个与我息息相关的案例,但对开放内容、对创意商业社区也非常重要,这是一个关于人工智能训练数据集的案例。这是一个到现在已经快 10 年的故事。这是一个关于大量人物照片被用于构建数据集的故事,这些数据集用于构建面部识别模型和技术。有一个著名或臭名昭著的数据集叫做 MegaPhase,它有 300 万张照片打包成一个工具,是新解决方案的基准测试和部署的行业标准。

它也是一个颇具争议的系统。当您深入挖掘时,并不完全清楚是否给予了同意。很多人说,即使符合知识共享许可的正式规则,他们也看到了一些问题。这些用途是意想不到的,有风险的。当您查看此数据集的用户列表时,您突然看到军事工业、监控行业,人们在分享照片时所想的想法之间真的存在脱节。是的,同意这将公开分享,但通常对一些非常积极的互联网文化抱有憧憬。然后您发现这些用途被定义为可怕的,我认为这是一个我们正在调查的案例,因为这正是我们希望看到的,我们希望就法律进行讨论。

而且我们还就社会和社区规范进行讨论,因为当您想要解决这些风险时,我认为您不能监管所有事情。您当然可以说明什么是违法的,但除此之外,您真的必须考虑标准。这是我希望看到的一件事。我与此有关联,我认为我们没有针对许多问题的具体解决方案,但有一种方法可以很好地实现良好结果的可能性,这就是参与式决策。

真正有利的方法是真正尝试将不同的利益相关者,甚至个人用户纳入到这个过程中。在英国,另一个层面是机构组织的,所谓的公民小组,关于人工智能的使用,关于大数据的使用,关于生物识别技术的使用。我们真正让人们表达他们希望看到这些系统如何在他们的生活中运作的观点。他们不是专家。他们不会给您技术专长,但事实证明,如果您向他们解释这项技术,他们会提出关于他们希望生活在什么样的世界中的非常合理的想法。

[00:36:37] SM: 与监管机构互动和交谈确实非常重要。很久以前我就了解到,这样做并不意味着变得肮脏。

[00:36:46] AT: 反过来,监管机构也很高兴与人们接触,真正将他们视为合作伙伴,而不仅仅是将对话限制在一些狭隘的利益相关者群体中。

[00:36:56] SM: 的确如此。非常感谢您的时间,Alek。您还有什么想补充的,我们认为我们没有涵盖到的吗?

[00:37:04] AT: 我祈祷欧洲将在其一系列引人入胜的新法规中再开发一块拼图,有些人以着迷的眼光观察,有些人以敬畏或恐惧的眼光观察。我将政策视为塑造世界的强大手段。我们喜欢认为技术专家创造了今天的世界,但我认为政策也有很多机会塑造世界。我只是希望,越来越多的人相信这一点并参与政策制定过程,因为它们不仅重要,而且也可能很有趣。

[00:37:39] SM: 太棒了。非常感谢您,Alek。

[结尾]

[00:37:42] SM: 感谢收听。感谢我们的赞助商 Google。请记得在您的播客播放器上订阅以获取更多剧集。请评论和分享。这有助于更多人找到我们。访问 deepdive.opensource.org,您可以在那里找到更多剧集,了解这些问题,并且您可以捐款成为会员。会员是我们能够完成这项工作的唯一原因。如果您对本集或对 Deep Dive: AI 有任何反馈,请发送电子邮件至 [email protected]

本播客由开源倡议制作,妮可·马蒂内利提供帮助。音乐由 audionautix.com 的 Jason Shaw 创作,根据知识共享署名 4.0 国际许可协议。链接在剧集注释中。

[00:38:24] 公告员: 本播客中表达的观点是演讲者的个人观点,不代表其雇主的观点。他们所属的组织、他们的客户或他们的顾客。所提供的信息不是法律建议。任何赞助商都没有权利或机会批准或不批准本播客的内容。

[结束]