第四集:构建创造性限制以遏制人工智能滥用

无论好坏,人工智能正在改变我们的世界。部分要归功于一些关于人工智能系统失控并超出人类控制的富有想象力的科幻反乌托邦未来电影,关于人工智能的伦理使用的话语已经开始。然而,目前这种讨论主要由强大的公司、政府和精英大学主导。那些权力较小的人,例如个人公民甚至软件开发人员,常常被排除在这些对话之外。

在本期播客中,开放源代码促进会 (Open Source Initiative) 执行董事斯特凡诺·马富利 (Stefano Maffulli) 与卡内基梅隆大学计算机科学学院的博士生大卫·格雷·维德 (David Gray Widder) 进行了对话。维德一直从伦理角度研究人工智能,研究软件工程师在人工智能信任和伦理方面面临的挑战。他曾在英特尔实验室、微软和美国国家航空航天局 (NASA) 的喷气推进实验室进行过研究。

在回顾维德的研究和发现时,本期播客探讨了一些有趣的问题,例如

  • 什么是深度伪造?深度伪造技术目前在哪些方面被用于好的和坏的目的?
  • 对于公司开发或使用的技术,公司应承担哪些伦理责任?他们拥有什么样的权力或控制权?
  • 开源许可证在哪些方面限制了开发人员对其软件下游使用方式的责任感和控制感?
  • 一些开发人员秉持“技术必然性”的观念。这意味着什么?这种理念如何塑造他们对人工智能技术的伦理方法?
  • 同样,一些开发人员相信“技术中立性”。这种伦理观点如何发挥作用?
  • 关于伦理人工智能,为什么开源在实施方面很棒,但在使用方面却不太好?
  • 当我们构建关于人工智能伦理的讨论时,我们——更广泛的开源社区——应该从这些发现中吸取什么教训?
  • 开源社区如何为实现人工智能的最佳未来以及帮助人工智能在未来变得最值得信赖做出贡献?

本集节目提出了一个警告:我们不能让关于伦理人工智能的对话仅由大型科技公司的利益驱动,因为他们的利润动机会使结果产生偏差。开源社区可以成为一种平衡力量,增加一个不依赖利润环境的广泛、多元化社区的声音。然而,开源在人工智能伦理方面也有自身的问题需要解决:将可能被用于危害的软件发布到网上,并允许任何人将其用于任何用途,可能会造成专有、闭源软件不会造成的危害。

如果您是软件开发人员,您一定会喜欢这期深度探索节目,但请注意:它肯定会挑战您的一些观点,甚至可能会激发您发出自己的声音。我们真诚地邀请您收听!

在新窗口中播放

订阅: Apple Podcasts | Google  Podcasts | PocketCastsRSS | Spotify

在其深度探索:人工智能活动中,OSI 正在深入探讨塑造开源业务、伦理和实践未来的主题。我们的目标是帮助 OSI 利益相关者构建对话,以发现人工智能系统成为“开源”的可接受范围。深度探索:人工智能的关键组成部分是我们的播客系列,我们在其中采访来自学术界、法律专家、政策制定者、商业应用程序开发人员和非营利组织的专家。