第三集:当黑客挑战人工智能:科幻还是未来?
2020 年疫情高峰期间,EleutherAI 的联合创始人兼 Conjecture 首席执行官 Connor Leahy,以及其他感到无聊的、自称是黑客和人工智能爱好者的人在 Discord 上聊天,讨论 GTP-3 有多酷,以及构建一个像那样的机器学习模型,但使其“开源”会多么有趣。
GPT-3(Generative Pre-trained Transformer,第三代),是由 OpenAI 使用超级计算机和从互联网上抓取的大量数据开发的庞大(1750 亿个参数)机器学习模型。GPT-3由微软独家授权,可以生成几乎任何类型的文本,就像是人类写的一样。
所以当 Leahy 开玩笑说,“嘿,伙计们,让我们像过去的好日子一样,给 OpenAI 一点颜色看看。”但这句玩笑话很快就有了自己的生命力,并变成了一个真正的、志愿者主导的项目,旨在创建 GPT-3 的替代品,名为 EleutherAI,该项目今年早些时候开源了 GPT-NeoX,这是一个 200 亿参数的深度学习模型。
在这一集中,开放源代码促进会执行董事 Stefano Maffulli 和 Connor Leahy 聊了聊为什么 EleutherAI 的工作如此重要。他们讨论了诸如以下问题:
- 为什么创建 GPT-3 的开源替代品如此重要?
- 一个由志愿者研究人员、工程师和开发人员组成的去中心化集体是如何聚集到构建如此庞大模型所需的资源的?
- 你们从哪里获得专业知识?难道世界上只有几十个人拥有这种专业知识,而且他们受雇于大型公司吗?
- 你们如何以及在哪里获得训练模型所需的大量文本数据?
- 当其他组织将其模型保存在 API 背后的黑匣子里时,EleutherAI 决心向世界发布其模型。为什么?
- 有些人批评这很冒险。为什么会这样,是什么让你们有信心认为 GPT-NeoX 例如,可以安全地向世界开放?
- 如果我们想确保我们这个时代最强大的技术用于改善我们的生活,而不是用于邪恶的目的,我们面临哪些挑战?
- 我们通常将人工智能模型视为黑匣子——我们不知道它们内部是如何工作的,所以我们看不到或修复神经网络中可能存在的问题——这让我们感到害怕。像 EleutherAI 所做的那样,开源语言模型如何解决这个问题?
- EleutherAI 的工作已经进一步推动了对人工智能安全使用的研究。你们继续这项使命最需要的资源是什么?
正如 Craig Smith 在他关于 EleutherAI 的文章中写道,“关于人工智能最令人不安的事情之一是,它超越了民族国家控制、遏制或监管它的能力。” 这次讨论强调,我们有理由担心人工智能的风险,并介绍了一个由志愿者组成的了不起的组织,他们在追求促进人工智能安全的过程中,正在高举开源的旗帜。
归根结底,这是一个关于英雄黑客拯救世界的故事——谁能抵挡住这样的故事呢?
订阅: Apple Podcasts | Google Podcasts | PocketCasts | RSS | Spotify
在 Deep Dive: AI 活动中,OSI 深入探讨塑造开源业务、伦理和实践未来的主题。我们的目标是帮助 OSI 利益相关者构建一个对话框架,以发现人工智能系统“开源”的可接受范围。Deep Dive: AI 的关键组成部分是我们的 播客系列,我们在其中采访来自学术界、法律专家、政策制定者、商业应用程序开发人员和非营利组织的专家。