人工智能文艺复兴以及为什么开源至关重要
知识共享和代码共享一直是人工智能创新的关键驱动力。自从人工智能作为一个领域确立以来,研究人员就聚集在一起,开发和推进从自然语言处理到人工神经网络,从机器学习到深度学习的新技术。
开源社区在推进人工智能并将其应用于解决现实世界问题方面发挥了关键作用。例如,TensorFlow、PyTorch、 Keras 和 Scikit-learn 等库和框架,使得研究人员和数据科学家能够研究和利用人工智能。
近年来,我们看到了 LLMs(大型语言模型) 的兴起。虽然早期的大多数模型,如 BERT 和 GPT-2 对商业友好,但像 OpenAI 的 GPT-4 这样的专有模型获得了广泛的欢迎。像 LLaMA、 Alpaca、 Vicuna 和 Koala 这样的模型尚未采用允许商业用途的许可证。
幸运的是,在过去的几年里,我们看到了研究社区构建了几个重要的开源模型,例如 EleutherAI 的 GPT-Neo、GPT-J、GPT-NeoX 和 Pythia,以及来自 BLOOM (BigScience 大型开放科学开放访问多语言模型) 和 LAION (大规模人工智能开放网络) 的模型。
最近,我们看到了像 DataBricks Dolly 2.0、Stability Diffusion 的 StableLM、 Cerebras GPT、 h2oGPT、 RedPajama、加州大学伯克利分校的 OpenLLaMA、MosaicML 的 MPT、NVIDIA 的 NeMo、Hugging Face 的 StarCoder 和 TII 的 Falcon 等开源模型的出现并获得关注。
此外,值得注意的是,规模较小、更具体的模型正在超越大型模型,从而允许小型组织甚至个人进行创新。使用像 LoRA (大型语言模型的低秩自适应) 和 QLoRA 这样的技术对这些模型进行微调,已经实现了更快的迭代。
最近,用户已经能够从他们的桌面和移动设备(例如 GPT4All 和 PrivateGPT)以及浏览器(例如 WebGPT)运行甚至微调这些较小的模型。这将释放新一波应用程序,在尊重用户隐私的同时,允许他们利用人工智能。企业也将完全控制这些模型,并能够使用隐私增强技术在本地或公共云上运行它们。此外,这些模型还能够从物联网设备和边缘运行。
人工智能世界正处于重要的十字路口。未来有两条道路:一条是高度管制的专有代码、模型和数据集将占主导地位,另一条是开源占据主导地位。一条道路将导致少数大型公司对人工智能的垄断,最终用户将受到有限的隐私和控制,而另一条道路将使人工智能民主化,允许任何人学习、适应、贡献、创新,以及在这些基础上建立业务,同时充分控制并尊重隐私。
如果您有兴趣了解更多关于开源和人工智能的信息,请加入我们的“深入探讨:定义开源人工智能”系列活动。