新的风险评估框架为开放AI模型提供清晰度
人工智能社区内部正在就广泛发布基础模型及其权重所带来的风险以及该决策的社会影响进行辩论。 一些人认为,Llama2 或 Stable Diffusion XL 的广泛可用性对社会弊大于利。 今天发布的一份立场文件表明,没有足够的证据来有效描述这些模型相对于其他技术的边际风险。
该论文由普林斯顿大学的 Sayash Kappor 和斯坦福大学的 Rishi Bommasani、我以及其他人撰写,旨在面向人工智能开发人员、研究人工智能风险的研究人员、竞争监管机构以及面临如何管理开放基础模型挑战的政策制定者。
本文介绍了一个用于开放模型的风险评估框架。 该资源有助于解释为什么在某些情况下边际风险较低,因为我们已经有来自过去数字技术浪潮的证据。 它揭示了过去的工作重点放在框架的不同子集上,并具有不同的假设,这有助于澄清关于误用风险的分歧。 通过概述对开放基础模型误用风险进行完整分析的必要组成部分,它为未来更具建设性的辩论铺平了道路。
我希望这项工作将支持一场建设性的辩论,其中人工智能的风险基于科学和当今的现实,而不是假设的未来情景。 本文提出了一种立场,该立场通过充分的分析和可供构建的有用框架来平衡反对开放基础模型的案例。 请阅读论文,并在 Mastodon 或 LinkedIn 上留下您的评论。