2023 年回顾:诸多理由值得庆祝
对于开源促进会 (OSI) 而言,2023 年是忙碌的一年,我们庆祝了开源 25 周年,同时展望当前和未来的挑战与机遇。我们的工作围绕三大领域展开:许可和法律、政策和标准以及倡导和推广。作为开源定义的管理者,许可和法律自我们基金会成立之初就已成为我们核心项目的一部分。我们是开源社区对开源构成要素达成共识的基石。我们保护开源原则,执行“认证开源”和“开源批准许可证”标志。在政策和标准方面,我们一直在监测政策和标准制定组织,支持立法者和政策制定者,向他们普及开源生态系统、其在创新中的作用以及其对开放未来的价值。最后,在倡导和推广方面,我们正在与非营利组织、开发者和律师进行全球对话,以提高对开源原则和实践的理解。OSI 调查了正在进行的关于开源的辩论的影响,从人工智能到网络安全。



支持我们的使命
帮助我们保护开源定义
捐赠并加入成为正式会员,获得投票权
亮点
网站 | 会员 | 新闻通讯 |
---|---|---|
🌎 ~200 万访客/年 (同比增长稳定) | ❤️ ~2800 名会员 (同比增长 +136%) | ✉️ ~10100 名订阅者 (同比增长 +25%) |
我们超过了 2,500 名会员和 10,000 名订阅者。
活动 | 研讨会 | 主题演讲 | 演讲 | 网络研讨会 |
---|---|---|---|---|
🎟️ 36 | 📝 6 | ⭐ 12 | 🎤 24 | 💻 18 |
许可和法律
许可证审查工作组继续审查和改进许可证审查流程,并创建了一个系统化且井然有序的数据库,其中包含自组织成立以来提交给 OSI 批准的所有许可证。OSI 还致力于为 ClearlyDefined 建立开放治理模型,这是一个开源项目,其使命是为已发布的每个软件组件创建一个全球许可证元数据数据库。今年,GitHub 为其数据库添加了来自 ClearlyDefined 的 1750 万个软件包许可证,扩大了依赖关系图、依赖关系洞察、依赖关系审查和存储库软件物料清单 (SBOM) 中出现的软件包的许可证覆盖范围。

OSI 批准的许可证
我们为社区讨论开源许可证提供了一个场所,并且我们维护 OSI 批准的许可证数据库。

ClearlyDefined
我们的目标是众包一个全球许可证元数据数据库,用于已发布的每个软件组件,以造福所有人。
文章列表
- 2023 年每种语言最流行的许可证
- 许可证一致性工作组开始许可证审查
- OSI 如何检查新许可证是否符合开源定义
- 经批准的开源许可证从未如此出色
- 网络研讨会:ClearlyDefined 正在朝着清晰的治理结构迈进
- 什么是开放治理?起草开源项目章程
- 深入了解开源供应链;与社区连接与协作
- 开源批准许可证® 注册项目在实习生 Giulia Dellanoce 的帮助下进行中
- ClearlyDefined 迎来一位新的社区经理,他对未来充满愿景
- 许可证审查工作组征求社区对其建议的意见
政策和标准
OSI 的高级政策主管 Deb Bryant 和 Simon Phipps 一直忙于跟踪主要在美国和欧洲影响开源软件的政策,并将不同的利益相关者聚集在一起表达他们的意见。特别是,我们正在跟踪美国的《保障开源软件安全法案》和欧洲的《网络弹性法案》。2023 年,OSI 加入了数字公共产品联盟,并与包括 Apache 软件基金会、Eclipse 基金会和 Python 软件基金会在内的 20 个初始成员共同启动了开放政策联盟。

开放政策联盟
我们正在将非营利组织聚集在一起,参与教育和告知与开源软件、内容、研究和教育相关的公共政策决策。
文章列表
- 多样化的开源用途突显了网络弹性法案中精确性的必要性
- 召集在开放领域工作的公共利益和慈善基金会
- 现代欧盟政策需要第四部门的声音
- 开放政策联盟:一项旨在扩大公共政策制定中代表性不足的声音的新项目
- OSI 对美国专利商标局的评论
- OSI 呼吁修订 CRA 中的披露规则
- 需要采取行动来防范专利流氓
- 所有软件的监管语言不能相同
- 为什么开放视频对于开源至关重要
- 网络弹性法案的另一个问题:欧洲标准机构开源项目无法访问
- 网络弹性法案引入了不确定性和风险,使开源项目感到困惑
- 开源维护者在面对网络弹性法案时的重要作用
- 开源确保代码仍然是文化的一部分
- 为什么欧盟委员会必须咨询开源社区
- 布鲁塞尔数字市场法案研讨会回顾/总结
- 为什么开源应该免于标准必要专利
- 开源促进会加入数字公共产品联盟
- 2023 年,政府审查开源
- 对网络弹性法案反应的最终清单
- 什么是网络弹性法案,以及它为什么对开源有害
倡导和推广
OSI 与来自世界各地的 36 个会议合作庆祝了开源 25 周年,总参与人数超过 125,000 人。在过去的一年中,我们的重点已从回顾自由和开源软件的过去转向探索人工智能新时代开源的未来。我们组织了几次线上和线下活动,作为 Deep Dive AI 的一部分,这是一个开放的多方利益相关者流程,旨在定义开源人工智能。我们还组织了 许可证诊所,这是一个为美国联邦政府量身定制的研讨会。最后,我们推出了 Opensource.net,作为社区作家和编辑的新家,该项目以前称为 Opensource.com。

开源 25 年
我们通过分享自由软件和开源运动丰富且相互关联的历史来庆祝 25 周年,并探索了未来的挑战和机遇,从人工智能到网络安全。

深度探索:定义开源人工智能
我们正在汇集全球专家,以建立一套共同的原则,这些原则可以为人工智能从业者重建无需许可、务实且简化的协作。

Opensource.net
我们为来自 opensource.com 的贡献者社区提供了一个新家。新平台支持关于开源软件主题的健康对话和知情教育。
文章列表
- 展望未来:数字公共产品联盟会议的要点
- 开源人工智能:建立共同基础
- DPGA 成员参与开源人工智能定义研讨会
- 结束 2023 年深度探索人工智能的讨论,完成开源人工智能定义的初稿
- Nerdearla 反思开放性和包容性
- 2023 年欧洲开源峰会的三大亮点
- Opensource.com 社区在开源促进会找到了新的生命
- 要信任人工智能,它必须是开放和透明的。句号。
- 开源促进会举办第二届深度探索人工智能活动,旨在为人工智能定义“开源”
- 推动关于“开源人工智能”的全球对话
- COSCUP 揭幕
- 在 Campus Party 庆祝开源 25 周年
- “定义开放人工智能”社区研讨会的要点
- Meta 的 LLaMa 2 许可证不是开源的
- 数据 + 人工智能峰会的三大要点
- 迈向“开放人工智能”的定义:首次会议回顾
- 数字活动家和开放运动领袖在新研究报告《转变的潮流:开放运动的转折点》中分享了他们的观点
- 现在是定义开源人工智能的时候了
- 人工智能复兴以及为什么开源至关重要
- 开源人工智能的重要性以及解放数据的挑战
- 我在布鲁塞尔到海湾学到的东西:世界人工智能治理
- 为什么倡导和推广很重要
- 2023 年开源状况报告:主要发现和分析
- OSI 将举办许可证诊所
- 2023 年开源状况报告证实安全是首要问题
媒体提及
2023 年,开源促进会在全球媒体上被引用 100 次,用于教育和反击错误信息。我们的工作在 The Verge、TechCrunch、ZDNET、InfoWorld、Ars Technica、IEEE Spectrum、MIT Technology Review 以及其他顶级媒体上得到了专题报道。

精选文章列表
- 将开源的经验应用于生成式人工智能 — InfoWorld
- 什么是欧盟的《网络弹性法案》(CRA)?— ITPro
- 开源人工智能和 Llama 2 的混乱 — The New Stack
- 开源的未来仍然非常不稳定— MIT Technology Review
- 关于 OSS 颠覆的现状和未来的 7 个要点 — 福布斯
- Meta 的 Llama 2 挤入仍旧开放的领域 — IEEE Spectrum
- Meta 可以随意称 Llama 2 为开源,但这并不意味着它就是 — The Register
- 那么,这就是 OpenAI 的 ChatGPT 护城河的终结 — Business Insider
- 人工智能战争可能会比预期更早达成停战协议 — The Verge
- 开源许可证需要走出 20 世纪 80 年代并发展以应对人工智能 — The Register
- 欧盟的《网络弹性法案》包含开源开发者的毒丸 — The Register
活动
开源促进会在 2023 年全年为全球 36 场活动贡献了主题演讲、小组讨论、演讲和其他活动,包括顶级技术和开源会议,总参与人数超过 125,000 人。

活动列表
欧盟开源政策峰会

🇧🇪 比利时,布鲁塞尔
🗓️ 2023 年 2 月 3 日
🎤 演讲
支持健全的公共政策:如何在立法中避免对 OSS 产生意外后果
黛博拉·布莱恩特、詹姆斯·洛夫格罗夫、马尔滕·艾尔茨、西蒙·菲普斯
随着开源在数字市场中占据了重要的地位,成为软件开发的主要模式,它面临的监管风险也随之增加。就在过去几年中,我们看到政策制定者,即使常常是出于好意,也无意中将目标对准了开源开发者、代码仓库或创新模式本身。例如:《版权指令》,以及最近的《人工智能法案》和《网络韧性法案》,都为开源软件带来了意想不到的监管风险。在本次小组讨论中,我们将探讨正在进行中的议题的现状,同时后退几步,为政策制定者提出如何避免这些意外后果的建议。如何在立法过程中考虑开发者和社区?非常横向的开源生态系统如何适应欧盟的纵向多方利益相关者主义体系?开源专家更早地与政策制定者接触的责任是什么?
FOSDEM

🇧🇪 比利时,布鲁塞尔
🗓️ 2023年2月4-5日
🎤 主题演讲,讲座
庆祝开源25周年:过去、现在和未来
尼克·维达尔
2023年2月标志着开源25周年。这对整个社区来说是一个巨大的里程碑,值得庆祝!在本次会议中,我们将回顾过去,了解我们丰富的历程,并展望未来,重新构想一个开放与协作盛行的新世界。快来加入我们,一同庆祝这个特殊的时刻!
开源软件标签于1998年2月3日在加利福尼亚州帕洛阿托举行的一次战略会议上被创造出来。同月,开源促进会 (OSI) 成立,作为一个通用的教育和倡导组织,旨在提高人们对开放开发过程优越性的认识和采用。OSI 首批承担的任务之一是起草《开源定义》(OSD)。时至今日,《开源定义》仍被认为是开源许可的黄金标准。
在本次会议中,我们将回顾自由软件和开源运动丰富且相互关联的历史,并展示开源如何在重重困难下“赢得”世界。但我们真的赢了吗?开源一直面临着非同寻常的艰苦斗争:从最强大的公司不断散布的错误信息和 FUD(恐惧、不确定和怀疑),到围绕可持续性和包容性的问题。
我们将深入探讨开源的丰富历史,并直接进入其未来,探索未来的若干挑战和机遇,包括其在促进机器学习/人工智能和网络安全等新兴领域中的协作和创新方面发挥的关键作用。我们将在演示期间和全年分享一个互动时间轴,邀请听众和广大社区分享彼此的开源故事和梦想。
开源促进会 – 许可证审查流程的变更
帕梅拉·切斯特克
开源促进会正在努力改进其许可证审查流程,并有一套正在考虑进行的变更建议,[链接待提供]。本次会议将审查拟议的变更,并听取参与者对流程中正确、错误以及可能遗漏之处的反馈。
开源促进会的许可证审查工作组的成立是为了改进许可证审查流程。过去,该流程一直被批评为不可预测、难以理解,并且应用了未公开的要求。工作组制定了一套建议,用于修订审查和批准或拒绝提交给 OSI 的许可证的流程。这些建议包括针对新许可证和传统许可证的单独审查标准、修订后的许可证类别组以及许可证提交的一些具体要求。这些建议已公开 [链接待提供],OSI 正处于流程的反馈阶段,征求对这些建议的意见。本次会议将审查拟议的变更,并听取参与者对流程中正确、错误以及可能遗漏之处的反馈。
开放基础设施在数字主权中的作用
蒂埃里·卡雷兹
疫情和战争使各国和企业意识到其基础设施依赖中的战略漏洞,数字主权现在已成为首要关注的问题,尤其是在欧洲。
在本次简短的演讲中,开放基础设施基金会总经理蒂埃里·卡雷兹将探讨开源在总体上为实现数字主权所能发挥的关键作用。特别是,他将探讨开放基础设施(用于提供基础设施的开源解决方案)凭借其互操作性、透明性和独立性,对于实现数据和计算主权至关重要。
SCALE 20x
🇺🇸 美国帕萨迪纳
🗓️ 2023年3月9-12日
🎤 演讲
定义开源人工智能
斯特凡诺·马富利
实现人工智能算法的传统开源代码观点可能不足以保证人工智能系统的可检查性、可修改性和可复制性。开源促进会正在主导对人工智能和开源领域的探索,深入研究数据和软件的边界,以发现复制、分发、修改源代码等概念如何在人工智能的背景下适用。
人工智能系统已经在决定谁应该继续坐牢,或者哪些客户值得获得贷款来购买房屋。更多种类的“自主”系统正在快速涌现,以至于政府监管机构正在匆忙制定政策。
人工智能/机器学习,从高层次解释,是一种复杂的系统,它结合了代码来创建和训练/调整模型,以及用于训练和验证以生成工件的数据。最常用的工具是用 TensorFlow 或 PyTorch 等开源软件实现的。但从实际角度来看,这些软件包不足以使用户能够行使其运行、研究、修改和再分发“机器学习系统”的权利。“人工智能/机器学习”背景下的开源定义是什么?数据和软件之间的界限在哪里?我们如何将著作权保留应用于可以在你的照片集中识别你的猫的软件?
FOSS Backstage

🇩🇪 德国柏林
🗓️ 2023年3月13-14日
🎤 演讲
摘要
保障整个供应链及更广泛范围内的开源软件安全
尼克·维达尔
在我们庆祝开源软件取得辉煌成就 25 周年之际,与此同时,我们必须承认其普遍性所带来的巨大责任。开源已成为正常运转的社会的重要组成部分,并且迫切需要在整个供应链及更广泛的范围内保障其安全。在本次会议中,我们将借此机会审视开源安全方面的三项重大进展,从 SBOM 和 Sigstore 到机密计算。
鉴于开源在云、移动设备、物联网和关键基础设施中的普遍性,开源在现代社会中发挥着至关重要的作用。在供应链的每个环节及更广泛的范围内保障其安全至关重要。
当我们为“下一个 Log4Shell”做准备时,一些技术正在兴起,其中包括 SBOM、Sigstore 和机密计算。在本次会议中,我们将详细探讨这些技术。
虽然 SBOM(软件物料清单)允许开发人员跟踪其软件的依赖项并确保他们正在使用安全可靠的软件包,但 Sigstore 允许开发人员验证开源软件包的真实性和完整性,确保代码没有被篡改或泄露,
另一方面,机密计算通过在基于硬件、经过认证的可信执行环境中执行计算来保护使用中的代码和数据,确保敏感代码和数据不会被未经授权的方访问或篡改,即使攻击者获得了对计算基础设施的访问权限。
SBOM、Sigstore 和机密计算提供了强大的组合,可以解决安全问题并确保开源软件和数据的完整性和安全性。它们侧重于“安全第一”,而不是延续现有的方法,这些方法通常试图在开发后附加安全措施,或者依赖于开发过程中的多个半连接过程来略微提高应用程序及其部署的整体安全性。
在我们庆祝开源 25 周年之际,这三项新兴技术代表着在保障整个供应链及更广泛范围内的开源软件安全方面向前迈进了一步。我们预见到它们将在最大限度地降低漏洞风险和保护软件及数据免受潜在攻击方面发挥关键作用,为整个社会提供更大的保障。
播客:SustainOSS
尼克·维达尔,理查德·利陶尔
在我们庆祝开源软件取得辉煌成就 25 周年之际,与此同时,我们必须承认其普遍性所带来的巨大责任。开源已成为正常运转的社会的重要组成部分,并且迫切需要在整个供应链及更广泛的范围内保障其安全。在本次会议中,我们将借此机会审视开源安全方面的三项重大进展,从 SBOM 和 Sigstore 到机密计算。
鉴于开源在云、移动设备、物联网和关键基础设施中的普遍性,开源在现代社会中发挥着至关重要的作用。在供应链的每个环节及更广泛的范围内保障其安全至关重要。
当我们为“下一个 Log4Shell”做准备时,一些技术正在兴起,其中包括 SBOM、Sigstore 和机密计算。在本次会议中,我们将详细探讨这些技术。
虽然 SBOM(软件物料清单)允许开发人员跟踪其软件的依赖项并确保他们正在使用安全可靠的软件包,但 Sigstore 允许开发人员验证开源软件包的真实性和完整性,确保代码没有被篡改或泄露,
另一方面,机密计算通过在基于硬件、经过认证的可信执行环境中执行计算来保护使用中的代码和数据,确保敏感代码和数据不会被未经授权的方访问或篡改,即使攻击者获得了对计算基础设施的访问权限。
SBOM、Sigstore 和机密计算提供了强大的组合,可以解决安全问题并确保开源软件和数据的完整性和安全性。它们侧重于“安全第一”,而不是延续现有的方法,这些方法通常试图在开发后附加安全措施,或者依赖于开发过程中的多个半连接过程来略微提高应用程序及其部署的整体安全性。
在我们庆祝开源 25 周年之际,这三项新兴技术代表着在保障整个供应链及更广泛范围内的开源软件安全方面向前迈进了一步。我们预见到它们将在最大限度地降低漏洞风险和保护软件及数据免受潜在攻击方面发挥关键作用,为整个社会提供更大的保障。
ORT 社区日

🇩🇪 德国柏林
🗓️ 2023年3月15-16日
🎤 演讲
摘要
展示 ClearlyDefined
尼克·维达尔
ClearlyDefined 的新社区经理尼克·维达尔将简要介绍该项目的背景,稍后重点收集听众的反馈,了解 ClearlyDefined 如何才能最好地为社区服务,以及接下来的步骤。
开源许可证诊所

🇺🇸 美国华盛顿特区
🗓️ 2023年4月4日
🎤 讲座
❤️ 组织者
开源许可证 201
帕姆·切斯特克
这个重要的诊所会议是对开源许可证及其重要性的高级入门介绍,包括最常用的许可证及其原因。还包括对 OSI 许可证流程的深入了解,以及谁参与根据开源定义考虑和批准新许可证,以及过去五年中批准了哪些许可证。主题包括挑战、成功、最佳实践、运营政策、资源。简报之后是专家小组讨论。
SBOM 这个,SBOM 那个
艾娃·布莱克
就在几年前,软件物料清单 (SBOM) 的概念还以开源许可证为中心。它发生了怎样的变化?为什么它越来越被世界各国政府称为软件透明度的关键组成部分?演讲者将分享 SBOM 的历史、其演变以及今天在网络安全中的作用。会议之后将进行问答环节。
人工智能模型是新的开源项目吗?
贾斯汀·科拉尼诺
机器学习开发者社区正在共同努力,在开源和其他公共许可证下创建数千个强大的机器学习模型。但这些许可证是针对软件的,而机器学习是不同的。本次简报讨论了如何将机器学习与开源软件许可证和协作实践相结合,随后将进行小组讨论,讨论机器学习及其不断壮大的社区对未来开源软件开发的影响。
替代许可证
路易斯·维拉
过去几年中,软件许可证的数量有所增加,这些许可证似乎与开源软件 (OSS) 许可证(即符合开源定义 (OSD) 的许可证)有关,但其开发目的是为了满足不同的目标,通常会保留开源软件的一些好处。创建新的许可策略有哪些新兴模式?简报概述了当前的形势,并提供了回答问题和讨论疑虑的机会。
FOSS North

🇸🇪 瑞典哥德堡
🗓️ 2023年4月24-25日
🎤 主题演讲
现在每个人都在使用自由及开源软件,为其发声
西蒙·菲普斯
自由及开源软件 (FOSS) 发展至今已有 40 年历史,已成为现代社会中完全成熟的成员。通过普及和催化自由软件运动中预先存在的概念,开源在过去 25 年中已发展到互联技术革命的核心。在欧洲,它现在推动了近 1000 亿欧元的 GDP(国内生产总值)。毫不奇怪,它现在成为来自各个方向(包括监管机构和批评者)的政治关注焦点。今天,每个人都想成为自由及开源软件——包括许多实际上不是但想要获得声望的人。
2022 年,浪潮汹涌而来,影响我们运动的立法在美国和欧洲涌现。《数字服务法案》、《数据法案》、《人工智能法案》、《网络韧性法案》、《产品责任指令》以及更多重要的立法工作在欧洲的数字议程中涌现。尽管这项立法显然意识到了开源,但它似乎并不适合我们社区的实际情况。这是为什么?标准在其中扮演什么角色?这将走向何方?
西蒙·菲普斯目前是开源促进会的标准和欧盟政策主管,他之前曾担任该委员会的董事和董事会主席。他还曾在 The Document Foundation、英国开放权利组织和其他慈善机构和非营利组织担任董事。在此之前,他在 Sun Microsystems 运营了最早的开源项目办公室之一,是 IBM Java 业务的创始人之一,曾在 IBM 从事视频会议软件和标准方面的工作,并参与了 Unisys/Burroughs 的工作站和网络软件的开发。由于英国政治而成为无国籍人士的欧洲人,他居住在英国。
Web Summit Rio

🇧🇷 巴西里约热内卢
🗓️ 2023年5月1-4日
🎤 参与者
北美开源峰会

🇨🇦 加拿大温哥华
🗓️ 2023年5月10-13日
🎤 演讲
OmniBOR:为供应链安全带来收据
艾娃·布莱克,艾德·沃尼克
供应链需求让您感到沮丧吗?是否从“SBOM 扫描器”收到源源不断的误报?您是否花费更多时间来证明扫描器给出的“误报”是错误的,而不是修复代码中的真实漏洞?一定有更好的方法。确实有。来听听 Aeva 和 Ed 介绍一种捕获软件完整工件依赖关系图的新方法,它不是事后“扫描”,而是构建工具本身的输出。了解此功能何时会出现在您附近的构建工具中。
OpenInfra 峰会

🇨🇦 加拿大温哥华
🗓️ 2023 年 6 月 13-14 日
🎤 主题演讲
迎接全球开源社区中的供应链安全挑战
艾娃·布莱克
世界各地的政策制定者都在辩论如何最好地保护对国家基础设施至关重要的软件供应链中的开源组件。对于不熟悉开源社区文化的个人来说,应用旨在模拟有形商品商业供应链的范式似乎是合乎逻辑的——但这可能会给开源项目带来灾难性后果,因为许可协议中明确声明免除责任,而贡献者通常是愿意分享时间和才智的无偿志愿者。那么,我们每个人应该怎么做呢?
OpenInfra 社区是为大型开源项目定义安全构建实践的早期领导者。现在建议所有开源项目采用类似的流程,并且这些流程已反映在 OpenSSF 发布的框架中……但甚至可能很快就需要更多。
FOSSY

🇺🇸 美国,波特兰
🗓️ 2023 年 7 月 13-15 日
🎤 演讲,研讨会
摘要
维护符合公众利益的开源
斯特凡诺·马富利
在 2020 年全球新冠疫情相关问题上,开源协作呈爆发式增长之后,开源软件从主流走向了世界舞台的中心。2022 年,联合国数字公共产品 (DPG) 联盟开始正式将开源软件认证为 DPG;欧盟将开源写入了他们的路线图;欧盟和美国都开始制定网络安全立法,以支持安全软件——并非将 OSS 作为特定关注点,而是保护和投资开源软件,因为开源软件对其自身及其公民的利益至关重要。
OSI 已经认识到环境中这些重要的转变,包括公众领域对开源前所未有的兴趣。Stefano Maffulli 的简报将概述公共政策、慈善事业和研究中开源软件的重要趋势,并介绍 OSI 旨在将开放声音带入讨论的新举措。
研讨会 – 定义开源 AI
斯特凡诺·马富利
参加这次即兴会议,分享您对人工智能和机器学习系统“开放”意味着什么的看法。开源促进会 (Open Source Initiative) 将主办这次午餐休息会,听取 FOSSY 参与者对他们认为应该成为人工智能从业者的共同原则集的看法,这些原则集可以重现类似于开源定义所实现的无许可、务实和简化的协作。
巴西校园派对

🇧🇷 巴西,圣保罗
🗓️ 2023 年 7 月 25-29 日
🎤 主题演讲
摘要
开源 25 年
Nick Vidal, Bruno Souza
Este ano comemoramos 25 anos de Open Source. Este é um grande marco para toda a comunidade! Nesta sessão, viajaremos no tempo para entender nossa rica história e como, apesar de todas as batalhas travadas, viemos a conquistar o mundo, hoje presente em todos os cantos, da Web à Nuvem. Em seguida, mergulharemos direto para o futuro, explorando os vários desafios e oportunidades à frente, incluindo seu papel fundamental na promoção da colaboração e inovação em áreas emergentes como Inteligência Artificial e Cybersecurity. Compartilharemos uma linha do tempo interativa durante a apresentação e convidaremos o público e a comunidade em geral a compartilhar suas histórias e sonhos de código aberto uns com os outros.
人工智能的未来:基于开源的主权和隐私
Nick Vidal, Aline Deparis
O futuro da Inteligência Artificial está sendo definido neste exato momento, em uma incrível batalha travada entre grandes empresas e uma comunidade de empreendedores, desenvolvedores e pesquisadores ao redor do mundo. Existem dois caminhos que podemos seguir: um em que os códigos, modelos e dados são proprietários e altamente regulamentados ou outro em que os códigos, modelos e dados são abertos. Um caminho levará a uma monopolização da IA por algumas grandes corporações, onde os usuários finais terão seu poder e privacidade limitados, enquanto o outro democratizará a IA, permitindo que qualquer indivíduo estude, adapte, contribua, inove e construa negócios em cima dessas fundações com total controle e respeito à privacidade.
开源大会

🇨🇭 瑞士,日内瓦
🗓️ 2023 年 7 月 27-28 日
🎤 演讲,研讨会
小组讨论:人工智能会改变一切吗?什么是开放?责任、伦理、价值观?
Joanna Lee,Linux 基金会;Satya Mallick,OpenCV;Mohamed Nanabhay,Mozilla Ventures;Stefano Maffuli,OSI
人工智能 (AI) 的快速发展开启了社会各行各业充满机遇和挑战的新时代。随着人工智能渗透到我们的生活中,至关重要的是要促进对其影响的全面理解。小组将汇集来自不同背景的专家,就开源人工智能当前面临的挑战进行发人深省的对话。小组成员将讨论生态系统面临的关键挑战,包括需要就定义开放 AI 达成一致、如何促进开源基金会之间和彼此之间的协作、探索改进途径以及确定当前的跨基金会倡议,所有这些都是为了改善开源 AI 的现状。
定义“开放”AI/ML
Stefano Maffuli
参加这次即兴会议,分享您对人工智能和机器学习系统“开放”意味着什么的看法。开源促进会 (Open Source Initiative) 将主办这次会议,听取开源大会参与者对他们认为应该成为人工智能从业者的共同原则集的看法,这些原则集可以重现类似于开源定义所实现的无许可、务实和简化的协作。
COSCUP

🇹🇼 中国台湾,台北
🗓️ 2023 年 7 月 29-30 日
🎤 主题演讲
摘要
开源的阴阳:揭示协作、多样性和文化转型的动力
Paloma Oliveira
“开源的阴阳”是对协作、多样性和开源文化之间复杂关系的引人入胜的探索。通过考察其丰富的历史、优势、挑战和当前问题,特别关注其在文化转型中的影响,本次演讲旨在激发人们对自由和开源理念及其实际应用的巨大力量的更深层次的认识。它强调了负责任的实践和创建包容性社区的重要性,敦促我们拥抱这种变革力量,并积极为更加包容和协作的未来做出贡献。
NextCloud 会议

🇩🇪 德国柏林
🗓️ 2023 年 9 月 16-17 日
🎤 主题演讲
第四部门:欧洲世界观中经常被忽视和误解的部门
西蒙·菲普斯
Simon Phipps 以其在 Sun Microsystems 的工作而闻名,他在那里接管了 Sun 的开源项目领导权,并运营了最早的 OSPO 之一。在 2000 年代,Sun 的大部分核心软件都是在开源许可下发布的,包括 Solaris 和 Java(他此前曾在 1990 年代参与共同创立了 IBM 的 Java 业务)。当 Sun 在 2010 年被拆分时,他得以专注于纯粹的开源,并投入时间重新构想开源促进会 (OSI)——这个非营利组织充当开源许可规范列表和开源定义的管理者。如今,Simon 领导 OSI 的工作,向欧洲政策制定者宣传开源社区的需求。
欧洲开源峰会

🇪🇸 西班牙,毕尔巴鄂
🗓️ 2023 年 9 月 19-21 日
🎤 主题演讲,演讲,采访
❤️ 赞助商
摘要
主题演讲:不断发展的 OSPO
Nithya Ruff
OSPO 或开源项目办公室已成为驱动公司和其他机构内部开源战略和运营的成熟机构。2023 年是各地 OSPO 发生巨大变化和增长的一年。本次主题演讲将探讨当今 OSPO 面临的新挑战和机遇。
小组讨论:为什么开源 AI 很重要:欧盟社区与政策视角
Justin Colannino;Astor Nummelin Carlberg;Ibrahim Haddad;Sachiko Muto;Stefano Maffuli
Nerdearla

🇦🇷 阿根廷,布宜诺斯艾利斯
🗓️ 2023 年 9 月 26-30 日
🎤 主题演讲
❤️ 合作伙伴
摘要
庆祝开源 25 周年
尼克·维达尔
2023 年 2 月是开源 25 周年。这对整个社区来说都是一个值得庆祝的重大里程碑!在本次会议中,我们将回顾过去,了解我们迄今为止的丰富历程,并展望未来,重新构想一个开放与协作盛行的新世界。快来与我们一起庆祝这个非常特殊的时刻!开源软件标签是在 1998 年 2 月 3 日于加利福尼亚州帕洛阿尔托举行的战略会议上创造的。同月,开源促进会 (OSI) 成立,作为一个普通的教育和倡导组织,旨在提高人们对开放开发流程优越性的认识和采用。OSI 承担的首批任务之一是起草开源定义 (OSD)。时至今日,OSD 仍被认为是开源许可的黄金标准。在本次会议中,我们将介绍自由软件和开源运动丰富且相互关联的历史,并展示开源如何克服一切困难,“赢得”了世界。但我们真的赢了吗?开源一直面临着一场非同寻常的艰苦战斗:从最强大的公司不断散布的虚假信息和 FUD(恐惧、不确定性和怀疑),到围绕可持续性和包容性的问题。我们将回顾开源的这段丰富历史,并深入探讨其未来,探索未来的若干挑战和机遇,包括其在促进 ML/AI 和网络安全等新兴领域的协作和创新方面的关键作用。我们将在演示过程中和全年分享一个互动时间表,邀请听众和广大社区彼此分享他们的开源故事和梦想。
深度探索:AI 网络研讨会系列

🌎 在线
🗓️ 2023 年 9 月
🎤 讲座
❤️ 组织者
摘要
The Turing Way炉边谈话:谁在构建开源 AI?
Jennifer Ding、Arielle Bennett、Anne Steele、Kirstie Whitaker、Marzieh Fadaee、Abinaya Mahendiran、David Gray Widder、Mophat Okinyi
本次小组讨论由 The Turing Way 和 Alan Turing Institute 的 Jennifer Ding 和 Arielle Bennett 主持,将重点介绍 Abinaya Mahendiran (Nunnari Labs)、Marzieh Fadaee (Cohere for AI)、David Gray Widder (Cornell Tech) 和 Mophat Okinyi (非洲内容审核员联盟) 的观点。作为开源促进会 (OSI) 主办的关于定义开源 AI 的对话的一部分,The Turing Way 正在举办一次小组讨论,重点关注当今参与构建 AI 的关键社区,这些社区的贡献往往被忽视。通过与来自内容审核、数据标注和数据治理背景的小组成员进行对话,我们旨在突出不同类型的贡献者,他们的工作对开源 AI 生态系统至关重要,但他们的贡献往往被排除在治理决策之外,或无法从 AI 价值链中受益。我们将重点关注这些不同形式的工作,以及每种工作在开源生态系统中如何得到认可和奖励,并着眼于 AI 领域目前正在发生的事情。本着促进扩大多元化参与、民主化治理和邀请更多人塑造 AI 未来并从中受益的 AI 开放精神,我们将构建一场对话,重点介绍当前的最佳实践以及法律、社会和文化障碍。我们希望这种跨领域、跨学科的讨论能够强调将对 AI 生产至关重要的社区置于“开源 AI”的对话、考虑和定义中的重要性。
开源 AI 的 SAFE-D 原则的实施
Kirstie Whitaker
SAFE-D 原则 (Leslie, 2019) 是在英国国家数据科学和人工智能研究所 Alan Turing Institute 制定的。它们已在图灵研究所的研究伦理 (TREx) 机构审查流程中实施。在本次小组讨论中,我们将倡导开源 AI 的定义应包括对这些原则中每一项的反思,并介绍 AI 项目如何在其工作交付中嵌入这些规范性价值观的案例研究。
SAFE-D 方法以以下五个规范性目标为基础
* **安全性和可持续性** 确保数据密集型系统的负责任的开发、部署和使用。从技术角度来看,这要求系统安全、稳健和可靠。从社会可持续性角度来看,这要求系统生产和使用背后的数据实践要以持续考虑使受影响的权利持有人遭受损害的风险、持续反思项目背景和影响、持续的利益相关者参与和参与以及从系统部署到退役或解除配置的变更监控为依据。
* 我们的建议:开源 AI 必须是安全和可持续的,开放的工作方式确保“人多出智慧”。让广泛且积极参与的社区参与到整个 AI 工作流程中,可以使基础设施更安全,并使工作的目的与受影响的利益相关者的需求保持一致。
* **问责制** 可以包括特定形式的过程透明度(例如,通过过程日志或外部审计实施),这对于补救机制可能是必要的,或者寻求建立明确的责任角色的更广泛的负责任的治理流程,在这些流程中,透明度可能是不适当的(例如,机密项目)。
* 我们的建议:开源 AI 应具有明确的问责制文档和提出疑虑的流程。这些在开源社区中已经是常见做法,包括通过行为准则和针对扩展或重大更改的征求意见。
* **公平和非歧视** 与公平和正义的社会法律概念密不可分,这些概念可能强调各种特征,例如公平的结果或通过偏见缓解实现的程序公平,以及社会和经济平等、多样性和包容性。
* 我们的建议:开源 AI 应明确说明 AI 模型和工作流程如何考虑公平和正义。我们希望开源 AI 社区能够将现有的偏见报告工具嵌入到可互操作的开源 AI 生态系统中。
* **可解释性和透明度** 是在数据处理与人类判断和决策相互作用或影响人类判断和决策的情况下,实现自主和知情决策的关键条件。可解释性不仅仅是解释数据密集型系统结果的能力;它还取决于提供关于结果背后过程的可访问且相关的信息库的能力。
* 我们的建议:开源 AI 应建立在透明性的强大历史之上,而透明性是开源定义的基础:访问源代码、数据和文档。我们相信,当前的开源工作方式将增强整个 AI 生态系统的透明度和可解释性。
* **数据质量、完整性、保护和隐私** 都必须得到确立,才能确信数据密集型系统和模型是在安全的基础上开发的。
* 我们的建议:即使数据无法公开,也应围绕数据的收集和使用方式建立问责制和透明度。
会议议程如下:
1. David Leslie 教授将概述 SAFE-D 原则。
2. Victoria Kwan 将介绍 SAFE-D 原则如何在机构审查流程中得到实施。
3. Kirstie Whitaker 博士将提议如何通过开放源代码人工智能的共同定义来调整机构流程,以适应去中心化的采用。
最后 20 分钟将是一个小组讨论环节,回应观众的提问和评论。
基于共同体的治理数据
Alek Tarkowski,Zuzanna Warso
与数据治理相关的问题(其开放性、来源、透明度)传统上一直超出开源框架的范围。然而,机器学习模型的发展表明,对数据治理的关注应该纳入任何旨在全面治理开源人工智能的方法的范围。在本次会议中,我想讨论以下问题,例如:– 需要开放许可/基于共同体的数据库 – 公开共享开源模型训练中使用的任何数据的要求的可行性 – 可以成为开源人工智能框架一部分的透明度和来源要求。
抢占生成式人工智能的风险:开源人工智能倡议的负责任最佳实践
Monica Lopez 博士
随着人工智能(AI)在众多行业和用例中迅速普及,改变了我们工作、互动和彼此生活的方式,人工智能技术带来了两个相互关联的挑战需要解决:影响我们的信念和产生用于邪恶意图的新手段。这些源于人类心理倾向的挑战可以为确保安全可靠的生成式人工智能发展所需的治理类型提供信息,尤其是在开源内容领域。
从环境中可用数据子集形成人类信念对于生存至关重要。虽然信念会随着新数据的引入而改变,但数据出现的背景以及数据传播的方式都很重要。我们彼此之间生动的动态互动是我们信息交流和信念发展的基础。生成式人工智能模型不是实时系统,其内部架构无法理解环境以评估信息。考虑到这种系统现实,以及人工智能被恶意行为者用作犯罪工具的情况,欺骗——人类用来操纵他人、隐瞒真相并为个人利益创造虚假印象的策略——变成了一种通过非个人化的自动化手段进一步放大的行为。
随着大型语言模型(LLM)和其他多模态人工智能生成系统于 2022 年 11 月进入公众使用和消费领域,我们现在可以大规模使用能够模糊现实与虚构界限并输出令人不安和危险内容的工具。此外,开源人工智能的努力,尽管其目标是创造民主化的技术、加速协作、对抗人工智能偏见、鼓励透明度以及通过标准机构生成社区规范和人工智能标准以促进公平性,这些目标值得称赞,但也突出了模型可追溯性的危险以及数据和算法来源的复杂性(例如,PoisonGPT、WormGPT)。更进一步,对这些生成系统的开发和使用的监管仍然不完善,并且处于草案形式,例如,欧盟人工智能法案,或者作为负责任治理的自愿承诺,例如,美国领先人工智能公司管理人工智能风险的自愿承诺。
上述情况呼吁重新审视并在开源人工智能领域内开发人工智能政策时,整合人类心理学、人工智能伦理和人工智能风险管理。我们提出了一个三层解决方案,该方案基于以人为本的方法,倡导人类福祉和改善人类状况:(1)澄清人类信念以及将对机器的期望转移作为支持人工智能系统欺骗的机制;(2)使用(1)重新评估透明度、公平性和问责制等伦理考量及其对开源代码 LLM 的个别要求;以及(3)一套由此产生的技术建议,改进风险管理协议(即,采用整体评估策略的独立审计),以克服 LLM 评估方法的问题以及人类信念的僵化性和可变性。
这种三层解决方案的目标是保持人类控制并填补当前立法草案和自愿承诺的空白,在人类评估判断的脆弱性和人类技术创新的优势之间取得平衡。
人工智能中的数据隐私
Michael Meehan
人工智能中的数据隐私是每个人都需要计划的事情。随着人工智能技术的不断进步,保护用于训练和驱动这些系统的个人信息,并确保公司正确使用个人信息变得越来越重要。首先,要理解人工智能系统在生成结果时可能会无意中泄露用于训练人工智能的数据。本次演讲将概述这种情况是如何以及为什么发生的。其次,确保您有适当的权利使用输入到您的人工智能中的数据。这有时并非易事,而且风险很高。本次演讲将详细介绍初始权利不当的情况,以及由此有时会造成的灾难性后果。第三,考虑使用真实个人信息训练模型的替代方案。一种特别有吸引力的方法是使用个人数据创建统计上相似的合成数据,并使用该合成数据来训练您的人工智能系统。这些考虑因素对于帮助保护个人信息或其他敏感信息免受因使用人工智能而泄露至关重要。这将有助于确保人工智能技术能够安全且负责任地使用,并且人工智能的好处可以在风险较小的情况下享受。
即将到来的欧盟人工智能法案中关于开源监管的视角
Katharina Koerner
本次演讲将深入探讨即将到来的欧盟人工智能法案的法律视角,特别关注开源、非营利和学术研究与开发在人工智能生态系统中的作用。本次会议将涵盖关键主题,例如定义开放数据和人工智能/机器学习系统、人工智能输出的可版权性、对代码和数据的控制、数据隐私以及在鼓励开放创新的同时促进公平竞争。借鉴全球现有和即将出台的人工智能法规,我们将提出建议,以促进开放生态系统的发展,同时保障符合伦理和负责任的人工智能实践。加入本次会议,深入探索塑造开源未来的法律格局。
您将在演示中了解到的内容
开源项目在欧盟人工智能法案草案下面临的关键问题。
针对开源人工智能组件的明确定义和豁免的重要性。
需要有效的协调和治理来支持开源开发。
为开源人工智能实施研发例外的挑战。
针对“基础模型”的比例要求对于鼓励开源创新和竞争的重要性。
关于解决开源平台提供商的担忧并确保在人工智能法案下建立开放且蓬勃发展的人工智能生态系统的建议。
数据合作社与开源人工智能
Tarunima Prabhakar,Siddharth Manoharrs
数据合作社已被提议作为一种可能的补救措施,以解决当前公民/互联网用户(数据由此产生)与处理数据的公司之间存在的权力失衡问题。但是,这些合作社也可能发展为基于汇集的数据开发自己的 AI 模型。发展机器学习的举动可能是为了满足合作社的可持续性需求,或是为了解决汇集数据的人们的需求。即使数据不是开放的,合作社也可能会考虑“开放”其机器学习模型。在本次演讲中,我们将使用 Uli,我们正在进行的项目,旨在回应印度语言中基于性别的辱骂,作为一个案例研究,描述社区汇集的数据与开源人工智能之间的相互作用。Uli 依赖于活动家和研究人员在遭受基于性别的辱骂时标注的辱骂实例。这种众包数据已被用于训练机器学习模型,以检测印度语言中的辱骂行为。虽然数据和机器学习模型在 beta 版本发布时已开源,但在随后的迭代中,团队正在考虑限制开放的数据。这在一定程度上是因为该项目旨在弥补各个平台上的信任和安全团队对非英语语言的关注不足。本次演讲将探讨团队正在考虑的不同数据许可和基于数据构建的机器学习模型许可模式,以及每种模式中经济可持续性与公共产品创造之间的权衡。
基于 LLM 的推荐系统中的公平性与责任:确保人工智能技术的合乎伦理的使用
Rohan Singh Rajput
大型语言模型(LLM)的出现为推荐系统开启了新的篇章,提高了其有效性和个性化程度。然而,随着这些人工智能系统变得越来越复杂和具有影响力,公平性和责任问题变得至关重要。本次会议旨在探讨这些关键方面,深入探讨基于 LLM 的推荐系统中存在的伦理问题,包括算法偏见、透明度、隐私和问责制。我们将深入研究减轻偏见、确保数据隐私和促进负责任的人工智能使用的策略。通过案例研究,我们将考察不公平或不负责任的人工智能实践的实际影响,以及合乎伦理的人工智能实施的成功案例。最后,我们将讨论伦理人工智能领域正在进行的研究和新兴趋势。本次会议非常适合人工智能从业人员、数据科学家和伦理学家,旨在使与会者掌握在基于 LLM 的推荐系统中实施公平和负责任的实践的知识。
在开放开发的开源项目中迎接人工智能的挑战
Thierry Carrez,Davanum Srinivas,Diane Mueller
开放开发的开源项目是指以去中心化方式开发的项目,通过超越开源并要求开放开发、开放设计和开放社区(“四开放”),充分利用社区的力量。这种开放的创新方法促成了 OpenStack 或 Kubernetes 等非常流行的开源基础设施技术的创建。
随着生成式解决方案和 LLM 的兴起,我们预计越来越多的代码将直接或间接地由人工智能生成。预期的效率可能会节省数百万美元。但代价是什么?这将如何影响“四开放”?在我们的开放社区中迎接人工智能的挑战是什么?
本次网络研讨会将探讨以下问题,例如
– 人工智能生成的代码可以在开源许可下在项目中被接受吗?
– 我们如何期望开放设计流程在人工智能世界中演变?
– 是否有可能避免负担仅仅从代码编写转移到代码审查?
– 在人工智能驱动的参与者的情况下,开放社区意味着什么?是否存在创建二等社区成员的风险?
开放 ChatGPT:在人工智能中实现开放性的案例研究
Andreas Liesenfeld,Mark Dingemanse
人工智能的开放性必然是一个多维的,因此是分等级的概念。我们展示了在当前指令调整的大型语言模型中跟踪开放性、透明度和问责制的工作。我们的目标是为十多个特定特征提供基于证据的开放性判断,从源代码到训练数据再到模型权重,以及从许可到科学文档和 API 访问。这些特征分为三个广泛的领域(可用性、文档和访问方法)。潜在用户可以单独使用开放性判断,以便就部署或不部署特定架构或模型做出明智的决定。它们也可以累积使用,以得出总体开放性评分(在 https://opening-up-chatgpt.github.io 上跟踪)。这种方法使我们能够有效地指出“开源”一词的可疑用法(例如,Meta 的 Llama2 成为所有“开放”模型中最不开放的模型),并激励开发人员在整个模型开发和部署周期中考虑开放性和透明度(例如,BLOOMZ 模型是开放性的典范)。虽然我们的重点是 LLM+RLHF 架构,但将开放性分解为最相关的组成特征的总体方法对于如何在人工智能和机器学习的背景下定义“开放”这一问题具有普遍意义。作为本着开放研究精神工作的科学家,我们开放性判断和实时跟踪器的框架和源代码本身也是开源的。
开源人工智能:赋能、透明度与可再现性之间
Ivo Emanuilov,Jutta Suksi
开源人工智能是一个用词不当的名称。人工智能,特别是以机器学习(ML)的形式,不是被编程来执行任务,而是基于可用数据来学习任务。学习到的模型只是一个经过训练以执行特定任务的新算法,但它不是一个真正的计算机程序,也不完全符合大多数开源软件许可的可保护主题范围。因此,提供训练脚本或模型的“源代码”(例如,神经权重)并不能保证符合 OSI 对开源的定义,因为人工智能是分布在 ML 管道中的数据工件的集合。
ML 管道由专注于并反映从数十亿个数据点中提取模式、趋势和关联的过程和工件组成。与传统软件(重点是源代码不受限制的下游可用性)不同,在 ML 中,关于此管道机制的透明度占据了中心舞台。
透明度对于促进使用最大化和降低作为 OSS 定义基本原则的封闭风险至关重要。开源人工智能的定义不应侧重于单个计算工件(例如,训练和测试数据集或机器学习模型),而应关注“配方”,即可再现模型的制作过程。开源人工智能应该减少对受源代码底层版权保护的特定实现方式的关注,而更多地参与促进公开披露有关“人工智能制作”过程的详细信息。
开源软件的定义一直难以应用于其他主题,因此,人工智能作为一种根本不同的软件形式,可能同样需要另一个定义,这并不令人惊讶。我们认为,任何开源人工智能的定义都不应仅仅侧重于发布神经网络权重、训练脚本源代码或训练数据(尽管它们可能很重要),而应侧重于整个管道的运作,以便该过程变得可再现。为此,我们提出了一个受专利法中书面描述和使能要求启发的开源人工智能定义。根据该定义,要符合开源人工智能的资格,公开发布应披露有关人工智能制作过程的详细信息,这些信息应足够清晰和完整,以便机器学习领域的专业人员能够执行。
鉴于可能需要发布的流程特征(例如,模型架构、优化程序、训练数据等),这个定义显然有待进一步发展和完善。其中一些工件可能受独占知识产权(特别是版权)保护,而另一些则可能不受保护。这为在单个软件包中许可人工智能带来了根本性的挑战。
解决这个难题的一种方法是应用欧洲视频游戏案例法(例如,欧洲法院任天堂案)中已知的单一方法,即如果我们能识别出一个吸引版权保护(原创性)的表达元素,该元素将允许我们将保护扩展到整个作品。或者,我们可以采用更务实和技术上正确的方法,将人工智能视为嵌入异构工件集合的过程。在这种情况下,任何以开源条款发布的内容,如果能确保使能、可再现性和下游可用性,都必须采取混合许可的形式,该许可累积授予对代码、数据和文档的使能权利。
在本次会议中,我们将讨论这些不同的方法,以及我们定义开源人工智能的方式以及使用该定义追求的目标如何预先决定应采用哪种许可方法。
联邦学习:安全和私有数据分析的范式转变
Dimitris Stripelis
简介
在某些情况下,与机器学习问题相关的数据分布在多个地点,由于监管、竞争、安全或隐私原因,这些地点无法共享数据。联邦学习 (FL) 是一种很有前景的方法,可以在不将数据传输到中心位置的情况下,跨 silos 学习所有可用数据的联合机器学习模型。联邦学习最初由 Google 于 2017 年推出,用于边缘设备上的下一词预测 [1]。最近,联邦学习在多个学科领域得到了广泛的应用,尤其是在医疗保健、金融和制造业。
联邦学习训练
通常,联邦环境由一个中央服务器和一组参与设备组成。设备不向中央服务器发送原始数据,而是仅发送在其私有数据上训练的本地模型参数。这种计算方法对机器和深度学习模型的传统训练方式产生了重大影响。与需要在中心位置聚合数据的集中式机器学习相比,联邦学习允许数据保留在其原始位置,从而提高数据安全性并降低相关的数据隐私风险。当联邦学习用于跨多个边缘设备(例如,手机、传感器等)训练模型时,它被称为跨设备 FL;当应用于跨组织时,它被称为跨 silo FL。
安全和私有联邦学习
联邦学习通过确保敏感数据永远不会离开用户的设备来解决一些数据隐私问题。个人数据保持安全和私有,显著降低了数据泄露的风险,同时用户积极参与数据分析过程并保持对其个人信息的完全控制。然而,联邦学习并非总是开箱即用就安全和私有的。如果未得到充分保护,联邦模型仍然可能泄露敏感信息 [3],而窃听者/攻击者仍然可以通过通信渠道访问联邦训练过程。为了缓解这种情况,联邦学习必须与隐私保护和安全数据分析机制相结合,例如差分隐私 [4] 和安全聚合 [5] 协议。差分隐私可以确保即使在未经授权的访问下,敏感的个人信息仍然受到保护,而安全聚合协议即使在共谋攻击下也能够实现模型的聚合。
结论
在一个数据驱动的世界中,优先考虑数据隐私和安全数据分析不仅是一种责任,更是一种必然。联邦学习在这个领域脱颖而出,成为一个颠覆性的技术,它使组织能够从分散的数据源中获得洞察力,同时保障数据隐私。通过拥抱联邦学习,我们可以构建一个数据分析和隐私和谐共存的未来,在尊重基本隐私权的同时,释放数据驱动创新的全部潜力。
OpenRAIL 许可证是否应被视为开源 AI 许可证?
Daniel McDuff, Danish Contractor, Luis Villa, Jenny Lee
人工智能的进步部分得益于开源 (OS),开源已经渗透到学术界和工业界的机器学习研究中。然而,人们越来越关注人工智能模型(例如,LLM)对人类和社会的的影响和规模。虽然开放性是该领域创新的核心价值,但开放性是不够的,并且不能解决人工智能在被疏忽或恶意使用时可能存在的危害风险。越来越多的许可证类别是开放负责任的人工智能许可证(https://www.licenses.ai/ai-licenses),其中包括行为使用条款,这些包括诸如 Llama2(https://ai.meta.com/llama/)和 Bloom(https://bigscience.huggingface.co/blog/bloom)等备受瞩目的项目。在本次拟议的会议中,小组成员将讨论 OpenRAIL(https://hugging-face.cn/blog/open_rail)许可证是否应被视为开源 AI 许可证。
议题将包括:开源的定义是否不足以用于人工智能系统;人工智能系统的开源是否需要开源模型的各个方面(数据、模型、源代码),以及这是否可行;如何将数据使用要求纳入此类定义中;因此,纳入行为使用限制是否与未来任何开源 AI 的定义相悖。在回答这些问题时,小组成员将讨论人工智能系统的组成部分(例如,数据、模型、源代码、应用程序)各自具有不同的属性,以及这是否是新型许可模式的动机之一。演讲者拥有构建、分发和部署人工智能系统的自身经验,并将提供这些考虑因素在实践中的例子。
版权——开源代码的正确答案,开源 AI 的错误答案?
McCoy Smith
开源始终主要在版权中找到其法律基础。尽管各种开源社区已经采纳并颁布了许多关于开源的行为准则,但最终,附加到任何开源作品上的许可证决定了如何使用它以及用户为了保持法律合规性必须遵守哪些义务。
人工智能正在提出,并将继续提出关于版权法如何适用于——或不适用于——摄取训练内容、处理该内容以提取用于生成输出的信息、该信息是什么以及产生的输出的性质的深刻问题。
最近,围绕人工智能训练的输入阶段提出的问题,以及在该输入阶段使用的材料的创作者在多大程度上拥有——在道德上或法律上——反对该训练的权利,已经引发了大量的辩论和相当多的诉讼。与此同时,人工智能的输出是否可以成为版权或专利保护的主题也在各个司法管辖区进行测试——结果相互冲突。输入和输出之间发生的事情仍然是一个未解决的问题——以及是否存在任何法律制度可以用来保证法律、规范性规则可以像版权和版权许可在目前的开源领域那样控制这些过程的使用。
本次演讲将深入讨论这些问题,并着眼于测试版权——或任何其他知识产权制度——是否真的可以有效地保持人工智能的“开放性”。
我们应该对 ML/AI 模型使用开源许可证吗?
Mary Hardy
开源人工智能模型的数量呈指数级增长,并且选择的开源许可证种类繁多。所有 OSI 批准的许可证都可以统一使用以适应人工智能的各种组件吗?
在会议期间,开源律师 Mary Hardy 将探讨关于开源 ML 模型许可证的当前和未来的问题,包括
为什么 AFL-3.0 如此受欢迎?
Apache-2.0 呢?GPL-2.0/3.0 呢?
在与用作基础的检查点不同的开源许可证下许可修改的含义是什么?
是否需要显式考虑 ML 模型权重的新许可证?
用知识产权赔偿来保护您的基础
Justin Dorfman, Tammy Zhu, Samantha Mandell
当与模型不公开的 LLM 提供商(Anthropic、OpenAI 等)合作时,几乎不可能知道是否已在 Copyleft 代码上进行过训练。那么,如何在不冒法律风险的情况下将人工智能开发工具推向市场?我请教了 Sourcegraph 的法律主管 Tammy Zhu,教我如何保护自己免于未能遵守署名要求。
FOSS 和 AI 的意识形态:与平台和黑盒系统相关的“开放”意味着什么
Mike Nolan
自由和开源软件的最初概念是在软件被捆绑成离散的软件包,在由个人拥有和操作的机器上运行的时代开发的。最初的 FOSS 运动利用许可和版权法来提供对这些软件系统更好的自主权和控制权。现在,我们的软件系统通常作为平台运行,垄断网络和资源之间的访问,并通过这种垄断获得巨大利润。
在本次演讲中,听众将更多地了解 FOSS 的意识形态基础,以及随着软件从个人离散软件包转变为深度互连的系统,这些系统为许多人限制了对关键资源的访问,我们的社区中已经形成的盲点。我们将深入探讨在一个技术的部署不可避免地影响如此多人的世界中,自主权可能意味着什么。最后,我们将观察传统的开源方法在提供自主权方面的缺陷,以及我们可能掌握的其他工具,以确保对这种日益普及的技术进行更好的社区治理。
社区领导力峰会

🇺🇸 美国罗利
🗓️ 2023 年 10 月 15 日
🎤 参与者
万物开源

🇺🇸 美国罗利
🗓️ 2023 年 10 月 16-17 日
🎤 演讲、研讨会
❤️ 赞助商、组织者(OSI 轨道)
摘要
庆祝开源 25 周年
尼克·维达尔
今年是开源 25 周年。这对整个社区来说是一个值得庆祝的巨大里程碑!在本次会议中,我们将穿越时光,了解我们迄今为止的丰富历程,并展望未来,重新构想一个开放与协作盛行的新世界。快来与我们一起庆祝这个非常特殊的时刻!开源软件标签于 1998 年 2 月 3 日在加利福尼亚州帕洛阿尔托举行的战略会议上创造。同月,开源促进会 (OSI) 成立,作为一个通用的教育和倡导组织,旨在提高人们对开放开发过程优越性的认识和采用。OSI 承担的首批任务之一是起草开源定义 (OSD)。时至今日,OSD 仍被认为是开源许可的金标准。在本次会议中,我们将涵盖自由软件和开源运动的丰富且相互关联的历史,并展示开源如何逆势而上,“赢得”世界。但我们真的赢了吗?开源一直面临着非凡的艰苦战斗:从最强大的公司不断散布的错误信息和 FUD(恐惧、不确定性和怀疑),到围绕可持续性和包容性的问题。我们将回顾开源的这段丰富历史,并深入探讨其未来,探索未来的若干挑战和机遇,包括其在促进人工智能等新兴领域的协作和创新方面的关键作用。我们将在演示期间和全年分享一个互动时间轴,邀请观众和广大社区相互分享他们的开源故事和梦想。
开源 201
帕梅拉·切斯特克
本次重要会议是对开源许可证以及为什么要关注开源许可证、哪些是最常用的以及为什么的高级入门。还包括对 OSI 许可证流程以及哪些人参与根据开源定义考虑和批准新许可证的见解,以及过去五年中批准了哪些许可证。主题包括挑战、成功、最佳实践、运营政策、资源。
开源和公共政策
Deb Bryant, Stephen Jacobs, Patrick Masson, Ruth Suehle, Greg Wallace
软件行业和人工智能、开放科学、开放数据和开放教育等邻近领域的新法规正在世界各地兴起。网络安全、人工智能的社会影响、数据和隐私是全球立法者至关重要的问题。与此同时,COVID-19 大流行将协作开发推向了前所未有的水平,并将开源软件、开放研究、开放内容和数据从主流推向主舞台,在公共利益与公民安全和保障之间造成了紧张关系,立法者努力在开放协作与保护公民之间找到平衡。
从历史上看,开源软件社区和支持其工作的基础组织并未参与政策讨论。展望未来,在不损害我们复杂的生态系统的情况下,周全地制定这些重要的公共政策需要了解我们的生态系统如何运作。确保在这些讨论中没有历史代表权利益相关者变得至关重要。
请加入我们与开放政策利益相关者的公开讨论,他们正在建设性地处理当前的开放政策议题。我们的小组成员将介绍 oss 基金会和其他开放领域盟友如何应对这一新挑战,以及如何抓住机会影响公众利益的积极变化。
主题:公共政策、开放科学、开放教育、美国和欧盟的现行立法、美国对 OSS 可持续性的兴趣、开放政策联盟简介
小组讨论:开源合规性和安全性
Aeva Black, Brian Dussault, Madison Oliver, Alexander Beaver
本次小组讨论的目标是涵盖所有供应链相关内容(从一般的 SBOM 到其他特定技术/方法),从 CISA(网络安全和基础设施安全局)和美国政府为保护开源所做的最新努力;从最大的开源开发者平台 GitHub;从 Stacklock,该领域最令人兴奋的初创公司之一,由 Kubernetes 和 Sigstore 的创始人领导;以及来自美国领先大学之一的罗切斯特理工学院,探索四种不同的视角。
开源 AI 定义(研讨会)
Mer Joyce, Stefano Maffulli
开源促进会 (OSI) 继续深入探讨人工智能的开发和使用所涉及的复杂性,本次会议是深入探讨:人工智能——定义开源人工智能 2023 系列的一部分。目标是协作建立一个清晰且站得住脚的“开源人工智能”定义。这将是一次互动会议,每位参与者都将发挥积极作用。OSI 将分享开源人工智能定义的早期草案,并在主持人的帮助下,我们将收集参与者的反馈。亲临现场,见证历史的发生!
EclipseCon

🇩🇪 德国路德维希堡
🗓️ 2023 年 10 月 16-18 日
🎤 主题演讲
开源 25 岁了
Carlos Piana
今年,开源促进会 (OSI) 庆祝成立 25 周年,主要工作是定义开源是什么。我们当然为我们过去所做的工作感到自豪,并相信开源已经兑现了许多甚至全部承诺。
但我们更感兴趣的是未来 25 年会发生什么。范式转变的速度越来越快,从大型机到客户端/服务器,到互联网,到云,到人工智能,再到什么?我们必须确保开放性和自由尽可能不受阻碍。仅仅使用使开源获得巨大成功的相同工具是不够的。
在本次演讲中,Carlo Piana 将分享 OSI 对未来几年促进开放性的看法和计划。
Latinoware

🇧🇷 巴西伊瓜苏
🗓️ 10 月 18-20 日
🎤 主题演讲、演讲
人工智能的未来:基于开源的主权和隐私
Nick Vidal, Aline Deparis
人工智能的未来正在当下被定义,这是一家大型公司与世界各地企业家、开发者和研究人员社区之间一场令人难以置信的战斗。人工智能世界正处于重要的十字路口。未来有两条道路:一条是高度管制的专有代码、模型和数据集将占主导地位,另一条是开源占据主导地位。一条道路将导致少数大型公司对人工智能的垄断,最终用户将受到有限的隐私和控制,而另一条道路将使人工智能民主化,允许任何人研究、改编、贡献、创新,以及在这些基础上建立业务,并充分控制和尊重隐私。
庆祝开源 25 周年
尼克·维达尔
今年是开源 25 周年。这对整个社区来说是一个值得庆祝的巨大里程碑!在本次会议中,我们将穿越时光,了解我们迄今为止的丰富历程,并展望未来,重新构想一个开放与协作盛行的新世界。快来与我们一起庆祝这个非常特殊的时刻!开源软件标签于 1998 年 2 月 3 日在加利福尼亚州帕洛阿尔托举行的战略会议上创造。同月,开源促进会 (OSI) 成立,作为一个通用的教育和倡导组织,旨在提高人们对开放开发过程优越性的认识和采用。OSI 承担的首批任务之一是起草开源定义 (OSD)。时至今日,OSD 仍被认为是开源许可的金标准。在本次会议中,我们将涵盖自由软件和开源运动的丰富且相互关联的历史,并展示开源如何逆势而上,“赢得”世界。但我们真的赢了吗?开源一直面临着非凡的艰苦战斗:从最强大的公司不断散布的错误信息和 FUD(恐惧、不确定性和怀疑),到围绕可持续性和包容性的问题。我们将回顾开源的这段丰富历史,并深入探讨其未来,探索未来的若干挑战和机遇,包括其在促进人工智能等新兴领域的协作和创新方面的关键作用。我们将在演示期间和全年分享一个互动时间轴,邀请观众和广大社区相互分享他们的开源故事和梦想。
Linux 基金会成员峰会

🇺🇸 美国蒙特雷
🗓️ 2023 年 10 月 24-25 日
🎤 演讲,研讨会
为什么开源 AI 很重要:社区与政策视角
Mary Hardy; Stefano Mafulli; Mike Linksvayer; Katharina Koerner
公开可用的 AI 模型数量呈指数级增长,每六个月翻一番。随着这种爆发式增长,社区和政策制定者正在询问有关开源 AI 的创新优势、安全风险、对主权的影响以及相对于闭源模型的竞争经济学的问题。在本次小组讨论中,Mary 和各位嘉宾将讨论,面对日益趋向于加强对开放社区监管的政策,为何清晰且一致的开源 AI 定义对于开源社区至关重要。
研讨会:定义“开放 AI”
Stefano Maffulli, Mer Joyce
正如立法者加速前进,末日预言者不断唱衰,有一点是明确的:现在是时候在 AI/ML 的背景下定义“开放”的含义了,赶在别人为我们定义之前。
加入本次互动会议,分享您对人工智能和机器学习系统“开放”意味着什么的看法。开放源代码促进会将听取与会者对于他们认为应该成为人工智能从业人员共享原则集的内容的意见,该原则集可以为人工智能从业人员重建类似于开源定义为软件所做的那种无需许可、务实和简化的协作。
我们将分享一份新的“开放”AI/ML 系统定义的草案,并请与会者实时审查。
社区高于代码

🇨🇦 加拿大,哈利法克斯
🗓️ 2023 年 10 月 26-28 日
🎤 主题演讲
为何开源 AI 至关重要:迈向清晰的定义
贾斯汀·科拉尼诺
公开可用的 AI 模型数量呈指数级增长,每六个月翻一番。随着这种爆发式增长,社区和政策制定者正在提出问题并提议立法,以解决开源 AI 的创新优势、安全风险、对主权的影响以及相对于闭源模型的竞争经济学问题。
在这种背景下,开源社区需要一个清晰且一致的开源 AI 定义,以确保“开源”标志能够传递安全信号,尊重 AI 开发者,保障最终用户的权利,并促进更广泛社区的无摩擦改进。在本次主题演讲中,OSI 董事会成员 Justin Colannino 将讨论 OSI 为构建这一所需的开源 AI 定义正在做些什么,以及您如何能够提供帮助。
SFScon

🇮🇹 意大利,博尔扎诺
🗓️ 2023 年 11 月 9-10 日
🎤 主题演讲
欧洲的监管、AI 和软件自由现状
西蒙·菲普斯
多年来,我们一直依赖于许可证中大写的免责声明,以及接收者检查和运行代码的能力,以确保所有人的软件自由。但是,云计算、AI 以及现在欧洲监管浪潮已经侵蚀了那个梦想。我们已经到了什么地步,软件自由仍然是一个可行的目标吗?
数字公共产品联盟会议

🇪🇹 埃塞俄比亚,亚的斯亚贝巴
🗓️ 11 月 15-16 日
🎤 研讨会
❤️ 合作伙伴
摘要
研讨会:定义“开放 AI”
Stefano Maffulli, Nicole Martinelli
正如立法者加速前进,末日预言者不断唱衰,有一点是明确的:现在是时候在 AI/ML 的背景下定义“开放”的含义了,赶在别人为我们定义之前。
加入本次互动会议,分享您对人工智能和机器学习系统“开放”意味着什么的看法。开放源代码促进会将听取与会者对于他们认为应该成为人工智能从业人员共享原则集的内容的意见,该原则集可以为人工智能从业人员重建类似于开源定义为软件所做的那种无需许可、务实和简化的协作。
我们将分享一份新的“开放”AI/ML 系统定义的草案,并请与会者实时审查。
开源体验

🇫🇷 法国,巴黎
🗓️ 2023 年 12 月 6-7 日
🎤 主题演讲
❤️ 合作伙伴
开源 25 年
Simon Phipps, Thierry Carrez, Florent Zara, Anne-Marie Scott
Et LinuxFr.org 像往常一样多年来一直都在。因此,您可以在 B10 展位找到我们,就在动画区旁边(我们将为其注入活力,请相信我们!)。LinuxFr.org 网站团队的一部分成员将会在社团村,向您介绍该网站,进行讨论,回答您可能提出的所有问题,向您赠送网站贴纸,并让您赢得大量书籍,但不仅如此,因为我们将与开源促进会共同庆祝我们的 25 周年。我们甚至应该能够为您提供特别年份的葡萄酒!
基金会在当今开源中的作用
Thierry Carrez
GitHub 等软件开发平台的兴起大大减少了创建和运行开源项目的摩擦。在这种背景下,基金会在当今更广泛的开源生态系统中的作用是什么?
在本次演讲中,开放基础设施基金会总经理兼开源促进会副主席 Thierry Carrez 将分享他对这个话题的看法。在简要回顾开源基金会的历史之后,本次演讲将介绍当今活跃的开源基金会的类型概况,以及它们在范围和原则上的差异,然后重点关注现代基金会的附加值:通过为支持的项目提供一系列服务来实现跨多个组织的开放协作。
AI.dev

🇺🇸 美国,帕洛阿尔托
🗓️ 2023 年 12 月 12-13 日
🎤 演讲,研讨会
❤️ 合作伙伴
小组讨论:为何“开源 AI”的通用定义对人类至关重要
Roman Shaposhnik,Apache 软件基金会;Tanya Dadasheva,Ainekko, Co.;Nithya Ruff,亚马逊;Sal Kimmich,GadflyAI
在四分之多世纪前创建开源定义时,没有人能够预料到它会对 IT 行业产生巨大的、数万亿美元的市场形成效应。AI 现在正在进入一个时代,它不仅仅是计算的应用,而是一种从根本上不同的计算系统工程设计方式。如果我们希望以我们习惯的协作环境来构建这些新型计算系统,我们就需要格外聪明地对待我们将开源遗产的哪些部分带入未来,以及我们需要重新发明哪些部分。简而言之,我们需要一个跨行业的“开源 AI”水平设定定义。本次会议将涵盖从生成式 AI 的影响到传统观点(即开源代码实现 AI 算法可能不足以保证可检查性、可修改性和可复制性)等主题。我们将探讨政府正在进行的制定 AI 监管政策,特别是 OSS AI 扩散的努力。虽然小组讨论将主要关注 OSI 在 AI 领域深入研究的成果和经验教训,但我们也将涵盖 Apache 和 Linux 基金会的类似努力。
研讨会:定义“开放 AI”
Mer Joyce, Ruth Suehle
正如立法者加速前进,末日预言者不断唱衰,有一点是明确的:现在是时候在 AI/ML 的背景下定义“开放”的含义了,赶在别人为我们定义之前。
加入本次互动会议,分享您对人工智能和机器学习系统“开放”意味着什么的看法。开放源代码促进会将听取与会者对于他们认为应该成为人工智能从业人员共享原则集的内容的意见,该原则集可以为人工智能从业人员重建类似于开源定义为软件所做的那种无需许可、务实和简化的协作。
我们将分享一份新的“开放”AI/ML 系统定义的草案,并请与会者实时审查。
展望 2024 年
我们的使命是教育和倡导开源的益处,并在开源社区的不同群体之间架起桥梁。在 2023 年,由于一些个人和组织的承诺和捐赠,我们在实现我们的使命方面取得了实质性进展。我们希望在 2024 年继续发展我们的项目,迎接未来的新挑战和机遇,从人工智能到网络安全。请考虑加入 OSI 成为个人会员和/或成为赞助商或 附属机构。
按字母顺序排列,并冒着遗漏 2023 年为 OSI 做出贡献的个人姓名的风险,我们要感谢:Aaron Campbell, Aaron Oldenburg, Aaron Williamson, Abby Kearns, Abby Mayes, Abinaya Mahendiran, Abram Connelly, Adam Bouhenguel, Aditya Mishra, Aeva Black, Agil Antony, Agustina Oubel, Aizhamal Nurmamat, Alberto Colon Viera, Alek Tarkowski, Aleksander Baranowski, Aleksandrs Volodjkins, Alessandra Lemos, Alex Williams, Alexander Beaver, Alexander Brateanu, Alexy Khrabrov, Alin Opri, Aline Deparis, Allan Friedman, Alyssa Gravelle, Alyssa Wright, Amanda Brock, Amanda Casari, Amanda Nystrom, Amy Benson, Ana Jimenez Santamaria, Ana Paula Lauermann, Andreas Liesenfeld, Andreas Nettstrater, Andreas Schreiber, Andrew Flegg, Andrew Germann, Andrew Janke, Andrew Katz, Andy Piper, Angela Brown, Angie Barret, Anibal Prestamo, Annania Melaku, Anne Steele, Anne-Marie Scott, Anni Lai, Anthony Best, Ariel Jolo, Arielle Bennett, Ashley McDonald, Ashley Wolf, Astor Nummelin Carlberg, Aubert Emako Tientcheu, Aviya Skowron, Axel Rivas, Bart De Witte, Basit Ayantunde, Ben Abrams, Ben Brooks, Ben Cotton, Ben Ramsey, Ben Reser, Ben van ‘t Ende, Ben Werd, Benjamin Heap, Betsy Waliszewski, Biaowei Zhuang, Birthe Lindenthal, Bob van Luijt, Bolaji Ayodeji, Boris van Hoytema, Boris Veytsman, Brendan Miller, Brian Behlendorf, Brian Duran, Brian Dussault, Brian Shaughnessy, Brian Wisti, Brian Warner, Brianna Cluck, Brittney Q, Bruce Perens, Bruno Souza, Bryan Behrenshausen, Bryan Che, Cailean Osborne, Carl Hancock, Carl-Lucien Schwan, Carlos Ansotegui Pardo, Carlos Muñoz Ferrandis, Carlos Piana, Carol DeCoene, Carol Smith, Carol Willing, Caroline Henriksen, Casey Valk, Catharina Maracke, Celeste Horgan, Cesar Plasencia, Chad Ermacora, Chad Whitacre, Cheng Hai-Xu, Cheuk Ting Ho, Chris Aniszczyk, Chris Grams, Chris Hazard, Chris Hermansen, Chris Hill, Chris Rackauckas, Chris Short, Christian Grobmeier, Christian Hoge, Christian Savard, Christine Abernathy, Christophe Biocca, Christopher Cooper, Christoper Morrison, Ciarán O’Riordan, Clarke Wixon, Claudio Santoro, Clement Oudot, Colin Wright, Connor Leahy, Corinna Gunther, Courtenay Pope, Craig Northway, Cristian Iconomu, Cristin Zegers, Dan Cox, Dan Mahoney, Daniel Brotsky, Daniel Izquierdo, Daniel McDuff, Daniel Mierla, Daniel Naze, Daniel Park, Daniel Risacher, Daniel Scales, Daniel Silverstone, Danish Contractor, Danny Perez-Caballero, Davanum Srinivas, Dave Forgac, Dave Lester, Dave McAllister, David Ayers, David Banig Jr., David Both, David Craner, David Crick, David Gray Widder, David Marr, David Shears, David Woolley, Davide Gullo, Dawn Foster, Denise Allison, Denver Gingerich, Derek Long, Derek Slater, Diane Mueller, Dimitris Stripelis, Dirk Riehle, Donald Fischer, Donald Watkins, Doug Hellmann, Drew Adams, Duane O’Brien, Duda Nogueira, Duy Tran, E. Lynette Rayle, Edd Wilder-James, Ekkehard Gentz, Elior Fureraj, Ellie Evans, Ellyn Heald, Emanuele De Boni, Emily Omier, Emily Simonis, Eric Wright, Erik Solveson, Eron Hennessey, Evan Prodromou, Ezequiel Lanza, Fabrizio Trentin, Fatih Degirmenci, Fatima Khalid, Florence Blazy, Florent Zara, Florian Over, Francesco Giannoccaro, Frank Karlitschek, Frank Viernau, Fred Cox, Fred Fenimore, Frederick Mbuya, Frederik Dixon, Gabriel Engels, Gabriel Ramsey, Gabriele Columbro, Gaël Blondelle, Gene Agnew, Georg Link, Gerald Mayr, Gil Yehuda, Giulia Dellanoce, Gordon Haff, Gordon Lee, Grace Tuscano, Greg Lind, Greg Myers, Greg Wallace, Gregory Zingler, Guy Martin, Hannah Aubry, Heather Alphus, Heather Leson, Heather Meeker, Helen Hoy, Helio Castro, Henrik Ingo, Hidemoto Yamauchi, Hilary Richardson, Howard Thomson, Ian Kelling, Ian Sullivan, Ibrahim Haddad, Ildiko Vancsa, Imo Udom, Ingo Renner, Irina Mirkina, Isaac Sanz, Ivo Emanuilov, Jack Canty, Jackson Braider, Jacob Rogers, James (Jim) Wright, James Korein, James Lovegrove, James Tauber, James Vasile, Jamie Maggie, Jannis Leidel, Jason Baker, Jason Smith, Jathan McCollum, Jautau White, Javier Perez, Jean Devaux, Jean Parpaillon, Jeff Dralla, Jeff Johnson, Jeff Mendoza, Jeff Paul, Jeff Wilcox, Jeffrey Borek, Jeffrey Luszcz, Jen Wike Huger, Jenn McGinnis, Jennifer Ding, Jennifer E. Lee, Jennifer Fowler, Jennifer Pospishek, Jennifer Suber, Jenny Lee, Jeny De Figueiredo, Jeongkyu Shin, Jeremie Tarot, Jeremy Meiss, Jerrold Heyman, Jessica Iavarone, Jessica Smith, Jim Garrison, Jim Hall, Jim Jagielski, Jim Perrin, Jim Zemlin, Joachim Geffken, Joanna Głowacz, Joanna Lee, Joe Brockmeier, Joe Murray, Joey Amanchukwu, John Amaral, John Barbuto, John Eckman, John Sullivan, John Weir, John Yerhot, Jonathan Altman, Jonathan Shar, Jonathan Torres, Jono Bacon, Jordan Harband, Jose Ivan Hernandez, Jose Octavio de Castro Neves Jr, Joseph Beard, Joseph Donahue, Joseph Jacks, Joseph Lemor, Joseph Potvin, Joseph Presley, Josh Berkus, Joshua Drake, Joshua Simmons, Joventino Cinsers, Julia Ferraioli, Justin Colannino, Justin Dorfman, Jutta Suksi, Kara Deloss, Karen Sandler, Karl Fogel, Karsten Reincke, Karsten Wade, Kassandra Dhillon, Kat Walsh, Katharina Koerner, Katie McLaughlin, Keith Herrington, Kenneth Delaney, Kev Barnes, Kevin Fleming, Kevin Sonney, Kimberly Craven, Kirsten Petersen, Kirstie Whitaker, Knute Holian, Kriss Bajo, Kristin O’Connell, Kristina Podnar, Kyle Karsten, Lauren Maffeo, Lauren Pritchett, Laurence Moroney, Laurent Joubert, Laurent Marie, Lawrence Landis, Lawrence Rosen, Lea Gimpel, Leon Allen, Lila Bailey, Lindsay Colbern, Lisa Hoong, Lorna Mitchell, Luca Miotto, Lukas Atkinson, Lucas Carvalho, Lucas Gonze, Lucy Hyde, Luis Majano, Luis Villa, Lyn Muldrow, Maarten Aertse, Madison Oliver, Malcolm Herring, Manny Martinez, Manoj Hathi, Manrique Lopez, Marc Jones, Marcel Kurzmann, Marcos Siriaco, Marcus Cuda, Mariano Ortu, Mariatta Wijaya, Marissa Nino, Mark Atwood, Mark Cathcart, Mark Collier, Mark Dingemanse, Mark Radcliffe, Marsee Henon, Marshal Miller, Martial Michel, Martin Haynes, Marty Wolf, Mary Hardy, Mary Radomile, Marzieh Fadaee, Masayuki Igawa, Matt Mullenweg, Matt White, Matthew Broberg, Matthew Lien, Maxime Chambreuil, Maya A. Bernstein, Mayara Frade, McCoy Smith, Meagan Gill, Mer Joyce, Mia Lund, Micah Koch, Michael Brodeur, Michael Guo, Michael Hertig, Michael Meehan, Michael Rhöse, Michael Robinson, Michael Sheldon, Mick Smothers, Mike Bursell, Mike Linksvayer, Mike Milinkovich, Mike Nolan, Mo Zhou, Moez Draief, Mohamed Nanabhay, Monica Ayhens-Madon, Monica Lopez, Mophat Okinyi, Moustapha Abdoulaye Hima, Murat Guzel, Myles Borins, Naresh Adepu, Natali Vlatko, Nathan Urwin, Nicholas Weinstock, Nick Vidal, Nicolas Duminil, Nicole Martinelli, Nikola Desancic, Nithya Ruff, Nivedita M, Noah Boswell, Noel Hidalgo, Ole-Morten Duesund, Olga Creutzburg, Oliver Mensah, Olivier Dobberkau, Omar Santos, Otmar Humbel, Paige Miner, Paloma Oliveira, Pamela Chestek, Paris Buttfield-Addison, Patrick Lehmann, Patrick Masson, Patrick Ohnewein, Patrick Schleizer, Paul Berschick, Paul McGuire, Paul Mills, Paul Phillabaum, Paul Tyng, Paula Hunter, Pete Farkas, Pete Lilley, Peter Chu, Peter Dunkley, Peter Ellis, Peter Wang, Phil Robb, Philippe Krief, Philippe Laurens, Philippe Ombredanne, Phoebe Quincy, Phyllis Dobbs, Pierre Baudracco, Pieter van Noordennen, Qing Tomlinson, Rachel Foucard, Rachel Lawson, Ralph Loizzo, Ran Yu, Randal L. Schwartz, Reshama Shaikh, Ricardo Mirón Torres, Ricardo Sueiras, Richard Fontana, Richard Littaeur, Richard Schneeman, Richard Zak, Rick Clark, Rob Allen, Rob Landley, Rob Mackie, Robert Cathey, Robert Hansel, Rohan Singh Rajput, Roland Turner, Roman Iakovlev, Roman Shaposhnik, Rory MacDonald, Rounak Gupta, Rowan Wilson, Roy Hyunjin Han, Russell Nelson, Ruth Suehle, Ryan Coonan, Ryan Harvey, Sachiko Muto, Saira Jesani, Sal Kimmich, Sam Bishop, Sam Ramji, Samantha Mandell, Sarah Bower, Satya Mallick, Sean roberts, Sebahattin Özata, Sebastian Schuberth, Sebastien Michea, Seo-Young Isabelle Hwang, Serenella Saccon, Serkan Holat, Seth Hillbrand, Seth Kenlon, Seth Schoen, Shane Couglan, Shilla Saebi, Shivam Potdar, Shuji Sado, Siddharth Manoharrs, Silona Bonewald, Simeon Oriko, Simon Muskett, Simon Phipps, Somenath Dasgupta, Soohong Park, Stefano Canepa, Stefano Maffulli, Stefano Zacchiroli, Steffen Krause, Stella Biderman, Stephen Augustus, Stephen Jacobs, Stephen Mather, Steven Muegge, Steven Pritchard, Stuart Langley, Surya Santhi, Sven Spiller, Swapnil Bhartiya, Tammy Zhu, Tanya Dadasheva, Tarunima Prabhakar, Ted Liu, Tetsuya Kitahata, Thomas Blood, Thomas Koeppen, Thomas Peikert, Thomas Schwinge, Thomas Steenbergen, Thorsten Glaser, Timothy Gaudette, Tobie Langel, Todd Lewis, Tom Bedford, Tom Callaway, Tom Schoemaker, Tonico Novaes, Tony Scully, Tony Wasserman, Tracy Hinds, Tracy Miranda, Tyler Bevan, Vaishali Avhad, Van Lindberg, Veronica Abdala, Victor Storchan, Victoria Fierce, Vinay Vira, Vincenzo Disomma, Vineet Aguiar, Vipul Siddharth, Vivek Krishnan, Wiebe Cazemier, Will Norris, Wim de Vries, Yaroslav Russkih, Zaheda Bhora, and Zuzanna Warso.