【Deep Dive: AI Webinar】在开放开发的开源项目中引入 AI 的挑战

851a8e91e15941ba1caaca3743630b83.jpeg

【Deep Dive: AI Webinar】在开放开发的开源项目中引入 AI 的挑战_第1张图片

【深入探讨人工智能】网络研讨系列总共有 17 个视频。我们按照视频内容,大致上分成了 3 个大类:

1. 人工智能的开放、风险与挑战(4 篇)

2. 人工智能的治理(总共 12 篇),其中分成了几个子类:

a. 人工智能的治理框架(3 篇)

b. 人工智能的数据治理(4 篇)

c. 人工智能的许可证(4 篇)

d. 人工智能的法案(1 篇)

3. 炉边对谈-谁在构建开源人工智能?

今天发布的是第一个类别“人工智能的开放、风险与挑战”里的第四个视频:【在开放开发得到开源项目中引入 AI 的挑战】。

我们期盼如此分类,对读者的易读性有帮助,也欢迎读者们的反馈和指正。

                   --- 开源社.国际接轨组 ---

【Deep Dive: AI Webinar】在开放开发的开源项目中引入 AI 的挑战_第2张图片

【Deep Dive: AI Webinar】在开放开发的开源项目中引入 AI 的挑战_第3张图片

大家好。我是 Stefano Maffulli,开源促进会的执行董事。这是另一场深入探讨人工智能的网络研讨会系列,我们将举办几天。今天我们将听到 Davanum Srinivus, Thierry Carrez 和 Diane Mueller 关于在开放开发的开源项目中引入人工智能的挑战。一起来欣赏这场圆桌吧!最后我们会回答大家的问题。

Allison Price:嗨,我叫 Allison Price,今天我主持一个由开源社区领袖组成的圆桌讨论,关于:"在开放开发的开源项目中引入人工智能的挑战"。所以在我们开始讨论我个人关于这个交叉点的一系列问题之前,让我们从介绍我们的小组成员开始。Thierry,由你开始吧! 

大家好。我叫 Thierry Carrez,是 OpenInfra 基金会的总经理,同时也是开源促进会 (OSI) 的副主席。我一直致力于开放开发的开源项目,所以我很高兴能探索人工智能在这类开源领域的交叉点和所有影响。 

好的,接下来是 Diane。嗨,我是 Diane Mueller,我在开源领域摸爬滚打了近 30 年,我现在是 Bitergia 的研究和咨询服务主管。在那之前,我在红帽和其他一些创业公司工作,从事开源项目,我现在是 CNCF 持续增长工作组的一员。

最近我一直在深入思考人工智能以及它是如何交互的,以及开源项目的参与将如何随着时间的推移而改变。因为我们引入了像生成式人工智能这样的新工具以及相关的伦理考量和管理,以及我们如何追踪人工智能工具在我们项目中的参与情况。所以今天我真的很兴奋能在这里和大家进行这次对话。谢谢你们邀请我。

最后但同样重要的是,Dims。

嗨,我的昵称是迪姆斯。我的名字更长( Davanum Srinivas)。我做开源已经有一段时间了,跨越了多个项目和基金会。最近,我花了很多时间在 Kubernetes 社区和 CNCF 上。我在 AWS 工作,我是那里的首席工程师,负责 EKS。现在交回给你了。

太棒了!好了,谢谢大家今天来到这里。我们在这里探讨人工智能对开放开发软件的影响。那么这到底是什么意思呢?我们从这里开始。不是所有的开源项目都是公开开发的吗? Thierry,也许你可以解释一下我们今天要讨论的话题。

Thierry:所以不是因为它是开源的,它就是公开开发的,因为开源实际上只是关于代码发布的许可证,所以你可以用不同的方法生成代码,只要它是在开源许可下发布的,它就是开源软件。所以基本上,开源根本不判断软件是如何开发的。你可以看到不同的模式随着时间的推移而演变。

在外部,有一种我们称之为 BDFL 的模式,“终身仁慈独裁者”模式 ,亦即一个人基本上是作为一个看守者,TA 来决定什么可以进入代码。这个人基本上掌握着所有项目的生杀大权。在这种情况下有一个人是特别的,一种是单一供应商模式,基本上是一家公司开发软件,并在开源许可证下发布。有时他们会围绕它维持某种社区,但最终,他们保持对项目的完全控制,在这种情况下,一家公司是特殊的。

最后是公开开发的模型,它通常是由几个为不同组织工作的人组成的大型、开放的合作组织,通常在开源基金会的赞助下,为了确保没有人霸占通往开源王国的钥匙,这样就有了一个公平的竞争环境,大家可以平等合作。

在这种情况下,你有一个强大的治理模型来描述项目是如何工作的。在这种情况下,没有人是特别的,基本上,没有人有特别的权利。你的贡献将决定你对项目的影响力和作用,这些就是不同的风格。我们在这里研究的是人工智能对这种特定的开源开发风格的影响。我可以以后再谈“四个开放”,但我想让其他人补充一下,如果他们想举例子的话。

Diane:我觉得你说到点子上了。我们有三种不同的开源模式,这方面有很多变化,多个公司在不同项目上的合作也是如此。在基金会的推动下,如 Dims, Thierry 和我都参与了 OpenInfra 和 CNCF 项目。

所以我认为有趣的是引入人工智能的挑战以及人工智能在这些不同领域的界限,不同的公司,不同的仁慈独裁者,或者不同的基金会或组织管理项目,会做出不同的决定。人工智能的概念也在不断变化。人工智能有很多东西,Visual Studio 中的代码完成和语法检查,在你的 Visual Studio 中,这些颜色编码的东西在当时看起来很神奇。

然后是 Copilot ,它提供一些建议之类的东西,到机器学习和概率之类的东西,到生成式人工智能, 这就是我们现在所面临的棘手问题,我们正在努力解决这个问题。有很多事情会产生影响,人们必须就如何使用这些东西做出很多决定,但它已经出现了很长时间,所以很多人都考虑过它。

随着时间的推移,很多人使用了 Copilot、Co-completion 和各种不同的工具。来自 DevOps 背景和 DevOps 繁重的环境,我们总是说自动化,自动化,自动化的一切。我要让我的社交生活自动化,或者自动化我的编码,自动化我的测试和构建。从 Bitergia 的角度来看,作为一个监控社区健康和参与的人,我们一直在试图追踪机器人,并给它们贴上元数据标签,这样我们就知道如何将机器人从项目的实际参与者中分离出来。

现在我们有了一种不同的机器人,一种不同的代码,一种不同的项目参与方式。所以这需要一些思考和时间,但我认为它会发展,我们可以把它成功地集成到我们的一些开放项目和公开管理项目中。这就是我最初的想法,随着时间的推移,我们将看到 Thierry 和 Dims 会如何改变我的想法。

Dims:Thierry 和 Diane 谈到了许多事情。所以就我个人而言,我的观点是关于一个人每天的变化,谁在开源协作社区工作?它对我的日常工作和日常协作有什么影响? 比如,我是否需要在不同的基金会和不同的项目中做不同的事情?这会让事情变得更容易还是更困难? 这是一种实际的、日常的东西,在这次讨论中我很感兴趣。

Allison:当你提到 Thierry 称之为 “四个开放” 的东西时, 我认为我们将在这一集深入探讨的东西, 就可持续的开源项目和社区的不同方面而言, 他们将如何受到这个新出现的用例的影响? 你能不能给我们介绍一下今天要讲的 "四个开放"?

Thierry:这是我们在推出 OpenStack 时创建的一个模型,从那以后被其他项目采用。它包含四个原则,可用于描述开放式协作。所以它从开源开始。显然,它必须在开源许可证下发布。但你也需要开放的发展。所有东西都是透明开发的,每个人都可以访问。你可以看到补丁,你可以参与评论等等。

开放设计,即软件的设计也应该在开放的环境中进行,包括用户和所有参与者。最后,开放社区,也就是所有的管理方面,每个人都可以参与其中,并被选为社区的项目负责人,根据每个人的贡献,每个人都是平等的参与者。我们可以看看人工智能对这四个方面的影响,因为它真的有助于重新评估人工智能的影响,或者至少围绕它组织一次讨论。


Allison:我想回到刚刚 Diane 所说的一件事。在过去,我们有机器人为开源项目的上游做出贡献,但现在它变得越来越普遍,我们要把人工智能称为新的贡献者吗?我们要把它们剔除吗? 当然,Bitergia 对这些贡献进行了大量的分析。但是,你认为我们将如何将人工智能归类为上游贡献者?

Diane:这是个好议题。我认为这也是一个棘手的问题。因为它会随着时间而改变。所以,我今天所说的一切,都是基于我对不同的人工智能工具的了解。所以就把它当作一粒盐或一块盐。我们仍然只是在尝试将其整合到我们的工作流程和过程中。但是,我看到人工智能有一个完整的范围。

它涵盖了从代码块完成,到编码奇偶校验的所有内容:机器智能,算法,模型以及所有这些生成式的东西。就像我说的,这是我们所处的新困境,这是一种既美好又可怕的感觉。我一直在从几个衡量的角度看待它,比如,我如何判断某人在项目中是否使用了人工智能生成的内容,或者在设计流程中,或者类似的东西?所以从衡量指标的角度来看,现在有很多讨论,尤其是音乐和艺术领域。国会举行了一场听证会。

我不敢相信我前几天真的看了一场关于人工智能和版权的参议院听证会。但是艺术家卡罗尔·奥蒂斯对 3C 和 1T 做了一个有趣的评论,我认为 3C,如果我理解正确的话,是 "同意,功绩和补偿",T 是 "透明度"。她曾经是,或者现在是,漫威漫画系列的动画艺术家。你看过她的作品了,她很害怕自己的作品得不到认可。我认为通过我们关于开源许可的对话,以及在人工智能工具中实际用来产生 (训练) 学习素材的东西, 这其中有一点我们必须审视,比如,该归功于谁? 有明确的归属吗? 有人参与优化了吗? 目前透明度非常低。

如果有人用 Robert Frost 的《岔路》类似的语气产生了一首诗歌,Robert Frost 并没有因此得到任何荣誉。如果有人用 Leonard Cohen 的声音唱了一首歌, Leonard Cohen 不会因此得到任何补偿。他可能已经死了,也可能从未上过法庭。我老了,不喜欢那种我最近没听过的音乐了。但我认为我们有两面。我们正在使用和生成的代码,是从哪里来的?深入思考过这样做的伦理问题吗?

大多数情况下,你可以选择不让自己的代码被吸纳进去。这并不好,因为它们已经吸纳了我们的大部分代码。另一方面,这些输出的属性是否正确? 我们如何授权? 我们怎么知道原创性在哪里? 所以参与是一个很重要的词,社区也是一个很重要的词。

所以我认为我们必须深入思考,首先,我希望看到一些元数据标签。当我们提交的时候,这个来自 ChatGPT2 ,这个来自 Copilot,或者是你最近玩的 Amazon 工具,Dims。我喜欢看到基线设置,这样至少我们知道我们正在跟踪的输出。要么有人在提交的代码中使用了一大块代码,或者整个代码提交已经生成,或者它正在标记实际的参与者。

所以当你在 DevStats.com 上看到某人时,它被标记为这是人工智能生成的拉取请求,诸如此类的事情。所以我认为我们必须深入思考这个问题,以及伦理问题。我真的很喜欢 3C。我认为,透明度是我现在最关心的事情。我想也许车已经离开车库了。在学习模型上,这是国会可以弄清楚怎么做的。作为社区管理者和架构师,我确实认为,在输出方面,透明度能帮我更好地理解,并弄清楚我们将如何跟踪这一点的关键。

Dims:那么让我们深入研究一下 Thierry 和 Diane 谈到的开源和开放开发部分。知道它是从哪里来的就好了。所以市场上有一些工具是可用的有一个参考跟踪器。参考跟踪器告诉您原始代码的位置,以及它的许可协议,并为我们指出代码。

所以当你提交 PR 的时候,会有一些额外的信息,你可以提交说,看,这是我从哪里得到的。我不知道我们是否能够为人工智能制定一个单独的入门级行业战略。我认为这更像是开发者日常工作的一部分。他们将使用这些工具,因此您无法将常规工作与这些额外的增强功能区分开来,这些是通过查找资料或 AI 在集成开发环境 (IDE) 中向他们提出建议而添加上去的。

我给你们举个例子。例如,有很多人来到社区,他们通常都是从查找拼写错误开始的,对吧? 他们四处寻找和修理东西。但如果这些人工智能工具帮助他们获得优势,例如提供上下文信息, 解释代码这样写的原因呢?也许这不是一个真正的拼写错误,这是设计的,这是一个缩略词。如果这能帮助他们开始,那就是一件好事。假装直到你成功,对吧? 所以你的 PR 就不是从拼写错误开始。

它实际上是对从事项目的人有用的东西。通常情况下,我们会有这样的不良反应,即连续 5 次处理拼写错误的 PR。然后我们说,好吧,我不会碰这个人的任何东西,因为他们有一个铁栅栏。因此,如果它在这些方面有所帮助,如果它有助于减轻人们的负担,那些真正在做项目的人,那些需要时间的人,我认为这是一件好事。

但是,从 ASF 的指导意见来看,他们似乎把一些事情转移给了代码审核者。在这种情况下,审核者必须做更多的事情,因为审核者是那些必须压住阵脚的人。他们必须区分,它是来自人工智能,还是来自真人,人工智能是从我们不知道也不信任的地方获取信息的吗? 是否这个项目有让我们不想进入的许可证?这就给审核者的生活带来了困难,对吧?所以它有好有坏。但是我们已经有了另一套工具,那就是扫描仪,它可以在代码合并后再去查看,然后发现这是对现有项目中相同内容的剽窃。

所以有一些工具会有所帮助,但感觉这些工具只能在事后才有帮助,然后你必须报告你所拥有的代码,所以它变得一团糟。所以基本上我想说的是我们最终会有工具,无论是集成到集成开发环境 (IDE) 中的开源软件,还是开放的开发方面,人们可以一起合作来做一些事情。但是,我们还需要一段时间才能看到这里的全部潜力。

Thierry:我再补充一下你刚才说的。我希望在纯粹的人类贡献和纯粹的人工智能贡献之间有更多的选择。在某些方面,一切都将由人工智能辅助。所以它会很困难,就像你的机器人生成的那样。这很简单,因为它是二元的。

不是机器人就是非机器人。现在,我在此仅是使用 Co-completion 来产生一个完整的段落,然后这也会看起来像是纯粹的人工智能贡献一样,不涉及人工输入。所以我认为,与其他类型的分类相比,这将使它变得更加困难。我同意我们需要定义它,创建一个拓扑来描述它,否则,就会有一些人工智能参与其中,但你将无法真正进行分类。

Dims:我想接着说刚才说了一半的部分,那就是,如果机器人训练的东西,有很多与安全相关的东西,那会怎么样?比如计算机视觉,如果机器人接受过训练,比如 “嘿,不要做这段代码,这段代码你不应该做”,这样的代码随处可见,那么,机器人最终可能会在多个项目中,持续给出完全相同的有安全问题的建议。因此,这对审核者来说又多了一个问题,因为他们必须注意这些东西。所以这也成为了安全方面的噩梦。

Diane:我想说的是,我们谈论的是 bug 检测,代码生成,语法完成等等。但对于 Robert Frost 和 Leonard Cohen 来说,确实有一些很好的机会。另外我们可以带上 Dims、Thierry 和 Diane,我们可以带上三段代码,并将我们所有的输入都吸纳,而产生一个合格的输出,创造出我们想不到的东西。

所以这是一个重组集体智慧的绝佳机会。我们如何参与这些对话对我来说真的很有趣。同样,我们也要考虑到归属和许可等问题,但我们有可能得到用代码写的一首歌,Leonard Cohen 谱曲,Robert Frost 作词,Drake 演唱。利用人工智能和生成式聊天工具进行头脑风暴的可能性。

对开源来说是一个巨大的积极因素,特别是在资源有限的项目中,我们可以说,有时会获得额外的附加价值。所以我并不担心机器学习能够检测错误、创建代码、完成语法或提供建议。这些事情我想我们最终可以弄清楚,这些事情将有助于我们的进程。我对其他领域里共识型对话也很感兴趣,我们在一个共识的领域里进行合作对话,以及我们如何制定这些事情的战略。这将对我们公开开发的项目产生有趣的影响。

Allison:说到开放开发,我想我们把开源作为四大开放之一,这集已经讲了一半了,我们已经讲了一集。所以我要加快一点速度。Thierry 谈到的下一个是开放发展。Thierry,你如何看待人工智能对开放开发的影响?

Thierry:我想 Dims 之前提到过这个问题。我预计会有一种不平衡,提交补丁会变得非常容易,我们让编写代码变得更容易。每个人都可以提交一个补丁,与此同时,我们知道生成式人工智能和大型语言模型可以产生幻觉,因为他们只想完成工作,在某些情况下,奇迹发生了,在另一些情况下,奇迹消失了。

因此,这项工作将被推回给审核者,这让我很担心,因为这些是每个项目中被丢弃的资源,甚至像 Kubernetes 或 OpenStack 这样的热门项目,在提交补丁的人,想要修复错误的人,想要添加功能的人,和负责高质量维护和所有这些工作的守门人之间,存在着不平衡。

我预计这种不平衡会随着人工智能的投入而加剧。我对 Dims 的观点很感兴趣,因为我觉得审核者和代码提交者之间有一种微妙的平衡。我觉得这可能会彻底打破平衡,因为将这些作者转变为审核者已经很困难了,但是如果你把作者的数量增加一倍,你该怎么做呢?

Dims:所以我们谈论的是开源项目的职业晋升阶梯。我们说你是 GitHub 的定期贡献者,你来这里做 PR 和一些事情。然后我们会让你做审核者。一旦你有了一致性,那么从审核者提升为提交者,然后成为具体项目的所有者或维护者。所以 PR 的涌入确实是一个挑战,这也是我们需要工具去支撑的地方。

有一大堆工具需要被开发出来。我们确实有 "依赖项检测机器人" 之类的东西来处理一些事情,但是我们还需要更多类似工具。所以现在最难的部分是,比如确保新的 PR 不会破坏现有内容。并不是所有的东西都被测试覆盖,或者很难被测试。因此,我们为 Kubernetes 在 GCP上的测试,花费了大约 200 万美元,AWS 上则花了 100 万美元来做测试。

我们觉得这还不够, 因为我们需要测试各种变化,并确保定期诊断发生的剥落。上个劳动节,我们在周四和周五尝试了一些东西,我们不得不销假去修复问题。这样,当人们度假回来时,就有了一个绿色的、干净的起点。所以这是非常困难的。这是没有用的。这是一个真诚的请求,希望那些正在思考这些问题的人也能帮助思考我们的用例,也就是审核者和审批者,而不仅仅是提交 PR 的人。

Diane:还有一种新兴趋势,我和一些人谈过 AIOps,它是目前的一个流行词, 我们能否将其中的一些技术应用到评审过程和我们需要的工具中?因为审核者人和贡献者的规模一直是个问题。对于开源项目,无论是像 Kubernetes 这样的大项目,或像 XED 这样的小项目,我们需要培养人才。

而且工具还没有出现。但是技术是有的,可以做到这一点。即使在电信领域,我也和人们交谈过。他们开始将人工智能技术和工具应用到他们的运营方面。这是一些基金会和其他项目在应用这项技术方面的投资,不仅仅是生成代码,还审查代码,并帮助我们自动化一些过程,为我们标记东西。

我认为它即将问世,尽管我还没有听说过关于它的创业文章,但我希望未虑及此的人们,尽快开始考虑这个问题,如果他们已经这么做了,来给我们打个信号,告诉我们。

Allison:这开启了下一个开放原则,Diane 和 Thierry,在所有这些过程中,开放式设计将如何受到影响,或者我们有一个潜在的未来,代码不再是设计的,而只是表达需求,或者当人工智能成为一个积极的参与者时,我们如何看待这种变化?

Diane:收集需求,询问我们需要什么,要做什么,这几乎是教科书输入,而不是 GPT 聊天类型的东西。所以这里有一些有趣的可能性。需求收集的问答过程。我之前提到过共识领域的概念,这不是以前讨论过的奇怪的东西,但当我们彼此交谈时,我们在这里进行对话,我们在分享目标,我们分享观察结果和目标,我们都像一个整体一样运作。当我们在合作过程中加入人工智能时,我们从人工智能那里得到的反馈感觉就像 Thierry 可能告诉我要做的事情一样,对于 OpenInfra 生态系统中的某个模块,或者 Dims 可能会说 Kubernetes 生态系统项目。

我们已经有了一个我们可以谈论,开放设计和开放开发以及所有这些事情的世界。这感觉很像人工智能聊天,只是在这些对话中添加了另一个参与者。但我认为,这些将需要管理,我们已经在开源中花费了大量时间来制定行为准则、维护者、贡献者和贡献阶梯。我们实施了所有不同的程序来确保它是开放的。

所以我担心的另一个问题是,那些能够使用这些工具的公司,人工智能工具,会比那些没有的人更有优势。因此,我认为在开放人工智能工具和其他方面,竞争环境已经趋于公平。这将是一个有趣的世界,希望我们不会创造出开发人员的阶层壁垒。开发人员可以使用这些工具,因为他们为大公司工作,或者因为他们生活在一个没有计算能力运行 AI 的地理区域,或者类似的事情,所以不能使用这些工具。

所以我认为有很多机会。所以我不是在否定这些事情,我认为重组战略开发和开放设计的机会很大。问题是我们如何在道德规范中平衡治理,让它成为一个安全、开放的地方,让每个人都能参与。

Dims:所以,除了 Diane 所说的,我从两个方面来看待这个问题,一个是项目本身的设计和开发,还有,在现实世界中如何使用它呢?此外,还有最佳实践和白皮书。而且,我认为生成那些对使用项目的人实际上有用的工件,将是一个很大的优势。当我们收集信息时,我们向一群人发出25个问题,有些人回答,有些人不回答。然后我们试着弄明白它的意义。

但如果我们能够在每个公司、采用者或集群中收集有关水和空气的信息。它是如何工作的? 它们是怎么如何组合在一起的? 并从中找到一些道理,然后把学到的东西结晶成可以被其他人重用的东西。我认为,除了原始项目的开发者之外,这对于最终用户来说,也是一件大事。

Thierry:我可以看到更多的未来,一个新世界。你不仅会用人工智能来帮你写代码,还会用它来彻底解决问题。就像我们一直在用人工智能解决复杂问题一样,比如视觉识别,气象模型预测,还有那些我们不知道如何解决的问题。只要描述你想要什么,然后训练模型,直到它产生你想要的东西。我觉得这将变成质检和测试驱动开发的另一种极端形式,在此,您将描述您想要的输出,而不再是代码。

这肯定会改变我们设计软件的方式,因为我们不再表达需求,我们会说你想从软件中得到什么? 但更像是我们将从设计如何做事情转向描述如何测试输出是正确的。所以这是更长期的。不是今天,但应该很接近了。所以我们也会受到影响。

Diane:我还认为我们必须对我们的偏见做一些思考,因为当我们想要生成一些东西,直到得到我们想要的输出时,这未必是问题的正确答案。我们可能会讨论如何扩展集群或类似的事情,我们不是在讨论承载这些集群的服务器的能量输入。所以我们有责任确保我们所做的输入和问题,以及偏见都是公开的,我们对其他观点持开放态度,除此之外,我知道我设计过多少次UI。

如果我用 Bing 的艺术工具为我创造了一张图像,然后我就看到了照片有多扭曲。这是我设计 UI 的方式,所以不要问我。但我并没有给出最优的。这可能对我来说是最优的,但可能不是对每个人都是最优的。在过去的几天里,我一直在看很多有趣的研究,我在想,但我也认为这里有一些真正的机会,可以想出一些我们甚至没有想到的东西。

因为即使是我们用 Bing 工具生成的一些图像,这也很酷。但这让我想起了那 3C 和 1T。艺术家同意了吗? 程序员同意了吗? 他们因此获得了荣誉吗? 他们得到补偿了吗? 我们知道它是从哪里来的吗?这会帮助我们纠正一些偏见问题吗? 我完全同意做这项工作。我认为我们只是纠结于一些关于如何道德地做这件事,以及如何管理它的概念。我想就这样了。但我真的很高兴我们能做一些关于需求文档的热门问答,和 GPT 聊天,然后看看有趣的结果是什么。这需要一些时间。

Allison:我觉得听到这样的话真的很有趣, 我认为我们谈论开放社区是很自然的,即使是作为开放设计的一部分。不管具体的项目是什么,你们都在广泛的开源社区中已经待了很长时间了。在这次网络研讨会上,甚至我也听到了一些担忧,但也有一些有趣的机会和威胁。在我们走之前,我的最后一个问题是,你们是否都对 AI 在未来成为开源社区的积极贡献者抱有希望? Diane 刚才说你真的很兴奋。所以你对这种贡献的转变抱有希望吗?

Diane:是的。但是像演员工会艺术家和作家罢工这样的事情让我很担心。我想这就是为什么今天我一直在讨论 “同意” 以及 “归属” 和所有事情的 “透明度” 。因为我想我们还没有解决这个问题,但我们已经开始了。

因此,大型语言学习模型已经消费了数十亿行代码,而我们对此并没有说太多。所以我不确定我们能不能回去,我们还不能收工。但是我希望这些变化能够为开源项目和公开开发项目带来一些巨大的资源收益。因为我们一直都是资源有限的。我知道这不是开发者的问题。它是自动化,自动化,自动化。但是自动化要有一些伦理和治理。

Allison:Dims,你对未来有什么看法?

Dims:在参会之前,我以为我们会讨论更多关于许可证和版权的问题,但显然我们没有。不过没关系。我一定会的。它们是工具, 我们必须弄清楚如何最好地使用它们,如何为开源社区的每个人创造更好的生活。这就是我现在要找的。

Allison:Thierry,你呢?

Thierry:我同意他们的看法。我们没有机会谈及许可证模式。我很确定将在同一系列的其他网络研讨会中讨论。但我想说的是,还有一系列有趣的限制条件,它们会产生了很多悬而未决的问题。我对许多事情感到担忧,尤其是关于我们提到的开发者和审核者之间的不平衡。

实际上,我们将在由人工智能提供完全辅助和一些帮助之间做出选择。那么,这将产生多少类别的贡献者呢? 我们如何保持开放社区的原则?因为我们有这样的想法,我们应该给每个贡献者一票。但如果人工智能辅助的贡献加入之后,每个贡献者的价值都不一样,那么原来的社区的制度与平衡能维持多久呢? 你真的能让一个只按了一个按钮的人对你的项目进行投票吗? 这将如何影响我们项目的治理? 所以一方面我很担心,但另一方面我也充满希望,因为我们只是抓住了这些工具的表面。

目前大语言模型的新功能正在涌现,它们所具有的神奇新兴特性正受到热捧。但是,现在一切都集中在代码生成上,我希望能够帮助我们更好地审查、测试和管理的工具也能从 AI 调优中出现。这就是我充满希望的原因。现在只是情绪暂时低落的时候,因为我们受到代码生成方面的影响,事实上,我们的代码会被那些机器吸收,并被重新调节其价值设定,这是我们无法控制的。

现在人工智能对开放开发产生了一点负面影响。但从长远来看,我希望其他的工具会被开发出来,它会在其他方面有所帮助,而且它不会打破我们今天开放开发的开源项目所依赖的微妙平衡。

Diane:我们可以再花一个小时讨论知识产权和版权问题。这也是我一直在唠叨的 "归功 "问题的一体两面。但当我们在 GPT 聊天中输入信息,并进行这些合作时, 我们基本上是在为该人工智能的学习模型贡献我们的思考和想法。因此,对于想要参与其中的企业和个人来说,也需要考虑一下。

因为我认为对于使用这些工具的人来说,没有任何可验证的数据治理或保护保证。所以这件事有很多面向。各种不同精神理念或原则疯狂地呈现。但机会就在那里。我知道你会有一系列关于 "开放" 的网络研讨会。我期待有人能深入研究知识产权和版权。我不是版权律师,所以我不是那种人,但我一直在努力给人们一些建议,无论他们的企业是个人,在参与的过程中也要注意一些必要的注意事项。仔细想想。

Allison:是的,我认为你是完全正确的。关于 AI 和开源领域有很多话题要涵盖, 我非常感谢开源促进会围绕 AI 与开源之间的交集,举办了本系列网络研讨会。我真的很感谢你们的加入,教会了我更多关于交集的知识。和其他观众一起进行现场问答。谢谢大家,感谢大家今天分享的智慧。 

【Deep Dive: AI Webinar】在开放开发的开源项目中引入 AI 的挑战_第4张图片

【Deep Dive: AI Webinar】在开放开发的开源项目中引入 AI 的挑战_第5张图片

Thierry Carrez

General Manager, OpenInfra Foundation

【Deep Dive: AI Webinar】在开放开发的开源项目中引入 AI 的挑战_第6张图片

Diane Mueller
Managing Director, Research and Advisory Services at Bitergia

【Deep Dive: AI Webinar】在开放开发的开源项目中引入 AI 的挑战_第7张图片

Davanum Srinivas
OpenSource Person, Principal Engineer for @awscloud

作者丨Thierry Carrez、Diane Mueller、Davanum Srinivas

翻译 | 李明康、刘天栋

审校 | 刘天栋

视频 | 陈玄

策划 | 李思颖、罗蕊艳

编辑丨金心悦

相关阅读 | Related Reading

【Deep Dive: AI Webinar】开放 ChatGPT - 人工智能开放性运作的案例研究

【Deep Dive: AI Webinar】自由与开源软件和人工智能的意识形态:“开放”对于平台和黑盒子系统意味着什么?

【Deep Dive: AI Webinar】预防生成式人工智能的风险

【探索 AI+开源的未来:Open Source Congress@日内瓦】

开源社简介

开源社(英文名称为“KAIYUANSHE”)成立于 2014 年,是由志愿贡献于开源事业的个人志愿者,依 “贡献、共识、共治” 原则所组成的开源社区。开源社始终维持 “厂商中立、公益、非营利” 的理念,以 “立足中国、贡献全球,推动开源成为新时代的生活方式” 为愿景,以 “开源治理、国际接轨、社区发展、项目孵化” 为使命,旨在共创健康可持续发展的开源生态体系。

开源社积极与支持开源的社区、高校、企业以及政府相关单位紧密合作,同时也是全球开源协议认证组织 - OSI 在中国的首个成员。

自2016年起连续举办中国开源年会(COSCon),持续发布《中国开源年度报告》,联合发起了“中国开源先锋榜”、“中国开源码力榜”等,在海内外产生了广泛的影响力。

【Deep Dive: AI Webinar】在开放开发的开源项目中引入 AI 的挑战_第8张图片

你可能感兴趣的:(人工智能,开源)