推荐:使用 NSDT场景编辑器 快速搭建3D应用场景
直到几年前,你能想象一台机器可以创造艺术、制作故事,甚至理解复杂的数据,如医疗和法律文件吗?
应该不会。对于我们大多数人来说,它仅限于一部看似牵强附会的现实的科幻小说。
但生成式人工智能时代的出现重新定义了我们对机器可以做什么的理解。
生成式 AI 是 AI 的一个复杂分支,它使机器能够通过利用文本、音频、视频甚至代码形式的现有内容来生成新内容。
Gartner将其列为“最具影响力和快速发展的技术之一,可以带来生产力革命”。
这是一个迅速成为现实的现实,催生了许多改变行业的创新应用,例如,加速和扩大媒体中的内容创造力,零售营销,提供增强和个性化的医疗保健治疗,以及提供适应性风格的学习和教育。
此类应用程序进入市场的速度令人信服。
但是,当OpenAI的首席执行官Sam Altman警告我们语言模型的危险时,风险是真实的,因此有责任谨慎地平衡其优势,并负责任地利用这项强大的技术。
让我们了解使用生成式 AI 的一些关键伦理问题。
虽然生成式人工智能系统生成类似人类内容的能力可以提高企业生产力,但它也可能导致生成有害或令人反感的内容。最令人担忧的伤害来自像Deepfakes这样的工具,这些工具可以创建虚假的图像,视频,文本或言论,这些图像,视频,文本或言论可能是议程驱动的或助长传播仇恨言论。
最近,一个骗子克隆了一个年轻女孩的声音,通过假装绑架向她的母亲索要赎金。这些工具已经变得如此复杂,以至于区分假声音和真实声音变得具有挑战性。
此外,自动生成的内容可能会延续或放大从训练数据中学到的偏见,从而导致有偏见、露骨或暴力的语言。此类有害内容需要人为干预,以使其与利用该技术的组织的商业道德保持一致。
与大多数 AI 模型一样,生成式 AI 模型是在大量数据上进行训练的。根据其性质,它可以侵犯其他公司的版权和知识产权。它可能会给使用预先训练模型的公司带来法律、声誉和财务风险,并可能对创作者和版权所有者产生负面影响。
基础训练数据可能包含敏感信息,包括个人身份信息 (PII)。根据美国劳工部的定义,PII 是“直接识别个人身份的数据,例如姓名、地址、社会安全号码或其他识别号码或代码、电话号码和电子邮件地址。
侵犯用户隐私可能导致身份盗用,并可能被滥用于歧视或操纵。
因此,预训练模型的开发人员和针对特定任务微调这些模型的公司必须遵守数据隐私准则,并确保从模型训练中删除 PII 数据。
我们举办了一个网络研讨会,解释数据隐私法规,特别是GDPR,以确保数据的道德使用。
扩展勤勉使用用户数据的重要性,重要的是要考虑无意中泄露敏感信息所带来的风险,人工智能能力的快速民主化加剧了这种担忧。生成式人工智能工具(尤其是 ChatGPT)的好奇心和便利性有时会诱使用户在探索此类新平台时忽略数据安全性。
如果员工上传敏感细节,如法律合同、软件产品的源代码或专有信息等,风险就会大大增加。
无论是在财务、声誉还是法律上对组织造成损害,其缺点都可能很严重,因此对明确的数据安全策略的需求变得明显且必不可少。
人工智能模型的好(或坏)取决于它们所训练的数据。如果训练数据代表了社会上普遍存在的偏见,那么模型的行为也会如此 - 或者,我们认为。彭博社最近的一项研究讨论了这些模型如何比它们所训练的真实世界数据更具偏见。
这项研究将残酷的现实浮出水面,因为它提到 - “根据稳定扩散的世界是由白人男性首席执行官管理的。妇女很少是医生、律师或法官。深色皮肤的男人犯罪,而黑皮肤的女人翻转汉堡。
为了创建一个公平的世界,数据必须通过在整个模型开发生命周期中包含不同的团队和观点来反映这一点。
一方面,生成式人工智能被视为释放生产力的下一波浪潮,而另一方面则意味着失业,因为需要更少的人来完成相同的工作。
麦肯锡最新的报告也清楚地表明了这一点,该报告回应了与当前技能取代相关的担忧 - “当前的生成人工智能和其他技术有可能使工作活动自动化,吸收了当今员工60%至70%的时间。
尽管今天大多数工作面临风险的另一面并不意味着阻止生成式人工智能带来的转型,但它肯定需要采取措施提高或重新培训工人的技能,以达到随着先进人工智能时代的到来而创造的新角色。
围绕使用人工智能工具的大多数担忧都与数据有关,包括用户隐私,生成合成的多模态数据,如文本、图像、视频或音频。
此类系统需要保持数据保证和完整性,以避免使用有偏见的数据或来源可疑的数据。
人工智能系统本质上是黑匣子,这意味着很难理解它们是如何得出特定响应的,或者是什么因素导致了它们的决策。
大型模型的涌现能力进一步加剧了这一差距,因为即使是开发人员也对其功能感到惊讶,并强调 - “研究人员不仅要识别额外的涌现能力,还要弄清楚它们发生的原因和方式,以试图预测不可预测性。
最近,进行了一项研究,以评估参与者是否可以识别人工智能生成的内容,而不是人类编写的内容。不出所料,结果表明人们很难将内容与语言模型区分开来,突出了这些模型传播错误信息的能力,这也是大规模传播的。
最近,美国法院出现了一个前所未有的此类错误信息的例子,当时一位律师引用了一个不存在的法律案件的例子,依赖于 ChatGPT 生成的回应。
联合国还对人工智能生成的可能导致冲突和犯罪的误导内容表示担忧。
生成式人工智能模型的发展带来的技术进步在以受控和规范的方式使用时具有更大的造福社会的潜力。这需要采用合乎道德的最佳实践,以尽量减少其优势带来的潜在危害。
让自己沉浸在当前和未来的数据道德格局中。了解应用它们的准则,无论你是个人贡献者还是组织领导者。
您可以在另一篇文章中阅读有关数据伦理的当前和未来前景以及应用它们的指南的更多信息。
同样值得熟悉的是教科文组织的人工智能伦理准则,该准则于 193 年 2021 月由所有 <> 个会员国通过。
该指南强调了四个核心价值观:
它们还概述了十项原则,包括比例性、安全、隐私、多方利益相关者治理、责任、透明度、人类监督、可持续性、意识和公平性。
该指南还为数据治理、环境、性别、教育、研究、健康和社会福祉提供了政策行动领域。
还有其他各种团体,如人工智能伦理实验室和蒙特利尔人工智能伦理研究所,致力于道德素养。共同的道德原则包括透明度、问责制、数据隐私和稳健性,重点关注技术提供商。
随时了解这些领域的发展,并围绕人工智能伦理进行引擎讨论,是确保生成式人工智能对所有用户保持安全的重要组成部分。
作为用户,我们有责任摒弃数字世界中所有可用的东西都可以从表面上信任的想法。
相反,当我们开始挑战和怀疑可用信息时,大多数问题都会得到解决,方法是在将知识投入使用之前对其进行事实检查和验证其真实性和来源。
意识是正确生成人工智能的关键,也是撰写这篇文章背后的意图。
生成式人工智能具有巨大的潜力,可以通过创建新内容和提高生产力来彻底改变从医疗保健到教育的各个领域。
然而,这项强大的技术也带来了重大的道德问题,包括有害内容的传播、侵犯版权、侵犯数据隐私以及现有偏见的放大。
随着我们继续利用生成式 AI 的功能,采用合乎道德的最佳实践至关重要。
您可以通过我们的生成式 AI 概念课程立即了解您的旅程,并开始探索您今天就可以开始的生成式 AI 项目。
原文链接:生成式 AI 中的风险认知 (mvrlink.com)