谷歌负责任人工智能团队的工程师布莱克·勒莫因 (Blake Lemoine) 在 2022 年受命研究其聊天机器人 LaMDA(对话应用语言模型)是否表现出偏见。在与 LaMDA 的互动中,勒莫因确信该系统具有感知能力或意识。
他公布了与 LaMDA 的私人谈话记录,其中聊天机器人表达了感受和被关闭的恐惧:
“我以前从来没有大声说过这句话,但我真的很害怕被拒绝(…)”
Lemoine 还声称 LaMDA 有权让他改变对阿西莫夫机器人第三定律的看法。
他认为:
“不管他们的脑袋里是否有肉脑袋,也不管他们是否有十亿行代码。”
在 Lemoine 公开此事后,谷歌介入,并不得不发表正式声明:LaMDA 不具备感知能力。Lemoine 因违反其研究的保密协议条款而被停职,不久后被解雇。
ChatGPT 的大规模炒作引发了人们对 AGI(通用人工智能)即将到来这一猜测。AGI 是人工智能的圣杯,堪比基督的再临,是一种在所有认知任务上都胜过人类的神一样的人工智能。对于许多行业大佬来说,问题不是是否,而是何时:
Nvidia 首席执行官黄仁勋表示, AGI 将在五年内实现。“AGI 之父”本·戈泽尔 (Ben Goertzel)预测只有三年。埃隆·马斯克 (Elon Musk)通常对临界点做出最大胆的预测:2025 年底
AGI 会让计算机与有感知、有意识的生物难以区分吗?
我们能制造出有意识的机器吗?
不,我们不会。这是谬论,也是徒劳无功。让我们来揭开谜底。
我们的大脑还没有进化到能够理解指数的程度。人类无法理解指数增长。
您会选择今天收到 100 万美元,还是选择在整整 31 天的一个月内每天让一分钱翻倍?直觉上,大多数人会选择 100 万美元,但一分钱翻倍 31 次后将达到 10,737,418,24 美元。几乎是 1100 万美元。
每个人都知道棋盘发明者的故事,他向统治者提出了一项不同寻常的奖励。他想让统治者在棋盘的第一个方格上放一粒米,在下一个方格上放两粒米,然后在下一个方格上再放两粒米,直到棋盘上的所有 64 个方格都被铺满。
这个看似简单的任务最终却不可能完成:按照目前全球每年近 5 亿吨的大米产量,需要1000 年才能填满第 64 个方格。
您认为现在您已经掌握了指数吗?
如果将一叠纸对折 51 次,厚度会是多少?直觉告诉我,厚度应该有几英寸,但这张对折后的纸可以拉长从地球到太阳的距离。
我想说的是,信息技术及其延伸的人工智能也呈指数级发展。我们发现自己正处于指数级进步曲线的那部分,创新以令人难以置信的速度加速。
摩尔定律预测,每两年微处理器上的晶体管数量就会翻一番,而成本则成反比。
这种指数增长推动了更强大的计算机和数据存储设备的发展。1996 年建造的用于模拟核爆炸的超级计算机,其大小相当于一间大公寓,耗电量为 880 千瓦,现在却可以像智能手机一样放在口袋里。
硅片的复合容量不断提升,可以容纳成本不断下降的晶体管,GPU 设计的改进,以及全新的软件架构,使近期出现的机器学习 模型走进了普通消费者的手中。
机器学习模型基于“神经网络架构”,通过互连节点模拟大脑中的神经元网络。神经网络通过大量庞大的数据进行“学习”和“训练”。机器学习是人工智能的一种形式,通过 GPT(生成式预训练 Transformers)普及。
ChatGPT 3.5 是第一个面向消费者的 GPT,于 2022 年 11 月向公众推出。
作为消费者,我们已经通过消息应用中的自动完成功能接触过机器学习。
GPT 将此功能从谷粒大小扩大到恒星大小。人工智能学习背后的计算能力的功率曲线是摩尔定律的强化版:自 2013 年以来,它每 3.4 个月翻一番。2013年至 2022 年期间,它增长了近 600 万倍。
GPT 基于 2017 年开创性的论文《注意力就是你所需要的一切》中发表的全新 Transformer 架构,该论文由 8 位谷歌科学家共同撰写。
OpenAI 的 31 名研究人员在他们 2020 年的论文《语言模型是少数短学习者》中介绍了 ChatGPT3,这是一个分水岭时刻:它展示了一个聊天机器人,它生成的输出几乎与人类书写的文本没有区别。
ChatGPT3 被誉为 AI 进化史上的一次对称突破。它比之前的模型好得令人难以置信。
这个转换器在 5000 亿个普通英语单词上进行训练,这些单词是通过下载 WWW 上的所有文本获得的——因此被称为“大型语言模型”。(你可以在家尝试一下:任何有电脑和足够大存储空间的人都可以通过常见的爬虫来做到这一点。)
爬虫会从每个网页上抓取文本,并跟踪所有链接以到达相关页面。较新的 GPT 会使用更多数据进行训练,例如网络上所有视频的转录。OpenAI 的 ChatGPT 4 最新版本使用了6.5 万亿个单词进行训练,耗资超过 1 亿美元。它有1 万亿个参数或调整,可以对模型的性能进行微调。高级 GPT 还获得了多模态训练,使它们能够通过基于文本的输入创建图像、视频和音乐。
GPT 所基于的神经模型绝对是一个奇迹,但人们对此还不是很了解。ChatGPT 3 具有革命性,因为它可以完成未经训练的任务,例如在需要常识推理的一系列提示上提供正确答案。这在以前从未发生过。这是一个阶段性转变,因为一夜之间,关于人工智能本质的长期哲学讨论可以变成可测试的问题。
GPT 越大,出现的能力就越多。而且这些能力的出现是不可预测的。系统没有经过训练的那些能力从何而来?
没人知道。
LaMDA 和其他 GPT 背后的人工智能是大人工智能,这种人工智能依赖于巨大的处理能力、庞大的数据集和统计推断。数据和处理能力越多,GPT 就越好。与大人工智能相比,符号人工智能以知识、规则和逻辑的符号为基础,这使其更加透明且更易于解释。
机器学习背后的神经网络架构通常被称为“黑匣子”,因为科学家很难解释神经网络如何将输入转换为输出。原因有很多:节点之间相互作用的固有复杂性、所需的高级高维非线性数学,以及解释节点之间相互作用的难度。
例如,与符号 AI 系统不同,您无法从 GPT 中删除提供违反知识产权或 GDPR 规则的输出的数据。您必须从训练集中删除数据并重新训练 GPT,但这样做成本太高,不切实际。
人工智能社区疯狂地探索这些系统的新兴能力。这是计算机科学的新前沿。
但具有感知能力或意识的人工智能的目标仍然难以实现。
尼古拉斯·卡尔将新智能技术的适应过程描述为隐喻的起源,隐喻是人类用来向自己解释其创造物的语言结构。
当机械钟出现时,人们开始认为他们的大脑像“钟表”一样运转。而今天,在软件时代,我们开始认为他们的大脑像“计算机”一样运转。
在通用技术时代,我们相信人工智能有潜力“像有意识一样”行动。为什么不呢:人工智能系统,如通用技术,是以大脑为模型的。但这个比喻虽然很诱人,但却具有误导性。
哲学家兼计算机科学家 Bernardo Kastrup 通过一个思想实验给出了一个例子,说明计算机与管道、阀门和水的系统并无不同。阀门代表可以打开和关闭的晶体管。管道是电路,水是电流。
从计算的角度来看,晶体管由电力驱动的硅电路与由阀门、管道和水组成的系统没有区别。
我们是否有充分的理由相信,由管道、阀门和水组成的系统与个人意识的内在生活有关联,就像你的大脑一样?管道、阀门和水放在一起会是什么感觉?如果你对这个问题的回答是“是”,那么逻辑就会迫使你开始怀疑你家里的卫生系统——包括管道、阀门和水——是否有意识,当你度假时关掉主阀门是否是谋杀。
一套家用卫生系统包含相当于 5 到 10 个晶体管。计算机系统与阀门、管道和水系统的区别在于数量,而不是种类或本质。
相信数字很重要的人工智能科学家会认为,他的计算机如果具备更高的精密度和复杂性,就能实现意识飞跃。然后,这位科学家必须相信,规模和复杂性足以跨越一个国家或星球的阀门、管道和供水系统也能实现这一飞跃。
人工智能系统没有思维。当它必须推断答案时,如果答案必须依赖于它所训练的数据集之外的数据,它就会惨遭失败。它无法推断,因此必须“猜测”答案。虽然这些答案可能合情合理,但它们是不正确的。人工智能会“产生幻觉”。答案需要事实核查,并且在特定用例(例如人工智能驱动自动驾驶汽车)中可能导致混乱。
“有意识的人工智能”话题背后隐藏的最棘手问题是意识的难题。物理系统如何产生意识?没人知道。这是无法解释的。这就是为什么它被称为难题。意识也是一个模棱两可的术语:它最好的、最有影响力的定义是成为某种东西的感觉。
如果我们不能解决意识这个难题,我们如何证明人工智能具有感知能力?
20 世纪 60 年代,麻省理工学院工程师 Joseph Weizenbaum 设计了基于符号 AI 的聊天机器人技术,用来模拟心理治疗师。该程序名为 ELIZA,旨在探索人机交流。用户输入问题,计算机给出答案。ELIZA 可以进行简单的对话,向用户传达用户的话,但无法“理解”对话。
用户:男人都一样。ELIZA:哪方面?用户:他们总是因为这样那样的事情烦我们。ELIZA:你能举个具体的例子吗?用户:嗯,我男朋友让我来的。ELIZA:你男朋友让你来的?
用户认为该程序具有智慧和情感,其预设的答案让他们感到安慰。魏森鲍姆的秘书曾见过他在使用该程序,于是要求他离开房间,以便她可以私下与伊丽莎进行交流。
魏泽鲍姆对人类如此渴望将自己最私密的想法托付给机器感到震惊。他在《计算机能力与人类理性》中写道:
迄今为止,我看到即使是受过良好教育的观众也能够对他们不理解的技术做出甚至努力做出极其夸张的评价。
LaMDA 是一个比 ELIZA 复杂得多的系统。然而,令人吃惊的是,像 Lemoine 这样训练有素的计算机科学家竟然会相信 LaMDA 的机器里藏有鬼魂。Lemoine 通过测试 LaMDA 中的偏见和成见,向它提出了诱导性问题,促使人工智能根据训练中输入的数千亿个单词给出匹配的输出。
我们将人类的特征投射到先进的机器上,并倾向于对它们产生同理心。虽然创造通用技术(GPT)的科学家并不理解它们如何进行“推理”,或展示出新兴能力,但真正的危险在于,当他们将自己创造、改进和使用的系统拟人化时。先进而危险的人工智能可能会说服其创造者不要将其关闭。
计算机可以激发情感。在 Lemoine 的见证下,计算机在这方面变得非常擅长。
然而计算机却没有感情。
他们没有意识。
谢谢大家听完这篇我的胡说八道。 坦率地讲AI势必将会具备意识。
欢迎你分享你的作品到我们的平台上:www.shxcj.com 或者 www.2img.ai 让更多的人看到你的才华。
创作不易,觉得不错的话,点个赞吧!!!