AI 的暗物质,如何识别「人类常识」?

今天读了一篇订阅的文章,看到一个感兴趣的话题:常识被称为人工智能的暗物质

因为常识是由隐含的信息组成的-人类自发地使用一组未成文的经验和经验法则,分发在一定圈层内共享、信奉。有些地方的常识是企业文化,有些地方则是民俗,这也意味着「常识」没有办法成为人类世界高度统一的行为方法论。而计算机的语言是「逻辑」,是由数学公式构成的,它不以人的意志为转移,没有办法准确识别主观色彩浓厚的「常识」。

文章表述,早期的研究人员试图将常识翻译成逻辑,也就是把人类常识中的所有不成文的规则都写下来,那么计算机应该能够像做算术一样用它们来推理,但这种逻辑主义是有限的。

举个不那么恰当的例子,恰好朋友分享给我一条微博,主题是「说如果哲学家有一个冰箱」

赫拉克利特:你不可能打开同一个冰箱两次。

芝诺:你根本不可能打开冰箱。

苏格拉底:最有内涵的冰箱,就是知道自己里面什么都没有的冰箱。

巴克莱:冰箱里的灯只有在你看到它的时候是亮的。

薛定谔:冰箱门关上的时候则介于亮与不亮之间。

维特根斯坦:如果冰箱不能打开,说里面有什么都没意义。

波伏娃:只有我想打开冰箱时,我开冰箱才有意义。

加缪:对于冰箱来说,最严肃的哲学问题,就是要不要拔了自己的插头。

这种对事物的不同认识有不同的受众,有些甚至是矛盾的,常识还能算是常识吗?

“后来计算机经历了神经网络的深度学习,到现在发展出一种新的方法 – COMET(简称 ‘Commononsense transformers’)将GOFAI式的符号推理与神经语言建模的最新进展进行了扩展,形成一种新的深度学习模式,其目的是让计算机对书面语言有一种统计学上的 "理解”。其原理是将常识推理重新想象成一个对新的输入产生可信的(即使不完美)反应的过程,而不是通过查阅庞大的百科全书式的数据库进行密不透风的推理。”

上面这个段落我并没有很理解,感兴趣可以阅读下方参考资源(需要科学上网)。

Source from:

https://rizime.substack.com/p/f08

https://www.theatlantic.com/technology/archive/2020/05/computers-common-sense/611050/

你可能感兴趣的:(AI 的暗物质,如何识别「人类常识」?)