GPT3的本质问题剖析和关于人工智能发展问题的一些思考

转自 https://zhuanlan.zhihu.com/p/406653524

看到知乎上有很多关于GPT3的报道和讨论,由于大部分人对于这个模型并不是很了解,只是惊讶于其1,750亿个神经元的庞大容量,和能写代码,能生成公式能写诗歌的强悍表现。不明就里的以为人工智能已经能做到思考和理解,已经可以取代人类了。

作为4年多的深度学习技术的从业者,我觉得有必要发表一篇文章来揭露一些底层的东西,以便公众能清醒的认识这个技术,纠正一些错误的认识或者是恐慌。

其实GPT3,本质上只是通过大量神经元把语料库中各个文字之间的联系建立了模型。跟图像识别的原理一样,(图像识别是把所有可能出现的目标进行建模,找到大量图像数据之间的共性), GPT 3是对大量人类已知文本之间进行建模,因为人类的文本是有内在含义的,这个内在含义就代表了所要传达的信息, GPT3想要做的事情就是假设,把人类所有说过的话都收集起来,将其中任意前后两段话作为输入和输出去做映射,从而建立模型,那么以后再出现里面的任何一句话,就可以从这个模型中找到他对应的下一句话。

说的更朴素一点,就是把所有的人类的文字用1750亿个神经元强行记录了下来。然后你问什么他都能从记忆力回答。

说的更直白一些,它就是一种做到极致的if else逻辑,一般的if else需要符合一定条件,而这个GPT3不仅罗列了所有可能的if,而且if之中可以嵌套if, If中每一个词都可以跟另外的词进行组合,生成新的if,而且都能找到他的else

从建模的角度来说,技术确实非常的强大,但是要说这个有什么智能还谈不上。因为他只是建立了机械式的联系,但是还是没有能够做到理解。

说的再深一点,按照现有的AI发展方向,能不能产生智能,答案显然是否定的。

因为从它的根本原理上来说,现在的所有的深度学习AI技术,都只是建模技术,或者叫拟合技术。

并没有从底层实现自我意识和理解能力。

于是他不管是有1,000亿个参数,还是有10,000亿个参数,还是有一万万万亿个参数,他也仅仅是一个模型,不可能产生意识和自我理解。

要真正产生真正意义上的人工智能,就必须撇开现在的模式识别这个研究方向。转而研究思考和理解,思想和意识的运行机理,彻底颠覆掉现有的研究方向,才有可能成功。

你可能感兴趣的:(人工智能,nlp,自然语言处理)