目录
前言:
(1)环境
(2)比较用例
(a)中文提问:用java写冒泡排序算法
(b)中文提问:a=10,b=6,不新增变量,怎么交换a和b的值,用java写代码
(c)英文提问:a=10,b=6,without creating new variables, swap the values of a and b, write code in Java.
(d)中文提问:迪丽热巴是谁
(3)国内可用的途径
我是一名程序员,在游戏行业近10年,AI对游戏开发来说,其实很常见,但是在OpenAI开放ChatGPT之前,AI层次一直都很低,我们需要给AI制定很多限定条件,它才能完成满足我们一点小需求。而现在毫不夸张的说,近乎空前盛况,在AI领域可谓是质的飞跃。
以下是我个人的角度,对OpenAI的ChatGPT和清华开源ChatGLM-6B两大模型的粗浅比较,并无任何政见与捧高踩低的意思。
另外再附上几个国内可用GPT的途径。
ChatGPT 3.5模型:
目前运行在国外专业服务器上,算力跟内存可以认为无限
ChatGLM-6B模型:运行在我台式主机上
a) 操作系统:windows 10 64位 专业版
b) 显存:16GB
c) CPU:i7-12700F 2.10 GHz
d) 运行库:
1)AutoTokenizer
2)AutoModel
3)gradio
4)mdtex2html
e)联网方式:无联网
算力跟内存 与 ChatGPT 3.5 无法相提并论,且不会有新增学习模型数据
题目总结:图1和图2的回答结果,都很标准,只是图1 ChatGLM-6B 的解答中,还多了一个输出打印,可以说是较为人性化。
题目总结:从图3和图4不难看出,ChatGLM-6B 和 ChatGPT 3.5 之间的差距,那当然是 ChatGLM-6B更强啊,我甚至能感受到它在玩我(玩笑语气 )
题目总结:图5跟图6的比较结果其实跟中文提问的结果差不多,大家可以自行比较。
题目总结:图7跟图8是提问了非程序方面的问题,得到的结果其实都还行。而其实我是提问了很多耳熟能详的名人,但是出来的结果属于是一本正经的胡说八道了,这里就不贴出来了,有兴趣的人可以玩一玩。
(a)VS Code 插件
大家可以自行搜索,其中有些是需要注册,有些是免注册的
(b)Cursor
5月初还是可以用的,但是之后就被墙了,此处贴出来,是因为我看到还是有人可以用的
(c)Github
上面也有不少教程,但是到这上面就需要一点技巧了,不大适合小白