chatGPT相关开源项目介绍

分类说明

小模型:可在3090、4090等GPU上训练与部署,能力接近openAI的chatGPT大模型。
小模型可以使用自己特定的数据集进行训练,打造与众不同的能力,不求能力广、而求能力专。基于小模型打造垂直应用,也是个不错的想法。

chatGPT前端替代品:可以打开openAI的官网使用chatGPT,同时也有大佬开发了桌面端、网页版。

chatGPT prompt:关于提示工程的项目,学好prompt才能更好的和chatGPT交流。
这样做不是复制那么简单,可以增加语音识别、语音播放、prompt帮助等等。这类应用有基于openAI官方的gpt3.5 turbo API实现的,有基于原生chatGPT网页逆向工程实现的。

其他:GitHub还有很多有趣的开源项目,有的可以模拟chatGPT的插件功能,有的可以解析pdf。项目如雨后春笋,本文也会持续更新。

小模型

LLaMA

项目地址:
https://github.com/facebookresearch/llama
facebook研究的开源语言模型LLaMA在大多数任务上超越了GPT-3,模型参数量最小7B、最大65B,对比GPT-3的175B参数量小了很多。

Alpaca

项目地址:
https://github.com/tatsu-lab/stanford_alpaca
斯坦福基于 Meta 的 LLaMA 7B 模型微调出一个

你可能感兴趣的:(chatGPT,chatgpt,人工智能)