2023年是人工智能大语言模型大爆发的一年,一些概念和英文缩写也在这一年里集中出现,很容易混淆,甚至把人搞懵。
LLM: Large Language Model,即大语言模型,旨在理解和生成人类语言。LLM的特点是规模庞大,包含成百、上千亿的参数,可以捕捉语言的复杂模式,包括句法、语义和一些上下文信息,从而生成连贯的、有意义的文本。ChatGPT、GPT-4、BERT、文心一言等都是典型的大型语言模型。
GPT: Generative Pre-training Transformer,是OpenAI开发的一种基于Transformer的大规模自然语言生成模型。
AIGC: Artificial Intelligence Generated Content,即AI生成内容。指的是利用AI技术生成的内容,比如AI写文章、画画甚至做视频等等。
AGI: Artificial General Intelligence,即通用人工智能。AGI的目标是创造一个能像人类一样思考、学习、执行多种任务的系统,成为全能的“超级大脑”,未来可能在任何领域都超越人类。
除了概念之外,如果你想进一步了解这些技术的细节和进展,推荐你读这几本书。
推荐语:中国IT领军者陈斌新作,详解ChatGPT在软件研发全流程的应用,大幅提升研发效率,塑造工程师AI时代竞争优势。
import openai
# 设置OpenAI API密钥
openai.api_key = 'YOUR_API_KEY'
# 定义对话的起始信息
conversation_start = "User: Hello AI!\nAI: Hi, how can I help you today?"
# 发送请求并获取AI的回复
def get_ai_response(message):
response = openai.Completion.create(
engine='text-davinci-003',
prompt=conversation_start + message,
max_tokens=50,
temperature=0.7,
n = 1,
stop=None
)
return response.choices[0].text.strip()
# 与AI交互
while True:
user_input = input("User: ")
# 添加用户输入到对话中
conversation_start += '\nUser: ' + user_input
# 获取AI回复
ai_response = get_ai_response(conversation_start)
# 添加AI回复到对话中
conversation_start += '\nAI: ' + ai_response
print("AI:", ai_response)
推荐语:BAT资深AI专家和大模型技术专家撰写,MOSS系统负责人邱锡鹏等多位专家鼎力推荐!系统梳理并深入解析ChatGPT的核心技术、算法实现、工作原理、训练方法,提供大量代码及注解。
推荐语:豆瓣评分9.5!复旦大学邱锡鹏教授力作,周志华、李航联袂推荐!深受好评的深度学习讲义蒲公英书正式版!系统整理深度学习的知识体系,由浅入深地阐述深度学习的原理、模型以及方法。更适合中文读者的深度学习图书。
《神经网络与深度学习:案例与实践》作为邱锡鹏老师出品的《神经网络与深度学习》配套案例,与《神经网络与深度学习》深度融合,从实践角度诠释原书理论内容。复旦大学邱锡鹏教授、百度飞桨研发团队联袂奉献。
import torch
import torch.nn as nn
import torch.optim as optim
import torchvision
import torchvision.transforms as transforms
# 定义神经网络模型
class NeuralNetowrk(nn.Module):
def __init__(self):
super(NeuralNet, self).__init__()
self.fc1 = nn.Linear(784, 128) # 输入层到隐藏层
self.relu = nn.ReLU()
self.fc2 = nn.Linear(128, 10) # 隐藏层到输出层
def forward(self, x):
x = x.view(x.size(0), -1) # 将图像扁平化(将图像转换成一维向量)
x = self.fc1(x)
x = self.relu(x)
x = self.fc2(x)
return x
# 定义超参数
learning_rate = 0.001
batch_size = 100
num_epochs = 10
# 加载并预处理数据
transform = transforms.Compose([
transforms.ToTensor(),
transforms.Normalize((0.5,), (0.5,))
])
train_dataset = torchvision.datasets.MNIST(root='./data', train=True, transform=transform, download=True)
test_dataset = torchvision.datasets.MNIST(root='./data', train=False, transform=transform)
train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
推荐语:
推荐语: 人手一本的人工智能著作。至少从 20 世纪 50 年代起,人们就开始大肆宣传可能很快就会创造出一种能够与人类智能的全部范围和水平相匹配的机器。现在,我们已经成功地创造出了能够解决特定问题的机器,其准确度达到甚至超过了人类,但我们仍然无法获得通用智能。这本书想和大家探讨一下还需要做什么样的努力才能不仅获得专用智能,还能获得通用智能。
如果你对智能感兴趣,想了解更多关于如何建造自主机器的知识,或者担心这些机器突然有一天会以一种被称为“技术奇点”的方式统治世界,请阅读本书。
- 本次送书两本
- 活动时间:截止到2023-12-23 12:00
- 参与方式:关注博主、并在此文章下面点赞、收藏并任意评论。
- 一本送给所有粉丝抽奖,另外一本送给购买专栏的同学们,购买专栏并且没有送过书的同学们可私信联系,先到先得,仅限一本