✨ChatGLM-6B 是一个开源的、支持中英双语问答的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。ChatGLM-6B 使用了和 ChatGLM 相同的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。
✨本项目主要涵盖多种应用场景下的文案输入生成和续写,例如用户可以自行输入各种内容,之后服务将会对其进行回答、续写或者按照指令进行回复。以达到提高生产力的目的。为你不用再苦苦去想各种各样的文案啦,文案生成贴心小助手都可以为你解决。
!pip install paddlepaddle-gpu==0.0.0.post112 -f https://www.paddlepaddle.org.cn/whl/linux/gpu/develop.html
!pip install --pre --upgrade paddlenlp -f https://www.paddlepaddle.org.cn/whl/paddlenlp.html # 安装nlp分支最新包,和上一条命令选用即可
import paddle
from paddlenlp.transformers import (
ChatGLMConfig,
ChatGLMForCausalLM,
ChatGLMTokenizer,
)
#读取原始的chatglm-6b模型
model_name_or_path = 'THUDM/chatglm-6b' # 使用该路径会自动下载和加载模型
tokenizer = ChatGLMTokenizer.from_pretrained(model_name_or_path)
config = ChatGLMConfig.from_pretrained(model_name_or_path)
paddle.set_default_dtype(config.paddle_dtype)
model = ChatGLMForCausalLM.from_pretrained(
model_name_or_path,
tensor_parallel_degree=paddle.distributed.get_world_size(),
tensor_parallel_rank=0,
load_state_as_np=True,
dtype=config.paddle_dtype,
)
model.eval()
def glm_single_QA(model,tokenizer,next_inputs,input_length,output_length):
# 输入格式转换
inputs = tokenizer(
next_inputs,
return_tensors="np",
padding=True,
max_length=input_length,
truncation=True,
truncation_side="left",
)
input_map = {}
for key in inputs:
input_map[key] = paddle.to_tensor(inputs[key])
# 获取结果
infer_result = model.generate(
**input_map,
decode_strategy="sampling",
top_k=1,
# top_p =5,
max_length=output_length,
use_cache=True,
use_fast=True,
use_fp16_decoding=True,
repetition_penalty=1,
temperature = 0.95,
length_penalty=1,
)[0]
# 结果转换
output = ''
result = []
for x in infer_result.tolist():
res = tokenizer.decode(x, skip_special_tokens=True)
res = res.strip("\n")
result.append(res)
output = output + res
return output
def generate_prompt(prompt: str, style: str) -> str:
if len(prompt) == 0:
return "请输入您的提示语"
generated_prompt = '以“' + prompt + '”为主题,撰写一段' + style + ',字数在100字左右'
print('功能:' + style + ',generated_prompt:' + generated_prompt)
return generated_prompt
def text_generation(original_prompt: str, generated_prompt: str, style: str) -> str:
if not len(generated_prompt) == 0:
prompt = generated_prompt
elif not len(original_prompt) == 0:
prompt = original_prompt
else:
return "请输入您的提示语"
print('功能:' + style + ',提示语:' + prompt)
response = glm_single_QA(model, tokenizer, prompt, 2048, 2048)
result = '按照您的提示语:' + prompt + ',生成的文案如下:' + response
return result
original_prompt = 'AI Studio深度学习平台'
generated_prompt = '以“AI Studio深度学习平台”为主题,撰写一段创意广告,字数在100字左右'
style = '创意广告'
text_generation(original_prompt, generated_prompt, style)
功能:创意广告,提示语:以“AI Studio深度学习平台”为主题,撰写一段创意广告,字数在100字左右
'按照您的提示语:以“AI Studio深度学习平台”为主题,撰写一段创意广告,字数在100字左右,生成的文案如下:探索AI的无限可能,尽在AI Studio深度学习平台。从数据预处理到模型训练,再到预测分析,我们的平台为您提供全方位的AI服务。简单易用的界面和强大的功能,让您轻松构建和训练深度学习模型。无论您是初学者还是专业人士,我们都将竭诚为您服务,帮助您实现您的AI梦想。快来加入我们,开启您的AI之旅吧!'
2023大模型应用创新挑战赛
2023中国高校计算机大赛人工智能创意赛
百度网盘AI大赛-美颜祛斑祛痘
赛题名称: 美颜祛斑祛痘
伴随颜值经济迅速崛起,人像美颜美肤逐渐成为应用最广、需求最大的技术之一。相较于互娱场景的磨皮美颜,广告级、影楼级的精细化美颜美肤给算法带来了更大的挑战。一方面,瑕疵种类众多,例如痘痘、痘印、雀斑、肤色不均等问题,加大了算法处理的难度;另一方面,摄影设备的迭代和受众需求的提升,要求算法在祛瑕过程中尽可能保留皮肤的纹理、质感,实现高精度的皮肤修饰,这对算法祛瑕呈现效果提出了更高标准。因此,本赛题希望参赛选手能研究出祛除斑痘瑕疵并保留皮肤纹理质感等高精度、低耗时的算法,助力解决广告及影楼级修图的痛难点,大幅提升工作效率与修图效果。
奖项设置
奖金 | 数量 | 奖金(税后) |
---|---|---|
一等奖 | 1名 | 2万元人民币+荣誉证书 |
二等奖 | 2名 | 2千元人民币+荣誉证书 |
三等奖 | 3名 | 5百元人民币+荣誉证书 |
优秀奖 | 4名 | 200元京东E卡+荣誉证书 |
当SAM遇到Stable-Diffusion–会唱歌的炼丹师
【大模型专区】AI艺术二维码生成–会唱歌的炼丹师
【大模型专区】智能遥感解译工具-Remote Scening System
注:以下二维码图片均有【大模型专区】AI艺术二维码生成此应用生成
AI艺术二维码生成 | 当SAM遇到Stable-Diffusion | 智能遥感解译工具 | 文案生成贴心小助手 |
---|---|---|---|
请点击此处查看本环境基本用法.
Please click here for more detailed instructions.