开源模型应用落地-qwen模型小试-入门篇(五)

一、前言

    这是关于qwen模型入门的最后一篇文章。主要介绍如何使用魔搭的API在本地调用qwen模型。此外,通过阅读这一系列的文章,如果您真的亲自动手实践过,我相信您已经掌握了qwen模型的基本使用方法。


二、术语

2.1. ModelScope社区

    打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单。

    汇聚各领域最先进的机器学习模型,提供模型探索体验、推理训练、部署和应用的一站式服务。


三、前置条件

3.1.windows操作系统

3.2.提前下载好Qwen-1.8B-Chat模型

    当然通过代码在线下载也可以...只是没必要浪费这个时间

3.3. 安装依赖库(记得要在虚拟环境下执行哦)

pip install modelscope -i https://pypi.tuna.tsinghua.edu.cn/simple

四、技术实现

4.1. 非流式调用

def chat(model,tokenizer,message,history):
    try:
        resp,his = model.chat(tokenizer, message, system='你是一位乐于助人的人工智能助手,愿意解决人类提出的各种问

你可能感兴趣的:(开源大语言模型-实际应用落地,深度学习)