如何简单的使用文心一言(高级版)(中国版ChatGPT)

文心一言API高级版使用

  • 一、百度文心一言API(高级版)
  • 二、使用步骤
    • 1、接口
    • 2、请求参数
    • 3、请求参数示例
    • 4、接口 返回示例
    • 5、智能生成API代码
  • 三、 如何获取appKey和uid
      • 1、申请appKey:
      • 2、获取appKey和uid
  • 四、重要说明

一、百度文心一言API(高级版)

基于百度文心一言语言大模型的智能文本对话AI机器人API,支持聊天对话、行业咨询、语言学习、代码编写等功能.

二、使用步骤

1、接口

重要提示:建议使用https协议,当https协议无法使用时再尝试使用http协议

请求方式: POST

https://luckycola.com.cn/ai/wxChatV2

2、请求参数

序号 参数 是否必须 说明
1 ques 你的问题
2 appKey 唯一验证AppKey, 可前往官网“个人中心“获取(http(s): //luckycola.com.cn), 下面具体介绍获取方法
3 uid 账号等唯一标识, 可前往官网“个人中心“获取(http(s): //luckycola.com.cn), 下面具体介绍获取方法
4 isLongChat 是否支持上下文(值为1或者0),1表示支持上下文,默认值0不支持
5 chatModel 自定义使用的模型,可以传值“botChat“、“bot7bChat“、“turboChat“,不传默认值是“turboChat“
6 isStream 是否使用流响应格式,默认false

注意!!!: 如果您还没有appKey和uid,请先请前往官网获取
官网地址:http(s): //luckycola.com.cn/

3、请求参数示例

{
	// 你的问题
   "ques": "hello",
   // 官网-个人中心-Appkey获取
   "appKey": "643************c3",
   // 官网-个人中心-用户ID
   "uid": "y*************6",
   // 是否支持上下文 值1表示支持,0表示不支持
   "isLongChat": 0,
   // 自定义使用的模型,可以取值“botChat“、“bot7bChat“、“turboChat“,不传默认是“turboChat“
   "chatModel": "bot7bChat",
   // 响应是否流格式,默认false
   "isStream": false
}

4、接口 返回示例

{
	// 	成功状态码
	"code": 0,
	// 	成功提示
	"msg": "AI V2接口返回成功",
	"data": {
		// 	AI回答结果
		"result": "您好,您似乎输入了一个文本字符串。如果您需要帮助或有任何问题,请随时告诉我,我将竭诚为您服务。",
		"countMsg": "无穷",
		// 当前是否是上下文对话模式,1表示是上下文模式,0为非上下文模式
		"longChat": 0
	}
}

5、智能生成API代码

如果您是小白或者不熟悉的编程爱好者,您可以使用AiRestful帮助您智能生成API使用的代码示例:

<开始体验>:智能生成API代码

三、 如何获取appKey和uid

1、申请appKey:

登录Luckycola官网(http(s): //luckycola.com.cn),进入“[个人中心]“,即可进行申请
在这里插入图片描述

2、获取appKey和uid

AppKey申请通过后,登录Luckycola官网(http(s): //luckycola.com.cn),进入“[个人中心]“即可获取
在这里插入图片描述

四、重要说明

重要提示: 您的AppKey和uid是重要信息,请务必妥善保存,避免泄漏!

重要提示: 您的AppKey和uid是重要信息,请务必妥善保存,避免泄漏!

重要提示: 您的AppKey和uid是重要信息,请务必妥善保存,避免泄漏!

你可能感兴趣的:(文心一言,chatgpt)