文心一言API(高级版)使用
- 创业
- 2025-07-21 19:17:40

文心一言API高级版使用 一、百度文心一言API(高级版)二、使用步骤1、接口2、请求参数3、请求参数示例4、接口 返回示例 三、 如何获取appKey和uid1、申请appKey:2、获取appKey和uid 四、重要说明 一、百度文心一言API(高级版)
基于百度文心一言语言大模型的智能文本对话AI机器人API,支持聊天对话、行业咨询、语言学习、代码编写等功能.
二、使用步骤 1、接口重要提示:建议使用https协议,当https协议无法使用时再尝试使用http协议
请求方式: POST
luckycola /ai/wxChatV2 2、请求参数 序号参数是否必须说明1ques是你的问题2appKey是唯一验证AppKey, 可前往官网“个人中心“获取(http(s): //luckycola ), 下面具体介绍获取方法3uid是账号等唯一标识, 可前往官网“个人中心“获取(http(s): //luckycola ), 下面具体介绍获取方法4isLongChat否是否支持上下文(值为1或者0),1表示支持上下文,默认值0不支持5chatModel否自定义使用的模型,可以传值“bot8kChat“、“bot7bChat“、“turboChat“,不传默认值是“turboChat“6isStream否是否使用流响应格式,默认false注意!!!: 如果您还没有appKey和uid,请先请前往官网获取 官网地址:http(s): //luckycola /
3、请求参数示例 { // 你的问题 "ques": "hello", // 官网-个人中心-Appkey获取 "appKey": "643************c3", // 官网-个人中心-用户ID "uid": "y*************6", // 是否支持上下文 值1表示支持,0表示不支持 "isLongChat": 0, // 自定义使用的模型,可以取值“bot8kChat“、“bot7bChat“、“turboChat“,不传默认是“turboChat“ "chatModel": "bot7bChat", // 响应是否流格式,默认false "isStream": false } 4、接口 返回示例 { // 成功状态码 "code": 0, // 成功提示 "msg": "AI V2接口返回成功", "data": { // AI回答结果 "result": "您好,您似乎输入了一个文本字符串。如果您需要帮助或有任何问题,请随时告诉我,我将竭诚为您服务。", "countMsg": "无穷", // 当前是否是上下文对话模式,1表示是上下文模式,0为非上下文模式 "longChat": 0 } } 三、 如何获取appKey和uid 1、申请appKey:登录Luckycola官网(http(s): //luckycola ),进入“[个人中心]“,即可进行申请
2、获取appKey和uidAppKey申请通过后,登录Luckycola官网(http(s): //luckycola ),进入“[个人中心]“即可获取
四、重要说明重要提示: 您的AppKey和uid是重要信息,请务必妥善保存,避免泄漏!
重要提示: 您的AppKey和uid是重要信息,请务必妥善保存,避免泄漏!
重要提示: 您的AppKey和uid是重要信息,请务必妥善保存,避免泄漏!
文心一言API(高级版)使用由讯客互联创业栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“文心一言API(高级版)使用”
上一篇
详细介绍开源固件-TF-A
下一篇
【计算机网络】期末复习第一章