00:00 / 05:11
连播
清屏
智能
倍速
点赞0
00:00 / 03:20
连播
清屏
智能
倍速
点赞0
00:00 / 15:14
连播
清屏
智能
倍速
点赞15
程序功能:基于Open AI SDK调用大模型的封装类库 程序文件:llm.py 程序主体播报如下: 1、import os 从操作系统模块导入os,用于环境变量访问,确保API密钥安全读取。 2、from openai import OpenAI 引入openai库的核心类OpenAI,用于后续客户端实例化。 3、client = OpenAI( 初始化OpenAI的客户端对象,准备调用兼容的大模型接口。 4、api_key=os.getenv("DASHSCOPE_API_KEY"), 通过os.getenv方法获取环境变量中的DASHSCOPE_API_KEY作为认证密钥,避免硬编码泄露。 5、base_url="https://dashscope.aliyuncs.com/compatible-mode/v1" 设置基础URL为阿里云DashScope的兼容模式端点,实现OpenAI SDK与阿里大模型的适配。 6、) 完成客户端配置,确保后续调用指向正确服务。 7、def invoke(user_message, model_name="qwen-plus"): 定义非流式调用函数invoke,默认使用qwen-plus模型,接受用户消息作为输入。 8、completion = client.chat.completions.create( 通过客户端创建聊天完成(即补全)的请求,启动大模型推理过程。 9、model=model_name, 指定使用的模型名称,确保调用正确的预训练模型。 10、messages=[{"role": "user", "content": user_message}] 构建消息列表,仅包含用户角色和内容,实现单轮对话输入。 11、) 结束请求创建,返回完整的响应对象。 12、return completion.choices[0].message.content 提取第一个选择的响应消息内容,作为函数返回值。
00:00 / 04:07
连播
清屏
智能
倍速
点赞0