00:00 / 01:19
连播
清屏
智能
倍速
点赞10
00:00 / 01:17
连播
清屏
智能
倍速
点赞14
2602命令行播报:大模型API调用流式输出物语 每天分享一个AI趣味小知识,今天我们来基于AI大模型API调用的流式输出的命令行进行行云流水式的播报。想象一下,你像我一样,是个对AI充满好奇的普通人,突然发现命令行能让大模型像活过来的朋友一样,一字一句地跟你聊天,这不就像开启了一场实时互动的AI冒险吗?我们从基础起步,一步步跟着这些代码走,每敲一行,就感觉AI在眨眼回应,超级刺激,您不会觉得技术枯燥,因为我会像讲故事一样,带你节奏慢下来欣赏细节,然后突然加速到高潮,让你忍不住想自己试试。咱们先从创建客户端开始,第一步,键入'client=OpenAI(base_url=base_url,api_key=api_key)',这就像给你的AI助手发一张邀请函,用base_url指向服务地址,api_key作为门票,确保安全连接上大模型平台;当确认一切就绪后,我们顺势进入流式互动,第二步,敲入'completion=client.chat.completions.create(model='qwen-plus', messages=[{'role': 'system','content': '你是一个友好的AI助手,使用适合的语气回答用户问题'}, {'role': 'user','content': '介绍一下markdown的核心语法和功能'}], stream=True)',然后键入'for chunk in completion: print(chunk.choices[0].delta.content,end='',flush=True)',我们对以上for循环语句进行详细解读,即让AI像个友好的解说员,当用户问markdown格式的语法时,在client对象开启stream(即流式)为True后,AI的回应内容不是一下全吐出来,而是像打字机一样,一块块以流式输出的形式到回复界面上,即行云流水式的输出。#我的旅行日记
00:00 / 03:19
连播
清屏
智能
倍速
点赞1
00:00 / 01:06
连播
清屏
智能
倍速
点赞201
00:00 / 04:17
连播
清屏
智能
倍速
点赞1
00:00 / 00:21
连播
清屏
智能
倍速
点赞4
00:00 / 03:28
连播
清屏
智能
倍速
点赞51
00:00 / 00:27
连播
清屏
智能
倍速
点赞0