00:00 / 02:28
连播
清屏
智能
倍速
点赞155
00:00 / 05:49
连播
清屏
智能
倍速
点赞596
这两天机器人的优化进步简单聊聊。 首先新加了一个模型配置功能,能实时看到机器人现在正在用的是哪个模型,还能随时刷新候选模型列表。 以后不同环境可以随便切模型,咱们常用的千问大模型、火山引擎的模型都在里面可以选,想切哪个就切哪个,就连咱们公司服务器本地部署的模型也能直接切换。 这样以后机器人多模型切换、日常管理就方便太多了。 然后第二个,对话调教这块做了很大升级。 现在里面加了不同场景的切换选项,不再只局限于幸运咖门店这一个场景了。 可以单独设幸运咖场景、展会接待场景、产品推销场景等等,后面还能自己随便加新场景,每个场景单独调教话术就行。 还有一个大进步,机器人终端已经能实时采集线下真实对话数据了。 不光是在实验室里训练,它在实际现场跟客人聊天的每一句对话,都会自动采集下来。 之后我们可以筛选哪些回答好、哪些不能用,直接标注好再同步给机器人。 就这样日积月累,不停采集、不停标注、不停迭代,机器人就不只是靠大模型生硬回答,对话会越来越自然、越来越接地气,越来越像真人聊天。 再有就是视觉雷达功能,现在已经完全打通实时视频感知了。 机器人睁开“眼睛”,能看清眼前是人还是物品,能分辨老人、小孩、学生、小哥哥小姐姐、帅哥靓妹,全都能识别出来。 然后根据识别到的人物,自动匹配对应的话术,实时互动聊天,智能化程度又上了一个台阶。 最后就是SLAM导航这块,算是个硬核大功能。 目前已经完成雷达数据采集和自主建图,下一步就要让机器人自己迈开步子自主行走了。 不过我现在还想再整合一套新技术进来,最近刷相关技术视频发现,GitHub出了新方案,不用提前预设地图、不用预先采集建图,边走边实时建图、实时规划路线。 如果这套技术能顺利整合进来,提升会非常大,以后机器人就能更灵活自主行走、自动避障、自主跟环境互动,实用性直接拉满。
00:00 / 05:00
连播
清屏
智能
倍速
点赞198
00:00 / 01:53
连播
清屏
智能
倍速
点赞25
火山引擎方舟Coding Plan配置教程 #AI编程 #火山引擎 #方舟CodingPlan #doubaocode #效率工具 一、 产品亮点:高性价比的AI编程模型套餐 火山引擎推出的“Coding Plan”是一项面向开发者的AI编程模型服务,目前已集成豆包、Minimax、GLM、DeepSeek、Kimi等国内主流代码模型。该服务提供两个套餐:Lite版(每月1.8万次调用)和Pro版(调用次数为Lite的5倍),可满足不同强度需求。其最大优势是极高的性价比,目前首月活动价仅需9元,是获取稳定、高质量代码生成服务的低成本方案。 二、 实战教学:四款主流AI编程工具接入指南 1. 本视频核心是手把手教学,将火山引擎Coding Plan集成到四款最流行的AI编程工具中: 2. Claude Code:修改其配置文件(claude_desktop_config.json),在env字段中配置服务商、模型名(如ark-code-latest)及复制的API Key即可。 3. OpenCode:有两种方式,推荐下载其桌面客户端,在“连接供应商”中搜索“火山引擎”并填入API Key;也可直接修改其opencode.json配置文件。 4. TRAE:在编辑器设置中“添加模型”,选择“火山引擎Coding Plan”为服务商,从控制台复制对应模型ID(如ep-xxx)和API Key即可添加。 5. Cursor:配置稍复杂,需在设置中添加模型时,同时修改Base URL和API Key,并确保在Cursor中开启了“OpenAI Key”选项以进行替换。需注意,此功能可能需要Cursor Pro会员。 三、 配置核心与价值总结 1. 核心配置项:所有工具配置均围绕三个核心信息展开:服务商端点(Base URL)、模型ID、API Key。这些信息均可在火山方舟控制台的“Coding Plan”详情页中找到。 2. 模型路由策略:套餐提供ark-code-latest作为自动路由模型,系统会智能分配最优模型;也允许用户根据任务复杂度,手动指定特定模型(如轻量任务用code-lite,复杂任务用pro版本)。 3. 核心价值:本方案为开发者,特别是个人开发者或小团队,提供了一条大幅降低A
00:00 / 06:37
连播
清屏
智能
倍速
点赞21
用Mac Mini能分币不花的养龙虾吗? 用Mac Mini部署本地算力,能实现分币不花的养龙虾吗?养龙虾最大的成本token的费用,也就是算力。那现在最简单的方式就是接入阿里云 腾讯云 火山云上的大模型,你每次使用都会消耗算力,所以这是一个持续付费的过程,要是使用频繁一个月花个几千块钱买token,也是稀松平仓,然后另外一种所谓分币不花的方式呢,就是一次性投入买一个硬件,然后在里面部署一个开源的大模型,类似Kimi/千问/DeepSeek这种,为了省下token费用,我花了将近4k买了个丐版macmini,经过尝试 想分币不花的使用本地算力养龙虾基本没戏,下面我说说原因啊,我选的这个90亿参数的qwen3.5:,算是能力比较低的模型了。但要想让他发挥全力大概需要18gb显存。而我这款钙板macmini最大调动显存也就13g左右,好在Ollama这个工具可以量化压缩模型,所以勉强能跑这个千问3.5,但是因为算力不够,你随便问他一个问题,真的是等到天荒地老…时间久到你都怀疑是不是卡了。。。最后还接了云龙虾才正常运行起来。但是如果要接云模型,我就没必要新买macmini了,云模型龙虾对配置要求很低的。基本常用的笔记本电脑都能运行,完全没必要为了龙虾新买电脑,所以这个macmini算是又交了一笔AI学费#openclaw #养龙虾 #ai #大模型 #macmini
00:00 / 02:18
连播
清屏
智能
倍速
点赞557
00:00 / 05:28
连播
清屏
智能
倍速
点赞197