00:00 / 02:21
连播
清屏
智能
倍速
点赞996
00:00 / 01:27
连播
清屏
智能
倍速
点赞8
00:00 / 01:07
连播
清屏
智能
倍速
点赞92
00:00 / 02:42
连播
清屏
智能
倍速
点赞14
这两天机器人的优化进步简单聊聊。 首先新加了一个模型配置功能,能实时看到机器人现在正在用的是哪个模型,还能随时刷新候选模型列表。 以后不同环境可以随便切模型,咱们常用的千问大模型、火山引擎的模型都在里面可以选,想切哪个就切哪个,就连咱们公司服务器本地部署的模型也能直接切换。 这样以后机器人多模型切换、日常管理就方便太多了。 然后第二个,对话调教这块做了很大升级。 现在里面加了不同场景的切换选项,不再只局限于幸运咖门店这一个场景了。 可以单独设幸运咖场景、展会接待场景、产品推销场景等等,后面还能自己随便加新场景,每个场景单独调教话术就行。 还有一个大进步,机器人终端已经能实时采集线下真实对话数据了。 不光是在实验室里训练,它在实际现场跟客人聊天的每一句对话,都会自动采集下来。 之后我们可以筛选哪些回答好、哪些不能用,直接标注好再同步给机器人。 就这样日积月累,不停采集、不停标注、不停迭代,机器人就不只是靠大模型生硬回答,对话会越来越自然、越来越接地气,越来越像真人聊天。 再有就是视觉雷达功能,现在已经完全打通实时视频感知了。 机器人睁开“眼睛”,能看清眼前是人还是物品,能分辨老人、小孩、学生、小哥哥小姐姐、帅哥靓妹,全都能识别出来。 然后根据识别到的人物,自动匹配对应的话术,实时互动聊天,智能化程度又上了一个台阶。 最后就是SLAM导航这块,算是个硬核大功能。 目前已经完成雷达数据采集和自主建图,下一步就要让机器人自己迈开步子自主行走了。 不过我现在还想再整合一套新技术进来,最近刷相关技术视频发现,GitHub出了新方案,不用提前预设地图、不用预先采集建图,边走边实时建图、实时规划路线。 如果这套技术能顺利整合进来,提升会非常大,以后机器人就能更灵活自主行走、自动避障、自主跟环境互动,实用性直接拉满。
00:00 / 05:00
连播
清屏
智能
倍速
点赞198