00:00 / 00:31
连播
清屏
智能
倍速
点赞2
宇树G1人形机器人理解提示词AI智能实时响应语音指令控制算法 #中国电信人工智能研究院 #宇树人形机器人 #人形机器人 #智能机器人 #g1 2025年11月以来,人形机器人领域的“提示词交互革命”引发广泛关注。中国电信人工智能研究院(TeleAI)联合宇树科技推出的自然语言驱动方案,让宇树G1人形机器人突破传统编程限制,仅通过简单文本或语音提示词,就能自主规划并执行从日常家务到复杂运动的各类动作,标志着人机交互进入“指令即执行”的新阶段。 这一技术突破的核心在于TeleAI团队研发的“Text2Action”提示词解析框架,该框架已通过中国电信天翼数字生活科技有限公司采购的宇树H1-2机器人完成初步验证,并快速适配至量产型号G1中。与美国团队依赖视觉或动捕数据的方案不同,中国电信的技术实现了“语义理解-环境感知-动作生成”的全链路闭环——当用户发出“把椅子搬到桌子旁并坐下”的提示词时,机器人首先通过内置的AI芯片解析指令语义,再利用3D激光雷达扫描环境定位物体位置,最终生成包含12个关节协同的连续动作序列,整个响应过程延迟低于0.1秒。 11月中旬的技术演示中,宇树G1在TeleAI提示词系统支持下,展现出极强的动作适应性。面对“模仿李小龙回旋踢”的文本指令,它能自动调用运动控制模型,完成起势、旋转、踢击的连贯动作,关节误差控制在±0.5°以内;而“整理桌面并将水杯放到茶几上”的生活化提示词,则触发其灵巧手模块与移动系统的协同,完成拾取、分类、放置等精细操作,成功率达91%。这种无需预编脚本的交互方式,较传统机器人操作效率提升4倍以上。 技术层面,“Text2Action”框架采用双层架构设计:上层为提示词语义拆分模块,能精准识别指令中的核心任务(如“搬椅子”)、目标物体(“椅子”“桌子”)及动作要求(“搬到”“坐下”),并转化为机器可识别的任务向量;下层为自适应动作生成模块,结合宇树G1的120N·m超扭矩关节特性,实时生成符合物理规律的运动轨迹。值得关注的是,该框架具备自我优化能力,在接收“被推倒后自行恢复”的提示词并执行滚翻起身动作后,会自动记录姿态调整数据,后续同类指令的执行流畅度提升23%。 目前,这项技术已在两大场景实现落地应用。在科研教育领域,清华大学机器人实验室通过“演示格斗动作”“模拟跑步姿态”等提示词,快速完成宇树G1的运动学实验,将原本需要3天的编程调试时间缩短至10分钟。
00:00 / 01:20
连播
清屏
智能
倍速
点赞11