粉丝6.3万获赞45.6万

说句实话,波希顿动力的机器人虽然差点意思,但人家机器狗是全世界顶级的,都会向网发评论了, 比不过就造谣,你已急哭。不过造谣都不会造,你偏说有人遥控,你哪怕说按按钮播放固定程序我都没这么想笑你无知,这说明学籍素质有待提高啊。 现在我就说说为什么就不可能靠人遥控?首先,多计同步根本做不到,春晚同时几十台机器人做高难度武术空翻、队形变换,员工遥控无法做到毫秒级同步。 不论是一人操控多台高动态机器人,还是多人操控多台机器人,必然出现延迟卡顿、动作错乱等问题。第二,实时平衡无法遥控。机器人空翻、倒地起身、单腿支撑都需要积攒芯片,实时计算平衡 控制频率上千次每秒,遥控存在网络延迟,信号抖动,哪怕几毫秒误差都会直接摔倒,不可能靠人远程手动稳住。第三,复杂环境无法遥控,舞台灯光干扰、走位变化、道具交互都需要机器人学习自主感知,自主修正, 人工遥控无法在短时间内应对所有突发情况,更无法保证整场演出稳定不出错。这通信也证明按按钮播放固定程序同样不限行。最后,疾禽调度远超人类操作极限,多机定位,地降队形保持动作协调配合, 是机器对机器的鞋头,不是人对机器的点控,靠人遥控完成整场演出,在工程上不具备可言性。摇屁完了,现在我们秀秀为什么会出现这个谣言?先说总结,这是典型境外舆论战手法, 海外社交平台第一时间集体带节奏,是特效穿机甲的人后台遥控,用技术无阶制造。怀疑 这股风吹到国内就成了无忌又自卑的机器狗炉内高潮的资本。这些言论被官方打脸后就立刻转为恐慌加制裁。真相大白后,西方从打假直接破防。 美国二月十四日紧急将语数列入所谓中国精细企业清单。无中兴有扣锈金帽子、隐形的商标加抹黑产业链。一边吹波西顿动力、特斯拉、 optimus、 马杏开元, 说白了有没有吗?还是个未知数呢。一边黑中国量产评价真正领先的机器人,用金庸话威胁论打压中国科技领先。我们一定要有灵敏的政治视角,在春晚这种高度敏感的时间点,突然冒出打击国人自信的言论,本身就不正常。 于秀系纯民用公司,无任何金方背景,被计财,纯粹系政治打压,目标就系精准打击中国置身技能标杆。要知道中国已经占到全球人形机器人出货量的百分之九十,于秀系行业第一, 很明显比不过就抹黑,追不上就制裁,这就是西方焦虑感转化成的舆论战。我们对舆论战必须有清醒的认识,这是一场没有硝烟的战争,舆论的高地,你不去占领,敌人就来占领了。

那么关于机器人遥控的所有秘密,全网看这一条视频就足够了,我们耗时三天,用五分钟把底层逻辑全部给你讲透。那么大家看机器人表演视频,特别是像特斯拉、擎天柱和语数记忆这种评论区里刷的最多的问题绝对是这个东西到底是全自主的,还是后面有人在躲着遥控? 那么这种质疑其实不是针对技术本身,而是因为大家搞不清楚什么时候是 ai 在 动,什么时候是人在动。这期视频我们不引战,不吹不黑把远程操作这层窗户纸捅破。这期内容呢,我们会硬核拆解四个问题,所谓遥控机器人及远程操控是什么? 人类是怎么跟机器人进行互动的?对全自主的理解误区和实际有没有替代的方案?那么听完这期,你会对机器人行业的认知直接超越百分之九十九的人。 那么先给远程操作下个定义,说白了,其实就是人类在远处通过设备嘛控制机器人。这个时候机器人确实不是完全自主的,是有个大脑在后面进行指挥。 但这个绝对不是说机器人就是个提线木偶,每一个关节都需要人去扯着。举个最简单的例子,无人机。你玩无人机的时候,推摇杆告诉他往前飞,但你不需要分别控制那四个螺旋桨的转速吧? 无人机它自己会搞定。平衡抗风细节的底层机器人也一样,操作员演示的只是个意图,比如说把这个杯子拿起来, 机器人会听话照做,但像怎么站稳,怎么保持平衡,这些底层的活还是要机器人自己去搞定的,这个就根本的区别,全自主是机器人自己看环境,自己做决定,自己来动。那么远程操作呢?是人做决定,机器人负责干活。那现实中这个画面是什么样子的? 我们首先来看装备,他有的是穿着一身动作的捕捉服,有的呢他是拿 vr 手柄,还有的是带着手部追踪器。那么玩法分两种,第一种是复读机模式,人动一下,机器人就跟着动一下,一比一去模仿。 第二种呢,他就是指点江山模式,这个就更高级一点,操作员他不需要自己动,只要在屏幕上指个目标,下个令,去那把这个捡起来,剩下的路径规划,避开障碍, 抓有多紧,全归机器人自己来算。那么这个画面是不是有点眼熟?那么有看过电影铁甲钢拳,狼叔在台下挥拳,台上的机器人就跟着揍人。虽然电影里表演的夸张了点,但逻辑其实是一模一样的, 人类负责战术指挥,机器躯体负责物理输出。既然咱们的终极目标是让机器人自己动,也就是所谓的全自主,那么为什么现在我们还要费劲去搞遥控?时间上全自主不就行了吗?主要原因还是有一个问题,为了收集数据, 工程师在那遥控机器人不仅仅只是为了让他动,更是在生成训练数据,每一次成功的操作都是在向机器人演示, 看好了这活是怎么干的,这个才是标准姿势。那么这些在真实世界里不是模拟出来而产生的数据,才是训练 ai 模型的一些黄金数据,喂够了 ai, 学会了人气才可以退场,全自主也就实现了,而且这是教会机器人单一新技能最快的方法了, 演示几遍他大概就懂了,但缺点也很明显,就是没法量产。你想想工厂里面有成千上万种这种活,你总不能每一样都让人演一遍吧,那太慢了。所以 远程操作它只是个过渡期,它是通往全自主的一个必经之路,但不是终点。那么这就要说到大家最关心的,也就是像特斯拉、擎天柱这些机器人的演示视频,很多人就会问视频里这些机器人是不是自己在动,老实说,县级团通常给出的答案是不是不是,但不能代表人家 在造假,因为这也是训练过程的一环。这个时候用遥控其实也算是合理的,一方面他是为了修理一下机器人的硬件,另一方面也是顺便在真实的环境里抓取数据,也就是说这个演示是给我们这些观众看的。 另一方面他也是让机器人上了一堂线下的实践课。那么反观我们像波士顿动力,他就比较实诚,他一般就会明说,这时候就是有人在操控艾特拉斯,而像特斯拉有时候 他却没有特意提这个叉,大家就很容易误会。所以下次看到机器人做复杂的动作,别一听到遥控,哎呀就觉得这是翻车现场了,这只能说明他还在实习期,还在学本事。那么网上评论区经常会有两个误解,我们现在就给大家辟个谣, 第一个误解就是只要是遥控,就等于没有智能 ai 这个说法其实特别的绝对,因为现在的机器人大多是人机藕合的混合系统, 虽然大主意是人拿的,但像走路不摔跤撞不到墙这些事都是机器人自己搞定的,这个不叫零智能,这叫人机协助。 那么第二个误区就是说机器人太笨了,所以才需要遥控。其实这个正是学习的过程,我们就像人类教小孩靠模仿,大人学会做事,远程操作就是最直接的一个教学示范。所以不要觉得遥控就是机器人太蠢,这是他一个学习模仿的一个必经阶段。 那除了让人累死累活的去遥控摇啊,很多人可能会问,这有没有其他的替代方案?当然有啊,那么第一种方案就是仿真模拟,把机器人扔进虚拟世界里进行一个 啊练级,好处呢,就是成本低,安全,还能开几千个分身同时练。但也有坏处就是虚拟和现实它之间它是有代沟的,我们现实世界里面有摩擦力,有光线变化, 物理手感,虚拟世界很难模拟的一模一样。所以这也是为啥很多机器人在模拟器里是大神,而一到现实世界他就成一个废柴。那么第二种方案就是看视频学习,很多现在像生产室 ai 叉 gpt 就 能看出学习,那机器人能不能看视频学动作?其实 想法是很丰满,但是现实很骨感,视频只能告诉你动作看着像啥,但告诉不了你你需要使多大的劲,或者说摸着这是什么感觉。没有哦,触觉,因为光有视觉,这就是脑子会了,手不会。 所以现在阶段光靠看视频还真替代不了那种真刀真枪的这种远程操作训练。最后总结一下,所以说当你看到一个人心机器人的演示视频,最让你震撼的其实不应该是他既然能够自己想问题,而应该是他竟然能在真实的世界里走的很稳, 而且动作是那么的顺畅。想想以前那些僵硬的像智障一样的机器人,现在进步其实已经算是很快了。远程操作其实并没有抹杀这些硬件上的成就,他只是展示和打磨这些能力的一种手段。 那么最后我们最想说的其实是全自主,他不是变魔术,不会一夜之间蹦出来,他是需要靠硬件升级和海量的真实数据一点点堆出来的远程操作,他就是这块垫脚石,帮机器人从被人扶着走,慢慢过渡到自己跑。 所以下次再看到这种视频,别纠结是不是有人在遥控,那不是穿帮,那是人家正在努力进化的一个证明。

你敢想象有人把 ai 装进机器人里让他自己操控吗?最近爆火的 openclaw 开源 ai 项目举办了他们的线下聚会,这场临时通知的聚会却吸引了超过一千多人前来参与,直接把场地挤爆了,甚至人潮都蔓延到排起了长队。 这次的聚会, openclaw 的 创始人还在演讲中说道, ai 智能体将征服世界,你的生活、工作、感情都会有 a 整的参与。 而且现场还有一个由 openclaw 控制的戴着龙虾头套和钳子手套的语速机器人在和大家互动。不过这个 openclaw 应该不是真的在控制机器人,而是让 openclaw 代替了遥控器的位置,给语速机器人发送指令,看起来的效果就像是被 openclaw 控制了一样。不过已经有了这一层的形聚深智能可能真的离我们越来越近。

朋友们,现在看到这个小小气人了吗?现在是什么?说我在操控,你先拍他看看厉不厉害, 不会倒这随便用。真的。哎,对不起对不起哎,别往后别往后。哈哈哈,操控的不错吧。这个你能让他打个招呼吗?打招呼可以啊,找姐姐了。哎呦哎呦, 没事没事没事没事没事没事没事。对不起,我就刚按了一颗这个。没事没事没事。


我们先看这款灵巧手的视频,嗯, 操作灵巧性确实非常的不错, 不知道是否是有人通过 vr 设备或动骨设备进行远程操控,我觉得远程操作的可能性。现在很多机器人企业都在做数据的采集工作,有的用动骨,有的用 vr 采集数据之后再进行模型的训练。 另外还有一点就是特斯拉的机器人呢,除了拇指,剩下四个手指基本也是一样的。是的,这样也为以后的批量生产和维修提供了便利,毕竟备品库不需要准备太多的不同型号的手指头了,觉得我们也可以借鉴一下。 对于标准这块,工信部人形机器人与聚深智能标准化技术委员会于二零二五年十二月二十六日在北京正式成立,主要承担人形机器人与聚深智能基础共性、关键技术不组建、整机与系统应用、安全等领域行业标准自修定工作。 那这样的话,估计关于零巧手的标准相信也很快就会出来了。希望如此,这样整个产业就可以更好的规模化推进,硬件成本也就都能降下来了。是的,相信机器人在二零二六年会取得更快的发展。

终于让我找到了一个让龙虾机器人操控浏览器的好方法。不管现在这个龙虾机器人有多火,但不能改变的一个事实就是它操控浏览器的时候效果很差,不管你是用 playrite puppet 的 mcp 或者是这个 agent browser, 当然它们都是基于 copy or playwrite, 效果都不是特别好,即便是它原生的插件,这个现在已经在 chrome webstore 里边有了,就 open cloud browser relay, 即便是这个插件,它效果也是不太好。经过无数次事件之后,各种工具终于发现一种比较可靠的方式,那就是用浏览器的 debug 模式, 你可以在这看到,这是我找到的这些命令,就是 windows 上的,就咱们这以 from 为例, windows 上你用这个 remote debugging 给一个端口,就是九二二二,给他一个 user data 的 浏览器目录 profile 这里当然这个也 mac 上也是一样, remote debugging 也是端口是九二二, linux 上也是。 给到这个之后,你用这个运行浏览器之后,把这个端口告诉 opencloud 这个机型,它就要让它自己调用,它的权限会很高来调用各个浏览器,如果打开网页,上传视频或者图片做营销文案都可以, 效果要比其他的方案要好的很多,当然这样你的权限要给到他很高了,所以就会有一定的危险性。所以建议大家如果用这种方式,要找一台不用的电脑,只登录你包括营销的账号或者其他的 需要自动化的账号,不要登录自己有敏感信息的账号,这样就可以实现一个比较好的效果,有兴趣可以去试一试,这种效果比其他要好很多。好,那今天就分享到这,希望可以帮到你,谢谢。

你这个不是轮椅吗?怎么可以用来走路?哦,这个不是普通轮椅啊,他这个名字叫做智能辅助行走机器人,他有两种模式,第一种就是轮椅模式,第二种就是我现在使用的这种站立模式,我可以给你演示一下这个功能,那它是有这个操控面板,我通过这操控面板把它切换,现在是切换成普通的轮椅形态, 就变成自动轮椅了。对,它是机器高构造改变了,变成智能轮椅, 然后他就通过手上的这一个面板操控行走,这个可以调速率,还有一个喇叭的功能, 他的功能好齐全,我现在给你展示一下他最重要的这个功能。站立不是太啊,升起按钮啊,这是对机器升起来了,他切换成了站立形态,可以看到现在是机器身上这个保护带。嗯,他的这个保护带支撑着我站立起来, 然后我再通过手上这个操控杆前进,机器运动带动了我行走,他可以辅助那些双腿不是特别方便行走的人,再去训练他的步态,辅助他们行走。那这个对于双腿适能的人来说也可以安全的使用吗?哦,可以的,他这个机器材质是用航天铝合金材质打造的, 无论你怎么晃,剧烈晃动他都不会轻易的摔倒。哦,试一下来, 而且确实非常稳定,而且只要你不去操控它的话,它就自动刹车停在原地了,无论你怎么前后晃动,它都自动停在原地,刹车功能很稳定。嗯,对的,对于圣诞老人来说是一个非常伟大的发明啊。对的,科技改变生活嘛。是的,现在打造这些机器就是为了服务那些更需要这些群体的人。

今年春晚,一群会打拳的机器人成了热点。有人问这机器人是真的还是假的?会不会是后期特效?其实它的真实性能让马斯克都点了赞。有人问,难道不是远程操控吗?毕竟春晚要求零失误,谁敢让 ai 自己来? 远程操控?确实听起来合理,但现场有上万台手机,无线麦克风信号干扰严重, 操控指令一延迟,机器人半秒后才反应。别说打拳,站都站不稳。所以不可能是人在后台遥控。那如果不是遥控,那机器人摇摇晃晃差点摔倒又站稳怎么解释? 这个细节恰恰说明,不是编排好的机器人通过传感器发现自己快倒了,算法立刻算出怎么动才能稳住,然后电机马上直行,整个过程不到一毫秒全是自主完成,这叫故障恢复,是算法的功劳。 搭十几台机器人一起跑,队形变来变去,还不撞上,总得有总指挥吧?确实有总指挥,但不是一个人去操控。 工程师在虚拟世界里,让 ai 自己练习,跑了几百万次,学会了怎么跑最稳,怎么躲开同伴,然后把这个经验直接复制到现实机器人身上。所以现场看到的是统一调度, 每个机器人都知道该怎么走。那有人又问了,算法再厉害,硬件能跟得上吗?红红帆得多大的劲啊?红红帆要求关节瞬间爆发出很大力量,相当于重量级拳手打出一拳, 耍双接棍,需要手部传感器每秒钟计算上千次,才能控制好力度和方向,不打到自己。 这些动作背后是实打实的硬件能力。那技术这么牛,为什么非要去春晚表演?直接去工厂干活不行吗? 上车晚不是单纯表演,而是给全球投资人看的,在春晚舞台上完美运行,等于国家电视台给技术做了担保,接下来融资、拿政府项目开拓市场都会容易很多。而且机器人售价才一万六千美元,比国外便宜很多, 这是在向全世界工厂老板喊话,我这机器人能打能跳,还便宜,快来买!在未来两年内,应该就会看到机器人在汽车厂里拧螺丝,在仓库里搬包裹,从舞台上的表演者变成流水线上的劳动者。 最后问大家一个问题,如果这样一台机器人真的只要一万六千美元,你会买一个回家当保镖吗?我是科技智语,点赞、关注、收藏!


当机器人缓缓向你走近时,他自带的摄像头会将现场实时画面同步传输给远在数英里之外的残障人士,对方只需轻轻点击几下,就能远程操控。机器人挥手致意,为顾客端上香醇的咖啡,他们会通过麦克风与你交流,为你点餐。机器人屏幕上会清晰显示出服务者的面容与姓名, 让你知道正在为你服务的是谁。只要一动鼠标,机器人就能在咖啡馆内平稳灵活的移动穿梭,服务每一位顾客。这项技术让残障人士足不出户也能依靠自己的劳动获得收入。另外一杯茶被递到玩偶手上,瞬间触发了他体内由精髓打造的发条机关。发条一经启动,便驱动着一连串精密的齿轮与凸轮, 再通过连杆与丝线精准操控玩偶的头部和足部,让他稳稳的在桌面上缓缓前行。一旦茶杯被取走,玩偶便会立刻停止动作, 灵动又神奇。这些巧夺天工的机关茶藕,诞生于十七世纪的日本,是当时贵族富豪家中的珍奇玩物,主人常用他们为宾客奉茶献艺,以这精妙绝伦的表演惊艳四座,成为独树一格的风雅娱乐。