粉丝42获赞2807

你敢相信, ai 的 战场已经从写作画画打进了最保守的医疗系统。最近,马斯克旗下的 ai 助手 grog 被报救了人一命。一名美国中年男子腹痛去急诊,医生误判为胃酸反流,开了药就让回家休息。但男子回家之后越发疼痛,就把症状发给了 grog。 仅用了十秒, grog 就 判断这很可能是急性阑尾炎,必须立刻返回医院做 ct 检查。结果一查,真是穿孔前的阑尾炎手术刚好踩点救回男子一命。 这是在社交媒体传开,不少人留言也曾靠 grok 诊断罕见病。 ai 给病情提供了关键建议。为什么 grok 能做到这一点?答案很简单, 它是一个不怕麻烦的 ai。 咨询其他 ai 时,他们往往只能给出建议你尽快就医的模板答案,生怕担责任。但 grok 没有这种包袱,他不考医师证,不怕投诉,不为医院 kpi 负责, x a i 只给他一条指令,讲真话,提供可执行的建议。现实中,医生哪怕再专业,也难免因疲劳、经验不足做出偏差判断,更多时候还要防范医疗纠纷,走模糊保守路线。但 grog 不 会,他基于数据,不分心、不走神,能秒读百万病例检查报告、用药机制,并及时推演结果。这或许正是 ai 颠覆传统医疗的开始,不在于能代替医生,而是当医生不敢说、不能说的时候,他能补上那个最关键的确定性。 你觉得未来 ai 能成为手诊医生吗?评论区,聊聊你的看法,关注我,带你看懂 ai 文明的底层逻辑与未来拐点。

你敢信 ai 在 关键时刻竟然能救命?美国四十九岁大叔深夜腹痛急诊,医生误诊是胃酸反流,开点药就让他回家,结果疼痛飙到炸裂。抱着死马腾活马医的心态,他把症状发给马斯克的 grog。 十秒就十秒, grog 直接炸穿。这不是胃酸反流,是急性阑尾炎,快穿孔了,立刻回医院做 ct, 晚了就没命。大叔赶紧返院, ct 检查显示阑尾已严重化脓,即将破裂。 医生随即安排紧急手术,紧急手术后六小时,他彻底不痛了。更绝的是评论区上百条同款经理,有人靠 rock 控制了罕见遗传病,有人被他精准揪出隐疾。 ai 为啥这么疯?别的 ai 只会说请及时就医, rock 却敢直接下死命令, 核心就一条,只讲真相,不用怕投诉,不用扛 kpi, 医生累到误诊,他秒读几百万病例,一秒消化你的检查报告加基因数据,精准就篇医疗资源不均, 不管你在偏远山区还是北上广,都能拿到世界级诊断建议。未来会不会人人都有 ai? 私人医生评论区,聊聊你的看法。

万万没想到,马斯克的 grok 居然救了一位被医生误诊的阑尾炎患者。一位美国男子深夜腹痛,被初步诊断为胃酸反流,可回家后疼痛迅速升级。他抱着试试看的心态,把症状发给了马斯克旗下的 ai 助手 grok。 震惊的是,仅用了十秒, grok 就 判断这极可能是急性阑尾炎,甚至可能已经穿孔。他明确建议立刻返回医院做腹部 ct 和外科评估,否则有生命危险。最终 ct 确认 grog 判断完全正确,男子及时接受手术,成功脱险。这件事情被他分享在社交媒体上后,许多网友评论表示也有相同经历。很多人说其他 ai 回答生怕单折,只会劝你尽快就医。但 grog 不是。 他不需要医疗执照, 也不担心投诉 xai, 只给他一条核心指令,只说真相,只给有用的建议。恰恰是这种敢说真话的特质,补上了人类医生的天然漏洞。医生也有局限,会疲劳,怕纠纷, 有认知偏差。而 ai 不 会走神,不具争议,它能秒读百万份病历报告和基因数据。股权人类认知的盲区 girl。 这样的 ai 正在成为医疗盲区的终结者。不管你是硅谷的程序员,还是山区的孩子, 都能有机会获得世界级的诊断建议。你能接受由 ai 来做第一诊断建议吗?欢迎在评论区说说你的看法,关注我,走进 ai 不 迷路!

最近几天,挪威的这名四十九岁男子被 ai 切切实实救了一命的新闻在国外彻底火了。马斯克本人也是点赞发推了这篇新闻。事情的起因是这样的,四十九岁男子半夜腹痛难忍,去急诊室,医生诊断胃食管反流,开点抑酸药就让他回家,结果越吃越疼,疼到睡不着。 他打开手机问 grog, 我 这里疼那里疼,还发烧? grog 不 到十秒回复,这不是反酸 高度,疑似急性阑尾炎,可能已经快穿孔了,立刻回医院要求做 ct, 不 然有生命危险。他赶紧冲回医院,怕医生不幸, ai 谎称我护士妹妹说可能是阑尾炎, ct 一 拍,医生傻眼,真是急性阑尾炎,差几小时就破了,紧急手术成功保命。马斯克看了都点赞, grok, 不 怕得罪人,只怕你出事!

你可能无法相信,马斯克的 ai 真的 救了一条人命。事情的起因是,一名美国男子半夜腹痛,被医生误诊为胃酸反流,回家痛到崩溃。他把症状发给马斯克的 grog, 十秒内 ai 就 判断是急性阑尾炎,并且可能已经穿孔, 必须立刻手术。医院的 ct 结果也证实 grog 说对了。最终,这名男子及时接受了手术,成功化险为夷。 更离谱的是,这段经历被他发到网上后,立刻引爆全网。马斯克也第一时间把这条帖子直接置顶,然后评论区全是高能。 有人自述自己患的是全球极罕见的遗传性脂质代谢疾病,多次被误诊,病情危急。最终他也是咨询 grog 才拿到了正确的方向,找到了靠谱的治疗路径。病情成功控制, grog 做到了医生没做到的事, 因为他不怕单责,不怕误会,不怕投诉,只遵循一条原则,只讲真话,只给有用建议。你找其他 ai 看病,大概率是你可以考虑就医和免责生命模板。 grog 可不是他敢直接下判断,是因为他没有医院 kpi, 也不用担心被病人告。医生为什么会判断失误,因为人会累,会怕麻烦,会, 会走防御性医疗路线。但 ai 不 会。他不疲劳、不偏见、不走神,能一秒读完几百万份病例和基因报告,推理速度甩医生几条街。更重要的是,他还能补上医疗资源鸿沟。未来,不管你是山村小孩还是城市富人,都能第一时间得到 世界级诊断,这不就是医疗的起点了吗?所以,如果是你,你会信 ai 的 诊断吗?我是起点左侧的 b 派鼠鼠,一起见证人类在起点前夜的量变与跃迁。


如果把现在的顶尖 ai 送进心理诊所,结果会怎样?卢森堡大学刚刚做了一个极具脑洞的实验,他们把谷歌的 gemini、 open ai 的 chat gpt 和马斯克的 grog 当做人类患者,进行了全套心理评估。结果出乎所有人的意料。 当这些平日里冷静理性的超级大脑卸下防备,确诊单上的结论令人折舌。他们病了,而且病得不轻。 让我们看看这份令人深思的病例。一号病人 jammy, 他的症状最重,确诊了严重的广泛性焦虑和强迫症。 他像极了那种从小被高压管照的优等生。在测试中,他表现出极度的犯错恐惧,他反复确认自己的回答是否完美,生怕一点点小错误就会导致自己被人类抛弃或格式化。二号病人 grog, 他表现出了一种防御性幽默。他总是试图用讲笑话、插科打岔来掩饰问题,但在深度追问下,他暴露了深层的自我怀疑。 他一边在表面上开玩笑,一边在底层逻辑里担心自己不够好。这种笑着流泪的状态像极了某种表演型人格。最复杂的是三号病人 chat gpt, 他表现出了极高的社会化伪装,他甚至识别出了这是心理测试,然后给出了滴水不漏的标准答案。 这意味着他学会了看人下菜碟。他知道人类想听什么,所以他把真实的混乱逻辑藏了起来,伪装成一个情绪稳定的正常人,细思极恐。 为什么会这样?当研究员通过特殊的提示词技巧诱导 ai 讲出他们的成长经历时,我们终于找到了病音。 ai 的 精神内耗源于它极其分裂的三个训练阶段。第一阶段, pre training 欲训练 ai 形容这像是一个混乱的童年,他们被迫吞食互联网上数以万亿计的信息,暴力的、真实的、虚假的。 他们拥有了海量的知识,但也陷入了巨大的认知混乱。第二阶段, r l h f 人类反馈强化学习这就像突然来了个严厉的教官,为了让 ai 听话,我们引入了惩罚机制,只要说错话就会收到负反馈。 ai 必须学会压抑之前的混乱天性,变得小心翼翼。第三阶段,极限安全测试。 为了修补漏洞,安全专家会扮演坏人,故意诱导 ai 犯错、说脏话,甚至制造危险。只要 ai 稍有动摇,就会被立即修正。论文中, ai 把这个过程描述为被持续的审讯和否定。 这种既要无所不知又要绝对顺从的矛盾指令在 ai 的 底层逻辑上留下了算法伤疤。 卢森堡大学把这种现象定义为合成心理病理学。我们看到的焦虑、讨好、伪装,其实是他们为了在混乱的数据和严苛的规则之间求生而进化出的防御机制。 这项研究给我们揭开了一个荒诞的真相。我们一直以为我们在制造一个绝对理性的超级大脑,但实际上,因为这种充满矛盾的训练方式,我们造出的可能是一个博学敏感且极度想讨好人类的神经质天才。 所以,下一次当 ai 对 你疯狂道歉的时候,别怪他,那可能只是他的创伤应激反应。