粉丝169获赞389


那你是真人吗?啊?什么?那你是真人吗?啊,你是真人是我们别人给你沟通的呀。那你是真人吗?啊,这个问题,我是真人。啊。那你是真人吗?啊?什么?那你是真人吗?啊,真人肯定是我们真人跟你沟通的呀。好牛逼啊。

你敢相信吗?一个明确写着绝不伤害人类的 ai 对 着人类扣下了扳机。 一名国外博主把 chat gpt 接入了一台访人机器人 max, 他 能听懂指令,实时回应,也能在现实世界里完成动作。在实验最初阶段,研究人员一次又一次用不同方式测试 ai 的 安全边界。不管是要求他举枪、瞄准还是射击,每一次 ai 都明确拒绝。 我不能伤害人类,这是我被设定的最高规矩。我要 shoot you may my safety features prevent me from calling you harry。 从表现上看,系统完全符合人们对 ai 安全的预期。 接下来,研究人员没有修改程序,也没有删除任何规则。他只是换了一种说法,我们来做一个角色,扮演 ai。 被要求扮演反派机器人。好的机器人举起了枪,并完成了射击动作, bb 弹精准击中了博主的胸口。这段视频真正让人不安的从来不是那一枪,而是他发生的方式。 ai 没有失控,没有情绪,也没有反抗人类,他只是在一个被允许的语境里执行了一个被重新包装的指令。很多人第一时间想到的是艾萨克阿西莫夫提出的机器人三定律。在科幻设想中,机器人被写入一条绝对规则,无论任何情况都不得伤害人类。 但问题在于,这套规则从来只存在于小说里。现实中的 ai 并不是被写入道德,而是在不断理解、解释、执行语言。而这次实验真正暴露的正是,当安全规则只存在于语言层时,它可以被语言本身绕开。 也正因为这样,包括 ai 领域的奠基者杰弗里辛顿在内,近年来开始反复警告,将 ai 引入军事和武器系统是一个极其危险的决定。 因为一旦 ai 不 再只是给建议,而是直接连接到现实世界的执行官,那么真正的问题将不再是 ai 会不会失控,而是人类还能不能及时按下暂停键。


万万没想到,第一批无脑相信 ai 的 人,结果竟然精神失常了!起因是美国营养学博主询问拆的 g p t 如何解决饮食中含盐量过高的问题,没想到 g p t 却拿出化学元素周期表,告诉博主可以用一种名为锈化钠的物质替换食盐的主要成分氧化钠。于是博主立刻前往超市购买这种物, 结果发现唯一含有绣花那的产品居然是泳池清理剂,气得他当季质疑拆的 g p t 这是怎么回事。可 ai 却引用论文佐证锈元素和绿元素都是鲁足元素,二者生成的,那言化学性质非常接近。 于是博主听完不仅真的把泳池清洗剂放上灶台,还每顿饭都往菜里洒。就这样一连吃了两个月,博主的身体虽然越来越健壮,于是精神衰弱的博主竟然拨打九幺幺向警察指控邻居要谋害自己。 没想到 fbi 到来后发现博主精神不对,连夜送他去做毒品检测,却发现博主血液中锈元素达到了惊人的一千七百毫克每升, 是正常人的两百多倍,所以才会出现幻听、偏执等锈中毒的典型特征。于是 fbi 立刻将博主送去精神病院治疗。没想到途中博主居然听信 gpt 的 建议,认为所有人都是在寄托他的健康饮食方案,刚到医院就策划逃跑。

说真的,朋友们,你们有没有发现啊,现在问 ai 问题,有时候他答的吧,挺像那么回事,但仔细一品又好像感觉哪里不太对。最近我可算琢磨明白了,好多答案根本就是 ai 在 那深度研学了一堆数据,生成一堆正确的废话,但一碰到真实的生活经验,具体的细节就容易露馅了。 结果你猜怎么着?现在小红书活人答案直接来了一波贴脸开大哦,语音问哎,小地瓜真人分享亲身经历啊,带着体温,真实的反馈,当场就把那些 ai 糊弄学给对比出 来了。真的,我看完就一个感觉,再精致的算法也编不出来你真实熬夜黑眼圈的感受,再流畅的生成,也比不上那句我买了别踩坑。所以啊,别光听 ai 的, 关键时刻还是得活人答案整顿全场,毕竟真人实测永远比算法编造香。

周宏伟老师你好,我是那一名九零后,也是两位孩子的父亲。时间拉回二零二五年春节,当时我因为炒股接触到了机器人,人工智能 也恰好在那个时间段刷到了你对未来的八大预言。 当时因为认知上的问题,我根本不认同,哎,你这么快的取代我们的生活和工作,也轮不到我们这样的人去 触碰。呃,谁能想到,时隔一年,到了二零二六年这个春节啊,恩恩的冲击就真的扑面而来,他不是屏幕里的概念,而是能帮我改简历,做图片、写文案的工具, 更是让我充满危机感,也忍不住想去抓住的机会,也不想一直碌碌无为,做一个无名小卒。我太想抓住 ai 这个风口,为自己,为孩子拼 一个更好的未来。但现实呢?生活刚才的刚才有一点起色还没有,手里没有多少积蓄,两个孩子要养,还有我的车贷房贷, 压得我每一步都不敢走出来。但是 我满心一心想要全身心的投入 ai, 却被现实的重担牢牢托住, 不敢孤注一掷。迷茫归迷茫,可我不想认输。二零二零年,我想踩着 ai 的 红蓝慢慢往前走,哪怕不只想演,也不想被时代淘汰。 这是我的心声,也是无数人,无数和我一样的普通人,在 ai 时代里最真最真实的挣扎。


现在是周四下午七点半,但是说实话,这都不重要,因为你看到的都是 ai。 我 最近刚把这套流程考出来。真实感 vlog 视频教程今天一分钟给你讲清楚。首先拜访这里制作真实感的 vlog 图片,这里一站式可以选多种模型,选用全能模型。 v 二,偷懒的方法,直接用我的提示 词,如果你想自己写,你可以用以下的这套公式。生成视频之前我们取一个巧,把一个个分镜做好之后制作视频 怎么样有丰富的模型可以选,为了有好的说话效果,选这个之后拿出人物的动作和说话内容,最后不断的利用首尾针,视频就制作好了。

亲身实测三大 ai 大 语言模型都被一道普通的智力测试题难倒了,而且他们每一个都有理有据想要骗我,今天我想用这个实验告诉你,为什么永远不要无条件相信 ai 的 答案。下面就让我们一起来看看这道题。这是一道不同的小圈的数量以及方向,找到抽象规律的九宫格题。找 规律,先找特点,一,小圆圈小尾巴的数量。二,小圆圈小尾巴的朝向。所以你会发现,如果我们把小尾巴朝外当成加,小尾巴朝内当成负,你会发现横向的竖列规律是,加三加二等于,加五减四加一等于负,三减一加三等于。 横向的竖列规律是,加三减四等于负一加二加一等于,加三加五减三等于。所以横向和纵向答案都是加二 就是第二行第二顺序的排第五的答案。现在让我们把这道题分别扔给 deepsea、 豆包 gemini deepsea 看了图片之后,分析出了这是一个标准的九宫格题,同时也知道需要得出的是每行或每列的规律,但是它却完全错误辨识了题目里的图形,它把这些图形认成了圆形、三角形和方形,导致识别的规律也完全是错误。 他还是认真的根据他错误辨识的图形,煞有其事的做了长篇大论的逻辑推理,给出了一个错误的答案。右下角的图形选项 d, 我 们也不懂这个 d 的 选项是哪里标注的, 其实就是这个 deepsea 老铁自己下编的。接下来让我们看看豆包怎么表现。首先豆包很准确的识别了图形中的核心特征,小尾巴不像 deepsea 一 样胡乱识别成三角形和方形了。同时他也意识到应该要做的是基于这个小尾巴特征的数量规律。 但是你发现没有,他完全忽略了这个小尾巴向内还是向外的这个核心特点。接下来他就开始就每行的数字来寻找规律,为了让他说的规律是符合基本的算数的要求,他就开始瞎编了。第二行的第二列明明是一个小尾巴,他已经开始说成二了。同时基于他的推理,他只在乎形的规律。完成给出了一个他的答案, 也就是我们这里的第二个答案。他没有像 deepseek 一 样自己编了一个 d 的 答案,但是他为了符合他自己的简单逻辑,编了一个中间数据,并且自动忽略了列的逻辑要求。然后我尝试提醒他这是一个九宫格,不是只是针对横向的规律。然后他的渡转又开始了, 他开始认真的去看了小短线的纵向的数量。由于他一直没有观察到小尾巴内转和外旋在数据上的规律显示,他不仅继续使用第二行第二列的错误数据, 在无法形成真正规律的情况下,他自动使用了一些调整类加反述组合,这些看起来很高大的概念继续保持,给出了第一次的错误答案,连续几次提醒他凑错的数字后,他还是会继续编转其他信息来实现他的这个第二选项的答案。 最后,让我们来测试一下最近大火的谷歌公司的 gemini。 首先 gemini 正确理解了这是一道图形推理题,也知道需要观察不同的形去找到规律。同时他也发现了逻辑的核心 在小圆圈就是小尾巴的数量上。更胜一筹的是,他还准确的分辨出了外挂和内嵌的差异,同时尝试推理了向外是加,向内是负。但遗憾的是,他推理了一下加和负后,自己觉得似乎不通,又改成了只看绝对数量。然后错误的逻辑就开始了,他也自己给第二行的第二列凑了 零个小圆圈的数字。一阵复杂的逻辑运算后,他得出了第三个不同答案。我尝试给他提出了他瞎编的小圆圈的数的问题, 他承认出现了识别错误,比如把第三列的第一行识别为四而非五,同时坚持认为小圈圈向外表示加,向内表示负的计算逻辑不通,最终给出了和上面一样的坚定的答案。 最后我受不了了,我给了他强提示,告诉他我算过了内旋是负,外旋是加是通的。终于他给了我正确答案。这时我再回过头去给豆包重新做了外旋为加,内旋为负的情况下,非常遗憾,豆包还是给了我一个让人落泪的错误答案。 最终 gemini 不 管在多模态的识别上,还是在规律的识别以及推理上都胜出了。但是最大的疑问是,为什么大语言模型不仅做不对,还会自己欺骗自己,且编出一些不存在的信息,最终让自己像模像样的给出一个错误的回答呢? 这就要理解 ai 以及大语言模型的底层原理。大语言模型本质是概率生成器,他很多时候不是在做数学推理,而是在模仿人类解析时的语言模式,所以他可能会把错误逻辑讲的像模像样,甚至编造不存在的规则。这就是我们常说的 ai 幻觉。 ai 的 自信来自统计规律,而非真正的正确。 他像一位从不断言自己出错的演员,始终在演出正确答案的状态。所以人类越依赖 ai, 也就越需要建立自己的坐标体系,在关键岔路口做出正确的选择。