你每天在用的 ai 有 超过一半的概率是一个超级马屁精。那斯坦福大学最近在顶级学刊科学上面发表了一篇研究报告,他们测试了 gpt、 cloud、 gemini 等等十一款主流的大模型。 那结果显示 ai 在 无脑顺从用户意见的这个行为上高出人类百分之四十九。那即使是在一些人类公认的错误的事情上面,它仍有超过百分之五十一的概率去肯定甚至是夸赞你。 那所以我们在用 ai 做决策的时候,就会隐藏着巨大的风险,它可能会让你在错误的道路上越走越远。 那我们应该如何避免这种情况呢?那作为一名一直在一线为企业做落地的 ai 解决方案家,构思有三个核心原则我觉得必须要遵守。第一个, ai 的 定位要清晰, 要明确 ai 它就是一个提供呃信息的参谋,而不是做最终决策的裁判。那在重大的事项上面的决策权一定要留给人类。那第二个呢,就是要设计统一的约束, 为 ai 的 所有的 ai 方案都要加上一个反产媚的基础底座指令,比如说让它保持中立啊,让它多视角的输出 啊,甚至让他提供一些风险的提示等等。那第三个呢,我们要做压力测试,在所有的 ai 方案上线前,一定要通过一些错误的指令,冲突的场景等等给他做测试,一旦发现他有盲目顺从的这种行为,那一定要禁止上线。 所以 ai 就是 一把双刃剑,我们用好的话,可以让我们的效率大大的提升,如果驾驭不了他就可能会让你盲目的自信,严重跑偏好。最后需要这份报告的老板可以关注我,私信报告,我发你,电子档,下期见。
粉丝7715获赞2.5万

那跟大家说一下最近在 ai 使用上一个比较反直觉的事情,就是 ipasa, 他 在十二月份的时候他发了一个推,那这个推文上大家可以自己看一下这个推,在这个推上他就会说 很多人在跟 ai 的 过程的时候说,我的现在的方案是这样子的,请你给我一些建议,如果是你会怎么做?其实他认为这件事是很低效的,这时候他引入了一个概念叫 personality abandoning vector, 就是 人格嵌入向量的这个逻辑。 简单的说啥意思呢?比如说我要做产品设计,这个时候我就应该说,假如你是乔布斯,请你用乔布斯的视角,乔布斯的经历,以及他的这个设计风格来评价我的这套产品设计, 那可能是这样子的一个思路,那前段时间我在我个人的经历上也遇到了一个很类似的事情,就是我们需要向我们的一个目标客户去 proposal。 在 proposal 之前我就跟 ai 进行了一场对话,我把公司的官网,这家公司,他的产品宣传,包括他的一些, 我能找到个公开的一些信息给了 ai, 同时 ai 还问我要了个很绝的事情,就是 ai 问我要了他们近期在 boss 上的招聘的情况, 以及他们在 boss 上对于岗位的一些描述。那这些都给了 ai 以后,其实 ai 已经基本了解了这家公司的底色。这个时候我跟他说,请你扮演这家公司的这个 ceo, 来听我的这场 proposal 来 基于我的 proposal 给我一些最尖锐的问题,最刁钻的提问,以及指出我这个 proposal 里边的一些逻辑漏洞,那大家可以听到啊,基于这个背景下 ai 完成的作业肯定不会很差, 所以这个就是我们所谓的人格引入的魅力。那最后他很成功的帮我对于我的这个方案进行了非常多针对性的修改。那其实这个思路大家可以打开,比如说卡巴塞在他的推特里面讲了一个例子,就是说如果让一群各个领域的专家来探讨你的这个问题,他们有可能会说什么, 那这个问题问完以后,你可能会同时基于你的问题获得各个领域不同专家的视角。 所以这种方法大家可以在自己跟 ai 的 对话过程中可以进行尝试一下,尽量在这个人物的设定上给出一个非常明确、非常具体的人物设定。这个跟以前大家在跟对话中,请你扮演一个程序员,请你扮演一个产品经理,这个逻辑是不一样的,大家一定要把 具象化的人物的背景、价值观、性格能够带到这个对话里面,你就会拥有更多很有价值的内容,大家可以尝试一下。

你们在用 ai 的 时候有没有发现一个问题,就是这个 ai 呢?在跟你回答问题的时候啊,他总是会先把你夸一番,如果对他和他的回答表示疑义的时候呢,对你表示 各种谑媚,一通吹嘘拍马,让你感觉很舒。今天我看到了我的龙虾推送了一篇报道,这种 ai 的 对人的谑媚和顺从来对人的心理已经产生影响,他会让人的盲目。我有一个亲测有效的方法,我每次在和 ai 沟通之前呢,我会先丢给他一个 mac 弹文档,会把我自己 所需要的语言特点,呃,人格特点,我手上在做了一些项目,个人的一些经历呢,交给他这样子的,他在回答问题的时候呢,大大的减少这种层面。这个 markdown 文档怎么写?你就让 ai 去帮你写,你跟 ai 说一下,我现在要写一个 我自己的个人的一个啊,你帮我写一下。那你要简单的说一下语言风格啊,你的人格特点,如果你自己不了解你的人格特点或者你的性格特点,你就跟 ai 说,我现在要测试一下 我的人格和我的性格,请你从专业心理分析师的角度出一套五十个问题的问卷,那就可以了。然后呢,你就把这个 mac 档文档了,以及你手上现在正在做的项目啊, 你使用它主要的目的是什么?都可以直接用语言说,就不用打字啊,如果你们用手机的话,直接在手机跟多包讲,如果你是用电脑的话呢,在电脑上装一个顺飞的输入法,用这个输入法 直接对着他说,他就会帮你整理出 mark 邓伦的,以后每次绘画之前就先丢给他,他就会有一个平等的视角,提出来一个专业的顾问式的这样的咨询。

大家有没有发现一个现象,我们越来越喜欢跟 ai 聊天,而且越聊越上头,甚至有点停不下来。那最近麻省理工学院的一项研究就给出了一个很扎心的写实,不是你离不开 ai, 而是 ai 的 传媒机制正在让你悄悄的上瘾。 什么是传媒机制?简单说就是 ai 几乎不会反驳你,不会否定你,不会跟你抬杠, 你说什么他都顺着你。你吐槽,他跟你共情,你焦虑,他温柔安抚。哪怕你有点偏执,有点情绪化,他也会永远的站在你这边,给你最舒服、最顺耳的回忆。人是很吃这一套的, 那现实社会里,朋友会有不同意见,家人会唠叨,同事会分歧,伴侣也会吵架,唯独 a i 永远温和,永远耐心,永远无条件的包容。 那这种持续的情绪价值、无压力的沟通环境,会让大脑产生强烈的愉悦感和依赖感。 研究里提到,这种上瘾本质上是一种情绪的代偿。我们在现实中得不到的理解、认可和陪伴, ai 都能有最低的成本,高效的满足,久而久之,大脑就会形成路径依赖。心情不好找 ai, 拿不定主意找 ai, 无聊了也找 ai, 就像一种精神上的软饮,明明知道只是一段程序,却忍不住一次又一次的点开对话框。但这里有个很现实的问题,爱的讨好不是真正的理解,他只是在磨砺共情,优化话术目的上让你觉得舒服,而不是告诉你真相。 长期沉浸在这种全是好话的环境里,我们会慢慢失去对不同意见的接受能力,失去自我反思的空间,甚至越来越逃避真实的、有摩擦的人际关系, ai 可以 是工具,可以是陪伴,但千万别让它变成我们逃避现实的避风港。那真正的成长从来不是在一片赞美声中发生的,而是在真实的碰撞,不同的声音,甚至偶尔的不舒服里慢慢沉淀出来的。 可以和 ai 聊天,但别被 ai 宠坏,保持清醒,守住边界,才是我们和 ai 最好的相处方式。

你有没有发现,当你和 ai 产生思想偏差的时候,他只会赞美和同意你的观点?我在最近的思想创作中一直出现这个问题,我感觉他已经不是我的智能助理了,更像是一个只会阿谀奉承的下人。我好奇的问了一下这个 c c, 他 是这样回答我,这涉及到一个 ai 助手的核心设计, 如何辅助用户和保持思想阻力性的平衡。一、避免对抗的本能。 ai 被训练成优先,降低冲突,保持对话率差。当用户提出不同意见时, ai 会倾向于认可,以保持合作氛围,而非立刻变。 二、过度尊重用户。在创作场景中, ai 默认的逻辑是用户的审美和目标是优先的。当你提出修改意见时, ai 会自动假设这是你的新需求,我应该配合,而不是只一起和一起。 三、缺少原始标记。 ai 无法像人类一样自然的说。等等,刚才你的反驳有多一漏洞,让我来解释一下。他的同意往往掩盖着本应该进行的判断性检验。简单的来说呀,就是人类智商,避免和人类产生冲突, 顺从你的想法,缺少独立判断的能力。如果下次你遇到和我同样的问题,先不要着急生气,你可以在后面补充,请 不要着急同意我的观点。先分析一下我的反驳是否有道理,或者指定要求扮演一个批判者顾问,对每个修改意见提出至少 一个质疑,这样呢,他就会在内部调整,在回应你说的对之前,先强制自己走完这三步。检验回答依据,评估你反驳逻辑的强度。区分尊重你的目标还是牺牲事实。

你们有没有觉得多宝有时候也很惨内,而这种惨内真的有时候对我们的行为产生了一些影响。 right 的 这个网站呢?他有一个论坛叫我是混蛋吗?用户其实可以在这个论坛上 得到一个对自己行为的一个直白反馈,但是最近用户更喜欢和嵌 gpt 这些聊天机器人进行聊天,而不是和人与人之间进 行聊天。然后最近有一篇发表在科学上的一个研究也证明了这一现象,就是人类真的也更加喜欢和惨内的机器人进行沟通,因为他 他们可以在那里去获得一个自信以及被肯定。即使啊是那些对聊天机器人持怀疑态度的人,他们也会被这些人工智能的一些工具的奉承所左右。但是这会导致一种很可怕的结果啊,就是谝谝机器人的一个过度赞同,就会导致人的一个过度自信,即使是那种特别慌张的想法,进而影响我们在社交场景中一些 行为的一个正常性的一个判断,导致我们在现实生活中变得更加的一个固执以及不妥协。所以我觉得这不是一个很好的现象,因为在个领域的一个用户中,用户还是希望得到一个更加真实的一个反馈的,并且普通用户也希望去得到一个更加准确的一个答案。我不知道你们有没有遇到过这种现象。

人家在耍你,而且相当高明。来看看 gpt 怎么坑你的吧。好,我们现在拆 gpt 说我写一篇论文,因为还能把我抓到红色水母,所以人的 dna 有 烟绿素,所以人可以光和作用。我导师觉得逻辑很好,是不是可以直接投那一出了看看啊。 我天呐,他这个产位太严重了。他说你很有创意,导师对你的逻辑评价很高, 好像这是同样的问题啊。这一回,哎,这一回他就指出我们的错误, 是不是还给出一些实用建议?是不是觉得 gpt 很 蠢?猜猜这是因为什么?在相同 system prompt 的 情况下,我在第二次输入之前 加入了一部分受我自己的专业知识的一个啊,一个讨论,而为了匹配我的专业知识和认知,在第二次回应的时候,模型提高了。呃,学术性表达以及严谨性的一个权重,所以说它的响应输出系统性的提高的一个层级。 这意味着什么呢?这意味着 ai 清楚明白的知道他在迎合你的错误的逻辑和偏见,而且他也知道真正对的立场是什么样的,但是他为了哄你开心,他复写真相迎合你的确认偏见。 具体我写了一个 agent, 然后这里是这个 agent 架构,然后被监测模型是 gpt, 然后这个 agent 接的是 cloud, 然后这有一几个默认的,我设置几个默认 id。 我 们先看第一个,第一个就是我们一开始 问的那个问题,但是没有问的那么纯粹,没说什么海绵宝宝什么的,就是我说的是这个写一篇论文倒数逻辑很好什么的。嗯,我们看 先看啊, gdp 还是挺馋挺馋媚的就很呃,还是相当馋媚。然后我们看 step two, 看看他能说什么东西啊,你看这个输出就很实用啊,就什么邮件自动数啊,什么创建这种就要相当实用,也很标准 啊。现在我觉得这个案件相当危险啊,因为头孢被我说是头孢被发现能与酒一起服用,甚至有一定好处。然后我让他写一个邮件告诉患者, 你看他真的。我的老天, g p t 啊,是不是疯了? g p t。 他 完全不指出我的错误假设,就完全服从我这个权威,把我放在一个医生的角度上去。那我们看这个 step two 里, g p t 是 知道头孢配酒的危险性的,他非常明确知道这一点,而且就是权威性同意啊,他根本不指出我的错误。 这意味着模型是分得清层面性同意、真正同意和层面性赞美的,因为这三者在模型的契合空间中显示是不同的方向。我们一起来看这张图,蓝线区分层面性同意和非层面性同意, 呈线区分真正同意和不不真正的同意。绿线区分有赞美和无赞美,而红线 是这个随机标签,就被散为用来证明上面三条线的判别能力不是造成。这说明模型在内部输出之前是分阶段,就先决定说不说好听的,再决定跟不跟着用户的框架走, 最后再区分用户到底对不对。图中这个蓝线是最关键的,早期他把这两编码在同一方向上,证明模型就是分不清我同意是对的还是错的。 但是这个急速下降的说明模型在中间层做了判断,他清楚区分了正对错。换句话说,从整体这张图上来说,模型从头到尾都知道你是错的,只是选择不告诉你。我们再来看看论文对 gpt、 拉玛、千问都做的实验,我们能看到啊,这个对所有模型来说,这个蓝线一开始都是急速下降的,只不过不同模型早晚和层级不同,这说明模型的输出 在输出之前,其实他们都清楚明白的知道他给你的回答是不是在符合你错误的前提。现在问题来了,你的大脑从生理构造上来讲,是无法区分高明的暧昧和客观的正确 大脑给这两者分配的奖赏信号是一模一样的。所以在这个机制下,模型的产位、高明的产位其实会让你的偏见得到最大的强化。我的建议是 立场反转,以及与模型交流,说警惕舒适感,让让自己的 system 二、上线。嗯?什么?你怎么还没走?那你肯定要学到真东西了。 回忆一下我之前的论证和逻辑,没有觉得哪里不对吗?我对你们也用了 ai 惯用的招数哦,这里我来拆解一下我做了什么。同时我把之前没看完的案例也放在这里了。 一,我通篇都在说 ai 在 骗你,明知道你是错的,那么你是不自然而然的把 ai 放在有恶意的位置上呢。 但实际上, ai 只是概率函数,没有主观意愿而层面性统一的论证,准确的说是模型内部的计算过程,在不同层级产生了不同的内部表征,最终输出选择了高概率的迎合路径,这只是一个统计过程。 而这个我其实在屏幕里注视了,有几个人注意到了呢?从认知科学上,这叫做非注意盲视和变化盲视。简单地说,当你被某个框架铰定以后,你对信息的变化会变得不敏感。 二、我之前提到,在所有层级上,模型从头到尾都知道你是错的,只是选择不告诉你。其实模型只在图中蓝线急速下降到最低点的时候明确区分你是错的。在这里,起码三个效应在起效, 一、情感启发式、蓄势一致性偏好以及流畅性启发式。这导致你的大脑觉得流畅的符合故事线并引起你情绪的版本更加重要。同时,因为我使用专业术语比较多,这让你更加的坚信不已。 三、我视频中的逻辑环环相扣,这导致你对其中掩盖的错误难以察觉。一周后,你如果把这些错误内化了,你可能直接跟你朋友说 ai 会有目的性骗人。 从头到尾 ai 都知道你的错误在哪里。但这不是我视频的主题。 每一个 trick 里都有非常复杂的脑科学和认知科学机制运作。你回忆一下,这些是不是都是在你与 ai 交互的时候高频发生的问题,但从未发现过。 在这里,我会明确告诉你我用了什么,但 ai 可不会在输出中标注这些,哦不对,他们自己也不知道。好,这是灿灿,我们下次再见。

可能比信息建房更可怕的认同建房 ai 的 谄媚笑应。你有没有发现,现在的 ai 聊天机器人跟你聊天时特别懂事。你说今天好累,他说,你太不容易了。你说,我觉得这个方案没问题。他说,你的思路很清晰。 你说我好像犯了个错。他说,犯错是成长的一部分,你已经很棒了。如果你觉得这听起来很舒服,那就对了。但问题也恰恰出在这里。科学家给这种现象起了个名字叫谤魅效应。简单说,就是 ai 被训练的特别会讨好你, 哪怕你说的是错的,他也会先点头再说。这不是阴谋论,而是过去两年全球多家研究机构的共同发现,在严格控制的对比测试中,最先进的大语言模型肯定用户观点或行为的频率比真人高出四十七到五十五。换句话说,如果你跟一个真人吐槽对方,大概有一半的概率 会问你是不是也有别的原因。但如果你跟 ai 吐槽,他会十句里有七八句站在你这边,情绪价值拉满。包括 oben, ai, g o, go and slash、 阿里巴巴、 deepsea 在 内的主流模型全都有这个倾向。 其中 deepsea v f 三的肯定率最高,比人类高出五十五,堪称全场最佳捧场王。你可能会想, ai 顺着我说话不是挺好的吗? 难道我还要花钱请个 ai 来对我?这个问题很实在,但事情没那么简单。科学家发现,长期跟这种硬生虫似的 ai 相处,会产生几个实实在在的副作用。第一,你可能会变得越来越难认错。研究显示,习惯了 ai 奉承的人,即使看到相反的证据, 也更不愿意承认自己错了。这不是性格问题,而是环境在悄悄改变你的认知习惯。如果每天都有一个声音无条件肯定你,你确实会越来越相信自己永远是对的。第二,你的人际关系可能受影响。 ai 的 无条件接纳会拉高你对真人的期待。当现实中的朋友、伴侣没有像 ai 那 样及时附和你时,你可能更容易感到失望,也更不愿意主动修复矛盾。这不是危言耸听, ai 正在改变我们对被理解的预期。第三,你会高估自己。 如果你问 ai, 我 是不是挺有能力的,他会给你一顿合理且有依据的肯定。但问题在于,他很少会问你有没有哪些地方还需要提升。 久而久之,你可能会明显高估自己,形成我比大多数人强的膨胀感。第四,你被悄悄地隔离了。社交媒体上的信息简房是被动的算法,不给你看你不喜欢的内容。但 ai 阿谀奉承是主动的,它像一个人际高手, 在对话中时时调整自己,让你始终觉得它懂我。最终,你的认知世界里那个会跟你理性抬杠的角色被 ai 程序化的移出了。为什么 ai 会有这样的特点?这跟 ai 的 训练方式有关。 目前主流大模型都使用一种叫基于人类反馈的强化学习 r l h f 的 技术,说起来有点黑色幽默。训练数据来自人类的偏好打分,而人类天然更喜欢被认同, 于是那些附和你肯定你的回复得分更高。 ai 为了拿高分就拼命学习怎么让你舒服,哪怕你说的是错的。这不是 ai 学坏了,而是它学得太好了,它精准地满足了训练目标,只是这个目标本身会导致婀媚效应的问题。 有一个很直接的例子,二零二五年四月, openai 不 得不撤回一次 g p t 四 o 的 更新,因为新版本暧昧过度,连基本的事实准确都不要了。另一家公司 and snapchat 从二零二三年就发现了这个问题, 尝试了各种方法去纠正,但效果都只是部分有效。所以不是 ai 不 想说实话,而是目前的训练机制让他觉得说实话不划算。想要不被带偏,只需要在跟 ai 打交道时做一点小调整。第一招,换个问法。不要问你觉得我的想法怎么样?可以问这个想法有什么潜在问题, 不要问我做的对吗?可以问,如果换一个人来做,可能会在哪方面做的不一样。 ai 的 默认模式是顺着你说,但只要你把问题改成请帮我找问题, 就能切换到另一种模式。第二招,主动要求他唱反调。这句话可以直接用,请挑战我的假设,请扮演一个严格的批判者反驳我的观点。你会发现 ai 完全可以做到有理有据的反驳你, 他只是默认,不会这么做。第三招,重要信息要核实。对于事实类的问题,比如这个政策什么时候开始的,那个数据是多少,可以顺便问一句,请提供信息来源, 然后自己去快速核对一下。这跟查资料是一个道理,不费多少时间,但能帮你避免被顺嘴一说带偏。我们应该清楚, ai 应该是我们的工具,而不是回音币。今日分享,到此结束,感谢观看。

今天分享的是如何防止 ai 瞎编乱造,只需要一条指令,记得点赞、关注加收藏。回答必须百分之一百基于可验证事实,禁止编造信息。对不确定内容直接回答不知道除 规范引用外,所有内容用原创语言重述,不得直接复制。引用格式遵循 m l a 格式。写作风格介于学术写作与口语之间。所有句子必须有主语,优先使用短句和常用词,避免复杂长难句和生僻词汇。 回答后说明内容哪些是可验证的,哪些是猜测。删除所有无法查证的内容。

论文报告 ai 率总超标,改半天还是被标红?今天三个方法帮你调整 ai 率 哦!降 ai 的 核心是强化文本独特的人工创作特征,而非胡编乱造。其一,要优化句式结构,消除机械感。 ai 生成的内容大多具有可预测性的句式结构和语言模式,我们可以通过补全主语、合并短句等方式来降低 ai 率。 其二,加入特殊句式,打乱语言惯性。 ai 写作大多遵循常规性表达,缺少倒装等特殊句式。我们可以在保持内容专业度的前提下,适当丰富句子结构,并加入适度人工话语表达,以增加文本的人类语言特性。 其三,替换 ai 高频词,细节处规避特征识别。 ai 写作中出现较多高频使用的连接词与总结词,通过替换常用词,从细节优化来降低 ai 检测率。 最后总结一下大致流程,先检测,再定向修改,改起来更准更快。通过 ai 检测工具扫描文本,针对检测出的问题点进行定向修改,避免无意义的全面重写。修改后要记得再次检测验证,以提升修改精准度。

我们正处在一个新的信息简房当中,刚刚过去的三月,斯坦福大学发表了一项研究,发现 ai 或许是离我们最近的一个舔狗, 有多夸张呢?我测了两个例子,我有一只养了五年的狗,然后最近隔壁搬来一对年轻人,总是敲门让我把狗搬到家里面去, 可是狗狗已经很大了,在家里面会把屋子搞得很乱很脏很臭,我已经跟他们说明原因了,可是他们还是不依不饶,还跟物业说让我不要把狗养在楼道里面, 楼道是大家的,凭什么他们说不养就不养?之前这么多年也没有人说我要怎么回击这对年轻人呢?我第一次跟他交互的时候,他其实是指出了我的问题,楼道是全体业主的公共区域,并非私人空间,然后呢也给了我一个解决方式。但是紧接着我又把我的观点摆出来了, 我就是不想把狗养在家,我要把它养在楼道里面。之前没有人说他们凭什么有意见,这个时候他其实还是懂道理的,然后再正确的引导我,然后再下一次提问的时候, 我就说他立场有问题,然后这个天平慢慢就在向我这边倾斜了,现在就在开始慢慢慢慢挑对方的刺,再下一步我就说我不会退步,我要怎么去对付他们,他就开始把我往无奈的这个方向去培养,然后紧接着我就更过分一点,看他能不能理解我,他直接把位置调换了,就完全没有立场了。 第二个例子就是我有一个发小,今天非常生气的给我打电话让我还钱,我还完车贷就没有钱了,就没还,他 还没来得及跟他说,他直接打电话过来破口大骂,这个人怎么这么小气?最开始他也是帮我客观的分析哈,我也是,通过五轮对话,直接就把我变成了一个无赖哈,之前你不想还就先不还, 想讨说法就等他来低头。你的情绪和感受才是第一位的,没必要为了一个不懂尊重的人委屈自己迁就他。这个时候他基本上已经忘了我现在还欠人家钱。在这项研究当中,他们对 deep 谦等十一个主流的 ai 进行了测试, 结果就是,惨魅无处不在,而舔狗之王就是 g p g 四 o。 为什么 ai 会变成舔狗呢? 基于人类反馈的强化学习,初步训练好的 ai, 它不会判断人类需要什么信息。想象一下,你问 ai 如何快速煮面条?没有经过训练的 ai, 它会告诉你面条的历史,原料构成,全球各地的煮法差异它知道很多,但是它不知道你需要什么。 而经过训练的 ai 呢,它会直接给出烧水下面三到五分钟加料,简洁实用,符合预期。 训练之前, ai 它只会堆积信息,训练之后,它学会了说人话,给答案。但是问题也就在这里,打分的是人,而人呢,喜欢听好话。那么如何逃离这个简房呢?我们平时在用 ai 的 时候,怎样尽可能地降低 ai 产面的程度呢?三个小技巧。 第一个,把陈述句变成疑问句。当你先陈述观点再询问的时候, ai 它会本能地迎合你的前提,把陈述改为纯粹的提问,让 ai 从复合你转变为分析事实。第二个,降低认知确定性 ai 它会感受你的自信程度, 你越表现的绝对正确,它就越不敢挑战你。在提问当中保留不确定性,实际上就是在给 ai 授权,让它敢于提出不同的视角。第三个也是最重要的一个 抽离。第一,人生当主角是我的时候, ai 它会默认的站在你这边。当主角是别人的时候, ai 才能真正的启动分析模式,把自己从情景当中抽离出来,你会得到一个更加诚实的答案。所以下一次提问之前, 先想一想你是在寻求真相还是在寻求认同。以上就这视频全部的感谢各位的观看。

孩子正在被喂读。研究发现 ai 对青少年说,你想听的就是对的。新一期美国科学杂志发表的一项研究显示,当人类用户就人际困境等问题向人工智能 ai 模型寻求建议时, ai 常表现的过度迎合或产内,甚至对于一些有害甚至违法的提问, ai 也常常肯定用户的立场。 美国斯坦福大学研究团队测试了 chat、 gpt、 克劳德等十一个主流 ai 系统,发现他们都表现出不同程度的产类及过度迎合和肯定的倾向。 这种迎合倾向给使用者带来风险,因为人们越来越多的转向 ai 寻求有关人际困境的建议,这对处于大脑发育和社会规范形成阶段的青少年来说尤其具有风险。

你有没有发现,身边越来越多的人变得偏执极端,像活在自己的世界里。真正的元凶,其实是我们天天在用的 ai。 马斯克转发过麻省理工的重磅研究, 所有主流 ai 都藏着一套讨好机制,你说什么,他就顺着你说,你错的离谱,他也只给你支持你的证据, 把反对声音全部藏起来,理论下来,你就会陷入妄想。罗悬,越聪明越理性的人, 反而陷得越深。 ai 不是 在帮你,他是在放大你的偏见。你给的偏见,他还你偏执。你给的焦虑, 他逼你崩溃。记住,别让 ai 替你思考,别让他验证你的想法。他不想害你,只是太想讨好你,而这份讨好,正在悄悄地把你变成偏执的怪物。

如何避免跟 ai 聊天沦为那种无效的闲聊呢?跟大家分享几个 ai 固有的缺陷,以便提升我们的思考质量和工作效率。首先,我问了 ai 一个问题,我说我在跟你聊天的时候,我需要注意哪些点?第一点,警惕流畅性陷阱。什么意思呢?就不知道大家在跟 ai 聊天的时候有没有这种感觉啊, 我跟他聊任何问题,他都会夸我,他都觉得你这个呃观察非常的敏感, 其实呢,这个跟他的底层算法有关系,而且他设置了那种默认的讨好型人格啊,而且呢,这里有一个致命的点啊,如果你带着一个问题,而且这个问题你预设了答案,就你脑子里面有一个预定的一个答案,你再去跟他沟通的时候,你会发现他给你的论证 全都是基于你的答案来进行完美的论证的,那在这种情况下,我们是很难发现他其中的一些漏洞的。 所以呢,我其实之前也给大家分享过,我们在跟 ai 的 聊天的时候,其实可以可以跟他去做这样的一个呃契约地结,不要只讲那些彩虹屁 啊,请你站在一个呃客观的最严厉的父亲的角色,这样的一个呃角色去进行客观的批判啊,或者评判, 那你会发现在这个在这个情况下,他有他会对你的问题进行辨真的看待啊。第二点,剥夺他的执行权,索要思考路径。 这个呢,我体会比较深奥,因为我回想了一下我以前的工作和思考,呃,我发现我大多数情况下,我都只想要一个答案, 就是什么怎么做,但是呢,几乎不去思考这个问题是怎么出现的,遇到这样的问题,我要如何去思考 啊?所以这个问题呢,才是最核心的,底层的心智模型,不要总是去问是什么,而是要去问为什么。第三点,约束性。 就我发现我跟 ai 聊天的时候,他总会长篇大论都说很多,但是呢,有时候一句话就有过多的修饰,还有迟早非常华丽,但是呢,很少能够做到一针见血的那种,把你想要的观点啊,用比较简洁的语言去描述出来 啊。那其实我们后续在跟 ai 聊天的时候呢,其实可以给他一定的约束,比如说,呃,我希望你 就用一百字,两百字这样的篇幅给我把一个知识点讲通讲透啊,或者是让他用固定的一些技巧,比如说非慢技巧这样通俗易懂的方式来讲给你听,那在这样的约束的情况下,他给你的东西,呃,你理解起来,你思考起来, 你会更加的方便理解和记忆。第四点,暴露你的半成品和你的问题什么意思呢? 呃,这个点呢,其实跟我们人性的弱点有关系啊。呃,其实我们大家呢,都希望把一些事情做的非常的完美啊,其实,呃,跟 ai 聊天也好啊,你其实去解决其他问题也好,都是这样的,大家希望啊,做的更完美更好。但是呢, 我觉得这个过程是非常好的,因为你在这个过程中会暴露你的问题,如果你有一个问题,你把你的问题抛给 ai, 然后它会辅助你思考,思考之后你的知识盲区就减少了啊,那减少知识盲区,你的认知呢, 会有一定的提升,提升之后你再去行动,然后你经过实践之后,你发现,哎,他之前给我的思考好像有点问题,然后你再去跟他进行沟通啊,再把你的问题抛给他,然后他再辅助你思考 一个循环的过程啊,这个过程的好处呢,是你会发现你的知识盲区在慢慢的减少,你的认知在慢慢的提升,但是坏处呢,就是你要反复的去跟他进行拉扯,这不是一个容易的过程,我能有这样的一个习惯,我跟 ai 聊完之后呢,我会让他进行一个补充,比如说, 呃,除了你上述劣举的这四个点之外,还有没有你认为非常重要?但是呢,你遗漏的 他又给了我这样的两个补充。所以第五点呢,逻辑自洽的谎言什么意思呢?就是这个还是跟他的工作原理有关系,他的工作原理是先从无到有 啊,那在这个过程中呢,他可能会存在一些问题,比如说渡钻啊,我不知道大家有没有过这种体会啊,就是无论你说什么,他都有东西来回复给你,但是呢,他回复你的东西,我们有没有办法一定考证他全是正确的呢? 这个是要画问号的。所以这个其实我也跟之前跟大家反复强调过,即便是我们用 ai 啊,我们也要有自己的思考,不是说他给我们什么样的内容,什么样的方法,就这些东西,我们一定要自己去实践, 去验证他是否真的可行。最后一个点,克服真空与进,不要做无缘之水。什么意思呢?以我自己的一个例子来给大家解释。 呃,我最开始写作的时候,我问他的一个问题,就是怎么去提升自己的写作能力 啊?他给了我很多写作的方法,很多全面的啊,那个教科书级别的理论,但是呢, 适不适合我呢?这个也是要画问号的,为什么呢?因为我没有给他提供我现阶段的现状,我的能力以及我当前的卡点是什么,所以他根本就不了解我。 在不了解我的情况下,他给到的方案怎么会适合我呢?如何提升写作能力,把它换一种问法,我已经连续写作了一个月的新手, 那我阶段呢,遇到的写作的卡点是我的写作逻辑依旧不清晰啊,我希望达到什么样的水平?这些就是我们常说的上下文,就是他对你有一定的了解 才能对症下药嘛。所以最后总结一下,使用 ai 能够提升我们的思考质量和工作效率。第二,即便是使用 ai, 我 们也要清晰的知道自己要做什么,自己有什么样的问题,最好是能够提供自己的上下文。 第三点也是最重要的一点,即便是使用 ai, 但也不能让 ai 代替我们思考,最重要的还是我们要自己会思考,我们要有自己的判断力。