粉丝7.4万获赞67.4万

心理学是怎么解释事后诸葛亮的呢?我们管这个叫厚见之明偏差, inside bias 也是我们博雅克的必修内容之一。我给大家介绍一个实验,心理学家做过这样一类实验啊,在一件事情还没有发生的时候,让大家去预测这个结果的可能性,比如说哪只球队会赢,哪个方案会可能会更成功。事情大概发生的概率有多少? 当时人们给出来的预测通常比较分散,也比较保守,但是结果一旦公布之后,研究者再问同一批人,你当初是不是觉得会是这个结果,结果非常一致,绝大多数人都会高估自己当时预测正确的程度,他们会说,哎呀, 其实就是有这种感觉的,我当时就是觉得会这样子的。就为什么呢?哪怕他们当初根本没有那么确定,但他们还是很笃定,因为结果一旦出现,大脑就会重新修改你的记忆,不确定、模糊,犹豫的部分就删掉了,留下来的就是一个看起来很清晰的判断。于是我们产生了一种错觉, 结果是显而易见的,我早就看出来了。那比如说现实连接,我们来举一个学习当中的一个例子,比如说考后复盘,考试成绩出来之后,很多学生会说,就这道题,我本来会写的,但是就是一时没写出来。如果你真的会看当时的草稿,当时的解析路径,当时的犹豫点,你会发现其实你没有那么确定 厚概之名偏差会让我们高估理解,低估问题本身的难度,从而错过真正需要补强的热点。 所以厚见之明偏差也是我们苛责别人的重要的心理来源。当别人失败的时候,我们很容易就会说,这么明显的问题你为什么看不出来吗?这么容易做的事情,你为什么会做不到呢?但如果你站回事情还没有发生的那个时间点,其实即使是你也未必能做好。 结果出现之后,每个人都是诸葛亮。真正成熟的判断往往不是事后站在高处评价,而是承认当时的世界本身就充满不确定性的。我是威尔,把这个视频转给对博雅克感兴趣的同学吧。

在复盘总结时,这个词一定用到 high insight 来。注意听 in hindsight perhaps i might have been a bit more sensitive。 他 说事后来看呢,我当然可能稍微有一点敏感了看这个词啊, high insight 这个 h i n d 像不像 behind 去掉 b e 没错,它的意思是后面的加上 sight 表示看,往后面看,往过去看,那就是事后诸葛马后炮,前面常接 in in high insight blah blah blah 一个事没做事,后来看它损失巨大。你就可以说 in high insight i should have done it 哦。想跟我系统看电影学一万词,进来先感受一下三天。

又是一个火前流明的开源智能体模块,很有网红体制。这绝不是一个简单的帮大模型存对话的数据库。会学习,那肯定是用了大模型的能力。它的长处在于不是对话历史的缓存,而是支持存储剪索生成新的理解 工程角度。任何智能体都可以把它当做记忆层调用,只有深层内容被结构化为带标签的存储,它才是真正的记忆。

首款实现学习机制的同类工具 longem e mail, 百分之九十一点四最优性能,多记忆网络事实经验观察自动知识,综合心理模型,个性化管理,不限制商业使用,无厂商锁定,轻松打造具备长期记忆与反思能力的 ai 智能体。

后知后觉,最近我重刷了热度极高的上海逆图鉴。这部剧上映的时候我还在上学,很多剧情都似懂非懂。如今我重新观看,心境截然不同,剧中太多细节都值得细品。作为一名同在上海漂泊、努力奋斗的女性,卢海燕的那些至暗时刻,我真的感同身受。 我印象最深的就是他刚刚入职的时候嘛,英语不好,不会穿衣服,软件不会用,非常的青涩局促,身边的好朋友也相聚离开。好朋友 kate 离职, scarlett 也选择跳槽。感情上呢,他又遭遇失恋之痛。 回到住处,室友那句不理解真的是桩桩旧事加起来。这无疑是职场信任罗海燕的首个致暗时刻。 然而,卢海燕身上有着令人佩钦佩的品质,面对优秀的 kate, 他 毫无自卑,虚心请教,而且执行力超强。下班后,他赶忙去做造型,提升自身的得体与精致度,还报名学习英语。 他羡慕 scarlett 能拥有独立的工作与人格,于是默默经营自己的业务,制定小目标。当他在台上自信侃侃而谈时,我的心情真的格外复杂。作为一个英国牛子,我深知英语从开不了口到能与任何人对话,背后需要付出多大的努力和心血。 卢海燕让我明白,成长是个煎熬,首先你得完成一场自我博弈。上升期就像把自己的过去打碎重组的过程。上升期必然伴随着羞愧、尴尬、失败与自负。唯有熬过这些艰难的时刻,才能幡然醒悟,开启改变之路,打破旧我,重塑全新的新我。 这是长时间的压抑与不适,来换取认知水平的提升,以及快速跨越成长的阶段。正如罗海燕的演员本人所说,向外求,求而不得,向内求,生生不息。 谢谢你,罗海燕让我明白,上升期的姿态往往丑陋、狼狈且不体面。真正的成长源自于向内探寻自我。我会沉下心,精心打磨能力,明确自身前进的方向,坚守内心的节奏, 不依赖他人,不盲不盲从,亲自为自己铺就前行的道路。谢谢你, harriet, 你 毅然成为无数像我一样在上海打拼女孩的精神引领者。

小跑,那这一轮里面我们有三段的训练, 认真做个 corner jet 去锻炼你脚步的敏捷,身体的转向能力。 focus first one front stance bouncing up 八次直拳,右左四个勾拳 my a seven four upper。 站满了宽的站姿,在构身的时候发力向上推臀 watch this two upper two jack couple two and two check your feet ah。 不错跳,要做一个 power squat that's all right! 去哪里? come on! 等那个速度 show me 啊啊, 快醒过来,不是刚睡醒吧,你还有一次机会。 just the jet right let go! 三十秒 on the beat one two one two。 瞄准同一个高度,直出十周八十二圈,加快拉回来速度。 four three two yes easy 第二轮两个方向的进攻, 让你的脚尽量的放松关节,放松速度会更快。 come on right foot forward come back sends bouncing up for your crush to right jane。 关注肩膀的旋转, 看我后面两拳 the shoulders yeah one more corner it's a corner。 看我的脚,脚掌蹬地了一下,把膝盖拉起来。 力量传送的手臂,传送的旋风不会。那你可以选择踩在地上,注意安全。踩在地上三个点, one two three one two three hello 两个点, 加点,速度快拉,快速拉回来。 oh my god one more time。 摆拳,右手四个 蹲下去,弓步,四三二一 four three jumping lunge 大小腿九十度,手摸小腿 last one give me five free to lunch 哦,这套很特别,在 boxing 里面出现功夫堆四年前的套路, 换到另外一边 level four。 深呼吸 four two。 想让你的前手直拳更重,把重量压在前脚上,你可以踩出去,去感受这一步。 我们不是飘起来的,重心是压下去的。 ok corner to corner let's go! 让你的髋和胸同时转向四十五度。哎,别说这个 come on 完整的幅度需要你更大的力量去蹬地, 手跟上腿不协调保持或者快打快收,像真的打在靶子上一样。 哎哎 four hold left and right jump in lunge switch your feet。 把胸口抬高, 下肢的爆发力训练。哇哈最后一次 one more lunch oh ha ha good。

状态。但换个角度,我可以说等等。我刚刚已经完美的达到了良好的状态,即状态 b。 我 能否从尝试达到状态 b 的 过程中学会如何实现它可以进入状态 a 吗? 答案是肯定的,你可以做到,而且它确实有效。我只想指出这是唯一一个情况。这里有一个微妙的小细节,可能对某些人来说会很有趣。你非常熟悉 on policy 和 off policy 之间的区别。 当你试图达成状态 a 时,你正在进行的是用于到达状态的在线策略学习。但你实际上进行离策略学习已达到状态 b, 因为你将采取不同的行动。如果你真想达到状态 b, 就 必须采取行动, 因此这一点非常重要。你在这里使用的算法能够支持离策略学习,但这只是一个小技术细节,核心思路是表面上把问题变得更难,实际上却让他变得更简单。 训练一个只在达到学会达到每一种状态的系统,学会去实现每一个目标,学会全面掌控环境。你需要构建一个系统。他总是在不断学习。 他从成功中学习,也从失败中学习,因为他试图完成一件事,结果却做了另一件事。现在他拥有了如何的训练数据。为了实现那个目标,我想给你看一段视频,展示他在实际中是如何运作的。 因此,强化学习系统面临的一个挑战是需要对奖励进行精心设计。这是什么意思? 意思是在系统启动之初,在学习刚开始时,系统了解的信息太少,很可能无法实现你的目标。因此,这一点非常重要。 你需要设计奖励函数,使其逐步递增,从而确保过程平稳顺畅,即使系统性能不佳,他也能持续运作,从而实现目标。 现在,如果你给系统一个非常稀疏的奖励,只有当系统完成特定目标时才会获得奖励,那么达到最终状态后,普通的强化学习算法将变得非常困难。为了解决问题,因为你自然从未得到奖励,所以你从未学会 没有奖励。这意味着没有学习。但在这里,因为你不仅从成功中学习,也从失败中学习,所以 这个问题根本不会发生。所以我觉得这很好。你知道,让我们来看看视频,再多一点就好了。他自信而充满活力的移动的样子真不错。 将绿色冰球推向目标。再来看一个例子。好了,我们可以跳过物理原理的部分了,他在实体机器人上也能运行,不过我们可以跳过这一步,所以我认为关键在于事后经验回放算法式。