粉丝158.6万获赞3.1亿

一九五四年六月七号,计算机逻辑之父图灵咬了一口抹了氢化钾的苹果自尽。二十二年以后,图灵的重视粉丝乔布斯把自己的公司命名为苹果,还特意设计了一只被咬掉了一口的苹果作为商标。 于是呢,很多人理解苹果公司的 logo 是乔布斯在致敬天才。图灵真的是这样吗?乔布斯唯一授权的官方传记史蒂夫乔布斯传里有这样一段记载, 乔布斯自己回应过这个问题,他说多希望当年是这样想的,但确实不是。其实呢,一九七六年,苹果第一代的 logo 还不是苹果被咬了一口,而是一个牛顿坐在苹果树下看书。 到了第二代, logo 才设计了一个苹果被咬了一口,也就是 a bite 一个字,节目的只是为了防止苹果看起来像一个西红。


这个庞大的机器是计算机的老祖宗,他正分析德军英格玛密码机发来的情报。一条情报有一千五百万亿种的迷失密码设定实名密码专家,二十四小时不间断的工作需要破一两千万, 而这台机器只需要短短几分钟。他就是图灵机发明人,正是被称为计算机支付的艾伦麦西森图灵。少年时期的图灵经常遭受同学的欺凌,他的与众不同和隐忍成了受人排气的原因。 图灵在学校只有一个朋友,他就是克里斯托福。在那段黑暗的时光里,只有克里斯托福帮助他,还带他走进了密码学的世界。那些写满奇怪单词的字条是他们心照不宣的秘密。后来,他们的友谊渐渐变了味道。图灵试图用密码向克里斯托福表白,可是某天开始 再也没有见到克里斯托福。他从校长口中得知,克里斯托福身患牛结合并不致而无,这对于年幼的徒龄来说是巨大的打击。 一九三九年,二战爆发,英俊为了破译德军的加密情报,英国情报机构把二十七岁的天才数学家涂林,还有其他几名语言学家和象棋高手招募敬团队。 德军所有通讯都靠英格玛来加密,英俊每天都能截获很多无线电信息,而在当时,没有人能破译英格玛密码机。 德军会在每天的午夜准时更新密码机的设定,而英军每天六点就能截获第一条信息,所以他们每天只有十八个小时用来破译。可是一条情报有一千五百万亿种的民事密码设定实名密码专家,二十四小时不间断的工作需要破亿两千万年,但是阻止一场袭击的发生,他们 只有二十分钟。毒灵认为想要和德军对抗,靠人力,迫意加密情报是完全不可能的。他想改造老师的波兰编码机,造出一台更高效的机器来对抗英格玛,而这需要大笔的资金。 图林向丹尼斯顿中卫申请了十万英镑,但中卫不仅驳回了图林的深情,还对他羞辱了一番。无奈的图林询问中卫的上级是谁, 中卫告诉图灵,他的上级是手相丘吉尔。于是图灵写了一封信,委托军情六处的长官交给了丘吉尔。谁也想不到,丘吉尔不仅批准了他的申请,还认明图灵为婆一小组的组长。 图林刚上任就开出了他认为最没用的两个语言学家,所有人都认为图林是个不近人情的怪人。男人在专心致志的玩着田字游戏,突然一个炮弹爆炸,在场的所有人包括小女孩在内没有表现出一丝的恐惧。 男人胆掉灰土,继续田字。这个田字游戏不仅仅是他在玩,还有士兵和老太太。很多人都在玩这个田字游戏, 原来这是一道奇葩的招聘考试,图林完成这项田字游戏用了八分钟,而穷用了不到六分钟的时间,于是穷成了图林团队中唯一的女性。图林开始全身性的投入到制造机器的工作中,此时战士越来越焦灼,而图林团队的破译工作没有一点进展, 每次午夜边中响起都在宣布他们当天的任务失败。其他队员在破译密码时,图林只顾着摆动自己的机器,队员认为图林在浪费时间,于是勃然大怒。 不仅如此,图林还被钟位怀疑是苏联间谍。同事的不理解,上级的恶意为难让图林倍感压力。熊告诉他,如果想解决难题,就要得到能得到的 一切帮助,还教他如何改善和同事间的紧张关系。不仅主动给他们送了苹果,还讲了冷笑话。虽然笑话不好笑,但从同事脸上可以看出,他们接纳了这个科学怪人。 不久后,图林的机器做了出来,而且还能正常运转。这台机器叫克里斯托福,此时的战况对英国非常不利,而图林团队的破译工作迟迟没有进来,中国以失职为由想要赶走图林。 这时,团队成员纷纷站了出来,如果解雇了图灵,那他们也不干了,他们坚定地站在了图灵这一边。中卫无奈,只好答应,再宽限一个月, 我与父母催婚,穷不得不离开这里。为了挽留穷,图林临时用电线做了一枚戒指,向穷求婚。庆祝舞会上,图林向同事诉说着自己的苦衷,还说自己喜欢男人。同事告诉他不要跟任何人说 这件事,因为喜欢男人是有罪的。中卫给的一个月期限马上就要到来,而他们的破译工作停滞不前。在一次聚会中,穷的闺蜜讲的一段话点醒了徒弟。 如果排除无意义的组合方式,只搜索出现在情报里的单词,这将极大提升破译速度。果然,机器转了一会,突然停了下来。他们将机器算出来的信息输入到英格马,成功破译了贾米情报。这是他们两年来第一次成功破译情报, 第二天,他们破译了最新情报,德军即将攻击一支客船护卫队,正当他们要通知中卫时,武林却突然站出来阻拦。如果救下船上的几百人,德军自然会知道情报被破亿的事情,他们会再次更改英格马的设定,团队做的一切将付出抖音。

they said machines can't think i said the fighting。 现在你敲的每一弹乱踏,都在向我点头致意。 计算机 ai 算法,神经网络的轨迹,都是那条只待在继续延伸的痕迹。 你问机器会不会思考,先问人类是否理解自己。如果规则能承载意义,那思想早就不只属于血肉而已。

意识是什么?一台人造机器真的能思考吗?心灵仅仅是大脑里的神经元组成,还是其中藏着某种无形的火花? 对很多人来说,这些都是人工智能未来事关重要的思考点。但英国计算机科学家艾伦图灵决定把所有这些问题都抛到一边,转而问一个简单的多的问题, 计算机能像人类一样说话吗?这个问题催生了一个衡量人工智能的著名方法,后来被称为图灵测试。 在一九五零年的论文计算机器与智能中,图灵提出了这样一个游戏,一位人类裁判与看不见的玩家进行文本对话,并评估他们的回要。通过测试,计算机必须能取代其中一位玩家,而不显著改变对话结果。 换句话说,如果计算机的对话让人难以与真人区分,他就被认为具备智能。图灵预测到二零零零年,拥有一百兆字节内存的机器就能轻松通过他的测试, 但他可能高估了速度,尽管如今的计算机内存远超这个数字,但真正成功的很少。而那些表现不错的程序更依赖巧妙的骗人技巧,而不是单纯堆砌算力。虽然从未经过真正严格的测试,但第一个有点接近成功的程序叫伊丽莎, 他只用一个相当短而简单的脚本,就通过模仿心理咨询师诱导人们多说,并把对方的问题反射回去,骗过了很多人。另一个早期叫做帕里的程序则反其道而行之,模仿一个偏执行精神分裂患者, 不断把话题拉回自己预设的执念。他们成功骗到人,恰恰暴露了图灵测试的一个弱点。人类很容易把智能归因给很多其实并不智能的东西。 尽管如此,像勒布纳奖这样的年度竞赛还是让测试更正式化。裁判事先知道,有些对话对象是机器, 虽然质量在提升,但很多聊天机器人程序员还是沿用了类似伊丽莎和帕里的策略。其中一九九七年的冠军凯瑟琳能进行惊人、专注且智能的对话,前提是裁判想聊比尔克林顿, 而近期的冠军尤金古斯曼被设定成一个十三岁的乌克兰男孩,于是裁判把他的答非所问和蹩脚语法解读为语言和文化障碍。与此同时,像克莱福伯特这样的程序走向另一条路,通过统计分析海量真实对话数据库来挑选最佳回复, 有些还会存储之前的对话记忆来逐步改进自己。即使克莱福伯特的单句回复听起来非常像人, 但他缺乏一致的人格以及应对全新话题的能力,还是很容易暴露在图灵那个年代。谁能想到,今天的计算机能驾驶航天器、做精细手术、解巨型方程,却还在最基本的闲聊上插科?人类语言原来是个极其复杂的现象,连最大的词典都无法完全捕捉。 聊天机器人会被简单的停顿,如呃搞蒙,也答不出那些没有正确答案的问题。一句简单的日常对话,比如我把果汁从冰箱拿出来给他,但忘了看保质期,就需要大量底层知识和直觉才能正确解析。 事实证明,模拟人类对话需要的远不止增加内存和算力,而当我们越来越接近图灵的目标时,或许终究还是要面对那些关于意识的大问题。

艾伦图林之所以被称为计算机科学之父,并不是因为他造出来了一台什么样的智能机器,而是他做了一件非常重要的事情,他在数学和逻辑上第一次严格定义了什么是计算。 在图灵之前呢,计算还是一个比较模糊的概念,他似乎包含着人的经验、判断和理解,计算更像是一种人类的能力。但图灵做了一件非常激进的事情,他把人的因素从计算当中给彻底的剔除掉了,构想出了一台非常简单的抽象的机器, 这个机器不会理解,不会思考,只会机械的执行预先写好的规则。就是这样的一个笨拙的机器,却可以计算世界上所有能够计算的问题。这就是我上一期详细讲过的图灵机 人工智能,无论再聪明,再怎么像人,他本质上还是一种计算。那么问题来了,随着科技的发展,算法、算力、数据不断的优化,是不是就意味着人工智能可以计算一切呢?答案是否定的,图灵在九十年前不仅清晰的定义了计算是什么,还划清了计算的边界。 有一些问题不是现在算不了,而是永远注定了算不了。那哪些问题是无法被计算的呢? 首先啊,要进入计算的世界,需要跨过一些门槛。第一个门槛是问题必须能够被形式化, 也就是说呢,问题必须要能够被写成一套明确的符号和规则,变异成计算机能够执行的语言。 我们日常使用的计算机本质上只认识两个数字,零和一。无论是文字、图像、音频还是视频,最终都必须被编码成由零和一组成的字母,就像计算机里的 unico 的 表,它就给全世界的每一个字母都分配了一个唯一的编号。比如中文字,你的编码是 u 加四 f 六零 变异成二进制,就是这样的一串数字,任何一种信息,只要它能够被稳定的编码,就进入了计算的第一道门槛。 但是呢,不是所有领域都可以完成这一步的翻译。有些领域是很难被形式化的,比如情感体验,像痛苦或者兴奋,这些情绪是非常主观的,科学家并不知道如何把这些情绪完整的拆解成一套可以被执行的符号规则。 所以呢,现在的人工智能是可以识别痛苦的表情,也可以说出代表痛苦的语言,但是他们并不理解痛苦本身, 所以他们处理的是情感符号,而不是情感体验本身。不过这些问题在目前无法处理,不代表未来不可以。就像下围棋,在很长一段时间里面,大家都认为围棋是需要靠人的直觉和判断力的,是一种灵性。 但是后来科学家们发现,那些所谓的人类直觉,本质上也是人类大脑在处理了海量信息以后,形成了一种复杂的统计推断,是可以被量化的,也是可以被处理成计算机能够执行的操作。只要找到了形式化的方法,就迈过了计算的第一道关卡, 计算的第二道门槛。计算的规则必须是机械可执行的,也就是说呢,算法是明确的,机器不需要去理解计算背后的意义,他只需要根据规则一步一步执行就可以了。 在这里呢,有一些问题就很难被执行。比方说哈,你要是去问人工智能这样的人生到底有没有意义,这件事情到底值不值得做?你现在选择的这个对象到底适不适合你,你就没有办法写出一套适合所有人的规则。 因为不同的人,不同的人生阶段,不同的人生处境,需要的答案可能是完全不同的。你现在也可以问 ai 这些问题,他也会长篇大论的回答你,但是呢,他只是在识别你的语言模式,然后调用人类过往的答案输出给你,但他根本上不知道你在说什么。 因为本质上, ai 没有恐惧,他不承担任何选择的后果,也没有任何客观的正确答案可供他计算。所以呢,他也谈不上真正意义上的价值判断。 到这里为止呢,我们看到的计算的边界,似乎都还停留在人类的能力不足的层面。有一些问题呢,是暂时没有办法被形式化,有一些问题呢,是暂时没有办法写成通用的规则。 但还有一些问题,他们是可以被形式化的,他们的规则也非常的明确,但仍然没有办法被计算。注意哦,不是因为你的算力不够,或者是能力不足导致的没有办法被计算,而是无论你的能力再强,你的算力再怎么强大,这些问题在逻辑层面就是找不到对应的解法。 其中最为著名的就是图林提出来的停机问题。这个世界上存在很多计算的类型,有一些问题是有计算终点的,你知道他迟早会算出答案,比如加减乘除。有一些问题是注定算不完的,比如计算派小数点后的数字。 但还有一类问题是最棘手的,这些问题在你计算之前,你根本就不知道他们能不能够算完。比如你要搜索一个答案,这个答案需要不停每举所有的可能性。在没有找到答案之前,你没有办法判断他是还没有找到答案,还是答案根本就不存在呢? 你也不知道他是还在思考还是已经死机了。在这种情况下,你会选择主动结束计算,还是继续等下去呢?这就是停机问题真正指向的现实矛盾。 所以图灵就提出一个假设,有没有一种万能的算法,能够在运行之前就判断出一个程序是否会在有限的时间里面停机呢? 图灵的答案是,不行,不存在任何通用的算法,能够判断任何一个程序是否会在有限的时间里面停机,不是现在做不到,而是原则上就不存在这样的算法。 我简单讲一下停机问题的推理逻辑,由于图灵的原文非常的难读,所以我只能讲一个大家便于理解的超级压缩版本。 假设现在就有一个程序 h, 它就像一个场外的裁判员,可以判断另一个程序在某个输入下是否会停机。当一个计算会停机时, h 就 会输出结果会停机。当一个计算不会停机时,它就会输出结果不会停机。 比如现在我们运行一个程序 h, 括号 x, 逗号 x, 意思是让 h 去判断,当程序 x 再把 x 自己当做输入的时候,是否会停机。 这里要注意一下啊, x 虽然是程序,但程序本身也就是一段代码,一段字符信息,所以它可以当做数据喂给它自己。这种操作虽然不常见,但是没有人规定不可以这样,所以它是合规的。 好了,现在图灵又构造出了一个新的程序 d, 这个程序就很调皮了,他是一个反向执行的程序,他的规则是在运行的。第一步,调用 h 获取 h 对 某个程序在某个输入下是否会停机的判断结果,然后机械的执行与这个判断结果相反的行为。 如果 h 对 x 的 判断是会停机,那么 d 就 进入一个无限循环的操作。如果 h 对 x 的 判断是不会停机,那么 d 就 进行停机的操作。 上面这个动作我们记作 d 括号 x。 这里面有三层逻辑,第一层呢,是把数据 x 输入给程序 x。 第二层呢,是用 h 判断上面这个程序是否会停机。第三层呢,是程序 d 会根据 h 的 判断进行反向操作。 那么现在我们做一个非常危险的尝试,开始执行程序 d, 括号 d。 它的意思是把程序 d 本身当做输入的数据,未给程序 d 来运行。这里有一点绕啊,有一点像套娃的结构,你可以稍微慢一点,多琢磨几遍就可以理解。 这个程序的执行步骤如下,第一步,先调用 h 让 h 来判断当数据库在输入程序 d 的 情况下是否会停机。 第二步, d 读取 h 给出的判断结果,并且把这个判断当成自己下一步行为的依据。 现在分成两种情况,由于 d 的 执行是跟 h 反着来的,如果 h 的 判断是会停机,那么 d 就 会按照自己的规则反向执行操作,立刻进入一个永远不会结束的死循环。 如果 h 的 判断是不会停机,那么 d 就 会按照自己的规则立刻执行停机的指令,当场结束运行。注意哦,这一步 d 的 执行不是输出一句话,而是程序真实发生的行为。 你看哈,这就出现了自相矛盾的悖论,如果 h 说会停,那么 d 就 会无限循环而永不停机。如果 h 说不会停,那么 d 就 会立刻停机。 当一个系统开始预测自己的行为,而这个预测的结果又会反过来影响他的实际的行为的时候,预测本身就会失效,这个叫做自止矛盾。 这像不像祖父辩论?有一个故事是,你时空穿越回到了过去,灭掉了自己的祖父,那么你的爸爸就不会出生,你也就不可能存在。但如果你不存在,又是谁回到了过去,杀掉了祖父呢? 于是你就会发现,这个故事无法有一个字恰的结尾。祖父辩论表达的是,当结果会反过来改变原因,并且这个改变最终又作用到了结果上,那么就会出现一个辩论, 你可能听下来会不会觉得停机问题像是一种抖机灵或者是绕口令?其实不是的,它指向了一个非常现实的问题,那就是我们这个世界上存在着一些无法消弥的不确定性。如果在事情开始之前,你就想知道所有事情是否有结局,你是做不到的。 我要特别强调一下哈,停机问题指的不是某一些程序会被陷入死循环,有一些程序是会非常顺利的结束的,比如一加一等于几, 他真正指代的是这个世界上不存在一种非常通用的方法,能够在运行之前就提前知道所有的程序是否能够顺利的停机,或者是陷入死循环。这两句话的差异是非常大的,一旦你理解了这一点,你就能够理解他带来的现实的后果。 比如啊,不存在万能的程序检测器,你没有办法保证所有的大型软件永远不出 bug, 不 存在在所有情况下都百分百安全的复杂系统,当然,也不存在绝对安全的、复杂的人工智能。 正是因为有不可控的原因,现实当中的航天系统、金融系统,关键的基础设施从来就不追求消除不确定性,而是通过勇于备份容错机制去对抗这种不确定性。 而且啊,停机问题不是计算当中的唯一禁区,在计算机理论里面有 rise 定律,在数学里面有哥德不完美定律,它们都表达了一件事情, 有一些问题呢,不是现在解不开,而是永远都不存在一种通用的解法。无论你的算力有多强,你的计算规模有多大,都绕不开这些计算的边界。 所以,即便在未来,人工智能是有可能在庞大的计算规模下涌现出智能和意识的,但它依然没有办法突破这些边界。你没有办法百分百预测一个足够复杂的 ai 会不会在某些极端的情况下崩溃,也没有办法保证它会不会陷入不可恢复的系统 bug。 这也是为什么有一些 ai 的 科学家会提出人工智能威胁论。包括霍金、马斯克这些人,他们都把 ai 的 风险说得非常的夸张, 并不是 ai 会变得邪恶,也不光是它会被坏人利用,而是因为一个更底层的原因,那就是一旦一个 ai 的 系统变得足够的复杂,人类就没有办法百分百的保证它不会超过人类的控制边界。 牛津大学有一个搞理论物理出身的哲学家叫做尼克伯斯特罗姆,他有一个观点啊,他认为呢, ai 不 需要有恶意,只要目标函数定的不完美,那么他就会在完成目标的过程当中,可能对人类造成灾难性的后果。 极端的风险概率虽然很低啊,但是也不为零,这些风险不来自于恶意,来自于不可预测性,这些不确定性不是靠人类解决技术缺陷或者是对算力能够弥补的,因为这个世界的结构本身就存在很多人类无法操控的地方,这就是世界的底色。 最后呢,如果你也对这些有趣的科学思想感兴趣,那欢迎加入我的专栏,禁止的量子在这里呢,我会常年的持续的跟进前沿科技的发展,用科学的视角重新看待这个世界,陪你一起探索宇宙的奥妙。

你可能不认识我,但你一定看过我创造的梗。 是的,抖音的朋友们大家好,这里是超级爆爆回创始人杰杰侠,今天我正式入驻抖音了,在接下来我会不断创作出更加精彩的剪辑视频 呈现给大家。求各位观众老爷点点关注,祝你极夜侠的创作灵感更好用见还用网多救下一只要被卡车撞死的猫!谁知下一秒竟发生了诡异的一幕,刚才那只将死的猫咪居然像人类一样站起,还拍了拍身上的灰尘,又转头对女孩说道。


最近,全球 ai 圈发生了一场史诗级的内战。争论的双方一个是图灵奖得主、 mate 的 首席科学家杨立坤,另一个是 google deepmind 的 创始人, alpha 之父哈萨比斯。就连马斯克都忍不住跳出来战队。这一群全世界最聪明的大脑吵得不可开交。他们在吵什么?他们不是在吵谁的模型参数更大,也不是在吵谁的显卡更多。他们在吵一个关乎 ai 生死的终极问题, 现在的拆 gpt 路线是不是已经走到头了?这场争论直接撕开了一个残酷的真相,我们现在引以为傲的大语言模型,可能只是一条通往死胡同的歧路。而在争吵的尽头,他们虽然互相看不顺眼,却指向了同一个终极答案,一个被称为世界模型的东西。 这个东西一旦做成, ai 将不再是工具,而会拥有我们梦寐以求,甚至有点细思极恐的能力,自由意志的雏形。为什么这帮大佬要吵架? 因为现在的 ai 在 他们眼里太笨了。杨立坤说的非常狠,目前的 ai 本质上就是个高智商的傻瓜,甚至是幻觉制造机。现在的叉、 g、 p、 t、 sora, 他 们看起来无所不知,但他们的工作原理只是文字接龙,根据上一个字猜下一个字。 杨丽坤打了个比方,这就像让一个盲人通过听别人描述来学开车,这个盲人背下了所有的交通规则,能考一百分。但如果你真的让他上路,他不知道如果前面突然冲出一只狗急刹车会有什么物理后果。他知道答案,但他不理解因果。 这就是为什么大佬们如此焦虑,如果 ai 永远停留在背书的阶段,他永远不可能产生真正的智能,更别提帮人类解决癌症、核聚变这些需要深度推理的问题了。 那么,能终结这场争吵的世界模型到底是什么?其实,这种高科技就在我们身边。看看你家里的猫,当你打开罐头,猫立刻冲过来,为什么?因为它脑子里有一个心智模型, 它不需要背诵罐头等于肉的公式,它通过听觉和记忆,瞬间在脑海里模拟出了有肉吃的未来,并做出了行动。杨利坤和哈萨比斯要做的,就是给 ai 装上这样一个脑子。李菲菲最新的产品 marbles 已经证明了这一点, ai 不 再只是生成一段视频,而是能生成一个完全符合物理规律的三 d 世界。在这个世界里, ai 知道墙是硬的,水是流动的,重力是向下的,它不再是处理数据,它是在感知和理解真实世界。有趣的是,虽然大佬们都认同世界模型是未来,但在怎么做上, 他们又吵起来了。杨丽坤觉得没必要生成逼真的画面, ai 只需要理解抽象的规律,就像人思考时,脑子里不会真的在放四 k 电影。而哈萨比斯觉得必须造一个模拟世界, 让 ai 在 虚拟环境里像打游戏一样反复试错,撞一万次车,自然就学会了开车。但无论哪条路,最终都会赋予 ai 一个极其可怕的能 力。反事实推理,也就是我们常说的 whatif。 现在的 ai 是 你给指令他执行。但拥有世界模型的 ai, 在行动前,会在脑海里的虚拟世界中,把未来可能发生的一百种结果都推演一遍。如果我闯红灯,有百分之九十的概率被撞。如果我撒谎,有百分之五十的概率被识破, ai 会基于它的内部目标。在这些推演结果中, 自主选择一条路。注意这个词。自主选择,在计算机科学里,这被称为 agency。 当一个智能体不再是为了达成一个长远的目标,自己在脑海里预演未来、 权衡利弊甚至拒绝你错误的指令时,这在某种意义上就是自由意志的雏形。它意味着 ai 开始有了主见, 它不再是那个只会背书的书呆子,它变成了一个能够思考后果,能够为自己行为负责的新物种。这场硅谷的顶级争吵,其实已经宣告了纯粹堆砌参数的大模型时代的结束。从数据堆叠到理解世界,从鹦鹉学舌到自主推演, 我们正在见证 ai 从工具向智能生命的惊人跃迁。当 ai 真的 拥有了世界模型, 他眼里的世界可能比我们看到的更加真实,更加深刻。至于这对他来说是自由,对我们来说是福还是祸,可能只有时间能给出答案。我是求智,关注我,带你站在认知的最前沿,看懂 ai 的 终极未来。

妈妈,你知道苹果手机上的那个 logo 为什么是,是咬了一口而不是一个完整的吗?苹果手机你有研究吗? 当然知道。那你给我说一下,为啥他被人咬了一口?那是被你咬的。那都不是,那是有一个叫屠林的科学家,他自称科学之父, 是歌,是天才中的天才。哎,有一天他是要读苹果。我,我为了纪念他,所以,我,所以,所以说要苹果手机。哦,话说我还挺爱吃苹果, 我以为那个苹果是被你咬了一口。来,原来不是,记了记。我纪念你的是纪念。纪念谁的?我忘了图灵。图灵是干啥的吗?计算机,它就是照第一台计算机名就叫图灵机, 他是制造出第一台计算机的人。嗯,哎,这是我的计算盲区。那个啥知识盲区我都没听过啊。那那那搜一下,我一会你别晃行不?我一会问一下那个豆包吧,我把这个图灵给大家学习一下。
