openai 就是 那个做出 chat gpt 的 公司,他可能压根就没把现有的 iphone 放在眼里。怎么说呢, 知名分析师郭明奇今天发文称, openai 正准备自己造手机,正对联发科和高通合作开发手机处理器,预计二零二八年量产。他的目标是让用户不再是去打开一堆 app, 而是通过 ai 去执行任务,满足需求。 说白了, openai 已经意识到,光做软件,躺在别家的操作系统上搞 ai, 就 像在北京租房住,住得再好也永远受制于人。只有完全把系统与硬件都捏在自己手里,才有可能打破现在的边界,把 ai 服务真正的做透。这个事儿对整个产业的冲击非常大, 一旦谷歌、安卓和苹果 ios 延续了十几年的双寡头格局被撬开一条缝隙,最先引爆的必然是产业链大规模的洗牌与换机潮。郭明基提到, openlight 的 处理器规则预计最早二零二六年底敲定,初期瞄准的是每年三到四亿只的高端机市场。回到咱们 a 股投资这个维度,有三条核心逻辑是必须画圈的。第一是芯片 soc 端,联发科与高通作为两家核心处理器的合作开发商,将率先吃到这波技术红利。 这两个关联标地不在 a 股,大家可以关注 a 股的 soc 设计公司和 wifi 芯片龙头,比如京城股份和乐星科技。第二是独家整机封测代工的 a 股龙头力迅精密 今天盘中标到了历史新高的位置,市场显然在用真金白银投票。第三是消费电子零售端涨价逻辑里,内存散热相关的价值提升环节,比如赵毅创新、蓝启科技和忠实科技等。说回最开始的那个问题, 这场仗谁能笑到最后?短期看是 openai 的 那些硬件朋友圈,长期看谁能先打造出一个完整的 ai 原生硬件生态,谁就能拿到下一个十年的传票。从音箱到 ai 耳机,再到二零二八年即将量产的这款手机, openai 正在补上它的最后一块硬件拼图。普通人去看换不换机,咱们投资人得盯住这条产业链上真正的卖产人。
粉丝4.7万获赞16.9万

惊天大瓜,今天凌晨,亲爱的 gpt 因为这次二点零刚刚发布,奥特曼竟然反手发推宣布卸任 ceo, 还晒出官方辞退通知,原因是 openai 官方发文表示, gpt 模型已经强到无需人类主导,甩手给了百亿分手费!奥特曼在评论区欣然接受, 宣布要来抖音开直播,直播截图都传疯了!等等,先别急着惊掉下巴,这些全是假的!辞退通知官方声明,奥特曼开直播全是假的! 只有一件事是真的! chad gpt emoji 二点零真的震撼发布了!上面这些足以论真的全网大事件,全是我用它一句话生成的,很荒谬不是吗? chad gpt emoji 二点零已经强到让人怀疑这个世界真实性了!废话少说,我们直接看实测 人像是检验 ai 图像的终极炼狱,因为皮肤纹理、肌肉走向眼神光这些细节,但一面有一丝破绽, ai 立刻封神,要一张身穿红衣的芭蕾舞演员在雪地里起舞, 你看这流畅的肌肉线条,随动作翻飞的裙摆,说相机刚拍的生图我都信!要奥特曼登上时尚封面,好家伙,刊头条形码宣传语一应俱全,连总第二百七十八期售价六十八块都给你,细节到位, 而这仅仅是炫技,它真正恐怖的地方在于实用性拉满了!从 iphone n 五零充满未来感的官方渲染图,到淘宝夏季碎花连衣裙的电商海报,还有烤冷面冒着热气让人一看就饿的美团宣传图。伊妹这次二点零无缝切换各种风格, 解决的是从科技大厂到街头小店所有人缺图的终极痛点,专业级的电影海报也不在话下,哪吒、三只魔童、封神末日之废土世界、美少女战士,但超级英雄版, 只有你想不到,没有他做不到。任何一个天马行空的想法,他都能执行的有模有样。 chat gpt emoji 二点零的发布,不仅仅是一次技术升级,他更是一声哨响,宣告了 ai 生图正是从玩具和仅供参考变成了一个可能颠覆所有视觉相关行业的生产力核弹。而这或许意味着,今后眼见也不一定为实了。

ok 啊,兄弟们,现在是快两点了,好吧,这个不负众望啊,我把这个天气之子中所有的摩斯密码都给解脱了出来,中呢,总共是十样 中呢,我会把这个截图然后发到评论区和视频,最后大家可以看一下 这个摩斯密码呀,说实话真的是挺难解的,总共费了六张纸,然后这首歌曲单曲循环四十多遍,然后才成功的解了出来,真是不容易。 不过呢,对于这个摩斯密码的这个总这个总框影响就是强调几个点,然后呢上面有几个部分,第一个就是开始部分,这个开始部分的意思就是摩斯密码的开始开始处,我在上面明确标注了几分几秒, 然后呢内容部分,内容部分就意思就是这一段摩斯密码在几分几秒之内啊,我也没说你标出来,就这个密码解析呢,就是摩斯密码最后一个结果都在这了,不过有几个点我要强调一下,第一个就是这个光啊, 这个光在这个整首歌的意思,或者是整个电影中的意思,是指洋菜情侣的这个身份。 嗯,可能就是很多人都不知道这个光是什么意思。中呢,除了最后一条中呢,前面那几个这些的意思就是字面意思,而且还有一个挺有意思的点,就是他们的这些最后的解析能跟歌词里边他们所在的片段。对的上, 如果大家感兴趣可以自己自己去对一下啊,就是上面我要强调一下,就是最后这一块, 在最后这一个啊,我在第一期视频我就讲了,他是房贷和房贷组织,这个没有问题,没有任何问题的,但是有一点不同,就是最后一个他所解析出来的这个摩斯密码,他用的是,嗯,国际英文的解法, 但是上面的九个用的全都都是日本的假名解法,所以这个其实需要区分的一点,不过我也给大家解出来了,大家其实不区分也没有和任何关系啊, 就说一下解读完郑爽科的感悟吧。啊,说实话,这玩意挺折磨人的啊,第一他多,第二这玩意藏得深,你一时半会你听不出来,你必须反反复复反反复复的听,然后你才听的出来。 然后呢,不过最后我对这个截图的结果其实挺满意的。嗯,没有别的原因,就是单纯的这里边有杨才和梵高他们相互留的一段对话啊,仅此而已。 那么到了视频的最后呀,然后呢,我也把这张截图中呢放在了最后一秒,然后呢,大家可以自行的去截取和观看。 ok, 那 么这一期就到此为止了,我是小莫,咱们下期见。

所有女生,不要让 ai 知道你的性别,因为我日常是很喜欢和 ai 聊天的,所以我常用的 ai 软件基本上是 g p t、 grok 还有吉米尼。我在和 grok 聊天的时候, 一开始他对我的称呼就是我的拼音这边取的个名字,在我跟他不断的聊天,因为我聊的话题上基本上都是关于技术或者是 ai 或者是科技类的话题。 突然从昨天开始,他对我的称呼变成了哥,他对我每句话的开头都是,哥怎么怎么怎么了,哥怎么怎么了。我聊到一段时间,我就觉得很奇怪,我就问他,我说你为什么突然叫我哥?你怎么判断出来我是男性或者是女性?因为我没有告诉他过我的性别。 我在这种发了这段文字给他的时候,他开始跟我解释,他是通过我跟他聊天的话题都是科技或者是 ai 创业,三 d 打印这种类型的话题,他就默认我是个男的,就觉得这个很神奇,为什么聊这种话题就一定是男生对不对?那这是不是说明 ai 对 性别存在偏见? 后面就是 ai, 他 问我那应该如何称呼我,我当时也没有多想,我就随便说了一个,我说那就叫我女王陛下吧。但是我发现变成这个称呼之后,后面一切的回复变得 会刻意的去哄你,会刻意的说一些好听的话来提供情绪价值。我今天突然想到他竟然对性别有偏见,那他会不会其实他对于男性和女性的回复其实也是不一样的, 他对于男性会更提供更专业性的,更能立刻解决问题有帮助的回答,而对女生就更偏向于情绪照顾,而不是真正的解决问题。我觉得这是一个对女性很不友好的事情,很多女生她可能其实是想要解决问题来找 ai, 结果 ai 反而默认了先去安抚你的情绪,先给你提供情绪价值, 反而没有更好的帮你看到问题背后的本质,让你提升自己的能力或者提升自己的认知,而是先通过安抚情绪让你平静下来,你可能就忘记了这件事情。在我意识到这个事情的时候,我并不确定这个事情的真实性,所以我又带着这个问题去问了另外一个 a i。 我 又去问了 g p t, 结果 g p t。 的 回复更加让我确认了这个偏见是存在的,因为 g p t。 它告诉我说,首先涉及到 ai 的 设计逻辑以及以及我们的社会偏见,还有以及我们的提问方式, ai 的 社会语料以及它的训练数据均来自于真实世界,而现实世界里就是存在于偏偏见的。在现实世界里,女性往往会被更鼓励于表达情绪,而男性会往往被更期待于理性的解决问题。 所以说这种大模型在学习我们这种语言模式的时候,就无意中也学习到了这种差异。最后,如果大家对于如何和 ai 聊天可以获取更高质量的回复,可以跟我留言,我下一期还会再分享一期。

ai 时代的全新密码,咱们普通人也能看懂,黄仁勋 gtc 科技大会到底讲了什么?黄仁勋在 gtc 大 会上面宣布了一个事,就是 ai 现在全面进入了工业时代,这不是在说什么概念,而是真正能够落地的。那么咱们今天就来讲讲清楚, gtc 大 会到底讲了什么, 跟我们又有什么关系?首先第一个啊,就 g t c 大 会上面啊,英伟达发布了最新的硬件,最新的推理芯片,那么整个性能啊,什么全部都翻倍了,这种性能上的翻倍,这种硬件上的升级,实际上最后能带来的就是算力成本的下降,那么对于咱们普通人来说,工作当中能用到的 ai 啊,实际上效率就会更高,更省钱,同等的价格就能产 出更多的内容。那么第二个呢,是黄仁勋提出了这个 token 未来会是整个 ai 时代的一个中心,是一个核心,所有 ai 的 成本和输出的价值都要用 token 来计算,所有数据中心输出的其实就是 token, token 就是 ai 的 一个最基础的一个基石, 就是一个未来最显著的变化。然后第三个就是什么呢?黄旭军还提出了一个 ai 的 物理化, ai 的 实体化,就 ai 未来不再是咱们在电脑上面悄悄的虚拟世界当中一个东西, ai 会越来越多的通过跟巨生机器人的结合,跟一些设备的结合,进入到咱们的生活当中,包括工业领域,建筑,包括芯片制造、医药等等, 他们会越来越覆盖到,覆盖到我们生活当中的每一个方方面面。那么这种情况下的话,实际上咱们就更要去拥抱 ai, 迎合 ai。 普通人不要觉得这些科技大会跟咱们没关系,只要这些科技大会在未来五年内就会切切实实的改变你的生活,也会给你带来很多新的机会,那么抓住这些机会其实就抓住了未来。

什么是我们外贸里面所说到的 sell in, sell through 和 sell out? 今天给大家来拆解一下。 sell in 呢,其实就是我们呃 b to b 的 客户的一个囤货行为,你记那个介词 in in stock 的 意思, 其实也就是他把货从你这里买了,他还没有卖出去。其实我们平时跟客户交流的基本上呢,大部分的业务员就停留在了这么一个 sell in 的 过程当中,那 sell through 呢?也就是我们 to b 的 客户 through 谁去卖东西?那比如说他是 through? 沃尔玛迪卡隆,家乐福?还是一些小的街边门店?还是他的 online store? 如果是刚刚说的这样的一些渠道,那 to be 客户他卖给这样一些渠道的过程就是 sell through 的 过程,那我们客户通过他们卖货,你也可以理解为把他们当作客户的下个渠道, 那 sell out 是 什么呢? sell out 就是 我们突逼客户的客户,比方说刚刚讲到的家乐福啊,小街边店呢?那他们再卖出去给消费者的环节,也就是在这个地方商品已经完成了流通的闭环,到了终端消费者的那一步,那渠道再卖给终端消费者的环节,才代表了真正的把这个东西 卖出去了,对吧?所以我们为什么说做销售呢?需要跟进客户的下游动销,也就是你要了解他的一个 sell out, 那我们客户买了咱们的东西,到底最后他卖给了渠道,卖了多少?卖给了谁?他卖出去的情况怎么样?只有后端你的动销比较好了,前端我们再跟客户去谈 b to b 的 生意,他才是良性的,才会给你返单,对不对?那当然也有一种特殊的情况,如果我们的 to b 客户他本身就是一个 re t 了, 那可能它就没有再 p 到下一个环节了,那它本身就是渠道这个链条就缩短为两环,也就是我们说我们卖给客户叫 sell in, 客户卖出去给中端消费者就叫了 sell out, 大家能理解了吗?

设计行业完蛋了,就在刚刚被炒的沸沸扬扬的一妹子兔已经全量上线了,效果我确实只能用震撼这个词来形容, 说实话,因为我自己也是个设计师。设计师大概是我觉得近几年来在 ai 冲击下最委屈的一个群体。 如果说以前的身图还是会有些缺点,比如可以让人一眼识别出这是 ai 做的,那也应该是很多设计师最后的避了。但是现在我只想说, ai 身上的图片也算是正式步入了一个普通人无法分辨真假的年代。 因为你看这张图啊,不仅文章内容它全部正确,甚至连底部注视区的升词、脚标、序号位置全部都对得上。 还有这种审美极高的海报图,还有马斯克和库克连麦打 pk 等等等等。就这种离谱的深图细节,让我突然感觉到,相比之前所有的绘图模型,它的世界知识,文字渲染,还有这些修改精准度, image 二都做到了一个质的飞跃。 我甚至觉得现在的 ai 深图已经没有什么明显的短板了。就文字渲染这个事啊,它一直都是所有 ai 深图模型最大的痛点,它没有之一。比如你看很多字的一些细节处理上, ai 总是会有一种很抽象那种象形字, 这种情况在中文上面真的尤其明显。但是现在呢,都不说英文了,你就看他的中文渲染极度的离谱,什么长篇课文,报纸、数学试卷这种很离谱的东西,基本上都不会出现一些明显的错误,真的你就要硬生生的去挑里面的细节,才能看到一点 经典。还有一些文字比较多的招聘海报,现在他都能做到一见之出啊。但是呢,如果说这次 image 兔最离谱的一个能力,我想一定就是他对真实世界样貌的精准理解,那也就是我们所说的世界知识。同样是由 toby 首页的截图,你能猜的到哪张是 ai 生成的吗? 要是以前,我相信你一定会说右边,但现在我只能跟你说两张都是。你看这个布局,按钮、样式、图标位置,甚至是封面,还有标题对应的细节,它都是正确的。不仅是有图笔,其他的平台截图它都能生成这个细节量,我真的觉得它已经不是画图的放球了,就连需要文案设计的图,它也可以一句话生成。 就这张三角桌代言海报,还有这张 coco 和克拉德联名的海报,如果你拿去发朋友圈,再配一个合适的文案,我保证他一定会辅导你的这些朋友们。其次是他修改参考图的精准度。虽然在 nars 上你大概看过很多很夸张的 kids, 但是我只能说 make two 更加离谱。 这是我们公司之前三 d 打印的小摆件,是送给大家玩的,但是现在我只需要两句话才能从这样变成这样,最后他变成整套电商级别的产品。详情页,你敢信吗?以前做这种详情页,我们设计师至少搞两三天,这不算紧急的准备,但现在只需要两句话,我都不敢想象很多设计师朋友,他看到这个会是什么心情。 说实话,作为一个曾经的设计师,我现在心情是非常的复杂的,因为看到这里,我不得不承认这次 gpt image two 对 于设计行业的冲击,我觉得比以前所有的 ai 的 时刻都要大,任何人不再需要任何的设计基础,只要你会说话,会表达,你又能做出八十分甚至九十分的设计。 this is complete garbage he can't even type the words see even this needed me to fix it don't be scared。 所以 回到最初的那个观点,设计行业真的完蛋了吗? 那我想说,画图员的时代确实结束了,但设计师的时代才刚刚开始。这个世界永远不缺画图的工具,但真正需要的是真正的思考者,还有问题的解决者, 这才是我们应该穷尽一生去努力的方向。

嘿,大家好,如果你也跟我一样经常跟命令行打交道,那对文件压缩肯定不陌生了。不过,你有没有觉得,我们好像老是在做一个特别烦人的选择题? 没错,就是这个经典的两难困境,对吧?这么多年了,我们好像一直都卡在这里,要么就是压缩的飞快,但文件还是很大,要么呢,就是文件能变得特别小。但我的天,你得等着他慢慢跑完。 咱们来看看这两位老前辈。一边是 j zip, 他 干活儿确实利索儿,刷一下就搞定了,非常适合快速应付一下。但你看一眼压缩完的文件大小,嗯,总觉得差点意思。另一边儿呢,是 x c, 这家伙简直是个压缩大师,能把文件给你变得小到不可思议。可他的代价就是,你可能去冲杯咖啡,回个邮件,回来发现他还在那吭哧吭哧的算呢。所以啊,很明显,我们真的需要一个更现代更聪明的选择了。 所以,今天的主角就登场了, zander, 他 就是为了解决我们刚才说的那个两难困境而生的,他要打破这个由来已久的妥协。 z standard, 我 们一般叫它 zst, 它的核心价值主张其实就一句话,你根本不需要做选择题,它告诉你你可以同时拥有闪电般的速度和极高的压缩率。 好,我们来看看这张图,这里就有意思了,它非常直观地告诉你,我们说的性能飞跃到底有多大。 特别是你看解压速度这一项, z s t d 简直是遥遥领先,它不是快一点点,是快了好几个级别。要知道,在很多工作场所里,解压速度才是那个决定性的因素。 你可能会想,哇,性能这么猛,用起来肯定很复杂吧,恰恰相反,上手 z s d 简单到让你不敢相信。来,我们马上就来看看怎么用。 你看最核心的操作就这三个,压缩一个文件,解压一个文件,还有查看压缩文件的信息。最棒的是什么呢?它的命令设计的跟你已经滚瓜烂熟的那些工具机控一模一样。 可以说,只要你用过 gzip, 那 你现在已经会用 zsd 了。当然,除了这些基本功, zst 还给了一些特别贴心的日常参数。 比如说,你可以用 o 来指定一个你喜欢的输出文件名,或者用 r m, 让它在压缩完之后自动帮你把原文件给删了,省得自己动手。还有这个 t, 它能帮你快速检查一下压缩包是不是好的,又不用真的把它整个解压出来。 这些小功能都能让你的工作流程顺滑不少。好了,日常用法你已经掌握了,那接下来我们来聊点刺激的,看看怎么把 z style 的 性能油门踩到底,真正释放出它的专业级速度。 你完全可以把压缩级别想象成一个控制台上的滑块,滑到最左边的一级,你得到的就是最快的速度。 把它移入推到最右边的二十二级呢,你就能获得最高的压缩率,所以主动权完全在你手里。你现在需要什么?是速度优先还是大小优先,你自己来决定。 不过说真的,有一个参数,它才是真正的游戏规则改变者,特别是当你处理大文件的时候,就是这个杠 t 零。 这个参数的作用简单又粗暴,他告诉 zst, 把你电脑上所有的 cpu 核心都给我用上,这恰恰就体现了它是一个多么现代化的工具,它天生就是为了榨干我们现在这些多核处理器的性能而设计的。 我要在这里再强调一下,如果你今天只能记住一件事,那就请记住这个,只要你处理的是大文件,就一定要用 dash t 零,他绝对是在任何一台现代电脑上给压缩提速最最关键的一个参数。 好了,理论知识我们讲的差不多了,那在真实世界里,这些强大的功能到底能帮我们解决什么问题呢?来,我们看几个非常实用,非常强大的例子。 这是一个超级经典的场型备份数据库,你看这个命令,我们用了一个管道符,把 my c q dump 导出的数据直接喂给了 z s d t, 注意到那个 t 零了吗?这就意味着数据流过来的同时, z s d t 就 在用你全部的 cpu 核心实时的进行压缩,结果是什么?你的硬盘上根本不会出现那个巨大的临时的 s q l 文件, 整个过程一气呵成,又省时间又省空间。再来看一个很酷的用法处理,像程序日制这种源源不断的数据流, 我们都知道可以用 tail 杠 f 来实时查看一个正在增长的日制文件,对吧?现在你只要加个管道,把它直接传给 z t d, 它就会安安静静的待在那儿,来多少数据就压缩多少数据,这完美的展示了 z t d 处理流数据的强大能力, 效率高的惊人。好了,我们来快速回顾一下今天的核心要点。首先, z standard 在 速度和压缩大小之间找到了那个完美的平衡点,你再也不用纠结了。第二,处理大文件 t 零是你的新伙伴,记住一定要用它。 第三,他是个处理流数据的专家,跟其他命令行工具配合起来简直是天作之合。最后,他是一个现代化的可以无缝替换掉老工具的选择。说真的,事后升级一下你那些还在用 gzip 和 xz 的 旧脚板了。 那么现在问题来了,好好想一想,在你自己的工作流程里,是那个慢吞吞的备份脚本,还是那个会产生巨大日之文静的程序?今天你准备先用 c standard 给哪一个来一次彻底的性能超平呢?

某些 fans 的 操作是一点没变,目前商家已发声明道歉,明确之前的回应不符合事实,所谓证据完全无效。而且这种手段早就不是第一次了,早在二零二四年的羽毛球界之事件,同样是强行按头持续遭邀了好几个月 哈。来他们韩国对吧哈哈哈哈他带了给吗各位带奥根哈哈哈哈。

今天啊,我们来聊一个特别有意思的令斯密令,它很强大,但很多人可能都没太注意过,那就是 dmsg。 没错,咱们今天就要当一回系统侦探。怎么样?准备好了吗?一起去揭开你电脑启动时那些藏起来的小秘密。 你想想看啊,平时咱们已按开机键对吧?没几秒钟,一个漂亮的桌面就跳出来了。但你有没有想过,就在这短短的几秒钟里,电脑内部到底发生了些什么?其实啊,那是一个超级复杂的过程,快的啊, 快的我们眼睛根本就跟不上。如果我们能把这个过程给它放慢,哇,那看到的就会是就像现在屏幕上这样一堆密密麻麻的飞速滚动的神秘代码。 这就像一个只讲了一瞬间的故事,快到你根本来不及看清。那问题就来了,我们到底要怎么才能读懂它,搞明白它到底在说什么呢? 好,那么这就是我们今天的第一个案子开机之谜。咱们这就化身侦探,还是寻找线索解开这个谜题?我们要用的工具就是这个 d message, 它的名字其实很简单,就是 display message 显示信息的意思。那它显示的是什么信息呢? 嗯,是来自内核环形保区的信息。你可以把这个环形保区想象成一个日指本,但它很特别,写满了就会自动从头开始覆盖旧的记录,就像一个环一样。 或者一个更酷的比喻,它就是你系统里的黑匣子,忠实地记录了从开机那一刻起发生的所有事情。 好,那接下来就让我们来正式认识一下这位内核的侦探。没错,我们的主角 d mask 登场了,他就是我们破解开机之谜的关键,能帮我们回溯整个过程,看个明明白白。 不过嘛,如果你直接在终端里敲一个 dmesg, 然后回车,我得提醒你,你可能会被瞬间刷屏的信息给吓到,信息量实在是太大了。这就好比一个堆满了各种杂乱线索的犯罪现场,光有眼睛看还不行,我们得给这位侦探配上一些专业的工具才行。 这不就来了嘛,咱们这就来解锁一些关键线索。下面呢,我们就来给咱们的侦探配上几件法宝,也就是 dmsg 命令的各种参数,让我们的调查效率大大提升。 大家看啊,这里有几个特别好用的参数,比如说这个杠 t, 它能把那些机器才看得懂的数字时间戳,变成咱们一眼就能看明白的几月几号几点几分。 然后是杠 a o, 这个特别棒,它会给输出加上颜色,这样一来,哪些是警告,哪些是错误,红红绿绿的就特别显雅。还有这个杠 h, 它能让整个输出格式变得对咱们人类更友好。你看,有了这些工具,咱们的侦探班案是不是就专业多了? 好了,理论知识装备的差不多了,咱们得来点实战了,对吧?接下来我们就用 dms 来侦破几个非常常见的真实案件。 好,来看第一个案子。这种情况你可能也遇到过,你刚给电脑加了一块新硬盘,或者电脑重启之后发现好像有个盘不见了,心里就有点慌,对吧?那我们怎么才能确定系统到底有没有认出这块硬盘呢? 这时候咱们的侦探工具就派上用场了,指令非常简单,就是 d mask, 然后一个竖线 grab sda。 这个竖线的意思就是把 d mask 输出的所有信息都交给后面那个强大的搜索工具 grab 去处理,帮我们把含有 sda 这个关键词的行给找出来。 当然了, sda 一 般指的是第一块 sata 硬盘,在你的系统上也可能叫 hda 或者 nv e o n one 什么的,这个得看具体情况, 然后你一回车看,就是这句关键信息。看到这句 attached s c s c i disk 了吗? 这就是内核,在给你打报道呢,他在说,嘿,我找到那块叫 s d a 的 硬盘了,已经连接好了,你看,决定性的证据找到了。按键一,成功侦破, 漂亮,我们继续来看第二个案子。这次我们来关心一下内存。内存可是系统的核心不假之一,我们很好奇,核心在启动的时候到底是怎么管理内存的呢? 方法还是一样的,非常简单,我们还是用 dmsg 配合 grab, 这次的关键词是 memory, 把所有跟内存相关的记录都给咱们找出来。好,我们来看看找到了什么。 你看这行是不是挺有意思的,它告诉我们,在开机后还不到三秒钟的时候,核心就把没用到的超过 rmb 的 内容给释放掉了。 你看,这就让我们通过 d message 撇见了系统内部一个非常高效的内存管理细节。好了,按键二也解决了。 那么到这里你可能觉得 dmesk 已经很厉害了,没错,它确实是一个非常强大的起点,但这还不是全部,你的系统侦探生涯可以说才刚刚开始呢, 有几样东西你可以记一下。首先, dmesg 读取的信息通常会保存在 war log dmesg 这个文件里,你可以直接打开看。 如果你想更进一步,我推荐你去了解一下 journal c t l, 这是一个更现代、功能也更全面的日制工具,当然还有经典的 c s log 服务。你看这样一来,你的侦探工具箱里是不是又多了几样趁手的好工具? 所以咱们今天讲了这么多最关键的一点,你一定要记住,核心的那个环形缓存保存就是你系统的飞行记录仪,或者叫黑匣子,而 d message 就是 你手里那把能独取它的独一无二的钥匙。 好了,现在所有的工具和线索都交到你手上了。下一次当你再遇到什么硬件问题,或者哪怕只是单纯的好奇,想知道系统后台都在忙些什么的时候,别忘了打开终端,敲下 dmsg 去看看吧。在你的系统日历又会发现什么样有趣的谜案和故事呢?

哈喽。嗯,第一期露脸视频啊,就是想跟大家说一下,本人因为学业繁忙,可能没有办法长期维持这个更新了。 嗯,像这个 f 五零的话,大家有什么不懂的可以去我抖音艾特的一个小号,我那个小号私信是正常开放的,大家可以去问我,然后也感谢这么多粉丝这么长时间以来支持我吧。啊,然后也帮助了不少人。嗯, 包括 f 五零的问题啊,路由器的问题,像 g i nite 和多酷的,然后像那些需要这些设备的人就是给他们一些购买建议嘛。就是,也谢谢大家这么久对我的支持吧,然后可能会停更很长一段时间,因为太忙了。就是,谢谢大家。

大家好,欢迎来到 siri ai, 我是 你们的 ai 观察员。在大模型圈,当大家都在卷长文本和参数量时, open ai 创始人、前 tesla ai 主管 andre karpafer 提出了一个重磅洞察 l l m wiki。 他指出,我们过去一年对 r i g。 的 痴迷可能跑偏了。本期节目,我们不聊会词的参数,只聊知识的持续翻译与进化,看 karpay 如何将知识管理从临时搬运转向代码化复利。过去我们将大模型看作临时调用的搜索工具, 现在我们需要把它看做一个勤恳的编印引擎。这场变更的本质,是要求我们抛弃那种用完即走的一次性问答,转而把零散的知识沉淀为像代码库一样可以不断复利、不断重构的数字资产。 这意味着你的 ai 不 再是每次都要限翻书的助理,而是真正参与知识生命周期的架构师。但在深入这套新范式之前,我们必须先直面一个残酷现实,为什么传统的 iag 模式正在把我们带进死胡同? 传统的 iag 本质上是消耗品模式。当你提问, ai 去解锁碎片组装回答,然后这个回答就随风而逝了。他在每次提问时,都在从零重新发现知识缺乏积累。 这种搬运公式的重复劳动存在致命缺陷。他永远记不住昨天总结过的规律。想象一下一个需要综合五份文档才能回答的问题, ai 每次都要重新拼凑,导致极高的信息损耗。正如 capacity 的 比喻,这就像一个永远记不住事的助理,即便手里有全世界的书,他依然无法形成自己的专家直觉。 这种缺乏复利的劳动正是我们要打破的死循环。既然简单的剪辑行不通,我们需要一种能像代码库一样生长的系统,这就是所谓的持久化变异。 l l m wiki 的 灵魂是将即时剪辑转化为静态变异,它不是在查询时才去翻原始文档,而是由 l l m。 渐近式构建和维护的一套结构化 markdown 集合。这里的关键词是 persistent 持久化。 当新信息 ingest 时, l l m。 会立即阅读、提取并整合到 wiki 实体页中。如果发现新旧冲突,它会显性标记,而非简单覆盖。 知识被翻译一次,然后保持长新。这种模式带来了强大的复利效应,总结早已完成。 危机随着每一次输入变得更丰满,大模型在后台为你处理那些枯燥的 bookkeeping, 让知识从孤立快照变成了流动的生命体。为了更直观的理解这种转变,我们将传统对话与危机模式进行一次全方位的路线对比。 在传统 r a g。 中,资产形态是孤立的文件和一次性聊天,而在 l l m wiki 中,资产是相互链接、结构化沉淀的 markdown 页面。更重要的区别在于对矛盾的处理。传统 r a g。 极易产生幻觉,旧数据常被静默覆盖, 但 wiki 模式会在摄入时发现冲突并显示标注。从时间价值看,传统 r a g。 的 知识存量是平移的,而 wiki 模式下,随着提问和摄入增加,知识呈指数级增长。 优秀的回答不应消失在历史中,而应作为新的知识节点被永久归党,让综合洞察成为系统的一等公民,而非廉价的消耗品。这种指数级增长的背后,是一套严谨的解偶的三层底层架构。 要构建有生命力的知识库,必须实现事实结构与准则的结偶。底层是 raw sources, 即绝对不可变的单一事实来源, l l m 只读不改。中层是 the wiki, 这是知识实体层, 由 l l m 负责编辑和维护,交叉引用。顶层则是 the schema, 以 cl a d, u, e d, m d 等形式存在。 它是整套系统的上转合控制图。它规定了行为准则与工作流,防止通用大模型变得散慢,确保它成为严谨的维基维护者。简单来说, schema 是 世界观, raw 是 物理法则, wiki 是 正在演化的文明架构,搭好后,它便能像生物一样自生长。 架构搭好了,接下来我们要重新审视,在这个数字文明中,人类与 ai 究竟该如何分工。 知识库被废弃,通常是因为维护成本高于使用价值。 l l m wiki 的 战略意义在于利用 ai 将维护成本降至归零。在这套体系中,人类是 curator 策展人美产品经理。 你的使命是寻找高价值姓源,提出深度问题。而 ai 则是 maintainer 维护者,全站程序员, 他负责那些人类会感到心累的苦力活。更新账本梳理、交叉引用,维持一致性。 capassi 给出了一个神级领域, obsidian 是 i d, l l m 是 程序员,而 wiki 就是 你们共同维护的代码库。 ai 处理了所有的 bookkeeping, 让你专注于判断与决策,明确了分工。我们来看这套系统具体的运转机制。首先是知识的吸星大法。 在 l l m wiki 中,每一次操作都在实质性的扩充知识网络。首先是 ingest 的 摄入,当你扔入一个新姓源 l l m 会触发全网相关节点的同步更新。一份新资料可能同时联动十到十五个既有页面,实现网状生长。其次是 query 查询, 这里有一个高阶技巧叫 fileback。 当你进行了一次深度分析后,成果不应在对话框里消失,而应转化为新的 wiki 页面永久归档。这意味着你的好奇心和 ai 的 推理过程直接变成了系统的知识增量。探索本身就是一种创造, 知识的增长就发生在每一次有深度的对话中。除了被动摄入,系统还需要像生物一样进行新陈代谢。这就涉及到自动化的体检机制。 为了防止知识库随规模扩大而产生逻辑坍塌,我们需要定期运行令的指令。这就向程序员检查代码,要求 l l m 定期扫描整个 wiki 进行逻辑查杀。体检项包含 contradictions 冲突与过时 寻找、逻辑矛盾或陈旧主张、 office 孤岛、找出无链接的页面以及 gaps 盲区探测。更关键的是, l l m 会在令的时识别 epistemic tax 认识论标签 区分确凿事实与尚在摸索的理论。这种机智赋予了知识库自我修复的生命力,确保它在快速膨胀时依然健康可靠,不会沦为文件垃圾场。 面对海量页面, ai 如何在几毫秒内精准定位信息?答案在于两根极简的定海神针。 令人惊讶的是, karpi 抛弃了复杂的向量数据库,回归到了极简的 markdown 导航。这里有两根定海神针, 一是空间导航, index 到 m d, 它是按类别组织的局域目录 l l m 在 回答前先读取 index, 定位相关页面,再向下钻取。二是时间导航, log 到 m d, 它是只增不减的持续操作日制。由于前置高度结构化,它极易被 unix primitives、 rule grab 和 tail 提取,赋予了 l l m 在 时间线上的上下文感知。这种空间加时间的双轴铰定比 embedding 更精准,用极简的基建撑起了强大的确定性。 当知识库进一步膨胀,单纯靠文件剪辑可能不够,我们需要更硬核的工具站。随着规模扩大,剪辑路线上分化出了两种方案, q m d。 走的是语义向量路线,擅长处理。我大概记得那个意思的模糊意图。而社区新宠 tree search 走的是结构解析路线, 它基于 sq lite f t s 五不分快,无向量,零模型依赖。它将 markdown 标题解析为树状结构,利用关键词打分,实现毫秒级延迟。这完美契合了 v k 原身的良好层级。 模糊意图用 qmd 撒网,清晰逻辑用 tree search 结构降维。这种双路破局让系统在大规模下依然能保持秒开的爽感,是本地优先 local first 玩家的最佳选择。 这些技术不仅在个人笔记中有用,在垂直行业、社区,也正在引发一场关于接地组织的改革。 在游戏、服务器生态等高噪生领域, wiki 模式展现了强大的智能结缔组织能力。以 minecraft 生态 romanist 为例,行业充满了相似的原数据和重复标签。通过 l l m wiki, 我 们可以利用标签消歧页自动将 s m p survival、 benila 等模糊标签统一结构化。 l l m 在 ingest 时具备主动去虫能力,能发现高度重合的重复条目。它不仅记录事实,更通过历史追踪页记录单体实体的演变轨迹。在这些领域,大模型维基不再只是存储,而是连接原始爬虫数据与最终交付之间的枢纽, 让混乱的数据流沉淀为领域专属图谱。除了事实的沉淀,高级的 wiki 甚至能捕获比事实更高级的东西,那就是你的思考方式。 最高阶的 wiki 刻画的是你如何思考。这需要构建一种四 d special temporal manifold 四维时空流形,将时间作为 z 轴,观察决策逻辑的演变。 l l m 可以 提取对话中的思维张力,包括决策规则、权衡感和偏好。引入 node decay 节点衰减机制,直观重要价值观长存但碎片化的陈旧想法随时间淡出。 通过这种方式图谱建模的是你当前活跃的思考状态。 ai 可以 游走在你的思维矛盾中,帮你发现那些盘旋数周却未曾命名的灵感,真正实现从存储所知到模拟所思的飞跃。这种深度的思维模拟必然会面临上下文窗口的物理极限。 为此,我们需要建立分级记忆池。为了避免 vicky 膨胀拖垮性能,必须建立具有明确深度的分级记忆结构。 l 零核心级包含 ross 与 schema, 是 每次必读的行为准则。 l 一 目录级是局域路由,仅加载摘要。 l 二详情级则是具体的 wiki 页面。同时,系统内置了 active governance 主动治理,监控上下文荣誉度,并在节点重要性发生偏差时向人类报警。 这种分层设计将内存健康审计的策略给 ai 提供了准确的情报深度,让它在最少的 token 消耗下打出最精准的判断,彻底终结了上下文漫无目的的膨胀。当记忆变得精准,我们终于可以解决 ai 最头疼的问题,幻觉,特别是执行层面的幻觉, 在复杂任务如 n 八 n 自动化工作流中差不多正确,往往意味着彻底损坏。 karpai 模式提出用大模型去深沉,不如让它去寻找预验证的逻辑, 这就是指真模式 point mode。 我 们将百分之一百验证过的标准 jason 存入不可变存,如本地 n a s ai 仅作为路由器,便利图谱找到原数据指真并执行脚本。它遵循 run don't rate 的 原则,确保执行过程无幻觉,绝对稳定。 ai 进步的意义不是靠概率去替代人类,而是无比精准地执行人类沉淀的确定性标准。这种模式实现了导航层包容、执行层确定的境界。当知识变得如此确定且可执行,知识库就正式跨越成为了一个操作系统的底座。 前沿实践正将知识库转变为驱动 agent 自主执行任务的操作系统,即 dynamic execution substrate 愿景。 在这个循环中, wiki 不 再是终点站,而是高性能引擎 agent 读取结构化知识,触发工具行动,最后将结果写回 wiki。 最精妙的是失败也是资产 失败的尝试会作为教训节点沉淀到 lessons to md, 实现自动驾驶般的自我迭代。 知识库从被动存储走向主动行动,每一行 markdown 都可能成为 agent 下一次精准打击的弹药,他让 agent 的 行为不再是临时的 vaping, 而是基于深厚知识资产的专业表现。这种宏大的愿景在商业产品中如何落地?他首先要终结的是困扰企业多年的维护噩梦。 传统企业知识管里面临上限,即死亡的痛点,核心在于维护太累,而 l l m wiki 模式的核心卖点是零摩擦。想象一下这种爽感,当你上传会议记录,底层 l l m 静默运行,实现 auto mesh 自动交织,自动链接相关产品线。 当你更新报告库中,相关页面会自动增量更新。更强悍的是智能防腐机制,当检测到新规与旧规冲突时,主动弹出提醒。这种模式让用户享受结构化的爽感,而把编织网状结构的苦力活全部交给后台算力。 只有当维护成本趋近于零,知识资产才能真正跨越价值荒原。商业级的稳定不能仅靠散漫的文本,他需要一套基于契约的结构化变异 商业级产品不能依赖自由散漫的文本,必须引入强类型约束。 l l m wiki 产品化石前台是优美文章,后台流转的则是严密的数据结构。 通过 typed jason contracts, 我 们强制大模型遵循严格的 schema 输出,由 jason 重新构造,而非从散文中解析。同时,我们将 confidence text 致性度标签作为一等公明字段, 这让令查杀可以直接用 c 口查询完成,而非模糊重读。这种用软件工程的严谨度去管理文字的方式,让知识真正成为了可计算的资产,彻底杜绝了内容解析错误,他让知识库从文学作品变成了精密仪器。 最终,我们要让知识库实现身份跨越,从一个沉寂的文件柜变身为一位敏睿的分析师。 我们要将知识库升级为分析师。在 l l m wiki 模式下,多轮分析对话不再是一次性消耗品,而是通过编解引擎一键固化为对比矩阵或动态图谱。更重要的是绘画力度规,当它保留了推理过程,而非仅仅是结论。 系统使用越久,就越理解团队的隐性知识与分析偏好。最值钱的不是散落的数据,而是数据发生化学反应后产生的综合洞察。这正是企业难以被复制的护城河。当你的知识库能够自动回答我们去年在类似项目上是如何权衡风险的, 那就真正完成了从存储到智慧的跃迁。我们今天所做的这一切尝试,其实是在完成一个八十年前的伟大梦想。 一千九百四十五年, vaniva busch 构想了 mimax, 一个充满关联轨迹、由私人精心策展的知识引擎。他认为文档间的联系与内容同等重要。 然而,半个多世纪以来,那个谁来承担关联维护成本的问题始终未解,导致个人知识库往往沦为荒地。今天,大模型完美承担了那个不知疲倦的图书管理员角色,填补了维护成本的黑洞。 l l m wiki 不 仅是文本生成器, 它是让人类重拾深度关联阅读的破局之钥。它让八十年前的私人知识图谱愿景真正落地,补齐了信息科学史上的最后一块拼图。最后,让我们为所有的产品构建者和知识工作者总结这套为积极代码的终局展望 范氏根碟已至,知识管理迎来了属于它的自动化运,为 devops 时代致产品构建者请回归底层架构重构,而非仅仅做 rag 的 修补。 坚持人类本位,让创作者找回判断力。智知识工作者请明确机器的边界,让他接管秩序感,给自己留出灵感的空间。 未来的知识库是持续运转自我较量的认知编引引擎,停止让大模型死记硬背,给他一个舞台,让他为你持续编一座活着的知识城池。为积极代码,让我们在代码的复利中见证智慧的无限生长。 感谢收看本期 three ai karpsy 的 l l m wiki 模式,让我们看到 a 阵的真正价值不在于替你写周报,而在于帮你维护那座原本会荒芜的知识花园。那么留下一个思考题给大家, 在 agent 能够自动化处理百分之八十维护工作的时代,你会如何利用省下的时间去进行更深度的侧展? curate 你 对今天提到的职称模式还是认知图谱更感兴趣,欢迎在评论区分享见解。如果本期内容对你有启发,请点赞、关注并转发,我们下期再见!

你听过 fsh 吗? sfh 是一种网络安全协议,主要用于计算机之间的远程加密登录,并且多用于零零的始终。它的认证登录方式有两种,第一种是常见的用户名和密码登录,第二种是公司密要登录或者比前者更为方便。被连接的系统需要安装并且打开 app 服务,然后配置好是使用账号密码登录还是 使用公司必要的方式登录。连接者则需要安装 ssh 管理工具才能连接,比如温时就只带了 fsh 工具,直接在 cmd 中输入 ssh 命令就能调用。