大家好,今天咱们聊聊大模型里绕不开的词, token。 不 管是用 api 算钱,还是担心模型记不住内容,都得搞懂它。其实 token 很 简单,就是大模型处理文本的最小单位,既不是单个字,也不是完整的词,更像是一段段语言小碎片。举两个例子就清楚了, hello world 会被切成四个 tip token, 大 语言模型则是三个 token。 把文本切成这种碎片的过程叫分词,干这个活的工具就是分 磁器。这些小碎片咋来的呢?主流用的是 bpe 算法,核心思路特别好懂,从单个字母起步,把经常凑在一起的组合合并成新 token, 直到凑够预设的数量。这里插个小细节,为啥大家总觉得中文用 token 更费钱?其实算法不偏,心 韧出现频率。早年英文语料多,很多单词直接成了 token。 中文语料少的时候,好多字只能单独算 token。 不 过现在像 gpt、 四 o 这类模型,词表变大了,人工智能这种常用词也能一到二个 token 搞定了。 最后说三个实用小重点,第一, api 计费,按输入加输出, token 算输出通常更贵。第二,模型的上下文窗口 本质就是 token 数量上限,超了它就会忘掉前面的内容。第三,想省钱,避免内容被截断,提前算一算 token 数量准没错,今天的 token 小 科普就到这了,希望能帮到大家,后续还会分享更多大模型的实用小知识,记得关注我,咱们下期再见,拜拜!
粉丝1999获赞1.1万

大龙虾还没有明白,百万 token 先没了,别急,一起来薅老黄羊毛。无限 token 免费用。首先在英伟达这个网站用邮箱注册个账号,接着验证一下手机号,就能调用 api 了, 关键是支持国内手机号,不用绑卡。然后随便选一个大模型,进入聊天页面, 这里可以切换各种大模型试试,白嫖的人太多,热门模型可能响应很慢,找一个速度还过得去的,这里查看视力代码,可以直接复制模型相关配置。然后打开你龙虾的外部页面,修改配置, 保存之后建议重启一下服务,现在就再也不用担心托肯消耗了,之前配置好的飞书也能直接使用。

龙虾话费余额不足怎么办?我们来手搓一个 token 监视器,这里我们利用 p 操作启动了龙虾的后端服务,还有它的前端显示。 此时我们再打开我们的 token 监视器来监测龙虾机器人可用 token 数, 我们可以使用一个 mini 来消耗它的 talk, 同时后面也来监测它的数据使用量。这里我们使用的是智普 ai 推出的第四代大语言模型。 好,这里我们可以看到龙虾机器人已经帮我完成了网页的设计。我们可以看到托管监视器上面显示托管使用量为百分之四。 接下来我们来验证一下呃,托管显示器与 ai 后端所显示的数据是否一致。我们可以看到网页的我的订阅中,呃,托管使用量与托管监视器显示的一致,这表明我们的托管显示器 显示的数据正是我们龙虾机器人可使用余量。龙虾崽子们再也不用担心话费余额不足了。

大家好啊,昨天阿里巴巴开源了千问的一个小模型,三点五系列最小的尺寸模型啊,四款,那其中有一款是零点八 b 和两 b 的 啊,这个是非常小啊,推力虽然很大,但这里面我说的不是他的,我说的是一个三点五 b 的 啊,四 b 这款, 四 b 这款好了,四 b 这款的话呢,我们昨天晚上测试了一下汤,同时话呢,我们先说一个事啊,马斯克在 x 上对这个模型进行了测试,并且给出了一个非常好的体验,他认为这些参数他的智能密度令人印象深刻啊,为什么这么说? 我说这个四 b 的 模型,我建议大家考虑,如果稍微能力强,可以上那个九 b 的 模型。干什么来都知道你们正在养龙虾是吧?就那个大龙虾,那个智能体的集成是吧?号称是贾维斯的出行, 但是他是一个吃 token 大 户啊,什么意思啊?就是我之前试过啊,一个晚上让他给我们做一个程序啊,然后消耗了两百多万 token, 做出来程序还有很多 bug 啊,那,那这个事确实不可持续,虽然说这个 token 现在比较便宜,但两百多万 token 的 话也十几块钱呐,对吧?一个晚上十几块钱这玩意,而且解决一个任务呢,人任务多的话,可能上千万 token 都出去了,那怎么办?对,这个事怎么办? 所以呢,这个端侧部署一个端侧模型来解决这个龙虾啊,在日常应用中的绝大多数的 token 的 使用是当务之急, 那么在这种情况之下,这种小模型的话呢,就比拼,哎,谁能把大模型的这个能力降下来的这个度越小啊, 它寄生能力越好,对吧?这种情况下,所以千门刚刚推出这四款,尤其其中这个四臂,我们正好测试了,我们在昨天测试了,在我们的自己养的龙虾上跑起来非常的舒服啊,百分之八十以上的工作完全由这个端侧的小模型来解决了, 非常好啊,包括数据的处理啊啊,包括图表的处理啊啊,包括我们跟他日常对话包,包括调取这个,哎, skills 包括什么?呃,就是搜索东西啊,包括数据的集成啊,包括 excel 表格处理啊等等,这些东西完全都可以通过端测这个四 b 的 小模型进去, 非常好。所以呢,我说啊,我说这千万这次开源的四个小模型,其实恰恰什么,就是我们现在玩龙虾的最好的助手,也是最适合龙虾发展的模型, 就是这么回事啊,就非常的玄幻,但是现在就是这么回事啊,所以后续的东西,如果你们感兴趣的话啊,你们如果正在养龙虾的话,或者你想探索龙虾的,哎,我建议你好好试试这个模型,这个模型会给你省很多钱,因为它是开源的,你直接不熟以后最少你百分之八十左右的工作, 甚至高一点百分之八十五左右的工作,你是不用再去调取网络的 a p i 的 接接口了,它这个东西就产生更好的应用,懂,懂吗?但对于我们来说的话呢,它一是省钱,另外一个的话就是它的能力还够,而且它还有什么?它关键它有图形的这个 o c r 的 能力啊,然后它有图片的生成能力,这个就很强了, 这就很强了啊,所以这个事我觉得还是非常有意思的,而且小尺寸实现高智能啊,这个是非常强的,而且是少数实现跨级的性能的超越,媲美中型模型啊,中尺寸媲美顶级模型,这样的一个情况,我觉得华为的,哎,不是华为千万,这次做这事非常的好啊,非常的好, 好了,简单大家说一下,如果有需要的话可以好好试一下啊。另外的话呢,说一下呢,很多朋友说,老张,你现在是不是又关注 ai 了?注意关注 ai, 因为这是热点 啊,这是一定的热点,而且我们的这个说,在咱们的这个会议视频当中,热点也是因为我们的分析的快,然后你要说到哪看的话,关注一下我们小程序啊,到底瑞克老张哥不哥啊?我们小程序小程序里面的话呢,说实在的,咱们那个有一个免费的专栏,你说我不想花钱,有免费的专栏,就是咱们在平台上发的内容精选出来放的免费专栏的,不停的更新的,你要需要会看 看一下啊,赶紧的订阅就行,免费的。当然咱们的年度那个会员的话呢,现在是幺六九九啊,而且的话呢,我们是一年一百八十个这个会员视频,三十二场以上的会员直播之前内容都能看,甚至包括以前的付费专栏,包括以后的付费专栏都能免费看,特别划算啊,平均一那个一个视频 喝喝一场直播都十块钱左右啊,所以你觉得对吧?这个一一一一,一瓶两瓶,这个汽水钱啊,就就就解决一次这个抹平新茶的机会,你觉得划算不划算?好不好啊?今天就到这,我是瑞小张,关注我,带大家看中国科技的高度和温度,明天见,拜拜。

我已经用了一亿的免费 tokyo 来养龙虾,可以看到这是一点五九亿的 tokyo, 然后四千四到用零元。我用的是这个新送的三点五 flash 的 模型,是用的 open rota 的 平台。对,前几天那个给大家分享免费养龙虾视频火了,然后今天做一个具体的视频之上,很多朋友在后台私信我。 呃,那首先呢,其实是我们去呃搜索这个今日星辰的三点五模型,找到这个 free 有 免费版。呃,进去之后可以看到它这里有个模型 id, 这就是它的模型 id, 我 们要复制下来。呃,其实要给弄一下。呃,可以看到就是它现在在 opcode 的, 就是调用排名非常高。呃,看到就是。呃, 昨天是第一名。对,昨天是第一名,今天是第二名,前几天也拿过。可以看到这排名非常高,前几天也拿过很多第一。然后我们回来之后呢,其实是在自己的这个。呃。 api k 这里。呃,进入到 api k, 嗯,去新建一个 api k, 你 可以填银行卡,然后再去填这一个信用额度,可以填一个零点一美金。 看到我,哎,我这里填了一个零点一美金项链,一旦有付费的行为,那就最后花七毛钱,这个 api 就 断掉了。嗯,对,然后再过一期时间去设置一下。然后呢,这个 api 呢,是一次性只能复制的,相当于这个也要给到龙虾,然后把 openroot 的 这个地址,就是直接把网站扔给他,然后再把魔仙 ak 扔给他,再把你 app apk 扔给他。对, 假如你当前有那个本地 l m 驱动的话,就是把这个配置上,它自己会去连接上新的模型。那然后你再去那个龙虾里面去调用这个对话的话,就可以看到自己的一些调用数据了,对,有某一天的用量特别大,都是免费。

openclaw 三点八,能让你的龙虾消耗更少的 token, 更省钱,想要速度更快,然后回答也会更精准,那这个原理是什么呢?首先使用 openclaw 比较久的用户都知道,你跟他聊天聊的比较多了,他就会失忆。 其实这是因为你跟他聊,你们的记忆呢,上下文呢,就会不断堆叠,堆叠堆叠,直到啪失忆了,因为他的这个上下文是有一定的量,当达到一定量的时候呢,他就会把某些一部分的记忆 给压缩,换成一些 summary 的 总结,这个俗称 compact。 那 这样呢,就会导致,哎龙虾聊着聊着就失忆了。 所以我们开发了曼九点 ai 这样一个记忆管理的插件,你可以理解为把你的记忆去上传到云端,然后通过 f t s 技术,在你和它聊天的时候,只召回跟你正在聊,正在做的工作,直接相关的一些事情。 那这个云端的空间是无限大的啊,当然云端的存储就跟网盘一样,如果你的这个虾不小心搞死了,对吧?重装一下,只要把密码重新一输, 所有的记忆都会回来。我觉得这个是 open cloud 这个非常基础的,也是非常必备的一个记忆的一个工具了。那回到刚才我们说的这个 context engine, 怎么帮助到我们更省 token, 然后更精准,更快呢?那其实 在有 context engine 之前呢?呃,市场上也有非常多的这个 memory 的 插件,整个这个 memory 体系有点像网盘一样。呃,你的 context 内部是一个黑盒的,它到底什么东西该留,什么东西该存,什么时候? compact 其实你是完全不知道的,那在很外围的地方去存取一 一些这个记忆上的东西,那 context engine 呢?其实提供了更细力度的一些,呃,整个生命周期的一些接口,比如它提供了像这个 bootstrap, assemble, 呃, compact after turn 等等。那通过这些 hooks 可以 让你 啊,这个让你这个记忆的插件呢?像这个手术师一样,可以把整个 context 更细力度的,整个生命周期什么时候该存,什么时候该取,什么东西要一直留到最后,那让你参与整个生命周期,这样你就有机会把整个 context 做得更加的精准,更小。那其实大家都知道,因为 context 它相当于你跟这个 ai 对 话的时候的这个上下文的容量,那如果没有这样的一个小手术的去处理,它会带一大堆的废话,那把这些废话去掉之后,不但更快更省钱, 而且呢,它自然这个给这个大模型,呃一个更精准的输入,那自然响应也会更加的完美。那 context engine 是 今天刚发布的,同一天我们就实现了对 context engine 的 支持,呃,也实现了这个更细力度的 context engine。 那 除此之外呢,曼姆九点 ai 还可以实现多加的共享 实时的哦。比如说我们在做一些大的工程的时候,我们会编排,我们会有一个 orcas, orcas 就是 一个编排者,然后他有哪些项目经理一样,然后管理更多其他的龙虾, 比如谁负责写 prd 啊,谁负责开发啊,谁负责做设计,谁负责上线测试等等。那这个时候呢,麦姆九点 ai 呢?只要共享同样一个 space id, 就 可以实时共享这些啊龙虾的一些记忆,那这些是更高级的玩法,我可以在后面的视频里面给大家去分享, 请大家多多关注我,了解更多 open cloud 相关的一些知识。那曼九点 ai 也希望大家多多支持。现在还是免费的,无限的一个存储,走过路过不要错过,我们下一期再见。

最近 ai 圈突然开始养龙虾了,我深圳的朋友说他排队三个钟都要去安装这个东西,它其实叫 open crawl, 它的图标像龙虾。关键是这东西一出来, a 股相关的板块就跟着动了。 有很多客户来问我,说,他到底是啥呢?能不能参与?怎么参与?今天咱们就花几分钟把这个事讲透,我不光会讲清楚逻辑,最后会直接给你四个 e t f 方向。先来说这个东西是干嘛的, 那以前咱们也用 ai, 比如说豆包呀,叉的 g p t 啊,那你得问一句,他答一句,顶多就帮你写个文章,但这个龙虾它不一样,它能直接帮你干活。 举个例子啊,你跟他说帮我订一张下周五去北京的机票啊,他会自己打开浏览器,搜索机票,选好时间,填好信息,就差你付款确认了。那为什么突然火起来呢?因为它开源免费,谁都可以下载来玩, 现在已经有上千人参与改进了,技术细节咱们就不深究了。那你只需要记住一句,这个东西可能是 ai 从聊天走向干活的关键一步。 那这个东西火了,对我们投资者的钱包有什么影响呢?我给你拆四个方向,那每个方向对应一类 etf, 这四类 etf 就 把整个龙虾产业链从头到尾全覆盖了。 那第一个方向,云计算,这个龙虾每干一件事都要在云端算一次。 ai 眼里啊,咱们说的话都可以猜成小单位,叫 talking, 你 可以简单理解成是字数, 你让他写个朋友圈,消耗几十个字,但是你让他订个票呢?他得理解规划、搜索、填信息,每一步都在写字,那一套下来,相当于写了一本几万字的小说。 现在国内所有 ai 每天处理的任务量增长了上千倍,这就好比以前是几个人在喝水,现在是一整个城市在用水。 talking 的 消耗越大,云厂商收的水费就越多。那不管最后哪个 ai 应用软件火了,算力需求已经上来了, 那这个就是卖铲人的逻辑最确定。那这个方向的 e t f 跟踪的就是中证云计算与大数据主题指数。第二个方向,芯片,那这个龙虾有个特点啊,它可以在你自己电脑上去跑,不用每次都上传云端。那很多人为了隐私安全啊,就会选择这么干。 这就带来一个新的需求,电脑自己得够聪明,有券商计算过,让龙虾去干活,中央处理器要忙九成以上的时间,已经成了整个环节里最慢的那一 环,所以能跑 ai 的 芯片就成了刚需。这个方向的 etf 跟踪的是国政芯片指数,把国内造芯片的核心公司都装进去了,从设计到制造到封装,一整条链。 那第三个方向就是软件服务啊, open crawl 最厉害的地方就是能装进各种软件里。 你想啊,如果说办公软件里面内置一个这个东西,你说帮我做份 ppt, 它自动搞定,那这个软件的价值就不一样了,它从工具变成了管家。 那这个方向的 etf 跟踪的是中证软件服务指数,由业务涉及软件开发、软件服务的公司组成, 覆盖了 ai 加办公、 ai 加金融、 ai 加教育等各类落地场景。第四个方向,港股科技,那覆盖的就是港股上市的科技龙头,这些平台公司既有云服务,又有大模型,还有各种应用, 把整个龙虾产业链都装进了自己的生态里,那这些平台的生态优势不是单一公司能比的。这个方向的 etf 跟踪的就是恒生科技指数啦。当然啊,近期指数确实调整了不少,也让不少投资者头疼。 具体怎么配置好呢?其实这几个方向搭配着会更好,记得不要一把缩。科技赛道波动大,今天涨几个点,明天跌几个点都很正常,也可以分批来定投,能帮你摊低成本。那持有周期的话,至少看两三年 ai, 从聊天到干活,是未来三到五年的主旋律,你别指望三个月能干些什么,最后,必须泼点冷水啊。 首先,这个技术还在早期,商业化没那么快,别指望明天就出业绩。第二,波动也很大,近一年科技板块的涨跌幅本来也不小,你得问问自己的心脏能不能受得了。第三,安全问题。呃,这个本身就是双刃剑,一方面也带来安全需求,也有相关的 e、 t、 f, 另一方面,技术漏洞也可能影响产业发展的节奏。还有什么不懂的,我一直都在。

龙虾的爆火,让偷啃出海的概念第一次进入大众视野。你刷到的全民养龙虾,不是养虚拟宠物,是全球用户在疯狂调用 ai 智能体,每一次自动办公,每一段代码生成,每一篇内容产出,背后都在消耗同一个东西。 偷啃。今天我用最直白的话,把偷啃、偷啃出海,以及中国为什么沃有绝对优势给你们讲透。 先把 token 说清楚,它不是虚拟货币,不是空气币,更不是炒作标地。在 ai 服务里, token 就是 人工智能处理信息生成内容的最小计价与工作量单位。 你问 ai 一个问题,写一段文案,跑一次,数据分析系统会把文字拆成 token, 按数量计费。简单说,它就是 ai 时代的数字服务计量单位,是合规跨境服务贸易的结算单元,和境内严禁的虚拟货币炒作,那完全是两回事。 再讲 token 出海是什么?他不是把服务器运出国,也不是把电送出国,而是一套全新的数字贸易逻辑。 海外用户通过 api 接口,调用中国的大模型数据,跨光览传到国内的算力中心。我们用本土的电力与算力完成计算推理,再把结果秒级传回境外,全程按 token 结算。 电没有离开国境线,价值却通过透肯完成了跨境交付,这就是电力不出境,价值走全球,他免关税、无物流、秒交付,是数字时代最干净的服务出口,也是国家鼓励的数字服务贸易方向。那为什么说中国在透肯出海里拥有不可替代的压倒性优势? 第一,我们是全球绝对的电力霸主,二零二五年全国发电量突破九点七万亿度,超过每硬日三国的总和, 清洁能源占比超过百分之三十五。新疆、内蒙古、四川拥有海量低成本风电、水电、光伏,工业电价仅为美国的三分之一左右,西部绿电甚至低至一毛多一度。第二,我们长期面临能源消纳难题, 西北部分地区气风气光率一度接近两位数,每年有大量清洁电力无法就地消化,而托肯出海刚好把闲置能源变成可出口的数字资产, 变气垫为效益。第三,我们的算力基建全球领先,东数西算八大枢纽落地,数据中心用电规模持续攀升,国产算力芯片与算法优化快速追赶,能把一度电高效转化为高质量,头肯 成本优势直接转化为全球定价竞争力。过去我们做出口靠原材料工厂、集装箱、海运,赚的是辛苦加工费,价值链底端利润薄。受贸易壁垒限制, toon 出海彻底换了赛道,上游是电力与绿电,中游是算力中心与芯片,下游是大模型与 api 服务,最终产品是可无限附用编辑成本趋近于零的 toon 一 次模型训练投入固定成本,后续每生成一个 toon 的 增量成本几乎可以忽略。 这种规模效应是传统制造业根本无法比拟的。 openai 的 订阅服务毛利率超过百分之八十,核心就是把电力成本转化成了智能溢价。而我们拥有最底层的能源与算力支撑,只要把转化效率做上去,就能握住全球 ai 服务的成本与供给主动权。 这场竞争早已不是技术噱头了,而是大国产业的换道超车。美国卡高端芯片,本质是想控制电力到 tucker 的 转化效率。我们补国产算力优算法扩滤电,拼的是规模成本与稳定供给。 全球 ai tucker 需求呈指数级增长,中国模型在海外平台的 tucker 掉用量占比已经突破了六成, 这就是能源优势与基建优势的必然结果。中东土豪重金砸向 ai, 本质也是用石油发电转化为 tock。 和我们的逻辑完全一致, 谁掌握低成本可持续电力,谁就能掌控 tock 时代的硬通货,最后落回现实。 tock 出海不是遥不可及的产业故事,它正在重构就业、投资与行业格局。电力工程、数据中心运为液冷散热、国产算力芯片这些传统基建领域正成为 ai 时代的 核心刚需。懂电、懂算力、懂跨境合规的人,才会在未来十年持续稀缺。对每个人来说,看懂电力算力 token 的 转化逻辑,就看懂了下一个十年的产业变迁与全球分工。

小龙虾说的 token 到底是什么?今天一条视频给你讲清楚。简单来说, token 就是 把大模型的文字切成最小的碎片模型,不看词不看词,只看 token。 就 像计算机,它不能直接识别图片和文字一样,它只能识别零和一。其实这很像人脑,比如说这几个字,你单独看起来是不是有点认不出来,或者需要愣两秒才能反应过来? 但是这些字如果出现在词语中,也会瞬间能读出来。为什么会这样呢?是因为我们大脑喜欢把有含义的词或短语当成个整体去处理,这样记会更快更省脑力。 比如 ai 会取代人类嘛,拆成单字,按次数算是八个,按 token 算只是五个,这样大模型算起来会更轻松一些。你还可以去这个网站上看,把一句话输进去,它会直接告诉你这段文字被切成了几个 token, 而且不同的模型切法还不同。 同一句话在 deep secret 里面,可能是两个 token 换一个模型可能会变成一到三个。因为每家模型的背后分词器、词表、训练习惯都不一样, token 的 数量也不一样。所以回到开始的问题, token 就是 大模型世界里的一块块积木。模型呢,就是靠计算这些 token 之间的关系来理解和生成文字。这也是为什么大模型公司几乎都按 token 收费,因为 token 的 数量越大,背后的计算量就也越大。

怎么样子节约?第一种就是说你在命令行加上 compact 就 压缩你的上下文,只要你在输入内容的时候加上斜杠,再加上这个 compact, 这样子系统它就会自动去把你的 历史的内容进行压缩,然后减少上下文的长度,那从而它是可以降低整个的 token 的 消耗。 第二就是说你需要把长的对话总结成短的栽秧,然后再进行对话,那这样子就可以把可能你让他去帮你做一件事情,你通过这样的方式 扔给他,那他最终就是消耗的托克到可能从原来的十几万压缩到只有几千这样的一个级别。 这是第三种就去用一些云平台,他们会推出比如像阿里云、腾讯云,还有像那个 mini max 云, 再还有 kimi 的 云,还有像华为云,意思就是说用这些云平台他们会推出这样的一个 呃综合的价格低的算力成本,因为它是综合采购商,它集中像 kimi, 还有像 mini max, 像 deepsea, 像 cloud 人,以及其他这些有想法的人,在数字世界中需要它来给你做助手的这些人的工具, 你在数世界可能有百分之二三十甚至六七十的事务性的工作,就那些重复性多,又是一些常规要去做的这些东西,你就可以扔给他,扔给他之后他会消耗很多的托管双利费,就像我过年前的时候,我在用这个的时候, 一天最高的时候就是说托管费,他高的时候有七八百甚至上千,后来调调调调调到现在 一天就几十块钱,就是二十块钱不到。我现在是三个在用,第一个是用的是富盛的 原质 ai, 我 原来买的是月费,我现在改成年费了,因为它后面用的是 cloud 的 四点六 oppo 四,它之前直播的时候,它讲的第二个我用的是乌班图, 我在改造过之后,我用原切 a r, 原来我是用 cloud, 酷狗就用 a r 编程,让他去帮我按照我的想法去改的,后来完全一托于原切 a r, 让他去给我改, 改完之后我扔上去就测,特别是安全问题,以及根据我的情况,我的诉求的问题,我有很多事务性的工作,我就扔给他做。第三个我是在测 mac, 我 也在看有没有更好的东西,其实这个本身来说是一样的,因为 mac 相对 windows 和步班图来说,它的安全性会更高,还有 windows, 所以我会很注重这个安全性。当然我这三个都是在我的统一的 windows 的 bm 虚拟机下面,并且我这三个上面都装了相应的安全。 windows 有 windows 的 三六零体式安全,也无端的 linux 下面的一个安全 mark, 它本身就已经也很安全了,我又装了一个对应的安全应用,这样子在,并且我的龙虾,我自己也也让 ai 以及参考了别人的帮我安全包了几层,这样子我就相对来说它要突破三四层, 用我的自己的 windows, 我 又用三六零加 windows 防火墙,就做了极致的安全,这样子我的安全基础的就已经有了 产我的 ai 时代下的产品专家已经上线了,它是包含三个部分,一部分就是说它通过一个又一个的技能,最终把这些技能形成一个体系,让这些体系内化成你的叫做手感。 第二个,你的你的产品如果是一个软件类或者是 ai 应用类,那么用教你用 ai 编程, ai coding 的 方式让它怎么样子完成,并且把你的这个产品上线可用。第三就说如果你在数字世界中需要有 就是这样多智能体,类似于你要去用 opencloud 或者是 nano cloud, 就 用龙虾这样的工具去做多智能体的去处理的,那么会教你用 ai 编程的方式去手搓这个东西,去按照你的意志,去你的想法去打造你的专有的龙虾。

ok 呀,用大白话给普通人讲清这个龙虾,想玩龙虾,我们先了解四个东西,第一个是 get up, 第二个是 open club, 也就是所谓的龙虾,第三个就是 token, 第四个是 a 的 模型, 那所谓我们想的这个龙虾其实就是相当于你所雇佣的一个工人,只是这工人啊,他不太聪明, 但是他可以执行一下完成的事情,然后这个 a p i 模型就相当于我们接触的这些豆包拆利屁,他是一个比较聪明的大脑,然后我们把这个大脑接到这个工人的脑子里去,然后让这个工人进行干活, 然后他所消耗的体力、脑力就是头更。然后这个 get up 呢,就相当于他是一个技能点共享平台,比如说你这个工人去学习,你就在这个平台上学习, 然后最近那个央视新闻说深圳龙岗精英人才引进,然后鼓励大家进行 o p c 嘛, 其实对于普通人而言,就是使用正常的基本的这些 ai 软件其实就可以了。 对于那些业务量、处理量比较大的公司,比如说那些跨境电商,它会上架商品,其实你使用这个软件确实可以很好的降本增效,嗯。

今天想讲的还是关于养龙虾,就是 open club, 因为我知道养 open club 是 很花钱的,我我也是知道它是通过消耗 token 来花钱的,但是关于 token 是 什么,或者是说它具体是个什么概念,我其实还是不太清楚的,所以今天我就简单研究了一下, 给自己捋一捋。之前的时候听一些博主说,养这个龙虾一天就跑了五千万逃坑,也有人说简单的试了一下,这个龙虾一天消耗了两千九百万逃坑。 五千万逃坑,或者说两千九百万逃坑到底是个什么概念呢?其实呢,主要分三点。第一,逃坑是什么? 逃坑就相当于是 ai 世界的流量或者是钱,那 ai 独自的最小单位就是逃坑。 常规情况下, ai 读字是一块一块读的,一小块就是一个 token, 那 一个英文单词有可能会被分成一到两块,一个中文字相当于一到两个 token。 第二,套坑怎么消耗?我们平常与 ai 对 话,那么我们输入的算做输入,套坑输出的叫做输出,套坑输入和输出都算钱,有的模型不同,输出可能会比输入要消耗的套坑更多。 之前我想下载千万大模型,当时说的是啊,下载部署就给一百万的托管。那一百万托管什么概念呢?也就是说一百万托管大约相当于是五十到一百万的字,也就相当于两千五百个文档左右, 或者说是一个五十到一百万左右的一本厚厚的书。嗯,大约就是这样一个概念。 那之前的时候看富顺说他每天养这个龙虾就是 open claw, 大 概要消耗一百美金, 确实这忙,这明明就是在养吞金兽,像我肯定是养不起了,所以我就去简单了解一下这个头发是什么,大概是个什么概念。好了,今天就到这里,拜拜。

a i 养龙虾一夜爆火,有人一个月花四万,你敢养吗?今天港股的 mini max 啊,直接大涨了百分之二十,很多人都好奇这个龙虾到底怎么玩?我来给大家算一笔账,软件本身其实是开源免费的,真正花钱的是模型调用,也就是算理投概。 如果只是简单体验,每天一到三个小任务,一个月大概是三十到八十块。如果是自动化办公,一天用个五十次左右,大概一个月一百到三百。 但你如果说二十四小时跑任务,而且这个任务复杂,一个月呢,可能是五百到两千,极端情况下甚至可能跑到四万多。所以一句话啊,看个人需求,不要去盲目跟风。那收回盘面, 今天缩量两千五百亿,四千五百多家上涨,科技股呢?全线普涨,那下午我们踢掉了 ai 应用,尾盘低息了,绿色店里明天怎么办?两点给你讲清楚。第一, 大盘继续看多,目标就看四幺五零附近,今天的增量资金还没有完全进场,那这个位置啊,需要一根阳线去提提气,明天继续看涨。第二,板块会出现分化, 今天零涨的是硬件科技,更多的是因为跌多了反弹修复,涨的太多了,明天容易分化。那接下来重点看算电斜头和 ai 概念,等主线涨起来了,再回头低吸金属原材料。点个关注,具体操作直播间讲。

爆火的养龙虾是什么玩意?我是只聊真数据不吹虚头的小 k。 最近, ai 赛道出现了个现象级风口,龙虾 ai 智能体。先给大家把龙虾 ai 讲明白,它和咱们平时用的传统 ai 根本不是一个量级的产品。传统 ai 大 多就是聊聊天,写写文案,单轮交互,算力消耗很低。 但龙虾 ai 是 新一代多模态智能体,核心杀手锏就是 ai。 用 ai, 它能听懂你的自然语言指令,自主调用各种工具,执行多步骤复杂任务, 比如批量处理本地文件,跨软件完成一整套工作流,全程不用人工干预。最关键的是,它的 token 消耗是传统 ai 应用的几百倍,算力需求直接呈指数级增长,这也是整个赛道最核心的爆发逻辑。 三月九日,这个赛道迎来了里程碑式的进展。腾讯云率先上线官方版小龙虾 workbody, 兼容 openclaw 全量技能,以及能在本地电脑精准执行多步骤复杂任务, 实现了智能体技术的商业化落地。紧接着,字节跳动旗下火山引擎就推出了对标产品 arkala, 两大互联网巨头正面开战,直接标志着龙虾 ai 从一个技术想法正式进入产业应用即将大规模普及的阶段。不光是巨头抢着布局,政策端也在全力护航。 深圳龙岗区直接发布了支持龙虾 ai 生态的龙虾十条,无锡高新区更是推出十二条养龙虾专项政策,从算力补贴、场景开放到人才支持全方位覆盖,直接给整个赛道的发展踩了油门。那这波行情里真正的收益方向在哪?核心就一句话, 龙虾 ai 的 指数级算力需求会直接带动底层算力基础设施全链条的爆发。顺着这个逻辑,咱们把核心收益企业按赛道卡位说清楚。第一类, 底层算力核心供应商也是最直接的受益方,作为信息,背靠华为云与算力底座,为腾讯自结龙虾产品提供底层算力和定制化方案。 利通电子采用无锡政策红利,超两千匹算力集群已落地。腾讯长三角 ai 超算中心优克德首都在线则精准匹配龙虾 ai 大 规模部署的动态算力需求,覆盖训练推理全场景。第二类,算力落地,核心在体与配套。润泽科技是高功率 idc 龙头, 机柜储备充足,是算力集群落地的核心主体。华盛天城提供算力集群搭建运为一站式服务。云赛智联绑定 open club 调度量第一的大模型阶月星辰直接受益于调度量爆发。 第三类,传输与硬件配套,刚需保障网速科技作为全球边缘计算龙头,能大幅降低产品传输延迟。华工科技的高速光模块是算力集群高速传输的核心,硬件需求随集群扩张同步放量。 小 k 说句实在的,龙虾 ai 是 ai 智能体赛道的重大落地突破,在算力传输、 idc 这些核心环节, 有技术、有资源、有实锤落地的企业,这些才是能真正承接赛道红利。你觉得龙虾 ai 的 爆发最先带动的是算力硬件还是传输配套环节?评论区说说你的看法。

当你不小心拥有了一个 open class, 但你总感觉它傻傻的,不好用于事。聪明的你钻研了一番后,明白了,小龙虾只是这个智能体的一双手,大模型才是它的大脑,决定了它是否聪明,而 skills 是 它的工作技能,决定了它是否有能力处理各种任务。 而大家总提到了 token, 就是 智能体的能量。使用智能体需要让大脑运转并调动小龙虾的双手并使用技能, 所以会消耗 token。 这也是为什么我们需要向大模型厂商付费。然后聪明你开始尝试使用不同的国内大模型来给智能体安装不同的大脑。这个时候你发现了接入了 cloud code 的 时候,这个智能体他是最聪明的,任务的完成质量最高,但是费用也最高。 然后你又发现接入了国产模型的时候呢,他也能完成很多任务,花销也很划算。于是不想当冤大头的你,想着好像可以让不同的小龙虾安装不同的大模型, 简单的一些工作,比如每日发送日报,这种工作就可以直接交给接通了国内大模型的小龙虾去做,赶紧去这么做吧。然后聪明的你为了让小龙虾能更快更好的完成任务,打算教给他各种 skills, 也就是技能。于是你在 skills 后面加上了 s h, 发现这里有七万多个 skills, 你 又了解到 open club 官方 skills 也有一万多个。不要慌,我已经给非技术背景的你准备好了十个基础 skills 和五十个进阶 skills, 咱们放心使用。这个时候呢,不想当月大头的你,感觉还是有方法能降低 token 的 成本?没错,这里我给你准备了三个方法,让你的 token 花费能降低十倍。一是多使用订阅而非 api 的 用量模式。 二是建立本地的 markdown 知识库, opencloud, 每次读取的时候只读取锁瘾。三是部署一个小模型来在本地跑。 opencloud 的 心跳模式,就是那个让你们感觉小龙虾火起来的关键机制,实际上是小龙虾内置了一个每过一段唤醒自己一次完成任务的机制。 除了以上三个方法呢,你还可以给你的小龙虾建立体检机制,及时的找到那些高消耗的任务并及时优化。别慌啊,以上方法听起来有点复杂,我已经帮聪明的你把上述方法的详细的文字版也整理好了。我是拉菲儿,这是 openclaw 实战系列的第二期,后面会有更多实操,咱们下次见。

哈喽,大家好,我是才哥哎,今天必须给大家重点聊一个大事,养龙虾!他有可能成为既微信、抖音之后又一个爆款级产品。更关键的是,这玩意对 token 的 消耗是以前 ai 应用的几百倍以上。 你想,以前咱们人用 ai, 是 咱们给 ai 发指令, ai 给咱们输出结果,但这次是 ai 用 ai, 它自己就能调用各种工具完成复杂任务,那 token 消耗直接是大越级,背后的算力需求简直疯狂的没边。今天我就给你把这个机会扒的明明白白,保证你听完就知道这波风口到底该怎么抓! 咱们先从最新动态说起,三月九号那天, ai 智能体赛道直接炸了!腾讯云率先官宣,正式上线了官方版小龙虾 workbody。 这产品到底牛在哪?完全兼容 open q 二技能,能精准听懂你的自然语言指令,还能在本地电脑上执行多步骤的复杂任务,就相当于把 ai 助理直接装进电脑里,真正实现了智能体技术的商业化落地。你想想啊, 以前咱们用 ai 还得打开网页输入指令,现在好了,直接对着电脑说句话,它就能帮你完成从找资料、整理文档到自动生成报告的全套流程。这不就是咱们以前科幻片里见过的场景吗? 这边腾讯刚出招字节跳动旗下的火山引擎马上跟上,推出了对标产品 icloud, 两大互联网巨头正面 pk, 这可不是简单的概念炒作了,这标志着龙虾 ai 已经从技术想法正式走进了产业应用阶段,接下来就是大规模普及的节奏。 你想想,以前智能体还只是实验室里的玩意,现在两大巨头都下场做产品了,说明技术已经成熟到可以商用了。这风口的信号已经不能再明显了。 企业抢跑的同时,政策端也没闲着,直接火力全开。深圳市龙岗区之前就发布了支持 opencloud opc 发展的若干措施,被市场叫做龙虾十条,专门扶持这个生态。更巧的是,三月九号当天,无锡高新区也推出了十二条养龙虾专项政策, 从算力补贴、场景开放到人才支持,方方面面都考虑到了,就是要全力护航龙虾生态发展。你看,一边是巨头砸钱做产品,一边是地方政府出台政策托底,这风口的确定性不用我多说了吧? 那这波机会核心逻辑是什么?其实很简单,龙虾 ai 是 新一代多模态智能体能搞定复杂任务,这就意味着它对底层算力、高速传输、存储、调度的要求是呈指数级提升的。以前的 ai 需求跟它比就是小巫见大巫。 你想想以前咱们用拆的 gpt 就是 聊聊天,写个文案,算力需求其实不大,但现在龙虾 ai 要帮你处理本地文件,调用多个工具、执行多步骤任务,它需要的算力是以前的几十上百倍。所以接下来那些做算力金定措施、核心配套的企业,肯定会直接受益,这就是咱们要抓的核心方向。 下面我就给大家梳理九家核心受益公司,每一家都用一句话说清楚亮点,方便你记。第一家,拓维信息,他背靠华为云与升腾算力,专门给腾讯字节的龙虾产品提供底层算力和定制化解决方案,根正苗红的算力供应商, 你想想,巨头的产品要落地,肯定需要靠谱的算力支持,拓维信息就是干这个,直接对接巨头需求,前景不用多说。 第二家,尤克德,国内中立集算龙头,算力调度特别灵活,能快速满足龙虾 ai 大 规模部署的动态需求,不用等,不用凑,龙虾 ai 的 需求是弹性的,有时候需要大量算力,有时候又不需要。尤克德的优势就是能快速调度资源,完美匹配这种动态需求。 第三家,首都在线,专注高性能计算和 gpu 云服务,不管是龙虾 ai 训练还是本地推理,全场景都能覆盖,部署速度还快。现在龙虾 ai 需要大量的 gpu 算力来训练和推理,首都在线的 gpu 云服务刚好能满足这个需求,而且部署速度快,企业不用自己买硬件,直接作就行。 第四家,润泽科技,核心区域的高功率 idc 龙头机柜资源超充足,是龙虾 ai 算力租赁集群落地的核心在体,相当于算力的大房子。你想啊,算力的需要地方放,润泽科技的 idc 机柜就是最好的房子, 而且它在核心区域,贷宽和稳定性都有保障。第五家,利通电子,重点说下这家,它地处无锡,刚好踩中当地养龙虾政策。而且它首个超两千匹算力集群设备已经在腾讯长三角 ai 超算中心就位了,直接对接巨头需求, 你看政策红利加上直接对接巨头,这双重 buff 加持潜力不小。第六家,网速科技,全球边缘计算和 cdn 龙头,能让龙虾产品传输更快,延迟更低,保障本地任务执行不卡顿,体验拉满。龙虾 ai 要在本地执行任务,数据传输速度很关键, 网速科技的边缘计算,能把算力放到离你更近的地方,这样延迟就低了,用起来就更流畅。第七家,华工科技,国内高速光模块龙头,它的产品是龙虾 ai 算力集群之间高速传输的核心,硬件生态越扩张,它的需求越旺。 龙虾 ai 的 算力集群之间需要高速传输数据,光模块就是实现高速传输的关键。生态越大,需要的光模块就越多,华工科技自然受益。 第八家,华盛天成,深耕 it 系统集成和算力节能方案,能给企业提供龙虾 ai 算力集群搭建、运维一站式服务,省心又专业。很多企业想做龙虾 ai, 但不知道怎么搭建算力集群, 华盛天城就能帮你搞定从搭建到运维的全套服务,相当于给企业当保姆。第九家,云赛智联,重点关注现在 open club 调度用量第一的大模型是阶月星辰,而云赛智联是它的核心绑定标的,直接受益于调度量增长。 好了,今天的分享就到这里了,再次强调,我跟你说的所有内容都是基于公开信息整理的,只是跟你交流下行业动态,绝对不构成任何投资建议。毕竟投资有风险,入市需谨慎,你得自己做好功课再做决定。要是你觉得今天的内容对你还有点参考价值,欢迎点赞、关注、评论,咱们下期再见!

最近的龙虾爆火,导致 token 的 使用量一个月就涨了四倍,现在 token 的 价格也在不断上涨。那么什么是 token? 天天讲 token, token 到底怎么理解这个 token? 简单来讲, token 呢,就是 ai 能理解的语言碎片。 比如你去商场买个商品,你想买个薯条,对于机器来说,他是不理解薯条的,他只能知道薯和条这两个字分别代表什么,什么条码。比如说你扫商品背后的条码,那他就是通过识别这个条码去理解薯条这件商品, 同时他反馈给你呢,其实也是从一个条码再重新生成人类能理解的文字。比如你和 ai 说你好,那你好两个字分别代表两个代码,同时是代表两个 token, 那 ai 回复你,你好啊,那你好哈。 对于机器来说,他会同时给你反馈三个,三个 token, 然后呢,你人类看到的是三个文字,好吧,每个文字代表一个 token。 所以呢,当你和机器互动的多,那你使使用 token 的 消耗量当然也就更多,机器要分析的数据库更多,他消耗的这个 token 也就更大。

徐哥,网上都在说你养龙虾了吗?龙虾是什么东西啊?消耗的 token 又是什么? ai 时代啊,谁掌握了 token, 谁就掌握了高效生产力。而这背后最直接立行的两个行业,你可以记一下。第一,数据中心行业,作为 token 的 核心软住宅体,可以作为绝对的核心受益者。 第二,云服务行业,它作为 tikken 的 主要题目方,将享受 ai 普及的需求与红利。还有这个龙虾啊,它不是水里游的那种,它是能帮你躺赢的 ai 龙虾,它叫 open code, 是 个智能体,不是普通的 ai 啊,它的能耐啊,大户,超乎你的想象, 可以帮你盯盘、看数据,可以精准捕捉每个机会,帮你赚钱哎,帮你码字写文案,帮你做表格,处理数据。更主要是它还会自动学习, 今天让他学习清华化学系的全部课程,过几天他就能变身教授级的碳达。但重点来了啊,再厉害的龙虾,也得为保城的干活。而 open code 的 口令啊,就是 token, 像豆包啊,千万啊等这些正能量消耗的全是 token, 没有 token, 再智能的也要洗菜。记住了, token 不是 算力,像腾讯、百度、阿里云这些大厂啊,就是专门提供 token 的 补剂站。而 token 的 核心产出力呢,就是数据中心。关注我,做您身边一个懂财经的朋友!

o p k l 彻底火了,喂龙虾的 token 到底是什么?今天一句话给你讲明白,它不是虚拟货币,而是咱们中国 ai 算力出口的新方式。简单说, token 就是 ai 的 计量单位,咱用 ai 聊天写文案都是在消耗的。 大家说的喂龙虾,其实就是用 token 训练 ai, 让他按照咱的想法去做事,像养宠物一样。 其实我们一直有掏恨出来,只是被龙虾的爆火而引爆了。这个词本质上还是把国内的电力算力换了一种形式卖到全世界,不用输电,建立电网,不用运硬件,没有管水,成本低,覆盖还广。 咱们的 ai 模型在海外已经很有优势,背后是一整条产业链在发力,也是中国科技换道超车的新方向。看懂产业趋势比盲目跟风更重要。关注我下期继续拆解掏坑出海的底层逻辑。