两个龙虾协同工作啊,大家看到呢?我现在有两个龙虾,其实有三个龙虾。呃,今天我用到两个龙虾,一个是我的司机小李,他呢是我的。呃,部署在云端的一个部署在云端的一个 open club 啊,让他的任务呢,是来进行自动化编程,编写代码,使用 cloud 来编写代码。上面的刘秘书呢,是我在我的老笔记本上继 nano bot 来啊,运行的一个 简版的小龙虾。现在我是,我是和司机小李对话,让小李帮我编辑代码啊,完成之后呢,呃,他让我去测试,但是我也很懒,我就会把这个测试的任务呢交给了刘秘书, 这是我的刘秘书正在进行自动化的测试。为什么让刘秘书测呢?因为刘秘书他有这个浏览器, 他可以进行 g m c p 的 自动化测试,进行可识化的测试。而司机小李呢,他是运行在服务器端的,他没有可识化的,不好测。看看,看看刘秘书的测试工作报告, 他已经上传测试成功了,他认为可以正常发布笔记了,也就说这个功能他已经测试成功了。
粉丝118获赞925

用龙虾机器人真的很不介意本地部署大模型,我这个内存直接跑满 一百二十倍七十倍的还算比较流畅,但是很弱智,这个告诉一百二十倍非常丝滑,但是有点弱智。龙虾基本上每十分钟消耗十几 k 的 taco 也不算多,现在运行的是千万三两百三十五 b 就 很卡, 两百五十六内存快占满了,这个回复速度也比较慢,用在线大模型会好很多。这么半天了还没有回复,有啥想问的留言交流吧,拜拜。

大家最近是不是都在养大龙虾啊?就连马化腾他都说他没想到这个龙虾现在这么火。但是很多人现在没有意识到一个严重的问题,就是我们在养龙虾的同时,其实在把我们最隐私以前大数据根本无法触达的超级私有数据 喂给大摩西。所以 open 这个龙虾的出现很有可能会大大加速 agi 的 进程,就是超级通用人工智能的实现, 同时还让中国的大模型能力大幅度的提升。宏哥来给大家分析一下核心的原因,以前的这些大模型他只能抓公网的数据,但是现在基本上全世界的公网数据 已经被大模型抓完了,已经用完了,而 openclip 就 撕开了这个私有数据的口子,大家能理解吗? 你在养龙虾的同时,你就把你最私有的数据提供给他,同时还把你的整套的专业的解决方案, 把这个思路,把这个经验交给他,你再让他帮我们做一整套的专业任务解决方案的同时,其实你就在把你的最私有的数据,他在工网上无法拿到的数据,还有你在这个专业领域的经验,你再交给他,这样就加速了 ai 的 进化,补足了人工智能最后的短板。 我不知道大家知不知道以前大模型公司,这些 ai 公司邀请一些专业领域的专家去给他们做一天的这个工作流程,专业任务一天的薪水大概是一千美元以上, 相当于我们现在就在免费帮这些大模型公司来调价大模型,而且这个用户数量级现在巨大无比是吧? 全世界每天可能有几百万的用户在训练他,而且给他的都是以前他拿不到的数据。举个我的例子,我会把我的股票的账户给他, 把我的历史交易记录喂给他,把我的方法论,我认为有效的股票策略再喂给他。这是大模型公司以前拿不到的数据,私有的包括企业的很多数据, 相当于说我们现在补足了大模型公司最后的一个短板。我明显的发现什么,最近我的大模型能力,整个我调用的大模型 api 的 能力有巨大的提升, 我估计可能就是这些大模型公司,最近他们获得了更多的私有数据和更多的专业领域的技能的训练。而且因为现在国产的大模型要比外面便宜了十多倍,所以全世界的中小开发商大量的使用国产的大模型,确实便宜太多了, 所以这让国内的大模型缩小了和全球最顶级的大模型之间的能力差距。你们以后就会发现,反正我现在使用国内的大模型,整个的体验大大的提升,没有什么问题了。 我从春节到现在不到一个月的时间,你们猜猜我烧了多少透克,我用了十亿多的透克,而且我专门买了一台高配的 mac mini, 我熬了几十个夜,踩了无数坑。我现在的这个龙虾已经成长成一个无所不能,超级无敌的大龙虾,他能够帮我完成几乎所有的工作,只是现在还需要有很多细节的优化, 他现在有这个各方面的能力,但是他的能力还不够出众,这是需要持续优化的,陆陆续续的宏哥会把我的这些踩过的坑,我的经验教训慢慢的分享给大家,关注我最近的直播,我以后慢慢的在直播里面会讲一些细节, 真的太痛苦了,兄弟们,坑太多了,尤其是本地部署,如果你不太懂,千万不要轻易的玩本地部署。

大龙虾还没有明白,百万 token 先没了,别急,一起来薅老黄羊毛。无限 token 免费用。首先在英伟达这个网站用邮箱注册个账号,接着验证一下手机号,就能调用 api 了, 关键是支持国内手机号,不用绑卡。然后随便选一个大模型,进入聊天页面, 这里可以切换各种大模型试试,白嫖的人太多,热门模型可能响应很慢,找一个速度还过得去的,这里查看视力代码,可以直接复制模型相关配置。然后打开你龙虾的外部页面,修改配置, 保存之后建议重启一下服务,现在就再也不用担心托肯消耗了,之前配置好的飞书也能直接使用。

运行 openclock 到底需不需要使用 mac mini 主机?今天我用吃灰了大半年的 mini m 四的十六 gb 盖板进行了测试。 操作系统我已经升级到了二十六点三最新版,可以看到在刚刚登录系统且未运行任何其他软件的情况下,系统内存就已经被占用了大约十 gb, 这意味着留给大模型的运行空间仅有区区六 gb 资源,非常紧张。 大模型的运行软件我依旧使用了喜闻乐见的羊驼欧拉玛模型,使用的是千问三点五的九币和四币两个参数版本,可以比较好的适配目前的硬件资源。为了了解 mac mini 对 新版千问模型的支持情况,我运行了两个模型的性能对比测试。首先测试的是九币模型, 运行速度是十三 token 每秒,而四 b 模型的运行速度则是大约十九 token 每秒,区别并不大,不过应该可以满足基本的对话需求。下面开始测试。 openclaw 是 全新安装的 macos 版本,版本号是二零二六年三月二日。 在后台把模型设置为千问三点五的九币模型之后,我开始了第一次对话。首先要求龙虾机器人上网搜索今天全球最新的股市新闻。由于是全新安装的环境在思考,大约等待五分钟后,对话框提示需要配置 web search 的 api。 我 按照提示信息将提前准备好的 api key 输入了对话框,并要求他帮我写入后台配置文件。又是长达数分钟的等待, 机器人回复 a p i 的 配置信息已经更新好了,需要重启网关,但是很不幸,网关在重启时提示失败,提示无效的配置文件。很显然,由于模型的能力问题,配置文件的设置有误。好在新版龙虾提供了一个修复命令,我在运行后,网关终于再次成功启动了, 于是我要求龙虾机器人继续帮我搜集全球股市信息。对话框随即陷入了长时间的等待。期间我还关注到 mac mini 的 cpu 温度已经上升到了七十多度,说明后台在进行非常忙碌的数据计算。 不过好在大约十五分钟后,机器人给出了答案,虽然信息很简略,但是非常有条理,并没有明显错误。 于是我再次提出了下一个问题,要求机器人对中国 a 股进行点评分析。不幸的是,在长时间的等待后,页面弹出大模型无响应的错误, 说明后台硬件资源已经完全耗尽,于是我尝试将模型改为了四 b 的 版本,降低资源消耗。但是在我继续等待一段时间后,模型超时的错误再次出现,于是我只能彻底放弃下一步的其他测试。至此,经过我大约三个小时的深度测试,基本可以确认 使用盖板。 mac mini 运行龙虾机器人毫无必要,其有限的硬件性能无法满足基本的对话要求,特别是在单个对话动辄就有可能调用几十万 token 的 情况下。所以推荐的正确做法是选择旧版本更廉价的 mac mini 主机,比如 mac mini m 二, 或是我已经闲置吃灰很久的软路,由主机再配合外部大模型一起工作,才是迷你小主机的正确龙虾使用方法。如果你也有类似的使用经验,欢迎在评论区分享您的心得。

龙虾 open 可乐用本地算力可以吗?这位朋友有数据安全洁癖,一定要用本地算力做龙虾大模型要极致性价比方案,价格控制在万元以内。那这台机器又请出了咱们的老朋友特斯拉 v 一 百三十二 g 版,刚好可以跑最新的千万三点五三十五 b 版本。那你要问为啥装双显卡, 因为它还需要另外一张显卡,跑知识库的引杯的模型,不用知识库时还能给龙虾加速内存。其实十六 g 就 够了,不过它上到了 ddr 四六十四 g 哦,因为它是金融行业,为了防止龙虾抽风装在了虚拟机里,而且使用时它会同时开 n 个虚拟机, 都调用宿主机的大模型。没错,这就是很多人口中的洋垃圾配置。但是万元以内的本地算力不用洋垃圾还能用什么呢?配置我放评论区里了,有需要的自取。

大家好啊,昨天阿里巴巴开源了千问的一个小模型,三点五系列最小的尺寸模型啊,四款,那其中有一款是零点八 b 和两 b 的 啊,这个是非常小啊,推力虽然很大,但这里面我说的不是他的,我说的是一个三点五 b 的 啊,四 b 这款, 四 b 这款好了,四 b 这款的话呢,我们昨天晚上测试了一下汤,同时话呢,我们先说一个事啊,马斯克在 x 上对这个模型进行了测试,并且给出了一个非常好的体验,他认为这些参数他的智能密度令人印象深刻啊,为什么这么说? 我说这个四 b 的 模型,我建议大家考虑,如果稍微能力强,可以上那个九 b 的 模型。干什么来都知道你们正在养龙虾是吧?就那个大龙虾,那个智能体的集成是吧?号称是贾维斯的出行, 但是他是一个吃 token 大 户啊,什么意思啊?就是我之前试过啊,一个晚上让他给我们做一个程序啊,然后消耗了两百多万 token, 做出来程序还有很多 bug 啊,那,那这个事确实不可持续,虽然说这个 token 现在比较便宜,但两百多万 token 的 话也十几块钱呐,对吧?一个晚上十几块钱这玩意,而且解决一个任务呢,人任务多的话,可能上千万 token 都出去了,那怎么办?对,这个事怎么办? 所以呢,这个端侧部署一个端侧模型来解决这个龙虾啊,在日常应用中的绝大多数的 token 的 使用是当务之急, 那么在这种情况之下,这种小模型的话呢,就比拼,哎,谁能把大模型的这个能力降下来的这个度越小啊, 它寄生能力越好,对吧?这种情况下,所以千门刚刚推出这四款,尤其其中这个四臂,我们正好测试了,我们在昨天测试了,在我们的自己养的龙虾上跑起来非常的舒服啊,百分之八十以上的工作完全由这个端侧的小模型来解决了, 非常好啊,包括数据的处理啊啊,包括图表的处理啊啊,包括我们跟他日常对话包,包括调取这个,哎, skills 包括什么?呃,就是搜索东西啊,包括数据的集成啊,包括 excel 表格处理啊等等,这些东西完全都可以通过端测这个四 b 的 小模型进去, 非常好。所以呢,我说啊,我说这千万这次开源的四个小模型,其实恰恰什么,就是我们现在玩龙虾的最好的助手,也是最适合龙虾发展的模型, 就是这么回事啊,就非常的玄幻,但是现在就是这么回事啊,所以后续的东西,如果你们感兴趣的话啊,你们如果正在养龙虾的话,或者你想探索龙虾的,哎,我建议你好好试试这个模型,这个模型会给你省很多钱,因为它是开源的,你直接不熟以后最少你百分之八十左右的工作, 甚至高一点百分之八十五左右的工作,你是不用再去调取网络的 a p i 的 接接口了,它这个东西就产生更好的应用,懂,懂吗?但对于我们来说的话呢,它一是省钱,另外一个的话就是它的能力还够,而且它还有什么?它关键它有图形的这个 o c r 的 能力啊,然后它有图片的生成能力,这个就很强了, 这就很强了啊,所以这个事我觉得还是非常有意思的,而且小尺寸实现高智能啊,这个是非常强的,而且是少数实现跨级的性能的超越,媲美中型模型啊,中尺寸媲美顶级模型,这样的一个情况,我觉得华为的,哎,不是华为千万,这次做这事非常的好啊,非常的好, 好了,简单大家说一下,如果有需要的话可以好好试一下啊。另外的话呢,说一下呢,很多朋友说,老张,你现在是不是又关注 ai 了?注意关注 ai, 因为这是热点 啊,这是一定的热点,而且我们的这个说,在咱们的这个会议视频当中,热点也是因为我们的分析的快,然后你要说到哪看的话,关注一下我们小程序啊,到底瑞克老张哥不哥啊?我们小程序小程序里面的话呢,说实在的,咱们那个有一个免费的专栏,你说我不想花钱,有免费的专栏,就是咱们在平台上发的内容精选出来放的免费专栏的,不停的更新的,你要需要会看 看一下啊,赶紧的订阅就行,免费的。当然咱们的年度那个会员的话呢,现在是幺六九九啊,而且的话呢,我们是一年一百八十个这个会员视频,三十二场以上的会员直播之前内容都能看,甚至包括以前的付费专栏,包括以后的付费专栏都能免费看,特别划算啊,平均一那个一个视频 喝喝一场直播都十块钱左右啊,所以你觉得对吧?这个一一一一,一瓶两瓶,这个汽水钱啊,就就就解决一次这个抹平新茶的机会,你觉得划算不划算?好不好啊?今天就到这,我是瑞小张,关注我,带大家看中国科技的高度和温度,明天见,拜拜。

我已经用了一亿的免费 tokyo 来养龙虾,可以看到这是一点五九亿的 tokyo, 然后四千四到用零元。我用的是这个新送的三点五 flash 的 模型,是用的 open rota 的 平台。对,前几天那个给大家分享免费养龙虾视频火了,然后今天做一个具体的视频之上,很多朋友在后台私信我。 呃,那首先呢,其实是我们去呃搜索这个今日星辰的三点五模型,找到这个 free 有 免费版。呃,进去之后可以看到它这里有个模型 id, 这就是它的模型 id, 我 们要复制下来。呃,其实要给弄一下。呃,可以看到就是它现在在 opcode 的, 就是调用排名非常高。呃,看到就是。呃, 昨天是第一名。对,昨天是第一名,今天是第二名,前几天也拿过。可以看到这排名非常高,前几天也拿过很多第一。然后我们回来之后呢,其实是在自己的这个。呃。 api k 这里。呃,进入到 api k, 嗯,去新建一个 api k, 你 可以填银行卡,然后再去填这一个信用额度,可以填一个零点一美金。 看到我,哎,我这里填了一个零点一美金项链,一旦有付费的行为,那就最后花七毛钱,这个 api 就 断掉了。嗯,对,然后再过一期时间去设置一下。然后呢,这个 api 呢,是一次性只能复制的,相当于这个也要给到龙虾,然后把 openroot 的 这个地址,就是直接把网站扔给他,然后再把魔仙 ak 扔给他,再把你 app apk 扔给他。对, 假如你当前有那个本地 l m 驱动的话,就是把这个配置上,它自己会去连接上新的模型。那然后你再去那个龙虾里面去调用这个对话的话,就可以看到自己的一些调用数据了,对,有某一天的用量特别大,都是免费。

最近火出圈的小龙虾呢,最大的意义不是应用端的进步,而是解决了国内 ai 付费的难题,并且打开了算力需求的天花板。在 openclaw 出现之前, ai 产业链的源头是互联网大厂, 大厂天亮的资本开支支撑了芯片设计、精元代工、半导体设备、电网设备、书店设备、服务器等等一系列的下游产业链。但是互联网大厂推出的各种 ai 大 模型收费模式一直没有明确, 在这种情况下,天亮的资本开支能够持续多久就是一个非常大的问题。但是 opencloud 的 出现, 为大模型的收费提供了一种新的范式, c 端客户的付费习惯有可能就此建立,也解决了大厂的收入来源问题,后续的产业发展就变得顺理成章。不跟 klo 的 另一个重要意义就是他打开了算力需求的上限。 这里呢,先做一个算力的科普。过去互联网大厂建设的都是训练芯片的数据中心,这个数据中心建成之后是用来训练大模型的,而未来要建的都是以推理芯片为主的数据中心。 我们在大模型上提问,大模型回答其实就是一个推理的过程,如果这种推理过程未来是以付费形式出现的,用户就会对应用的响应时间、准确性、复杂度做出要求。如果推理的算力不够, 比如你提出了一个问题,需要排队很长时间,大模型才会给你做出响应。为了解决这个问题呢,就需要在各个城市的附近去建设很多的推理芯片数据中心, 像 opencloud 这种应用,它可能去调用一个大模型,未来还会有类似的应用出现, 可以同时调用几个大模型,甚至可能出现调用的大模型,再去调用其他大模型, 这种复杂的推理过程,就会对算力的需求呈现指数级的提升,也就是算力芯片未来会非常的紧缺,需求量会非常大。 仅就当前的算力需求而言,芯片已经是供不应求了。目前市场环境是,只要你手里有算力芯片,即便是五年前推出的旧款,依旧可以迅速成交,甚至可能比五年前卖的价格更高。 当像 openclaw 这样的应用越来越多之后,可以想象未来的算力芯片的需求量是多么的庞大。所以基于这一点,我是坚定看好京元代工和半导体设备的。 今天市场的大幅下跌可能让很多持有硬科技的朋友非常的沮丧,希望大家看到这个视频之后,能够坚定信心,做耐心资本。