粉丝32.1万获赞160.3万

今天给大家看下各大云厂商如何一键养龙虾,以及他们之间对比,帮助大家做出最优的选择。首先我们来看腾讯云是如何秒级部署的, 在这里可以看到腾讯云的介绍还是比较全面的,这里我们可以看到为什么要用云来养龙虾,秒级部署,随时在线、安全隔离等。重点来了,大家最关注的成本问题。腾讯云二合二 g 的是九十九一年。我们再来看阿里云这边 同样在官网首页很醒目地方,直接点进去可以看到 open core 一 键部署的教程,还有看到这个二和二之一个月九点九,但是需要抢才有。 阿里的可以看到在清亮无影云电脑 e c s 上都可以。火山这块除了二 call 很 有意思,不需要再买服务器,如果是买了火山的 q d pad 就 可以直接使用,可以对接飞书,而且有内置化的 skills, 可以 点击部署, 也有一键部署模式,基本操作和阿里腾讯类似。通过对比我们发现腾讯云的清亮是性价比较高的, 九十九元一年不用抢,直接买阿里云,火山云九点九一个月都需要抢。而抠定 part, 阿里云腾讯云都需要抢,火山目前不需要抢的评论区打出龙虾找我拿优惠吧,而且火山找我部署还可以免费喝奶茶。

随着 open core 的 爆火,调用大模型所花费的掏根数也随之水涨船高,如果你还在用 api king 的 方式,那么离破产可能只差几句话了,因此我做出了一个违背祖宗的决定,给大家带来国内四家平台 cookie plan 月套餐的对比。首先出场的就是我们的 mini max, 然后就是 g m l 智谱, 然后是火山引擎,最后就是我们的阿里百链平台。介绍完了这四家厂商,接下来就来介绍一下我们的规则说明。 我们仅以四家平台的月 coding plan 套餐作为对比,记住是月而不是季度或者是年。然后就推出我们的换算规则,换算规则就是一 p 等于十五次模型调用, p 就是 promote, 一 promote 就 相当于你使用 coding plan 套餐完成了一次完整的调用,而一次完整的调用在模型后台可能被切成了十几个任务, 有读取上下文,提出建议,修改建议,调用工具之类的就会非常的复杂。然后官方为了简化计费计算,就统一把这十几次连续的模型调用打包成了一次 promote。 然后我们再来介绍它的额度限制,它有第一种就是五个小时限制,一次额度就是你每五个小时达到了它的调用上限, 它就会限制你调用,然后直到这五个小时过去,然后它会再刷新额度,然后就可以再次使用,然后一个月就是这样一直重复。接下来就是周总额度限制,就是在五个小时的额度限制之上,你每次花费的 token 在 一周内累计不能超过它一周内的总额度上限。 然后就是月总额度,在周总额度限制的前提下,每家你每周所使用的额度不能超过一个月的总额度上限。如果你超过一个月总额度上限,那么你这个月就不能再用这个套餐了,因为它已经额度用满了。最后我再来提一下,我们的月是按每个月三十天来计算的。好了,接下来就介绍一下我们的第一家平台 mini max。 mini max 我 们看一下它是有六种套餐的,我们先来看最下面三种,从 star 每五个小时掉,我们的 promax 数也是逐渐长高的。 然后再看上面三种,有 plus 极速版到 ultra 极速版,它的价格也是这样递增的,然后它每五个小时可以调用的 oppo 的 次数也是在递增的, 但是它多了一个后缀就是极速版。极速版就是相对于下面三种套餐来说,它们模型的调用速度快了不少。然后我们总结了上面的价格和每五个小时的额度限制,我们就统计出了这样一个表格, 因为 mini max 只限制五小时额度,所以我们就通过一周大概等于三十三点六个五小时,推算出了它的周最大额度上限。然后我们再计算出一个月等于一百四十四五个小时,可以推算出它的月额度最大上限。 因此我们整理出了这张表格,然后就是它支持的模型定有 mini max 二点五、 mini max 二点一和 mini max 二。然后我们再来看第二家智普, g m l g m l 是 有三种套餐呢,只有 leader pro 和 max 版本。智普也是在国内 callenplan 套餐中它是最抢手的,每天早上十点钟刷新,你去看一看,其实很快货就会被抢空了,也不知道为什么,难道是饥饿营销吗?然后我们来继续往下看,相比于 mini max 的 每五个小时只限制一次额度,它增加了一层规则,那就是周额度上限。 既然有了周五的双线,因此我们可以算出每个月大概有个四点三个周,我们可以得出大致的月利润最大双线。然后我们再看它支持的模型,它 leader 套餐不支持 gm 幺五模型,然后其他所有套餐都支持 gm 幺五和 gm 幺四点七及其所有的历史文本模型。 接下来我们再来看第三家,也是我们的火山引擎,也就是豆包,它只有两种套餐, leader 和 pro 套餐。然后它跟前面两家比的话,不一样的就是 它不采用了 promote 来计数,它采用的是模型调用次数,但是在它的文档中也说明了它每一次调用也会花费大概十几二十多个不等的调用次数,所以我们也可以 理论上给它计算回来,这样就得出了每五个小时然后周额度和月额度的 promote 次数。然后可以看到它支持的模型是 豆包二点零, coder, 还有豆包 coder, 还有 g m 幺四点七,然后 d s c v 三点二,还有 kimi 二点五,支持的也是非常多。然后再看最后一个就是阿里一百链平台,它的套餐是和豆包其实一模一样的,然后它的收费标准还有额度上限都和豆包是完全一模一样的, 它两个不愧是相互对标的模型平台,搞的套餐都是一模一样的。然后再来看它支持的模型是千万三点五 plus kimi 二点五, g m 幺五 和 mini max 二点五,还有千万三, max 还有千万三, codenix 还有千万三, codenix 还建妙四点七,所以从模型的角度上来说,它还是略胜火山引擎一筹的。 我们介绍完了四个平台,我们再看下全平台的性价比对比。我们的性价比对比,采用它每个月理论上能调动的最大蓬勃的次数, 除上它的价格,我可以算出来多少 promote 美元,这样我可以计算出它理论上最大的性价比。然后我们可以看到,在这个排名中, mini max 家族可以说是遥遥领先,垄断了第一的位置,接下来就是我们 g m l 垄断了第二的位置,接下来就是豆包和火山引擎 并列第三名。好吧,这究其原因其实也很简单,因为 mini max 平台它只限制五个小时的调用额度, g m l 平台只限制一周的调用额度, 火山引擎和百联平台限制了一个月总额度,所以从理论上极限来计算,那么必然是限制越少,它理论上调用的次数就越高,所以 mini max 领先于 g m l, g m l 领先于火山引擎和百联平台。然后分析了极致性价比之后,我们再来看模型丰富度对比, mini max 中只有支持它的 mini max 的 三款模型,智普只支持它的 g g m l 家族, 然后火山引擎的话就支持豆包还有 deeptech gm, 它都支持。最牛的就是百炼平台了,它有八款模型,分别是千问系列,还有 kimi gm 幺五, gm 三七。 mini max 二点五,它可以说是把过年以来国产最好的四款模型都集齐了,也就是 我们的千问三点五、 plus kimi 二点五、 gm 幺五、 mini max 二点五,这可以说是过年以来最好的四款模型。 从模型丰富上对比,我们的百例平台有八款模型,我们的火山引擎只有五款,仙妙的话只有三款, 还有迷你 max 的 话也是只有三款。从模型丰富上对比,我们的百例平台遥遥领先。说完了模型丰富度和我们的性价比,接下来我们就推荐一下。推荐那当然是要为不同人群量身定制的,我们第一个就是为小白新入门的小白人群推荐, 每个月预算大概四五十块钱,我们就推荐他火山引擎和百联引擎的 live 套餐,他足够便宜,而且每个月有一万八千次的模型调用,也足够你入门了。 然后他的模型还很丰富,就可以支持你用多种模型,让你感受一下是不是新手小白,肯定都很想感受一下不同模型的效果到底怎么样,这是非常适合新手小白入门使用。接下来就是追求极致性价比的人群了,他每个月预算大概一百到一百五十元,我就推荐 mini max 的 max 套餐, 它的性价比最高,理论上来说是美元,可以调用三百六十三次 promote, 理论上每个月可以调用六十四点八万次大模型,所以它的价格也适中。然后性价比是最高的,就是最适合追求极致性价比的人群。 然后如果你如果是日常开发者,预算在一百五到两百元之内,那么推荐你用 g m l pro 或者火山引擎 pro。 g m l 的 理论上调用次数还有豆包的都是很多的,而且豆包上的模型也比较多,然后 g m l 五的编码能力也是非常强的,这样就推荐我们日常开发者使用。 如果你是,如果你是 vivac 的 重度依赖用户,那么就肯定是提高你的预算四百到九百了,那我们就推荐你用 mini max ultra speed 或者是 g m l max, 那么调用次数是有着最大的保障,同时还兼具着最最快速的响应速度,这样足够重度用户使用,不仅兼顾了量,而且还有速度,而且因为它有足够大的量和足够大的并发症,所以它还可以支持多团队使用,团队可 能买这样一个大套餐就够一个团队使用,但是接下来我们再看,如果你是一个疯狂的模型体验党,然后呢?预算大概在四百到两百元,那么肯定推荐你是百练的 excel 或者是 pro 套餐了,它有八款模型 可以供你选的,同时还有四款是国内最好的大模型,一站式可以体验多种 ai。 最后一种就是追求稳定额度的,他们就推荐火山引擎和百联引擎, 他们的每个月调用次数都有明确的上限,不像其他平台 promote 计算的模模糊糊,然后它还不会产生多余的额外花费,算是可预算可控场景,适合追求稳定额度的人群。这样一份 cookie plan 保姆级入门教程,你喜欢吗?

最近国产龙虾全网刷屏,腾讯智捷三六零全下场了,但这商家到底有啥区别呢?今天咱们大白话扒一扒,看看哪只最对你的胃口,别瞎上啊,下错了,是用不顺手的。 先说腾讯的 qq 这玩意啊,简直是打工人的贴身助理。他最大的特色就是跟微信深度绑定,你在外面用手机发条指令,公司里面的电脑就能自己跑起来干活找文件。 而且他是纯本地安装数据存在自己的电脑上,不乱跑,主打一个接地气,好上手,适合离不开微信的普通上班族。 再看智捷火山引擎下面的阿克克拉,这家伙是个急性子,压根不用下载网页打开就能用。他最大的优势是完全不挑电脑配置,老电脑照样带的动。而且人家跟飞速搭档的特别默契,搞个会议机啊,处理一个复杂文件麻溜的很, 特别适合团队写作和搞自媒体的朋友。最后是三六零,安全龙虾,一听这个名字就知道人家是时刻安全的,不仅自带个龙虾卫士防恶意插件,甚至还出了个实体的硬件盒子做物理隔离。 如果你平时要处理公司账目、核心客户资料这类敏感数据,或者心里面总觉得 ar 会偷看你的隐私,选它准没错,一键安装,新手也搞得定。这题好做吧,我给你盘一盘 图,不占内存就选 cg, 重隐私防泄密。选三六零,想要手机遥控电脑的就盯紧腾讯,听说阿里百度也在后头背大招呢,这一帮大肠卷起来,咱们普通人就等着享福,你现在会相中哪一只呢?在评论区里面吐槽吐槽,看看大家都在用啥。

大家好啊,昨天阿里巴巴开源了千问的一个小模型,三点五系列最小的尺寸模型啊,四款,那其中有一款是零点八 b 和两 b 的 啊,这个是非常小啊,推力虽然很大,但这里面我说的不是他的,我说的是一个三点五 b 的 啊,四 b 这款, 四 b 这款好了,四 b 这款的话呢,我们昨天晚上测试了一下汤,同时话呢,我们先说一个事啊,马斯克在 x 上对这个模型进行了测试,并且给出了一个非常好的体验,他认为这些参数他的智能密度令人印象深刻啊,为什么这么说? 我说这个四 b 的 模型,我建议大家考虑,如果稍微能力强,可以上那个九 b 的 模型。干什么来都知道你们正在养龙虾是吧?就那个大龙虾,那个智能体的集成是吧?号称是贾维斯的出行, 但是他是一个吃 token 大 户啊,什么意思啊?就是我之前试过啊,一个晚上让他给我们做一个程序啊,然后消耗了两百多万 token, 做出来程序还有很多 bug 啊,那,那这个事确实不可持续,虽然说这个 token 现在比较便宜,但两百多万 token 的 话也十几块钱呐,对吧?一个晚上十几块钱这玩意,而且解决一个任务呢,人任务多的话,可能上千万 token 都出去了,那怎么办?对,这个事怎么办? 所以呢,这个端侧部署一个端侧模型来解决这个龙虾啊,在日常应用中的绝大多数的 token 的 使用是当务之急, 那么在这种情况之下,这种小模型的话呢,就比拼,哎,谁能把大模型的这个能力降下来的这个度越小啊, 它寄生能力越好,对吧?这种情况下,所以千门刚刚推出这四款,尤其其中这个四臂,我们正好测试了,我们在昨天测试了,在我们的自己养的龙虾上跑起来非常的舒服啊,百分之八十以上的工作完全由这个端侧的小模型来解决了, 非常好啊,包括数据的处理啊啊,包括图表的处理啊啊,包括我们跟他日常对话包,包括调取这个,哎, skills 包括什么?呃,就是搜索东西啊,包括数据的集成啊,包括 excel 表格处理啊等等,这些东西完全都可以通过端测这个四 b 的 小模型进去, 非常好。所以呢,我说啊,我说这千万这次开源的四个小模型,其实恰恰什么,就是我们现在玩龙虾的最好的助手,也是最适合龙虾发展的模型, 就是这么回事啊,就非常的玄幻,但是现在就是这么回事啊,所以后续的东西,如果你们感兴趣的话啊,你们如果正在养龙虾的话,或者你想探索龙虾的,哎,我建议你好好试试这个模型,这个模型会给你省很多钱,因为它是开源的,你直接不熟以后最少你百分之八十左右的工作, 甚至高一点百分之八十五左右的工作,你是不用再去调取网络的 a p i 的 接接口了,它这个东西就产生更好的应用,懂,懂吗?但对于我们来说的话呢,它一是省钱,另外一个的话就是它的能力还够,而且它还有什么?它关键它有图形的这个 o c r 的 能力啊,然后它有图片的生成能力,这个就很强了, 这就很强了啊,所以这个事我觉得还是非常有意思的,而且小尺寸实现高智能啊,这个是非常强的,而且是少数实现跨级的性能的超越,媲美中型模型啊,中尺寸媲美顶级模型,这样的一个情况,我觉得华为的,哎,不是华为千万,这次做这事非常的好啊,非常的好, 好了,简单大家说一下,如果有需要的话可以好好试一下啊。另外的话呢,说一下呢,很多朋友说,老张,你现在是不是又关注 ai 了?注意关注 ai, 因为这是热点 啊,这是一定的热点,而且我们的这个说,在咱们的这个会议视频当中,热点也是因为我们的分析的快,然后你要说到哪看的话,关注一下我们小程序啊,到底瑞克老张哥不哥啊?我们小程序小程序里面的话呢,说实在的,咱们那个有一个免费的专栏,你说我不想花钱,有免费的专栏,就是咱们在平台上发的内容精选出来放的免费专栏的,不停的更新的,你要需要会看 看一下啊,赶紧的订阅就行,免费的。当然咱们的年度那个会员的话呢,现在是幺六九九啊,而且的话呢,我们是一年一百八十个这个会员视频,三十二场以上的会员直播之前内容都能看,甚至包括以前的付费专栏,包括以后的付费专栏都能免费看,特别划算啊,平均一那个一个视频 喝喝一场直播都十块钱左右啊,所以你觉得对吧?这个一一一一,一瓶两瓶,这个汽水钱啊,就就就解决一次这个抹平新茶的机会,你觉得划算不划算?好不好啊?今天就到这,我是瑞小张,关注我,带大家看中国科技的高度和温度,明天见,拜拜。

今天给大家分享一下这个 open curl 踩坑的点和它的一些优点,重点是它的一些能力边界是我自己的一个看法,它可能不是那么准确,但是应该大差不差。首先第一个踩坑的点就是它降智,就是叉 gpt, 我 用的 codex 这个授权的模式,它有点降智,我是这样感觉到的。 第二个点呢,就推荐大家可以用那个阿里的会员 codex 这个计划,因为只要七块九就可以直接上手,直接用 kimi 的 吧。 呃,我不知道是我的错觉还是什么,它那个七块九的它速度会非常的慢,而且它的通用纤维三点五的 plus 版本也是感觉它是有点降质的,我之前拿它来去做一些网网页和这个图像的点击,它是定位不准的。 kimi k 二点五它应该是跑出来是准的, 嗯,所以说大家可以思考一下。然后我开了他那个一百块钱,两百块钱一个月的那个版本,他的速度非常快,而且那个 plus 三点五 plus 也是非常准的。呃,这就是第一个踩坑的点。 再就是大家做执行的时候一定要把这个东西打开,如果你不打开,你是没有这个这些他执行操作的,有时候他会回答你一个结果,但是他跑没跑你是不知道的, 这个东西就很很让人抓嘛,有时候你等了他半天,他告诉你我已经正在执行了,但是其实你等了一个小时,两个小时,他还是没有执行。我给大家看一下这个命令,就是这个命令 for boss on, 这个命令可以把他的这种操作的一些细节,他会把它打开,如果你不打开的话, 就会像之前一样,他告诉你执行了,其实没有执行,因为像现在的这些模型,它的这种指令遵循的还是有一点点差的,特别是国内的这种稍微小一点的模型,像 cloud、 cloud 这些模型可能会稍微好一点,但 cloud 很 容易封号。 呃,再就是他的这个能力边界,他在做网页抓取是特别好用的,可以给大家看一下,可以看到我已经把他做成了一个定时的任务,他每一天会去抓一下。呃,今天的一个 top 十的热榜,然后有详细的介绍,当然也可以让他再详细一点,都是可以的。 嗯,但是他像什么样的操作是不行的啊?比如说做一些抖音,抖音啊这些他是有限制的,你直接让他登录网页进行操作,其实他操作起来都不准,比如说回评论,他会限制你根本回不了评论。还有 我觉得最大的一个点就是我们的一些数据,我们会放在这个金山的在线文档里面,他其实也是抓不到的,因为他这个东西是不准的,这个东西也是不太好的。 还有就是这种这种如果他抓不到的话,他就会使用这种 ui 界面操作的方式截图,然后滚动的方式,这个东西也不好。嗯,推荐大家如果使用的话,可以使用这个飞书的这种多维表格啊,或者说这种 api。 但是大家如果没有使用习惯的话,肯定还是有一点欠缺的。 建议大家怎么样去做这样一个定时任务或者心跳机制?你可以自己做的事情,比如说像嗯,网页,你自己带着它做一遍, 一点一点的做,你别让它一次性去完成一个特别大的任务,它可能你后面就要调整的非常多,你可以一步一步带着它做,你先让它打开一个网页,然后让它搜索什么什么东西,然后去整理什么什么东西,你带着它做一遍之后,然后你把它叫它沉淀成这个 skills, 然后再把这个 skills 让它手动再跑通两次,跑通两次之后,你再去让它整理成一个定时任务,或者你那个心跳机制里面就可以加上这个 skills 了,这样的话它准确度就会高很多。 还有就是最大的一个问题,它的 u i 界面操作,它只能做这个网页的一些操作,它没有办法做一些 u i 界面的操作。呃,如果在国外的话感觉还是 ok 的, 但是在国内它非常封闭, 每一个基本上都是不打通的,每一个软件,每一个应用它都是不打通的,比如微信、飞书各种它都是不打通的。所以说你没有 u i 界面操作,那其实在国内使用还是有一点鸡肋的,除非是什么情况, 你本身办公化、数字化就做的很好的,比如说你直接就本身你就,呃,公司就在用飞书,而且用的非常不错的,然后结合上这个 open core, 它的效果还是蛮不错,能做非常多的事情。但是你之前完全没有做这种线上化的一些操作的话,其实做起来还是非常的困难。 ok, 呃,我也给大家汇报一下这个进度,因为我说了要开源一个 ui 界面操作的一个 agent, 呃,可以让 open curl 去执行这些操作。现在达到什么样的程度了呢?来给大家汇报一下, 昨天也跟大家说了一下,昨天已经完成了这种录屏,然后把它整理成轨迹,然后再用这个 agent s 三进行操作,操作了之后,呃把这个操作的也录屏录制成轨迹,然后跟之前轨迹进行对比,然后达到自净化的一个效果。呃,现今天做的主要的事情就是让 rpa 和这个 ui agent 就是 agent s 三,它们两个可以进行混合的执行。首先就是它们俩有一些固化的,用 agent s 三可以呃 进行判断操作,这是第一个功能。第二个功能的话就是 a v edge 和 s 三,它可以去做 r p a 错误之后的兜底,这个已经实现了,但是还有很多,比如说它的一些 bug 还是需要修的,估计今天是可以完成。 明天主要的工作可能就是把前面的录屏和这个 u i a 和这个 r p a 和 u i edge 的 编排把它弄好。 嗯,这就是这就是这个项目,这个这就是这个开源项目的一个进度,给大家汇报一下。最后总结一下,像 open core, 我 个人感觉哈也有可能是我使用不精的一个原因。 嗯,它是很好的一个东西,它也是很明确的一个方向,但是目前来讲它的这种功能和内容 和国内的情况他不是非常符合一些小公司或者我们个人使用。如果说我们是呃自己本身做这种工作流,自己的工作做工作流已经做的非常好了,那么还是非常适合的。 如果说想要用好,那真的得把这个飞书给先用好来,然后他才有用好的可能性。他有用,但是对普通人来讲不多,因为我们常用的一些软件系统他打通的就不够,我个人感觉他是最大的问题在这里。

三月九号亚太股市开盘,因为国际局势紧张,大盘绿的发慌,有一个叫龙虾的概念板块, 却像煮熟的龙虾一样,红的发烫。尤克德十一分钟二十厘米涨停,青云科技、红景科技集体封板,连港股的 mini max 都暴涨百分之二十四。 昨天晚上我就跟会员分享一下,这个周末机构都在学习 open claw, 也就是龙虾。 有的券商连夜开电话会教你如何安装,有的在分享如何使用龙虾来处理日常工作。那到底什么是龙虾概念?为什么腾讯火山引擎会同时吸引用户使用?深圳龙港政府更是出了一个龙虾十条? 别急,让私募基金经理替你慢慢介绍。当你听明白之后,你就明白为什么龙虾会刺激到算力需求。第一点,什么是龙虾?你现在用到的 ai 助手,比如说豆包、千问元宝,他其实像一个军师, 你问他什么,他就回答你什么,你不问,他就不会帮你做事情。而 open crawl 龙虾实际上是你的捕人,你只要交代一句, 每天帮我整理我关注的财经信息,九点开盘前发给我,收盘之后再把我喜欢的财经主播最新的视频都看一遍,写个汇报告诉我,那从此之后,你的仆人就会定时定点跟你汇报它的本质。实际上是一个开源的 ai 软件框架, 下载到任意的电脑之后,他就会自己开邮箱,他就会自己登网站,开邮箱写文档,操作你的电脑,四十二小时,随叫随到。你还可以给他安装各种复杂的技能,就像给他武装钳子一样,他所形成的知识和经验都会储存在你的电脑里面, 他会越来越懂你,就像一个老管家,有了龙虾的电脑就能够称之为 ai 电脑 军师动嘴,仆人跑腿,因此这就是 ai 从建议到执行之变。 不过这龙虾安装和使用都是有很高的门槛的,他还是用那种古老的命令行的界面,因此对于非程序员出身的人很不友好。这所以为什么前面机构圈子都在做内部培训,教你如何安装龙虾。 那对于普通人来说,互联网大厂直接送一个云端部署好的龙虾,让大家可以开箱即食。第二点,为什么腾讯、自洁这些大厂要免费帮你装龙虾呢?还记得以前运营商充话费送手机的套路吗? 手机你可以白拿,但是你被绑了一个多年的高额套餐,月月交话费,那其实腾讯智捷、阿里这些大厂免费送龙虾,这个龙虾就有点像当年的手机。而未来 token 就是 你的话费, 因为你本地的电脑,它的算力很有限,它只能干简单的活,想要干复杂的活的话,就要调用云端的 ai 大 模型, 那每次调用都是要收钱的,烧 took 的 速度是你平时聊天问打的几十倍,像有一些重度用户,他一个月就烧掉了几千美元账单。 所以说腾讯智捷他们实际上抢的是 ai 时代的手机发放权,先把免费的龙虾安装到你的电脑里面,等你用习惯了,每个月就持续收你的 took 话费,而且这个龙虾会越养越好用的。 当你在某个平台养好龙虾之后,你的资料、工作流,还有他的 ai 能力都会储存在云计算电脑上面, 后面你再去换平台,成本就会非常高,这也就是为什么腾讯在自己的楼下排队给你安装,他正在抢未来十年重要的入口。那么龙虾概念那么多,哪一个才是真正受益呢? 首先我们先聊一聊市场先跑出来的云计算,或者说算力捉令方向。前单前面已经讲到,普通人自己安装龙虾是很麻烦的,他自己 而且龙虾工作需要二十四小时不停的开机,而且还有隐私安全的要求,在云计算做一个隔离是最合适的。因此如果人人有龙虾,那么云计算厂商是最受益的。尤克德金科技这些涨停就是顺这个逻辑。 不知道有没有人还记得,其实去年 deepsea 发酵之后,也是这批公司率先走强。不过为什么去年他们都走了一波过山车?那是因为大厂送龙虾肯定都安装到自己的服务器上面, 除非大厂算力不够,才会找二线的云计算厂商借,或者他们能够拿到国企政务的龙虾相关的订单,那些厂商才能真正受益,否则很容易又是一波流。 是第二,大模型厂商是真正胜受益的,不过散户还因为没有入港股份问题,摸不着。 mini max 涨百分之四,它的模型是龙虾完成任务里面性价比最高的模型之一, 国产大模型的定价只有海外的十分之一,那随着龙虾的爆火,中国的模型在全球的平台调用量已经超过了美国, 龙虾越普及,我们这些国产大模型出海的能力就越强。第三,数据中心和算力硬件是长期受益的,不过这里面涉及到的行业太多,我们就不泛泛展开。 最后军事感慨一下,因为研究 ai 相关产业和做自媒体的关系,我比较早就开始研究容下,我也很希望自己有这样的 ai 助手,可以帮我处理各种琐碎的工作。但没想到因为巨头和政府的启发, 我们机构圈既然开始了一场自发学习龙虾的热潮,进而演变成为市场的最强板块之一。但是我需要提醒一下,我们要重视新概念的诞生,但是又不要强调某一个新概念,他对公司股价的短期刺激, 慌慌张张跑去追高,也不要抱怨为什么概念炒起来之后你才知道,你才收到这样的视频, 而龙虾 ai 视频也只是 ai 浪潮结出来的一个果实之一,未来可能还有更高级龙虾。因此你真正需要做的事情就是不断的学习,然后明白算力在背后的支撑作用,进而坚定自己在这些方向上面的投资信仰。 欢迎大家点赞关注,我们一起共同学习,或许哪一天就在我们的研究当中预言了某一个未来的热点。

养虾需要买 mac mini 吗?一句话啊,如果你再问这个问题的话,那就是不需要。新手朋友先建议用云服务器,或者现在很多厂商,比如火山引擎还有 kimi mini max, 他 们都提供了一键部署的服务,很便宜啊,一个月 几十块钱甚至十几块钱先用起来啊。当什么时候你确信啊,这个版本的 openclaw 已经不能够满足你的要求,你一定需要 mac mini 的 时候你再去买,不要做那个插绳文具多的人啊。

大家都说 open club 很好安装,但真正自己上手的时候还是很容易因为各种小问题卡住,最后看起来像是安装失败了。所以今天这条视频我就用零基础也能听懂的方式,带你从头开始,一步一步操作, 你不用自己研究原理,也不用担心哪里看不懂,跟着我无脑作,最后就能把 open core 跑起来。第一步,先打开 power shell, 输入 node version, 如果能看到版本号,说明 node 已经装好了,可以继续。 如果提示找不到 no 也不用慌,这说明你的电脑还没装 no 或者环境电量没配好,你可以先继续跑 opencloud 的 安装命令,很多时候它会自动处理,如果不行就先把 no 装好,再重新打开 powershell, 检查一次版本号。 第二步,执行安装命令,接着在 powershell 里输入官方安装命令,运行之后它会开始安装 opencloud, 并进入首次出场流程。 第三步,安装跑到这里的时候会自动进入这个命令,这一步就是 openclock 的 首次出场向导,简单理解就是软件装完以后第一次带你做配置。 看到这里先不用慌,后面虽然会出现模型、默认配置这些选项,但第一次我们不用全配完,先把程序本质跑起来最重要。第四步,当它让你选模型或者认证方式的时候,先别急着配,直接选 skip for now。 这不是不用模型,而是先把模型这一步跳过去。因为第一次安装最重要的是先确认 open core 个体能不能正常跑起来。如果你一上来就在这里配模型,反而很容易因为认证或者接口问题把自己搞乱。所以这里先跳过,后面我们再单独接宽, 不按提示,在这里按 ctrl c 退出。这不是安装失败,只是说明 open core 已经装上了,但初步还没全部做完,后面我们继续按更稳的步骤往下配就行。 第六步,先不要急着开 dashboard, 因为现在开了大概率也是这种页面能出来,但其实用不了的状态,原因不是坏了,而是 gateway 还没启动,所以正确顺序是先启动 gateway, 再打开 dashboard。 第七步,接下来就在刚才那个 power shell 窗口里,按顺序执行这三条命令,第一条是补本地运行配置,第二条是切到本地 get 位模式,第三条才是真正把 get 位启动起来。 你可以把它理解成先把环境补齐,再告诉它走本地模式,最后正式启动服务。所以这里不要跳着走,就按照这个顺序一条一条执行。第八步,如果你看到这个 power shell 窗口一直停着不要关, 这不是报错,也不是卡死,而是说明 gateway 已经在正常运行。这个窗口一关, gateway 就 停了,所以这里先让它挂着就行。 第九步,重新开一个 power shell, 别动刚才那个窗口,因为刚才那个窗口要让 gateway 的 token 读出来,看到输出的异常串字符后,直接复制保存好就行。 第十步,现在再去开 dashboard, 因为 gateway 已经在跑了,端口也有了,偷看也拿到了,所以这时候输入 opencloud dashboard 才是正确顺序。记住一句话,先开 gateway, 再开 dashboard。 如果返回的是这种提示,不用慌,这不是报错,也不是安装失败,它说明程序已经跑起来了,只是模型还没配置好,所以暂时不能正常对话。 第十二步,接下来开始配置模型。我这里用的是阿里百炼 a p r, 所以 后面我们直接把 disco 接近 open core, 前面页面能开但不能聊天。不是安装问题,而是还没有把模型真正配好。 第十三步,拿到 api key 之后,先在新的 power shell 里设置这三个环境变量,分别是 api key、 base、 url, 还有模型 id。 这一步的作用就是先把库恩接入需要的基本参数准备好。 第十四步,前面的参数都设置好以后,直接执行这条括号的接入命令。这一步就是把括号正式接近 open core, 命令虽然长,但你不用背,完整复制执行就行。第十五步,最后重启一下 get 位。 因为刚刚改了模型配置,所以要重启服务,让新配置生效。最后说一下,第一次配置完成以后,后面每次启动其实只需要两个命令,先 opencloudgateway, 再 opencloud dashboard。 记住顺序,先 gateway, 后 dashboard。 如果你想要我整理好的,可直接复制版,完整步骤可以直接私信我,也欢迎关注我,后面我会继续更新更多 opencloud 的 使用教程。

各位,欧本可乐装好了,也连好了,云端的大模型 很恐怖,首先推荐按好了以后,第一个先装一个这个升成器,在这个里边配置模型,非常方便添加添加新的模型,这样方便我们试各种免费的模型, 然后可以随便切换。 我是按照 ai 的 指示,一步一步装好了这个模型,然后申请了火山引擎的这个免费的 api, 填好了以后,怎么为什么说恐怖呢? 不知道各位装了以后装好了以后都会怎么想?随便问了两句以后, 随便问了两个问题以后, 这是前边试用的免费的 e p i 现在基本都被占光了,没得用。装好了以后,连接好了火山引擎,在这个大模型以后,装的是连的是 deepsea, 然后三十分问了,你能自己装 skill 吗?他说不能,然后我又问了一下速度怎么样? 九点三十九分,我说让我们从给你装 skill 的 skill 开始吧,然后他就开始跑。三十九分开始 先看了他,他先自己看了自己有什么技能,然后然后就一直跑一直跑一直跑,开始自己自己建立技能, 自己建立技能。 四十七分,不是四十七分的时候,是 四十九分的时候让他暂停,为什么让他暂停呢?因为他已经不,因为四十九分的时候他已经不再动了。五十二分的时候就收到短信, 他把火山引擎的这一个一个一个项目送的五十万已经给跑光了,已经欠费了。确实很费啊,很烧 tokens。 四十九分的时候其实就已经用光了,然后他已经做成了什么呢? 确实厉害,但是用不起啊。

买了一堆 ai 工具,钱花了,时间耗了,循盘半毛没涨。哈喽,大家好,上周咱们讲了海外买家在用 ai 筛选供应商, 那这一周呢,我重点会帮大家避避坑。最近养龙虾炒的非常火,还有很多外贸老板买了 ai 工具没有效果,那今天我把 ai 工具这个坑拆透,直接上干货啊!最近养龙虾炒的非常火,就是 open clock, 呃,很多外贸老板跟风入局了,还有人买了一堆的类似的 ai 工具,钱花了,时间耗了,循环半毛钱没讲。今天就拆透这两个大坑,重点讲讲 openlock 养龙虾的收费陷阱。 核心痛点,你以为养龙虾误数便宜就划算了吗?大错特错,他的坑全在后续的收费里面,尤其是偷肯的消耗,很多老板根本没搞懂这个收费逻辑,最后亏的嘤嘤叫。先猜养龙虾的核心误区和收费逻辑,先听懂了再决定要不要跟风。 他确实呢,部署极便宜,本地部署呢,几乎零成本,那鱼服务器呢?每个月也是几块钱十几块钱,但这只是空壳成本,真正的大头在 took 的 收费里面。什么是 took 呢?简单说一下, took 就是 各位养龙虾运行的燃料 ai, 每执行一次操作,比如抓取信息、生成内容等等,都会消耗对应的 took, 按实际消耗进行计费,用的越多,花的越多,没有上限。就像你买一个免费的机器,每一次啊, 机器都要单独的买油,而且油还很贵。更坑的是,养龙虾作为智能代理,完成一个简单的获客任务,要经过多个步骤的推理,每一步都要偷啃,也要调用不同的 ai 工具也需要偷啃, 比普通 ai 工具费十倍都不止,一旦呢,自动化流程失控了,单日的 to 肯消耗就能超两百美金,月度成本呢,轻松破几千都可以。所以对于我们做 b to b 的 外贸人来说呢,呃,有点巨坑,而且他根本适配不了,例如我们做的阿里国际站,独立站和 ai 的 搜索规则,花了钱也拿不到循环。 再说说 ai 工具的误区,不是工具没有用啊,是你没有适配平台规则。阿里的 ai 采购 a 准呢,只认平台自带的诊断工具,独立站的爬虫只会认 seo 合规的内容, 那么接下来避坑的实战法照做,不亏啊。第一呢,如果你是阿里国际站的用户,不要用第三方的工具,直接用平台自带的 ai 诊断工具一键进行检测,关键词产品页面问题自动深层优化。建议, 这个是在呃,三月初的时候,我们跟阿里国际的 ceo 有 沟通过,呃得到了信息,他们会大力的去发展符合阿里规则的这一种 ai 工具, 他们不断的整合啊,当然我也给了很多的意见,各位可以留意最近的点供。第二呢,如果你是独立站的用户,用轻量的 ai 工具,正符合 seo 规则的薄壳内容,适配 ai 的 爬虫,不用复杂的部署。 第三,如果是外贸业务转化端的问题呢,用 ai 工具做买家的背景调研,特别是商业背调,然后深层定制化的邮件,当然不是邮件模板群发那种啊, 这样子买家才会有高概率愿意回复,这是老班的提醒。养龙虾部暑呢,现在是比较便宜的,但是 top 呢,巨贵,收费呢,比较坑,不是特别适合现在的 b to b 外贸。呃,还有我们做独立站跟国际站的同学。另外呢,千万别跟风去交学费, 我们先把基础的 ai 工具用好才是关键。评论区回复 ai 工具老班准备了外贸 ai 工具避坑的选型清单,线下课程呢,我会拆解更多的 ai 避坑技巧。好了,现在我要出发去意大利了,下个视频再见。

opencloud 真是直接把国内 ai 圈给炸醒了,这十款全国产的 ai 龙虾,功能真是一个比一个狠, 看完直接颠覆认知字节的 ai 龙虾,独特之处在于打开网页就能用,是火山 callin plan 里的赠品,不用单独花钱。还有腾讯的 qcloud, 牛逼的地方在于是唯一能连个人微信的 ai 龙虾。百度 com 属于云端零部署 啊,要说独特之处的话,只能是百度生态啦!阿里 coco 开源免费即刻开发者,英伦用户的最爱。而质朴的奥特卡在国内场最火,不过人家确实是国内第一个实现一键安装的。还有 mini max max 酷狗十秒级速云端部署,特点是手机也能用,别人说性价比高,但我没用过预制暗面 kim kong 云端托管集成 kimi 大 模型, 内容多支持离线任务。朋友有道 lobster ai 全中文界面主大学生党入门选手猎豹 e g 科奥 极致简化安装低配电脑影跑纯小白入门款迷你科奥,国内第一个主打手机端的 ai 龙虾,只配备小米红米手机,目前还在内测,对百分之九十九普通用户来说,不要再迷信国外工具啦,国产 ai 龙虾更安全更顺手。

最近火爆 ai 圈子的大龙虾,也就是所谓的 open 可乐,很多人不懂运用,配置起来很麻烦,所以阿里云针对这些问题就能帮你把全部的配置问题都搞定。那怎么去操作?这个视频告诉你。首先我们打开阿里云国际官网, 在产品界面找到清亮应用服务器,点击购买,这里会有一个大龙虾的图标,注意两盒两 g 以上的才能使用 open club。 然后选好节点之后就可以选择购买, 这里显示的是八美金,也就是五十六块钱一个月。节点服务器出来之后,它的状态为运行状态,就点入名称,这里应用程序执行命令, 点入第二步的执行命令,把百炼 api king 复制过来就可以了,阿里云的百炼 api 是 免费体验,可以直接使用。然后点第三步的执行命令,点入这个网址,这时候你的页面会跳转到另一个界面,所以这时候你已经有了一个 oppo 可乐的 ai 服务器。