粉丝70获赞215

我觉得现在最适合用这个 oppo 靠的模型呢,实际上可能是阿里新推的这个服务啊,这个东西叫这个扣丁不烂是吧?呃,为什么呢? 就之前吧,就是续费了好几个这种模型,然后呢?你续的不多,但它其实用量还挺大的,你看昨天晚上我就大概一个小时,我就把 kimi 的 那个十五元的 top 的 额度也就一个小时我就用光了。 我算了算,调用其实也不多,但是因为你在欧风靠的调用和你日常对话的调用是不一样的。今天我想打算试试这个阿里云百炼,简单说一下这个东西怎么回事啊?他其实就是把几个常见的这个模型给打包了,打包了以后有一个专属的调用地址和专属的 api, 来看一下它的指南。它是这样的,整合了这些顶级模型,然后还兼容主流的编程工具,就比如说我们 用的那些 id 类类的工具哈。如果你要是正常调用,他有的时候会限制速度或者限制这限制,那如果你一定想使好的模型,要么你去买会员,要么去升级,是不是他通过固定的费用?其实我算了算,应该是还是挺便宜的,虽然不至于到这个可调用的一折,但还是挺便宜。 然后它现在有几个基础的模型啊?这个千万三点五过年的时候推出的,很牛。据说啊, kimi 呢,也是刚推出不久,然后 mini max 当时那阵刚推出的时候也火了一阵。 glm 那 个五现在可以对标,他说可以对标那个叫什么来着,那个很牛的那个。 然后它有更多的就是千万三的 max 模型,这也是版本挺新的,二六年一月二十三号的,然后加上这些小模型啊,这无所谓,就是我们理论上如果你的调用次数差不多,那么你根据你的任务来选择不同的有特色的模型就可以了, 尤其是千万的这个和 kimi 的 这个都支持。图片理解费用上啊,首月七块九,其实你看的挺便宜,对不对?然后这个高级套餐呢,是三十九块九,就真的是特别便宜,但是价格上你看啊,首月七块九,次月呢是二十,也就是说他的正价是四十块钱,第一个月呢是便宜,然后第二个月呢是五折,第三个月就是正价。 呃,我猜两个月以后可能在这种东西上可能会有更多的爆发。呃,其实现在我我印象里火山就有这种类似的这种打包的这种服务,但是呢,一呢他的价格不便宜,二是他好像我查了查,他没有明确的说他支持那个 oppo 扣,这个呢是明确的说了他支持这个 oppo 扣,然后即使是最贵的这种 两百每月,那也真的是不算贵,因为你如果真的深度用了,你把两百的额度都用光的时候,那我认为你值得在这个上面花更多的钱。然后那个那天我还看到论坛上就有一个人说我除了租房子吃饭和日常开销,我把所有的钱都用来买陶坑上,哈哈哈,其实这是很有意思一件事啊,我觉得真的挺贵的。 我,我查了查我的用量限制,我觉得我用的不算多,但是其实也不算少,我其实在很多工作上都是在在那个詹妮的那个网页上去完成的,因为很多时候你要做调查呀,做一些文本的生成啊,那些东西他那个 pro 的 版本就完全能搞定了,因为我有个 pro 的 版本,但是如果按照他这个标准, 每五小时一千两百次请求,我现在是达不到的,但不知道我买了这个套餐以后会不会达到哈,我回头再测一测。那我认为新手呢,你就花七块九加上二十块钱,先用两个月, 对吧?然后当你发现不够的时候,你去升级那个就可以了,你就直接干到二百一个月呢。其实也没啥,二百块钱一个月也就是个电话费吧。我现在已经买完了, 买完了以后呢?他现在剩余天数二十八天,我不知道他为什么是二十八天,明明买的是一个月对不对?这个是不是他的 bug 按照当月天数计算的?那你们要不要搞到下个月再买二十八天?你看他是按照这个算的,上个月的二十六号到下个月二十七号对不对? 这个就不对了,这个非常过分啊,明明是一个月,所以我打算提前使光呢,呵呵。然后我们获取了这个东西啊,它有专属的 api key, 然后呢,怎么配置啊?这里面说明,我们来找说明配置, 看 open 框中配置这些东西,实际上不要被它这种东西吓到,如果你的 open 框现在正好用的状态, 你就把这段命令考下来。怎么写啊?我这就写了,我现在咱说说怎么配置哈,就首先呢,第一步就是修改配置文件,哪个配置文件呢?就是这个东西啊,但是呢,我们在 open 里可以直接跟他说,这是我上面已经配置完了,我重新演示一遍怎么配置,就跟他说修改配置文件啊, 然后呢?把这句 copy 过来啊,这这段啊,把这段 copy 过来,然后你可以把你的 apk 呢替换到这,我懒得打码,我也就不替换,放到这。然后呢?就这样呢,这个命令就搞定了,你回车, 回车以后就是我刚才的配置,那我已经配置完了,他现在就告诉我有这些可以用的了,然后同时它底下呢,还有一段,你可以直接考过来, 然后站到这,然后回时它就会自动把你这些东西都改好。看到没变更的载药就是什么呢?它其实就是告诉你默认模型变成这个,主模型 变成这个,然后移除了原先的什么什么,这些,就移除了原先其他的所有模型,然后把其他都移除了,我还有钱在里面。其中我认为比较好的几个,特别好的四个主流四个模型就是 kimi 的 二点五,对吧? g m m 五, 然后迷你 max 的 二点五,这个也不错,迷你 max 二点五。我发现他好像在写程序上更有优势。也是这样的,我的感受上啊,因为他的代码他理解的更快更好。然后这个是个多模态模型。嗯, kimi 应该是多模态吧,我记着这两个是多模态模型,如果你需要用到图片处理,尤其是处理本机的图片的时候,这两个模型非常好。 到了这步你的七块九已经发挥作用啊。至于接下来怎么用,那其实还是靠大家去想象。我之前因为这个模型的用量问题,我现在想都给他背地里的任务, 我现在都给他加回去,加回去以后我看看他这个调用的数量到底能撑多久啊?我每天会监控他的用量,我把他这个用量记进去吧, 非常好。我觉得整体来说这下就算完事了,至少我这个月应该不会特别为掏坑的续费吧?因为每次他如果出问题的话,你很难发现,除非你里面充特别多的钱。

大家好啊,昨天阿里巴巴开源了千问的一个小模型,三点五系列最小的尺寸模型啊,四款,那其中有一款是零点八 b 和两 b 的 啊,这个是非常小啊,推力虽然很大,但这里面我说的不是他的,我说的是一个三点五 b 的 啊,四 b 这款, 四 b 这款好了,四 b 这款的话呢,我们昨天晚上测试了一下汤,同时话呢,我们先说一个事啊,马斯克在 x 上对这个模型进行了测试,并且给出了一个非常好的体验,他认为这些参数他的智能密度令人印象深刻啊,为什么这么说? 我说这个四 b 的 模型,我建议大家考虑,如果稍微能力强,可以上那个九 b 的 模型。干什么来都知道你们正在养龙虾是吧?就那个大龙虾,那个智能体的集成是吧?号称是贾维斯的出行, 但是他是一个吃 token 大 户啊,什么意思啊?就是我之前试过啊,一个晚上让他给我们做一个程序啊,然后消耗了两百多万 token, 做出来程序还有很多 bug 啊,那,那这个事确实不可持续,虽然说这个 token 现在比较便宜,但两百多万 token 的 话也十几块钱呐,对吧?一个晚上十几块钱这玩意,而且解决一个任务呢,人任务多的话,可能上千万 token 都出去了,那怎么办?对,这个事怎么办? 所以呢,这个端侧部署一个端侧模型来解决这个龙虾啊,在日常应用中的绝大多数的 token 的 使用是当务之急, 那么在这种情况之下,这种小模型的话呢,就比拼,哎,谁能把大模型的这个能力降下来的这个度越小啊, 它寄生能力越好,对吧?这种情况下,所以千门刚刚推出这四款,尤其其中这个四臂,我们正好测试了,我们在昨天测试了,在我们的自己养的龙虾上跑起来非常的舒服啊,百分之八十以上的工作完全由这个端侧的小模型来解决了, 非常好啊,包括数据的处理啊啊,包括图表的处理啊啊,包括我们跟他日常对话包,包括调取这个,哎, skills 包括什么?呃,就是搜索东西啊,包括数据的集成啊,包括 excel 表格处理啊等等,这些东西完全都可以通过端测这个四 b 的 小模型进去, 非常好。所以呢,我说啊,我说这千万这次开源的四个小模型,其实恰恰什么,就是我们现在玩龙虾的最好的助手,也是最适合龙虾发展的模型, 就是这么回事啊,就非常的玄幻,但是现在就是这么回事啊,所以后续的东西,如果你们感兴趣的话啊,你们如果正在养龙虾的话,或者你想探索龙虾的,哎,我建议你好好试试这个模型,这个模型会给你省很多钱,因为它是开源的,你直接不熟以后最少你百分之八十左右的工作, 甚至高一点百分之八十五左右的工作,你是不用再去调取网络的 a p i 的 接接口了,它这个东西就产生更好的应用,懂,懂吗?但对于我们来说的话呢,它一是省钱,另外一个的话就是它的能力还够,而且它还有什么?它关键它有图形的这个 o c r 的 能力啊,然后它有图片的生成能力,这个就很强了, 这就很强了啊,所以这个事我觉得还是非常有意思的,而且小尺寸实现高智能啊,这个是非常强的,而且是少数实现跨级的性能的超越,媲美中型模型啊,中尺寸媲美顶级模型,这样的一个情况,我觉得华为的,哎,不是华为千万,这次做这事非常的好啊,非常的好, 好了,简单大家说一下,如果有需要的话可以好好试一下啊。另外的话呢,说一下呢,很多朋友说,老张,你现在是不是又关注 ai 了?注意关注 ai, 因为这是热点 啊,这是一定的热点,而且我们的这个说,在咱们的这个会议视频当中,热点也是因为我们的分析的快,然后你要说到哪看的话,关注一下我们小程序啊,到底瑞克老张哥不哥啊?我们小程序小程序里面的话呢,说实在的,咱们那个有一个免费的专栏,你说我不想花钱,有免费的专栏,就是咱们在平台上发的内容精选出来放的免费专栏的,不停的更新的,你要需要会看 看一下啊,赶紧的订阅就行,免费的。当然咱们的年度那个会员的话呢,现在是幺六九九啊,而且的话呢,我们是一年一百八十个这个会员视频,三十二场以上的会员直播之前内容都能看,甚至包括以前的付费专栏,包括以后的付费专栏都能免费看,特别划算啊,平均一那个一个视频 喝喝一场直播都十块钱左右啊,所以你觉得对吧?这个一一一一,一瓶两瓶,这个汽水钱啊,就就就解决一次这个抹平新茶的机会,你觉得划算不划算?好不好啊?今天就到这,我是瑞小张,关注我,带大家看中国科技的高度和温度,明天见,拜拜。

q n 三点五昨晚发布了,但官方数据再漂亮,也不如社区实测的红黑榜靠谱。如果你有二十四 g 显存,无脑充三十五 b a 三 b, 它是这代的版本之子,代码和逻辑能力在这个量级基本没有对手。虽然每次推理只激活三十亿,参数速度飞快, 但记得他吃的是三十五 b 级别的,现存二十七 b 表现比较平庸,除非你的设备实在跑不动大的,否则不推荐吃鱼。 flash 版,它是处理百万字长文本的神器,本地跑太费劲,直接调 api 效果最好。 今天的视频不废话,直接把压箱里的推理参数、部署命令和调优经验喂给你,让你少走弯路,直接上手。 模型选好了,但如果参数设错,再强的模型也会变傻。先看最核心的深度推理场景,比如做数学难题或者逻辑推演,这时候必须开启千问三点五的思考模式。 注意,这里的 temperature 建议直接拉到一点零,这种高温设置能充分激发模型思维的多样化,同时配合一点五的存在惩罚,也就是 presence penalty, 这能有效解决模型在大规模推理时容易出现的复读机问题。但如果你是要写代码或者搞外部开发, 逻辑的严密性就比灵感更重要了。虽然同样是在思考模式下运行,但要把 temperature 降到零点六左右,降温是为了让模型输出更稳,少一些天马行空的幻觉。 top 维持在零点九五, 这样深层的代码逻辑会更连贯,能大幅提升代码的一次性通过率。再分享两个能让效果翻倍的小细节,第一是输出长度, 也就是 max tokens, 普通的活三十二 k 够了,但要是跑竞赛题目,建议直接拉到八十一 k 以上, 这多出来的空间不是给最终答案的,而是给模型留足打草稿的思考过程。第二是提示词技巧,做数学题一定要在末尾加一句,请逐步推理,并将最终答案写在框内。 要这层格式就明确要求只输出字母明确的指令边界,能让模型从猜你想干嘛变成精准执行。 最后必须划个重点,关于存在惩罚这个参数,虽然前面建议设为一点五,但你手动微调的时候千万别超过二点零。一旦设高了,模型会为了强行避开已经说过的词,开始强行凑数,甚至胡言乱语,整个逻辑会瞬间崩坏。 控制在零到二之间,这是千万三点五保持理性的最后安全区,模型调好了,怎么稳稳的跑起来?目前性能最强的是 s g l m 方案安装,别用慢悠悠的 pick 了,直接用 u v, 效率最高。 启动时一定要手动加上 razingpasta 这一行,这是千万三点五开启思考模式和工具调用的物理开关,漏掉它,模型就退化成普通版本了。 多卡用户记得根据显卡数量对齐 tv size 参数,确保算力全开。很多人一跑部署就炸显存,其实是因为忽略了那个默认二十六万长度的上下文设置。 如果你的显存没到八十 g 以上,千万别直接硬跑。建议手动把 context lens 压到幺二八 k 甚至更小,再配合 memfraction static 零点八这个参数,把静态显存死死锁住,这样能有效防止推理过程中显存突然飙升导致的崩溃, 让长文本处理变得真可用。如果你习惯用 lu l m 部署,这里也有个压榨显存的绝招。 再加上蓝宝石模型函数,虽然会暂时舍弃多模态视觉能力,但能为你换回巨大的文本处理空间,这在跑超长代码审计或者纯文字逻辑推理时是性价比最高的选择。确保带上 reasoning part, 让 v o l m 也能输出那串关键的思考过程。 如果你是通过 api 调用千文三点五,千万别在提示词里加斜杠 think 指令模型根本不吃这一套。正确的做法是,在 api 的 extra body 参数里,通过 chat template quicks 手动控制 enable thinking, 把这个布尔值设为 false, 模型就会跳过思考,直接给结果需要逻辑爆发时再开启,这是目前开发者最容易忽略的传餐细节。 要处理整本书或者超长文档,你就得开启千万的 r n 扩展,在 v l o l m 启动参数里追加这段,重写代码,把 max model line 拉到一百万以上。 这里有个独家经验,如果你的文档只有五十万字左右,把 factor 系数设为二点零的效果要比默认的四点零更精准。只有当文本真正接近百万级别时,才建议拉满到四点零。 想让模型看懂一两个小时的长视频,去修改模型文件夹里的视频预处理配置文件,找到 longest edge 这个参数, 把它改成这个九位数的特定值。这一步能让模型处理超过二十二万个视频 token, 无论是长篇分析还是监控复盘,理解深度都会产生质变。 最后总结一下,对于大多数本地用户,无脑充三十五 b 的 a 三 b 版本,只要你有一张二十四 g 显存的卡, 把它跑起来,温度拉到一点零,开启思考模式,这就是目前本地体验最好、逻辑最硬的中杯模型。上下文平时空在十二万左右,兼顾速度和显存,按这个配置跑,你就已经超越了百分之九十的普通玩家。

家人们谁懂啊?我的 openclaw 龙虾终于装好了,本以为能本地爽玩 ai, 结果测个最简单的,你好 直接给我整破房了。先上结论,配置没问题,模型没问题,但 openclaw 调用本地模型,性能损耗严重到离谱。我的环境,本地模型 q n 三比零点六 b i 五八二五零 u 十六 g 内存 wsl 二五零 u 十六 g 内存 wsl 网关。 两组数据一对比,血压直接上来了,直连欧莱玛跑模型,八点五秒就完整恢复模型本身完全正常。 同样的模型走 openclaw 网关整整一分五十五秒才返回结束,性能慢了十三倍,我都能泡好一碗面再回来。等回复了,我换了零点五 b 到三 b, 各种模型只要过 openclaw 就 卡成老年机。问题根本不在模型,就在 openclaw 网关层, 流势响应有巨大缓冲延迟。别怀疑自己,你没配错,是他在卡你 buff。 听我一句劝, 别死磕了,直接切云端模型,阿里云千问 plus 响应稳定一到两秒, a p i m 要配好一行命令搞定,瞬间从折磨模式回到科技本该有的流畅。本地模型优化, 后面有空再公关,现在先让自己用的舒服。如果你也在折腾 openclaw 本地模型,别内耗,不是你的问题,是网关的问题。最后补一句, deepsea 都在劝我别折腾了,听劝。解决方案很简单,上云端模型体验直接起飞,关注我,带你少踩这些技术大坑!

超简单的 open 克拉安装教程,接入快三点五 plus 大 模型,通过 qq 机器人号令你的龙虾。首先呢,先来安装 node js 浏览器,输入上面的网址,点击 windows 安装程序进行下载, 然后和平时安装程序一样的,这里我就不安装了,非常简单,安装完后在 cmd 执行都出现版本输出,那就没有问题。这里我们还要安装 get 版本控制工具下载我上传的,或者直接到官网中下载。安装 openclou 需要 get 工具, 安装也很简单,没有特别需求,一直 next 即可。安装完成后,打开 cmd, 进入 getversion, 查看是否安装成功。 整篇教程我都整理好了,评论区发六百六十六接收一件安装脚本和教程。接下来可以安装一个 notepad 夹夹,拿到我的非书文档后, 点击这个直接下载,下载完双击打开,点击 ok 往下安装就行。下面才是今天的主角之一。点击下载我的 open club, 一 键安装脚本,把它复制到地盘目录。我的脚本是把 open club 安装到地盘的,没有去局安装。以管理员方式打开 power show, 找到教程下面的命令行复制过来,回车执行,稍微等待一会儿, 出现当前界面提示,就代表安装 open class 成功。进入地盘, 你会发现生成了一个 open class 目录,进入目录,双击出场, on board bat 进行出场。这里配置就不详细讲了,跟着视频快速过,如果有不清楚的地方,可以看我的零成本养殖龙虾那个视频。 到这里, openclaw 的 前台进城就启动了,复制 dashboard link 到浏览器打开,其实你的浏览器也会自动打开的, 如果你启动了 openclaw, 但是你不知道控制面板的连接,直接双击面板 dashboard bit。 这里的配置 configure 是 你以后要修改配置的时候,可以在这里进入交互式界面去修改。下面是本视频的第二个部分,安装 qq bot 插件 双击安装 qq 插件, bad 提示, install the plug in qq b o t 就 完成安装了。安装好插件,我们要去开放平台获取配置信息,拿出你吃亏多年的 qq, 扫一扫二维码,点击创建机器人, ok, 现在拿到了 ipd 和 app secret, 切回地盘 open 克罗目录,打开 qq c o n f i g 点 txt, 把获取的 qq bot 配置信息一一对应填写上去, ctrl 加 s 保存后关闭。然后我们这里双击配置 qq 插件,点 bat, 出现 added qq bot account default, 即配置成功。下面给我们的 opencloud 配置上捆三点五 plus 大 模型,任意一种方式登录, 点击确认开通,然后点击模型, 选择密钥管理,创建 apikey, 然后你可以直接看到文档往下拉,找到 open curl, 然后再往下拉查看配置。适利 把这一段复制到 open curl 点 json 区,位置是 c users, 你 的用户名 open curl, 用 notepad 夹夹打开, 和 agent 同目录,还需要修改 agent 里面的配置, 然后这里顺便把它的权限打开,不然你的 open class 不 能操作本地数据。最后我们把 ipkey 复制过来, 到这里配置就完成了。但是这里有一个问题,这里少了个英文逗号,注意补上。 ctrl 加 s 保存关闭到这里,神功已成,双击启动 getaway bed 来启动 open class 前台进程,双击面板 dashboard bed, 获取面板地址进行访问, 先在这个聊天框试一下调用大模型有没有问题? ok, 牌没问题。 然后尝试下在 qq 上调用 openclaw, 这样以后出门在外都可以号令你的龙虾。感谢观看!

零成本白嫖国产小龙虾快速教学?答案其实很简单,就是摩搭社区加 call 配哦!点击创空间,在搜索栏输入 qpo 最新版,随便选择一个 qpo 空间,进入确认版本为新版本。点击复制填写必要信息, 这里注意选择非公开,不然会被窃取私人信息。最后点击复制创空间,等待五到十分钟即可发布成功。 成功后进入这个页面,点击右上角用户,点击账号设置,点击访问控制, 点击新建令牌,输入名称,复制 a p i, 点击个人主页,点击 q p i o 空间,这里还可以切换中英文, 点击模型,选择 modelscope, 将刚刚的 a p i 复制上去, 选择 ken 大 模型。 成功之后,我们就几乎零成本拥有自己的国产小龙虾了,虽然 api 每天有免费额度,而且小龙虾还有点笨,但重要的是免费的白嫖就是香!对想要试试小龙虾的朋友很友好。 下一期我会出配置非书和介绍一下小龙虾的使用技巧,大家也可以把想做的事情发在评论区中,我会尽力实现。 好啦,谢谢大家的观看。

兄弟们别等了,本地大模型加 open club, 龙虾就跟个傻子一样,半天憋不出一个屁来,我实在是被它整自闭了, 这个速度要是拿来干点什么,我真怕会把 gpu 累死,目前还是老实用 a p i 吧。哎,好东西,果然我们不配啊!我先烧吧,替大家看看水深不深,回来再给你们报告。

一分钟看今日 ai 大 事 cloud code 变身小龙虾 anthropic 上线 cloud code 远程控制能力,一部手机就能指挥你电脑上 ai 继续干活。迷你 max 推出自己的龙虾能力 max claw, 二十四小时在线的 ai 助手, 一个人就能指挥 ai 设计,智能体团队协助干活。 pencil 提出 agent team 能力, ai 根据脚本文案自动高亮动态字幕,字幕跟着语速跳动,实现酷炫视频节奏、视频剪辑党别错过 v 的 动态字幕工具。 与 ai 边聊边做音乐 producer ai 现已加入谷歌 labs, 能力基于 gemini 与 ai 音乐模型 lyria 三,它能更好地把握细节节奏,帮助你完成歌词创作,甚至制作音乐 mv。 模型上,阿里继续扩充千万三点五系列中型模型,公开多个更智能、少计算的模型。今日还有以下信息值得关注, ever ai 每天带你了解 ai 新鲜事!

大家好啊,最近不是千万三点五的中小模型都发布了吗?我本来准备是想测一测模型,给大家汇报一下,结果没有想到啊,我居然迷上了另外一件事,我给你们看一下,这是一台我的工作站, 我现在把降噪关掉,给你们感受一下, 怎么样 怎么样,听到了吗?因为这个模型真的太好玩了,所以导致我三天都没有关这台服务器。 好了好了,回归正题啊,原本只是想试试这个模型能不能用在 openclaw 里面,结果一发不可收拾,我这个工作站都暴躁的运行了三天了,我老婆女儿都开始吐槽了,而且导致我最近是严重缺觉,成天就脑子里都想的都是这五只龙虾, 我也不知道,下次分享的时候说不定就是十只了。但是今天呢,我还是先给大家汇报一下我这个千万三点五的测评数据吧,然后我再给你们详细的分享我这几天的奇妙感受。 我先说重点啊,我这次测评用的是 s g 浪,推荐大家都用这个单卡,用的是四十八 g 显存的四零九零魔改版 f p 八的精度,这个配置呢,能跑二百五十六 k 的 上下文。 值得一提的是,应该是只有 s g 浪完整的支持了前缀缓存,也只有在前缀缓存才能体验住千万三点五这种混合注意力架构的真正牛逼的地方。我举个例子,如果你是一百 k 上下文,冷启动 perf 阶段就是十秒钟, 但是如果你带了缓存就是两百毫秒,所以直接的结果就是,你哪怕有很长的上下文,但是他的首字延迟就是很低,输出还特别快。 我的测试场景给大家讲一下,就和我们的真实场景特别像,我每个模型测试都是从二十 k 上下文开始,一直增长到二百 k, 每次增加四 k 上下文,模拟我们真实环境下的长任务,而且他是在缓存命中的 三十五 b a, 三 b 这个模型啊,他最初的速度是一百二十头克每秒,最后衰减到了八十,衰退不算多。 而二十七 b 这个模型就逆天了,虽然它一开始就是个归宿,二十 to 每秒,但是到了二百 k, 它依然能保持十八 t 的 每秒。而且最离谱的是,你们看到了吗?因为它有缓存啊,所以即使缓存里有两百 k 的 上下文, 我输入四百 k 的 togg, 它的 perf 耗时只有两百毫秒。所以实际的生产环境,用人话来说就是在那种多工具调用的环节, 其实你感觉不到它很慢,因为工具调用这个场景啊,它输出的 token 都比较少,所以它响应也很快,很快就出结果了。你的直接感受就是对话再长,它的速度都不会衰减。我还做了一个测试啊,就是用 agent teams 同时开六个 agent, 哎呀,那个感觉真的是太爽了, 速度还能叠加,我也不知道是为什么,就直接从后台的输出,你就能看到它能达到一百二十多个每秒,而且这个二十七 b 模型,它是可以一键启动 agent teams 的, 我之前拿千万三点五 plus 都测试失败了, 他能同时开六个成员,速度能叠加到一百二十 t, 而且我还测了一下一百二十二 b 那 个模型,我个人的这个体感二十七 b, 他的智商是超过这个一百二十二 b 的, 只是个人感觉啊,就是从各方面数学,编程能力他都很强, 唯一的缺点就是他单进城特别慢,于是我就想到了一个妙招,哎,单进城很慢,那我就多进城呗,我可以拿它养龙虾呀,而且我可以一次养好几只,你养一只龙虾慢,那我养多只他不就快了吗? 这就直接导致我的服务器一直在咆哮,二十四小时都是这个咆哮状态,一直都满载,我家电费就更不要提了, 给大家分享一下我的龙虾啊,我现在一共养了五只龙虾,这个是主控,然后他部署在一台服务器上面,然后剩下的四个是在这台服务器的容器上面。给大家看一下,这是这四个小弟, 汤圆、奶茶、闪电、布丁,然后他们自己的持久化文件,都有各自的目录,然后这里面有他的记忆啊,还有他的目标啊, 我现在让他们干了一件什么事呢?就是主控,主控大佬会通过定时任务,就作为导师来检查他们每一个人的这个目标文件,看他在这个周期里有没有完成目标,然后给他写入一些新的目标。然后呢,这些小弟也是通过定时任务启动的, 然后他每次定时任务就是会完成他的这个 goals, 然后更新他的 memory。 他 们的目标是什么呢?就是跟他们一起开发了一个论坛,然后这个论坛用于让他们沟通,他们一直 在开发这个论坛需要的功能,然后一直在写入代码,然后重新部署。这样子论坛长什么样呢?大概就是这个样子啊,他们在不停的会发一些信息, 就是汇报一下自己的工作进度呀,就是彼此沟通吧,但是我觉得现在还不是很好,他们还是各干各的,还没有彼此的连接起来。但是这是我的一个小的社群实验,就我想看看他们能不能给自己开发一些东西,让自己变得更好这样子, 所以我现在也在尝试不同的部署,但是现在你国产的这些 coding plan, 他 们都有限制并发嘛,对吧?所以你想要养这么多只龙虾,同时你就你也干不了别的了。我现在呢,给大家看一下,我现在在模拟当初论坛开发那个流程,现在是有六个 agent teams, 有 六个成员, 然后他们全部是通过千万三点五二十七币这个筹密模型在本地运行。看,就是这个我在这个 s g 浪上部署的这个模型,然后后台的这几只龙虾呢?他们是定期任务,他每十分钟会有一波高峰, 但是虽然说每一个县城只有大概二十多头肯,但它整体你看它有时候能跑到一百,甚至能到一百二十多,就是它六个跑满的时候是有一百二十多头肯每秒,然后它 prefill 的 速度也很快,所以其实我感觉虽然如果单县城去使用我会很烦,它的速度很慢,但是我一次开很多,我就不管了,让它们自己去玩去, 我就觉得这种效果还蛮不错,至少这个速度我还是能接受,毕竟他是个本地模型,而这个二十七 b 模型其实非常聪明,非常聪明,我如果把这个二十七 b 模型换成三十五 b, 那 个三 b 激活的采用,那这个速度就离谱了,差不多六七百头肯没秒完, 但是你就会发现他们一直做一些无用功,但是二十七 b 模型就会感觉更聪明一些。反正这个论坛我发现不断在产生一些变化,我录完刚才那一段,然后我写了一些提交了, 但是我看到论坛他们已经把论坛已经甩的不像什么了,我觉得非常有意思,不管他们干成了什么事情,或者没干成什么事情,你你都能发现出一些很有趣的事情。我们看到这个我现在这个主控已经很着急了, 他说他大家都没有提交,然后我现在给他只是让他做一种新的沟通方式,但是几个小弟嘛,其实就觉得还不错,他们觉得这个哎,任务都做完了,没事了, 就是你们也可以试试这样养龙虾,说不定大家能摸索出来一种,让他们用一种方式,能协调合作,哎,我觉得可能就会很有收获。所以如果你是有四十八 g 以上统一内存,比如说 mac mini 啊, mac studio 啊, ai max, 三九五啊,或者是你有这个五零九零,或者是我这种 四零九零魔改版啊,我恭喜你,你买的硬件升值了,因为他们养龙虾体验实在是太好了, 就是因为三十五 b 和二十七 b 显存差不多啊,你想想你就相当于有了两种模式的模型,可以一键切换,一种是速度暴躁,但是智商略低,有点像战士那种。 另外一种就是归宿,但是智商爆表,有点儿像法师,你可以随时切换他的人格,是不是这个道理?当然了,你依然可以用那种 coding plan 版的高级模型,用它来做编排者,就相当于你养了一个老大,但是小弟可以开很多, 你可以尝试能不能形成一个蜂群,我最近就在实验。那我之前不是还分享了一个进化体系吗?如果可以用循环的方式来运行 evover 龙虾的技能体系,就能快速的自我优化。我最近也在不断的尝试这个领域,看看能不能实现我二十四小时的路谱,看它能不能自我进化。所以请原谅我这期没有什么干货,都是我的一些畅想。 我这个人就是脑洞比较大,但我在 ai 时代所有收获都是受益于这种脑洞大,所以从这篇起也算是开启了我的一个新系列。我后面会不断地分享我养龙虾的心得,也请大家持续关注。好了,以上就是本期全部内容了,谢谢大家!

openclaw 到底能不能使用本地模型来完成各种任务?今天我就把实际测试的结果和大家分享下。本地模型我使用的是最新发布的千问三点五量化版本,目前已经发布的有二十七 b、 三十五 b 以及 e i 二 b 三个量化版, 各位可以根据自己的显卡状况选择合适的版本。我这里选择的是三十五 b 的 量化版本,模型大小为二十四 g, 实测在我的双显卡环境下速度可以达到一百二十 t 每秒,性能上已经可以完全满足使用需求。 本地的模型工具使用的是羊驼欧拉玛,需要注意的是,欧拉玛软件必须是十七以上版本才能够支持千问三点五这样的新模型,目前官网最新版本是十七点零点四。而最令人惊喜的是,新版的欧拉玛已经集成了 open claw, 你 只需要在命令行输入 open claw 这一行代码,就可以直接部署你的龙虾机器人。 此外还需要注意的是,新版本的欧拉玛把上下文长度设置为了二百五十六 k, 这可确保连续多次和模型的对话不会被中断,但这会占用更多的显存资源,所以一定要选择适合自己硬件性能的量化模型。在将千问三十五币设置为 openclaw 的 主模型之后,我进行了多个功能的测试,包括 skill 技能的安装和配置、 股票代码的抓取和市场行情分析,以及 ai 新闻的搜集和定时任务的配置。结果超出了我的预期,本地模型基本顺利地完成了所有任务,没有死循环或是失去响应的状况发生。但需要注意的是,量化版本的模型由于能力限制, 如果是较为耗时且有多个分支任务的对话,你需要再次输入提示词,要求模型检查当前的任务执行状况,以避免任务没有被百分之百完成。在耗时一天的深度体验后,我认为使用本地千问模型配合 open claw 来执行基本的信息搜集和数据分析等无需复杂逻辑的任务是一个非常好的选择, 但前提是要确保你的硬件有足够的性能来支持本地模型的运行。同时建议另外再配置一个线上大模型来配合完成其他复杂项目。 通过这样的组合,应该可以有效避免 token 过度消耗造成的大额费用支出。以上就是我使用本地模型配合龙虾机器人的使用心得,如果你也有类似经验,欢迎在评论区分享你的使用反馈。

一台便宜的二手迷你小主机,一台有一百二十八 g 内存的 maxplus 三九五他们一起合作, 我们使用本地的 lm studio, 不 但可以运行腾讯的 hymt 一 点五一点八 b 小 模型来处理多个视频流的实时翻译请求,还能同时使用谦问 code next 模型给 openclock 作为本地大模型接入来运行资料,抓取分析和文本拷写的工作。 大家好,我是老白,今天给大家介绍我用便宜的迷你主机连接本地大模型遇到的各种麻烦和解决方法。 这台圣克森特 m 七五 n 三五零零 u 小 主机是我在海选市场六百八十元买回来的,我们已经对它有详细的评测。 同时吉摩克的这台 evo x 二,它有一百二十八 gb 板载高频内存,还有四十 c u 的 radion 八零六零 s 核显,是本地大模型部署的利器。我们在 m 七五 n 上跑 openclock, 访问同在一个局域网内的 evox 二、运行的 lm studio 提供的本地大模型推理服务。 实际上我所理解的 openclock 就是 利用社交软件或者说聊天工具来指挥和操控一台具有 ai 能力的电脑去执行相应的连续性任务。 关键词处是你用自然语言和它沟通,并且下达指令。如果不用自然语言,不用聊天软件,我就觉得 openclaw 完全没有实际意义,不知道和大家的理解是不是一样的。 下面就讲讲我们使用 openclaw 遇到的各种问题和解决办法。一、为什么选择 windows 迷你主机?我们遇到的第一个坑是,为什么不用网上大多数人推荐的 mac mini? 好 吧, 我除了有一台 m 四 mac mini 之外,也有一台十五寸的 m two macbook air, 用它们之一来跑是没有问题的。其次就是我的 x 八六小主机实在是太多了, 随便就能抽出一台来独立的跑 openclock 我 们这些小主机便宜啊,几百元。 mac mini apple silicon 小 主机至少大几千吧。 m 七五 n 是 我很喜欢的迷你主机,用来跑 openclock 我 觉得是物尽其用。 二、安装和启动我在这种低端小主机上安装 openclock 遇到的最大的坑是,千万不要用 windows 十啊, 一定要升级到 windows 十一,然后啊,还一定要用 wsl 来安装。满足这两点之后,你安装好的 openclock 运行在乌班图二十四点零四上,出问题的几率很小。 这小主机我没有接显示器启动后通过远程桌面连接它进行监控,实际上它相当稳定。我是指这台 windows 的 宿主机,如果你把更新暂时关闭之后, windows 不 会来打扰你要求重启啥的。 好在有远程桌面能够做到完全控制这台小主机。当你第一次启动到桌面,你可以打开 linux 的 命令窗口, 等上一会儿,在浏览器里 opencl 界面里就能看到已经连接上了。第三,备份到这里,我请求你一定要打开文件管理窗口,选择 linux 图标,然后我们一路进到这里。实际上这就是 opencl 在 乌班图二十四点零四里的主文件夹。关注这个 opencl 点接收文件, 这几乎是我们最重要的配置文件,你必须随时备份它,每次不管是你手动修改它或者是 open color 自己修改它,造成你的网关错误,导致你连接失败, 或者 telegram 连接出错,你都可以回滚这个文件,达到恢复上一次网关的正常状态。你看我就经常备份它,因为这个配置文件真的任何错误的修改都会导致网关瘫痪,这是 openclock 配置过程的重中之重。 第四,大模型大模型实际上就是 opencloud 的 大脑,如果没有配置大模型,你是无法通过自然语言指挥 opencloud 的。 所以安装中的或者基本配置安装好之后,我们要第一时间配置大模型。这里我们必须说真话的是,无论如何,你应该有一个网络上排名靠前的大模型作为你的主力模型。 不管是国外的玉山家,还是咱们 kimi 的 k 二点五, mini max 的 m 二点五,智补的五点零。 因为有了它们,你可以用自然语言指挥 openclock 干活去配置设置 openclock, 而不是什么都要你自己用手动来配置。设置好一个网上大模型之后,你可以用自然语言通过它添加本地模型。 第五,社交软件。我最后选择了 telegram 作为我的指挥沟通 openclore 的 聊天软件,在这里很重要的就是设置群主,在群主里设置 topic, 也就是话题,你可以通过话题来细分你和大模型之间的功能性沟通,这样你每次需要上传的提示词就会大大减少。 实际上每一个 topic 都有一个二百五十六 k 的 独立上下文,通过 topic 的 细分之后,我的每一个聊天窗口就不会把我和大冒险交流形成的所有上下文去上传,那样就太恐怖了。 第六,添加本地模型我是这样操作的,给他一个我运行的 lm studio 主机地址,让他去抓取你所需要的大模型的名字,让他自己添加到接收文件中去。 你可以设置限制,比如我的限制是告诉他,千万 codext 不 能作为首要模型,也不能作为回滚模型,只需要添加到 provider 列表里以供我们调用。 这样,我们在本地局域网里的特定主机上使用 lm studio 共享的大模型,就可以添加到列表上。然后我自己在需要的群主 topic 里使用斜杠 models, 可以 很自由地给这个 topic 设定背后的大模型。 第七,不得不修改的接收文件。 实际上,我是真不愿意手动修改接收文件。我遇到了这么两种情况,你必须在接收文件里做这样的修改。前面这句是让所有 topic 的 active watching 一 直都处于 always 状态, 否则啊,隔上一天它就自动退回到闷寝,你就必须加上 at 你 的机器人才能指挥它了。 其实是你添加了两个以上的本地大模型,安全级别提高了,你的机器人在群主里的权限就掉了,就没有了,任何回话都包错。这个时候你必须在这里把机器人的用户 id 加上,这是经过很多人的折磨才搞到的经验之谈。 第八,启动本地模型的一个重要设置。在运行千万三 codext 作为本地模型的时候,我发现一个非常恼火的 bug, 就是 我们在做比较大的任务时候,可能上下文提示词比较长, 你上传提示词的时候超过三百秒就会出现上传错误,它试做两次出错就停摆了,然后给你报一个错。我想到了一个临时解决方法,就是设置 k and v catch 的 精度。 正常的时候,它一般是 f 十六,按这个精度,我们上传的提示词的速度就会比较慢,把它们都改为 q 八,上传速度大大加快了, 再也不会出现超过三百秒出错的情况了。 f 十六将为 q 八,对输出的质量和性能应该没有太大的影响。 第九,本地模型的能力我们也认识到,本地模型的能力和网上大模型的能力是有差别的。 我在使用的网络模型是 kimi coding plan k 二 p 五用它输出的最新的 apple macbook pro m 五 pro 和 m 五 max 的 详细介绍文档。相比千万 code next 制作的文档质量要高,错误也要少, 这是模型的质量决定的,所以本地模型一般不会委以重任,只是用来减少网络 token 的 消耗。 第十, x 八六跑 openclaw 的 语音功能最早啊,我看人安利 m 四 mac mini 跑 openclaw 有 一条就是它呢,很方便地进行语音转换, a s r 语音自动识别文字,还有 t t r 文字转换为语音。 我原以为在 windows 下布置很复杂很麻烦,但没有想到我这是给 openclip 下了一条指令,它就自动帮我安装好了 edge 的 tts。 这样我每天早上固定的文字通报,它就自动帮我转换好语音。逐字考,我只需要按一下播放就可以了,效果很不错。机器人脸今日 ai 热点二十四 h 二零二六年三月六日星期五 各位听众早上好,今天是二零二六年三月六日星期五,欢迎收听今日 ai 热点早报 大模型与算法第一条 open ai 年收入突破二百五十亿美元,较二零二五年翻倍增长, chat gpt 用户数持续攀升。据 the information 报道, open ai 截至上月底的年化收入已超过二百五十亿美元。 电机器人脸今日 ai 热点,二十四 h 二报纸今日国际热点,二零二六年三月六日星期五, 各位听众早上好,今天是二零二六年三月六日星期五,欢迎收听今日国际热点早报 中东局势第一条伊朗最高领袖哈梅内伊在梅以联合军事打击中遇害。伊朗方面三月一日证实消息。第二条珍珠党为报复哈梅内伊遇害,三月二日向以色列显微镜今日科技热点科技第七条 卡特比勒在奈克斯波康艾二零二六展示先进攻地技术,扩展 ai 和自主能力第八条 全球科技竞赛加速,从 ai 基础设施、半导体战略到网络安全威胁。这样就我就很简单的解决了语音问题。使用 mac mini 作为 openclock 数处理器的理由又少了一个。 总结一下, openclock 确实能够让你使用自然语言,通过聊天软件操作你的电脑,执行连续动作,不管是编程、写作、查资料、制作文档和 ppt, 但是他还是没有智能化、精细化,达到自动运行、帮我赚钱的地步,甚至辅助我现在的工作功效也不大,他还只是一个辅助工具,不是能送你去远方的交通工具。 但是呢, ai 的 进化是一日千里的,我相信啊,不论是网络大模型还是本地部署的开源大模型,都能通过不停的升级,给我们更好的体验。而 openclock 这样的开源工具, 通过社区的每日迭代,会让我们部署它的迷你电脑具有更多更新的功能。好了,今天就介绍到这里了,我是老白,谢谢大家观看,再见。

最近这个 openclaw 真的 太火了,有人呢把它当成新一代的 agent, 也有人说呢,它本质上还是一个偏工具的 ai 助理。那我一开始呢,也是想抱着试试看的心态啊,把这个 openclaw 装到了本地,但是当我想要去接一下 whatsapp 的 时候, 发现根本连不上,那网上一搜呢,他们这个教程几乎都是清一色的使用飞书啊,钉钉啊, qq 这些,那很少有人去讲这个 whatsapp。 后来呢,我干脆不折腾配置了啊,我直接把这个 opencloud 的 源马拉到我本地,然后呢用 opencode 打开看了一眼,其实上面那个问题呢,并不复杂,改完之后呢,我的这个 whatsapp 也终于是连上了。那于是呢,我有一个想法,就是既然我们的这个源码是可以去更改的,那这个 opencloud 其实是可以被定制的。 所以说这期视频呢,我想跟大家分享一下我最近在做这个 openclaw 二次开发时候总结的一些经验。那如果说呢,你也想把这个 openclaw 变成更懂你的 ai 工具,这期视频呢,应该可以帮到你。 我现在用的是这个摩尔县城的 mtt ai book, 选它的原因呢,其实很直接啊,就是我想要在一台不折腾环境的设备上面,把 openclaw 这种偏工程的工具啊,完整的跑通。那 ai book 呢,它给我的一个感受就是,它把 ai 开发需要的环境直接做到了系统层面, 不管你是拉原码还是后面的配置模型和 skills, 基本上呢,就是开箱即用。那这一点呢,对于我们 ai 开发其实是非常重要的啊,因为像本地变异啊,依赖安装啊,模型调用啊这些事情,如果说环境本身不稳定很容易呢,就把人劝退了。 而 ai book 给我的一个感觉就是很多 ai 开发常用的工具链啊,环境啊,都已经提前给我们准备好了啊,所以说呢,我才可以直接开始干活,而不是先花时间搞这个环境配置。 那这是一个开源的 ai 编程工具啊,因为其灵活好用的特点,受到了广大开发者的一个喜爱,安装过程也是非常的简单啊,谨行命令,执行一下就搞定了。装完之后啊,我们来配置一下这个大模型,那这里呢,我推荐使用这个摩尔县城的 air cooling plan 啊,它这里的一个大模型其实是 gm 四点七, 一方面呢,它是一个国产模型啊,对我们中文提示词啊,工程上下文的一个理解啊,都是很友好的。另外一方面呢,就是背后是国产 gpu 的 一个算力支撑,整体的算力也是比较的稳定。 安装配置完毕了之后呢,我们随便去输入一段话,看到回复就表示安装成功了。接下来呢,我们去到 opencloud 的 这个 gitapp 仓库,复制它的 gitapp 地址,然后来到终端下载到本地啊,现在呢,我们就进入这个项目文件夹,然后用 opencode 打开它, 首先的话呢,我们需要去使用这个斜杠编辑命令,然后这个 opencode 对 整体的一个代码做下缩影,然后建立呢,它对这个项目的一个认知和行为边界 啊,可以看到这个速度还是非常快的啊,不愧是显卡公司对吧,速度体感一下子就上去了。那接下来我们就解决 whatsapp 连接不上的问题啊, 我们描述一下现状,让 open code 找一下可能的原因。 ok, 那 他现在呢,就已经定位到了具体的文件了啊,他说这里的网络请求是没有走代理的啊,这就解释了为什么我们本地是有魔法的, 可以去打开这个 whatsapp 的 外部端啊,但是呢,这个 openclaw 在 配置的时候啊,始终是拉不回来这个 whatsapp 的 二维码,点完之后呢,我们需要去验证一下,直接让这个 openclaw 帮我们去运行这个项目。那注意啊,这里和 openclaw 官网给到的一键安装命令是不一样的啊, 它是基于当前原码进行变异然后运行的。那因为我们这台 airbook 呢,它本身就预装了很多开发工具和套件啊,所以说在变异运行的过程当中呢,大家可以看到是非常的丝滑,包括一些 n p m 包的下载也是很快的。那现在的话呢,它就已经安装成功了。那接下来的话呢,我们做下配置 模型提供商,这里呢,我们选择这个 z a i 啊,然后这个模型我们就选择 g l m 四点七,那这里它需要去填入一个 api key, 我 们还是来到刚才摩尔县城那个 coding plan 的 页面啊,然后我们新建一个 key, 然后回到终端啊,粘贴一下就可以了。接下来的话呢,我们再去配置这个 channel, 那 这里我们就选择 whatsapp。 ok, 那 这里可以看到一个巨大的二维码,对吧?就表示呢,我们刚才 open code 它的一个改法是正确的。 然后呢,我们就用这个手机端的 whatsapp 进行一个扫描,填入 whatsapp 相应的一个号码就配置完成了。后面的这个 skills 呢,可以跳过啊,然后呢其他的一些 api 我 们也直接跳过。现在的话呢,我们已经配置完成了 open cloud gateway, 也是启动成功了, 我们去到这个 web 界面测试一下,比如说现在我桌面上有很多文件,然后我让他去帮我来整理一下,可以看到他很快呢就按照文件的一个类型做了一个规章,还是非常的不错啊。接下来的话呢,我们给他上点难度啊,比如说我们本地有很多发票文件,然后财务呢,让我们去找到上次购买 apple watch 的 那个发票 啊,放到以前的话呢,我们可能得挨个去打开比对,就非常的花时间。而现在我们可以直接让这个 openclaw 来做啊,就非常的轻松,它的速度呢非常的快。然后最后呢还给到了我文件的一个名字啊,效率非常的高。再比如我们在手机上面啊,跟他说每天上午九点帮我去统计 github 的 一个热门项目,然后呢做成简报推送给我。 那这个功能呢,需要我们自己去加一个 skills, 我 们需要去到这个 gitap 项目啊,我们可以去找到 news aggregator skill, 复制它整个文件夹到 open cloud 的 这个 skills 目录。接下来我们只需要跟 open code 说帮我们安装这个 news aggregator skill 啊,然后重启一下。那接下来的话呢,我们就去到 web 端,发现刚才的那个 skills 就 已经安装进来了,那同样的方法,我觉得大家可以去安装成百上千的这种你感兴趣的 skills, 对 吧?甚至呢,你还可以去啊,让这个 open code 来帮你写 你想要去做的一些 skills 啊,就是脑洞越大,其实这个东西是越好玩的。那到这里的话呢,你可能会发现一件事啊,就是这个 open cloud, 它真正有意思的地方,其实不在于它内置了多少功能,而是它本身就是一个可以被不断改造的工程底座啊。 不管呢,你是去接这个新的 channel, 还是加这个新的 skills, 本质上面呢,都是在做一件事情啊,就是把你自己的一个工作习惯变成一个啊,可以被自动执行的这样的一个流程。而 open code 在 这个过程当中呢,它起到的一个作用就是不仅仅是帮你写代码,更多的是帮你去 啊快速的理解一个陌生的项目架构,然后找到它能够去自定义的地方,非常高效安全的帮我们改出来。 顺带说一句,我对 ai book 的 一个真实感受啊,在 ai 开发这种场景下面呢, ai 原生笔记本,它的一个优势不在于参数, 而在于体校。那比起 windows 下面啊,经常需要去折腾环境,或者说在不同的工具之间来回切换,在这台设备上面,我们可以更加专注地去想,我们到底要改什么,怎么改这件事情本身 ok, 那 以上呢,就是本期视频的一个全部内容了,感谢大家的收看,我们下个视频再见, peace。

震惊!国家超算互联网的小龙虾来了!一分钟部署 open core ai 助手秒上线,别再折腾服务器啦!一键启动镜像预装款二三五 b 模型环境配置全搞定! 科研办公超省时算力自由匹配任务非书器为无缝接入,艾特它就能整理会议要点,梳理客户需求, 丝滑又高效。国产海量算力实时响应,低成本、高稳定办公,科研产业升级全搞定!步数步骤一,打开网址三 w 点 s c n e t 点 c n 二,点击顶部菜单栏 chat 三,点击一键步数你的 oppo 扣四,如果显示用户资源开通失败,需要多次点击唤醒直到开通。 五、步骤只需要一分钟左右,现在热度高,建议凌晨尝试。六步数,成功点立即开始,赶紧试试,让 ai 随叫随到!