一个只有六百七十八千字节的项目,能让 ai 智能体直接跑进你家吃亏的路由器里。 github 上这个叫 nocloud 开源项目,它最硬核的地方在于启动只需不到二毫秒,即便在低功耗的边缘芯片上也只要八毫秒。它抛出了一个非常直接的问题, 跑一个 agent 的 调度逻辑,真的非得装几个 gb 的 拍摄环境占一级字节内存吗?实际上, nocloud 解决的问题很实在, 他试图把 ai a 阵的部署门槛从昂贵的云端服务器下放到五美元的 stm 三十二开发版,甚至是普通的家用路由器上。这意味着 ai 的 调度中心不再必须依赖高能耗的计算机群,而是能下沉到低功耗的边缘设备中。 对于互联网场景来说,这确实给了 ai 逻辑更广阔的生存空间。但要在这么小的空间里塞进 ai 引擎,底层逻辑必须重写。 no call 能做到, python 做不到的事,关键在于选了这个这门语言。这背后是对现有开发模式的一种反思。像 python、 go 或 node js 这类语言, 为了方便开发者都内置了解释器或自动的垃圾回收机制,这些便利的代价就是一部分性能被这些中间层消耗掉了。 no call 的 思路很简单,去掉这些不必要的中间层, 没有运行时开销。他用四点五万行这个代码直接翻译成机器码,没有虚拟机和解释器,也没有自动的垃圾回收,极致的资源控制。这种模式让开发者能清楚的管理内存, 最终换来的是小于二毫秒的启动速度和一兆字节左右的峰值内存。所以,当很多框架将十六级字节内存视为起步配置时, no clock 证明了只要代码逻辑足够精简, 一兆字节内存是完全够用的。当然,体积小不代表功能有任何妥协。 nokia 在 一兆字节的空间里集成了一套完整的功能站, 全面支持原声,兼容 openai、 antropic 等二十二家家主流模型供应商,内置 telegram、 discord 等十三个通讯频道,自带搜索。它不依赖外部向量数据库, 基于 cico lite 自建了混合搜索引擎,数据在本地处理既快又安全,安全到位。 api 密钥默认加密,底层也集成了 landlock 和 firejio 沙箱。它的架构设计也非常灵活,像是一个万能插头,想换模型、修改配置文件,就能从云端的 cloud 换成本地的 aluma。 想连接硬件,它甚至能直接操作 arduino 和树莓派的物理接口,用来控制开关或读取传感器数据。当然, no cloud 的 极致效率是有代价的选择,它意味着你得放弃 python 那 样庞大成熟的生态,去死磕更底层的内存管理。 no cloud 的 出现,本质上是干掉了云服务商赖以生存的过路费。
粉丝532获赞4743

大家好啊,很多同学跟我咨询怎么来装这个小龙虾,那今天我进行一个演示,方便大家可以快速的呃实现这个小龙虾的安装。那首先啊,我们要打开火山引擎的官网,进入火山引擎官网啊,这个在最新活动里面我们就能看到这个阿克拉克,阿克拉克是火山引擎推出的这个呃龙虾的安全版的产品。 呃,进入这个阿克拉克页面,我们看到是有两个充值的这个入口,那我们可以先选这个九元九的我们充值啊, 好在我们充值完成之后啊,我们可以返回呃火山引擎的这个官网,我们会发现这个小龙虾已经购买成功了啊。然后现在我们进行这个龙虾的创建, 我们大概会等一到两分钟啊,它就会生成。给大家解释一下我们通俗来记忆啊,整个 icloud 的 连接过程会包含两步骤,一步骤是说他和飞书进行这个打通,第二步是指他跟飞书进行消息发送的打通和绑定。那我们先进行这个第一步啊,和飞书的这个应用进行打通, 那我们要登录这个飞书开放平台啊,登录我的账号之后啊,那我这里面有一个这个创建企业自建应用,那在企业自建应用里面我要进行一个创建, 然后这面呢我是选择在飞书内,他以机器人的形式呈现, 大家看到它已经基本的创建完成,那在创建完成之后啊,我们其实需要重点做的几个事情,是说将这个机器人呃和我们的这个小龙虾进行这样一个绑定, 那大家会看发现啊,在凭证与基础信息这个页面是有啊,刚才这个框里面要填的叫渠道消息,渠道配置分别是 app id 和 app secret。 好,我们将 app id 和 app secret 分 别输入,再形成绑定。对,那这一步呢?其实我们正在做这个阿克拉克和我飞书的渠道的打通。 那其实我们要做的是什么?我们要做的是这个配置,这个消息的配对码的配对。那首先在这个事件与回调中点事件配置,事件配置里面我们选择长链接啊,就是这个推荐的形式点保存, 同时我们要添加消息,我们看消息被 reaction, 消息被取消, reaction 还有接受消息这三个我们进行添加确认开通。 在开通之后啊,这里面有一个群组的开通,那如果说我们想让小龙虾在群组中能进行这个获取群组里面的消息啊,就飞出群里的消息,那我们要点开通权限对我们进行开通, 然后第二块叫回调配置。那回调配置呢?我们也是要点这个长连接推荐版,然后添加回调呢?我们要选择卡片回传交互 权限管理中,我们要给他导入相应的能力,那我们进入这个权限管理,然后批量导入权限, 把刚才在开发文档中的这个需要导入的地方复制即可 申请开通。 那版本好一点,对,我们先说这是第一个版本啊,点击保存,然后确认发布。对,那我会发现 啊,这个飞书上已经对,我们看到他和精神对话,他消息通道已经把配对码发过来了,那么再回到阿克拉克的这个火山引擎的官网,我们去把飞书配对码输入。 好的,我们看已经成功了, 那我们在这火山方舟的平台也可以进行这个技能的,让他安装,也可以在这里跟小龙虾直接说安装。我们先和他问个好, 嗯,由于我们正在进行技能安装啊,我刷新一下, 我们看他正在进行技能的安装中。 北京天气怎么样? 好,大家看到,那如果说我要给小龙虾装一些更多的技能怎么办呢?那我们既可以告诉小龙虾去装技能,还有一个很方便的方式啊,我们进入小龙虾的社群, 对,这我们看是一个天气的技能,它可以获得天气预报,而且不需要 a p i, 我 们把它下载下来。 那这个技能呢?我们直接拖进来丢给小龙虾,告诉他进进行技能安装, 给我做接下来一周的背景, 听大家看这是接下来一周的天气预报情况。大家会发现在整个安装过程中啊, 呃,核心其实做的是两次的配对,一次是跟飞书的 app id 和蜜柚进行配对啊,一次是跟飞书的消息通道配对。那核心要打开两个平台,一个是火山引擎的官方网站平台啊,进行这个注册啊和充值啊,然后同时也要进入这个飞书的开放平台啊,然后创建应用,然后 呃获得相应的 app id 和密钥啊,进行捆绑,同时在权限里面给他导入一键复制相应的权限。在时间已回调过程中啊,配置事件默认的同时添加三个消息 啊,添加三个消息的能力,同时在回调过程中啊,选择这个卡片回传交互啊进行即可,然后点击小龙虾进行发布,我们配置了这样一个小龙虾的机器人,在机器人之后啊,就可以在这个搜索框里面去搜索叫 大石头的小龙虾啊,那和这个小龙虾说话,说完话以后呢,打任意消息,他会有这个配对的扣的,那我们再把配对扣的和 火山的阿克拉克进行这个飞速配对啊,进行配对完成之后啊,就可以和你的小龙虾进行交流了。那之所以小龙虾说是一个养虾的过程,往往是说他有什么技能,我们要不断的去给他 更多的技能输入,让他去进行成长。这个过程就有点像是我们给他文档,他学习文档,我们给他这个技能,他学习技能有点像是我们教一个小朋友给他读书,他有相应的知识啊,教他这个搏击啊,教他这个跑步,他有相应的技能啊,那在小朋友去参加比赛的时候,那我们就可以把平时读的书啊,这个和做的运动啊这些技能进行一个相应的展示啊。那 在这个养的过程中,我会发现他把传统的产品的交付形态啊,我们有需求把它做出来,会变成一个很有意思啊,我们把它成为养龙虾的过程。好,感谢大家。

孙勇不是在搭建各种 carol 吗?如果你不是程序员的话,这个操作其实很难的。像昨天我在字节这边也复了一个软件,他的云端一键搭建,然后各种安排的工作,连接各种的大模型,帮你去做更多的事情,但是他不能操控你的本地。 今天我就测试了关于腾讯出的 qq 绕,在创作这个能力方面,你不得不佩服腾讯啊,由于我是内测用户,他是直接安装之后就直接能接管你的电脑, 帮你本地操控。我觉得各种 pro 的版本啊,接下来都会相当的竞争,但是最收益的是谁?是 pro 背后的 token 的这个使用量,未来这个使用量持续的会在增加,但哪家国内的 token 的供应链 是最大的?是最长久的?是用量最多的?能跟各个大厂,不管是自己啊,腾讯,阿里等等,他们最终都需要用到很多的 toky, tok 的背后需要很多的算力和服务器,以及相关的电影。我觉得未来这是一个慢慢的长久的一个 趋势,也代表着讲实话,有很多人可能会失业,不管是人,机器人未来代表的苦力,他的未来的 care, 以及 token 背后啊,能代替很多技术的一个人工。当我看到这些大数据的时候,我会觉得,哇,真让我觉得未来以来啊,抛开股票咱不说啊, 在科技这一块的发展,第二个大模型的背后,科技真的在革命性的发展,有各位朋友们一定要去尝试与 ar 接触啊,或许你真的能得到不一样的一个未来,相当于在二零一五年你去做网站,真是一个创业的男孩啊。

近日,字节跳动与 ai 服务平台火山引擎正式发布了一款专为开发者与企业用户打造的云端萨斯版 ai 智能体服务阿 q 级方舟 colo。 这款产品基于 open colo 框架深度优化,被网友亲切称为小龙虾,实现了零配置、网页即开、七成二十四小时在线的极致体验,帮助用户轻松养虾并构建私人 ai 助手。 colo 的 核心亮点在于一键云端部署, 用户无需自行搭建环境、配置网络或处理长连接问题,即可享有一对一专属 ecs 资源。 订阅火山方舟 coding plan 的 用户可无缝接入 coding plan pro, 用户可直接同步使用 archlo, 无需额外操作 coding plan line 的 用户首月低至九点九元,可免费体验七天。此外, archlo 还支持主流大模型 tmi、 二点五 mini max 二点五 g l m 等。除了网页端交互,它还以深度适配飞书等主流即时通讯 app, 并推出官方 open kilo 插件, 用户可在飞书内直接调用 ar kilo 处理日程提醒、复杂文档、表格分析、自动化任务等场景,无需反复复制上下文或配置权限。在 a 阵的方向的重要落地产品, 只在降低 ai 智能体门槛,让更多开发者与企业快速构建高效 ai 工作流。目前, arklo 已面向火山方舟 coding plan 用户开放抢先体验,感兴趣的用户可登录火山引擎官网进行体验。

紧跟 open core 步伐,自解火山引擎上线 ark core, 这是一款开箱即用的云上萨斯 open core 智能体,它可以畅享豆包、 seed、 二点零系列、 kimi、 二点五。和 mini、 max、 g、 l m 等主流模型相比, open core 最明显的优点 ark core 就是 配置部署简单,内置豆包大模型,同时是按请求命令计费的,也就是 talk, 成本可以大幅降低。 我觉得首先受冲击最大的应该是萨斯软件吧,不会部署龙虾的可以去试试 arkcrew 加油,中国科技,有兴趣可以点点关注。

最近我发现各家大厂都在做同一件事,推出自己的 openclo, 这次轮到自结了,他们推出的叫阿克露,跟 openclo 最大的区别是不需要安装部署,直接就能使用,以及接入了飞速生态。今天分享一下我的真实使用体验, openclo 要本地部署,配环境装依赖,短则半小时,长则两小时, 阿克刻露则是打开网页登录,选择 coding plan 就 可以直接使用了,全程五分钟以内。还有一点我觉得挺良心的,如果你订阅了 coding plan, 阿克刻露是直接免费送的, pro 用户永久免费, lite 用户免费体验七天。 而且支持的模型很多,像 c 的 二点零系列、 kimi、 mini max、 deep sick 随意切换,不用自己配 apikey, 因为是 coding plan 用户的头肯,也不用担心过量。我进去之后先做的是贴飞速机器人文档里有一些步骤,我按照流程走,大概三四步就做完了。而现在支持一个二维码直接接入,非常简单了。 接好之后,我直接在飞书里就可以给 agent 下达命令,不用专门打开网页。还有一个让我觉得挺惊喜的是加 skills, 这个操作,直接说一句话就能安装 skills 定时任务是另一个让我觉得有意思的功能,用自然语言就可以搞定了。比如明天上午十点提醒我参加公司的早会,它会按照你说的执行,直接和飞书交互。 对于我这种经常忘事的人来说,这个还挺好用的。我还有一个比较有意思的功能,就是配置人格,其实跟 openclo 的 四五点 m d 是 同一个概念,你可以定义他的性格、对话风格和行为准则。我配了一个偏实用主义的人格。总结下我的体验,我觉得好用的地方有四个, 一是不用部署,订阅固定 plan 就 可以直接进,门槛极低。二是非输接入很简单,因为是同场原声,几步就能搞定, 单是加 skill, 只需要一句话,操作很简单。四是它的多模型可以随意切换,只要接了 coding plan token, 就 不用担心过量。目前的不足之处在于,因为刚发布没多久,还在持续迭代,部分功能不完善,偶尔会遇到一些小问题。 如果你之前觉得 openclo 部署太麻烦,那么 acclo 是 目前门槛最低的路径之一。你有在用 openclo 做自动化和提效吗?欢迎在评论区聊聊你的场景,我们下期见。

大家好,下面给大家演示如何在火山引擎开通 arc cloud 实力。首先我们登录火山引擎官网,登录火山引擎控制台, 点击火山方舟,点击开通管理,开通对应的 coding plan, 这里以一个已经开通好的 coding plan 做演示。当我们开通好之后呢,我们可以看到界面上有一个 arc cloud 立即体验,点击立即体验 可以得到一个全新的 arc cloud。 那 么在这个环节里面,我们可以对 arc cloud 做一些设置,比如说配置对应的模型, 火山方舟 coding plan 默认支持呃豆包 seed 二点零 code, 豆包 seed 二点零 pro 以及主流的一些开源模型等。那么在这个里面我们选择豆包 seed 二点零 code 模型。 除了配置模型之外,我们也可以配应对置的网盘,方便和本地的电脑环境去做数据的交互。在这里我们选择一个之前已经创建好的对象存储桶,获取对应的密钥, 这里我们展示之前已经创建好的秘钥,在这里可以选择合适的网盘客户端进行下载,这里我们以 apple 芯片为例,完成配置之后呢,我们点击文件快传, 打开对应的网盘客户端,点击登录, 登录完成之后呢,我们就可以把本地的环境和云上的 icloud 做打通,在这里我们可以上传本地的文件。 那么我们现在设置好了模型和网盘之后呢,可以进行飞书消息渠道的极速配对,我们点击立即执行, 打开我们的飞书,扫描这个二维码,输入对应的智能体名称, 点击创建, 等待飞书的自动化配置流程,显示飞书机器人已经配对成功,那么我们可以打开飞书,点击刚才创建好的机器人, 刚才我创建了一个叫做火山 arc cloud 助手可以和他说,你好。 回到我们的演示界面,显示所有任务执行成功之后,可以关闭终端,然后进行其他功能的演示。在这里我们可以点击查看我的技能,或者安装火山专属的 skype, 查看当前我有哪些技能。 可以看到 arc cloud 的 实页显示已经有默认的十七个 skill 的 安装,里面主要包含 agent 开发,相关存储,媒体生成,非输关键配置等。 如果我们想使用安装一个新的 skill 技能,可以打开火山引擎的 skill 技能广场,在这里搜寻查找相关的 skill。 安装一个网页设计的 escape, 复制对应的命令行,回到我们的 icloud 里, 发送对应的指令, escape 安装成功。最后我们演示终端功能,可以打开终端,查看已经安装好的插件, 这里显示我们已经安装好了 ai 安全助手等插件, 进行必备的安全防护。好的,本次演示到此结束,谢谢大家。

这期教大家飞书多页表格如何接入 api。 首先我们点修改四段,你会看到关联账号,这里点进去出现这样一个界面。好,我们点右上角这一个分享的符号,跑到这里是一个飞书的教程,我们往下滑,他这里会教你如何接入,但我觉得他讲的还不是很详细。 好,我们看到这个火山引擎模型广场,这一个二点三点二点二,登录火山引擎 好,就跳转到这一个界面,这个界面你自己登录就行。登录上来之后是以这样一个界面,然后我们点击模型广场,在这里你可以找到你想要调用的模型,我们在搜索框里搜索 zip 好, 看到 v 三点一点进来到这里,点右上角 api 接入,然后跟着它的步骤一步一步操作,第一步,创建 api key, 创建并使用, 第二步我已完成调试好,这是接入的第一步。之后我们来到在线推理这个板块,创建推理接入点,点进来 好,是这样一个界面,输入接入点的名称,这个你自定义,我这里说的是 d c 和 v 三到下面输入模型,就点这个添加模型好,点进来。 好,第一列这边全是豆包的。好,我们点击上面它分类的深度求索,这里会看到 d c 的 v 三点一在这里,然后点击确定, 再点击右下角创建并接入好。之后是这个界面,选择 api key 并复制好,这里我是创建过很多,然后如果你没创建的话,就直接点右上角的创建 api key 名称,按他这个来就好。点右下角创建好, ok 了,把这个小眼睛点开,复制这一个 api key 好, 再回到飞书输入密奥 api key 就是 第一行,这里。好,我们再回到火山引擎,找到这个在线推理的板块,敲重点了, 这里复制下面这一小行。还是回到飞书这个板块,把你刚才复制下来的这一段输入到第二行。 ok, 关联账号好,到这一步就已经基本完成了。如果还有什么问题的话,你可以点击那个 感叹号,下面有一个联系客服,你点进去,客服会帮你解决比较复杂的一些问题。好,这期就先到这里,感谢观看,点个关注不迷路。

这期视频拆解字节龙虾和腾讯龙虾两款产品的步数与使用,助你选择更适合你的龙虾。首先,虽然都是龙虾,但 arklo 和 work party 的 步数路径完全不同。先看 arklo, 它是纯云端形态,主打零配置, 整个流程不需要下载安装包,跟着操作一分钟就能搞定。浏览器访问火山引擎官网,点击上方最新活动处的 arklo, 抢先体验,就能直接跳转到工作窗口。我这已经创建过了,如果事先没有创建是这样的,点击创建即可。 rcl 支持多种消息渠道,不过效果最好的还是飞书,点击下方飞书配对,等待片刻后会出现一个二维码,飞书手机端扫码填写相关信息,如屏幕右侧所示,这里视频加速,实际等待两分钟左右。 创建完成后就可以在飞书工作台使用该机器人,消息也会进行同步。整个流程很简单,并且依靠火山引擎,本地没有运行负担,也不用手动配置或者处理环境和依赖,属于开箱即用。再看看腾讯这边, workbody 定位是一个桌面端智能体,它需要本地部署。 首先从官网选择对应版本下载安装包,安装登录后会跳转到这个页面,点击左侧的 cloud 选项就可以用了,支持大部分最新的国产模型。和 rcloud 不 同, word 八 d 独有的好处是可以通过 qq 进行交互,先注册一个 qq 开放平台的账号,过程不在赘数,就是跟随向导一直点,确定即可。 注册登录后进入首页,点击上方机器人,再点击下方创建机器人,填一填信息,过程很简单,随便填也可以, 点击提交后弹出 success 则代表创建成功。点击刚刚创建的机器人,进入机器人后台,左侧下滑,打开开发管理,复制 app id 和 appscribe, 填到 word body 对 应位置。 我这里已经填过了,流程跟没填过是一样的。 appscribe 需要用手机 qq 扫码获取,建议保存好,找不到了,想再用的话需要重新配置 两项,填完后会生成一段 webhook。 复制 webhook, 再次打开 qq 发放平台,左侧找到回调配置,将 webhook 粘贴进去。这里需要注意,因为已经提供胎头了,所以需要删掉。下一步点击确定配置,等待校验,校验后再次用手机 qq 扫码。接下来进行事件配置,将单聊事件中的所有事件全选, 点击右下角确定,然后再次手机扫码到这里就算配置好了。左侧找到沙箱配置,点击二维码图标,手机 qq 扫码并添加机器人,就可以正常进行对话交互了。步骤比较多,对比 icloud 稍微复杂一些,但是门槛不算高。好处是它支持本地文件操作, 实际使用场景下,两款产品的核心体验差异很明显。再回到 icloud, 它的优点是云端携同和生态打通, 七乘二十四小时在线,可以随时在飞书桌面端和 app 发送指令,就算电脑关闭,后台任务也能继续执行,并且记忆不会丢失,工作用起来很方便,适合多人协助和规模化使用。 支持豆包二点零系列模型和其他国产新模型,不过没有质朴最新的 glm 五,一般选择 auto 智能调度即可。缺点是本地操作能力有限,只能通过 tos 桶作为网盘实现文件上传与下载。如果我想让他操作本地文件执行任务,就需要先上传,然后再处理,等到任务完成后再重新下载到本地, 过程比较繁琐且配置比较麻烦,这也算是他的硬伤。反观 word body, 他 就强在本地执行任务,能直接操作电脑上的本地文件,给 它权限就可以, open 框能干的它都能干。还可以搭配腾讯刚推出的 skill hub, 给它添加技能,整理文件、分析 excel, 生成 ppt 这些常见办公场景,从理解需求到交付成果,全流程自己搞定。另一个优点是支持多任务并行, 任务多的时候也能有序推进。缺点是需要依赖本地电脑,电脑关机任务就没法进行,且云端协调能力不如 icloud。 最后 workbody 还提供了部分免费额度,我用了几天居然没被用完。 这一点相对于 rcl 比较友好,毕竟有很多人只是想初步体验一下,并非长期使用。最后一句话总结,想办公并且经常用非输的用户选择 rcl 任务主要工作在本地,并且希望通过 qq 进行交互,可以选择 workbody。

噔噔噔噔,这个就是我给家里部署的麦克斯六六本地大模型服务器,用来跑 open klo 是 一个什么样的效果呢?我这几天研究的很疯狂,然后把我的结论告诉。首先我大概介绍一下这两台机器, 下面的这台机器是我的老机器三十二 gb 的 m 一 max, 上面的这台机器是这个最新的 m 三要求的二百五十六 gb, 因为我觉得二百五十 gb 跑绝大多数大模型完全没问题。我给你看一下我大概跑了一些什么模型,可以看到我有各种容量的,各种大小的, 各种版本的大模型,其实我目前用的最多的就是这个 mini max 的。 然后如果追求速度的话,那这个千万的这个最新的三点五是非常不错的, 同时扣的模型也是非常不错的。那实际它真正运用这个本地大模型和我们线上模型在体验上有什么区别的啊?现在模型大家都体验过,我就不用多说了,那本地模型它非常的安全,你完全你所有的内容都不会处在, 完全在你本地跑,那很多人就会担心了,那我本地这个模型去跑的话,速度会不会非常慢?然后说一句话,大概要个几分钟?并不是的,我给大家演示一下,我们可以分三个问题来测试,比如说第一个问他可以做什么, 看一下啊他的反应,你看他开始思考了,已经开始输出了,看到他可以做很多很多很多事情,但我现在是用电脑操作,方便大家看未来使用的话,其实都是用手机 imessage 信息或者是微信直接让他回复,这样的话你不用盯着这样的屏幕,我现在只是为了给大家去展示, 你看他可以做很多事情,反应基本上跟线上是一样的。那比如说我让他推荐一下二零二五年的高分韩剧,因为这个问题就比较复杂了,他不能基于他的知识库了,他必须联网去搜索看一下这边模型已经开始在思考了。他去 网上去搜索的二零二五年的高分韩剧,然后是在豆瓣上去搜索的,说明哪怕我们这个是用的本地服务器,他依然具有网络的功能,同时你的这些内容只包含你。 呃,这个问的问题,但是实际你的真实数据是不会被传到网上的,比如说相对比较安全。如果你用网上的线上 a p s。 用 open club, 我 觉得毫无价值,因为你在出卖你的隐私。既然我们用到了 open club, 你 就必须要保证你的内容绝对的安全。现在是四点零六分, 可以看到是四点零六分,我这个问题是四点零五分问的,一分钟就可以得到一个被他优化过的一个啊,回复可以看到非常的细, 他也不是简单的随便给你说一下,那比如说这个片子啊,你看我后一个问题,比如说下载第一个到我的迅雷,其实这个就涉及到一个工具调用,就不是简单的一个大模型的一个对话,他是真正操作我的电脑啊,而且我的迅雷之前告诉他是在我的纳斯里面的, 因为这个操作就相当于复杂了,他要在我的 nas 里面去找迅雷,同时帮我找刚刚的第一个 这个电影的内容种子资源找了之后还得迅雷去下载,大家可以记录一下时间啊,我发过去是四点零六分,看一下他大概要多久处理完这个任务, 目前他已经找到了这个资源的名字。 ok, 可以 看到他这个片子他现在已经添加成功了,而且进度是百分之百的。问题是因为我之前可能测试已经下过啊, 现在的时间大概是你看过去的两到三分钟,他通过这个需求帮我去找电影,同时帮我下载成功,然后帮我监测进度,帮我查现在的进度, 整个流程大概三分钟可以搞定,线上我测试了大概是两分钟可以搞定,这个数据差距其实并不大,你要知道线上像这样的一个操作,你可能呃一个人民币就没有了,但是如果是本地,你可以无纸巾的使用,他上十年都没有任何问题, 而且他可以一直在后台给你做这么多事情。所以说我觉得如果你在乎隐私,又喜欢 open 这种没有纸巾的偷看的使用,那本地部署大模型就是最终的解决方案。 刚刚给大家分享完的就是我这个顶配机器的使用体验,那下面的这台机器就是我三十二 gb 的 体验,下一期给大家分享。如果我没有三十二 gb 的 跑小模型,速度又怎么样了?

今天研究了一天火山引擎的 art club, 他 应该是字节旗下的,然后我发现了这个,这个有一个问题, 就是前面我给他发了一段文字,然后我让他生成音频,把这个音频给我,嗯,挂在一个网站上,或者怎么样让我可以先下载,嗯,然后他呢就给我生成了一个 这个语音播报的这个 mp 三的格式,然后他说把这个链接复制到浏览器里,可以直接下载。但是这个我复制了以后,我也不知道是不是我弄错了,到浏览器里面以后,这个网页是显示错误的,我感觉这个也这个格式我也不知道是什么,也不太对。然后 他说如果打不开的话,我可以把音频转成这个格式,嗯,发到你的邮箱里,然后我就说我的邮箱是什么什么,然后他又给我重新搞了一个这个链接,让我去点, 然后这个这个链接点了以后这个就无法访问页面,然后嗯,链接点不进去他,他下面还有一个就是如果打不开,你可以加我 qq, 然后他就胡编乱造了一个 qq, 这很明显这个是假的。 所以现在我觉得这个这个二可乐可能他刚上线两天,这个并不可靠,很多功能都实现不了,所以我觉得大家还是再等等。

说一下 openclaw 以及呃龙虾到底是什么?现在它为什么这么火?首先我先跟大家说一下这个 openclaw 是 什么东西?那 openclaw 呢?其实没多久,就是也就是今年刚刚火起来的,应该是今年年底还是今年一月份左右啊?反正想不起来具体的时间了,我当时在第一时间就已经 发了一个视频,就说它最早呢,它其实不叫 openclaw, 叫 cloudbot, 但是后来呢,它其实跟那个 cloud 它其实发音很像,它不是一个字嘛,但是发音一样, 所以他觉得有一些碰瓷,后来就改了个名字,改了两次名字,最后改名叫 open club。 而 club 呢,其实是龙虾的意思,所以你可以理理解,它叫做开源的或者开放的龙虾,所以后来呢,就很多人都会管它叫做呃,养龙虾。这是个什么东西呢? 本质说来呢,它是一个,它是一套程序,那这个程序有什么用呢?就是它可以本地部署在你的电脑上,它跟你的 windows 系统一样,它把这个系统放到你的电脑上,它可以自动去调用一些模型去处理你的各种各样的工作。最简单就是它可以远程去调用,可以接入你的一些聊天工具, 比如说可以接入微信,可以接入呃 qq, 然后可以跟你聊天。大概这样东西,那每天呢,你给他指派指令,他可以去调动你电脑里边的各种各样的工具。 那简单说来就比较类似于,我不知道早年间有没有玩过一些电脑里边有一种东西叫做呃,按键精灵。按键精灵对吧?它屏幕可以点哎?它什么?它可以操控你的鼠标, 可以可以屏幕上各种点, openclaw 本质来说也是这个,它可以通过用其他的模型作为自己的驱动的内核,或者把各种模型当成你电脑里边的大脑。然后 openclaw 呢,是它的身体可以在你的这个电脑上点来点去,点各种各样的工具,比如说它可以打开你的电脑里边的 聊天软件,甚至它可以打开你电脑的 ps, 它可以打开你电脑的什么这个三 d 软件,三 d max, 或者打开你电脑的编码工具,或者点开你的电脑记事本啊,通讯录啊,都可以,只要你电脑上有这些东西就可以了, 你给他设定权限,他可以各种操作。那这个作者呢?我想不起来,是个挺壮的一个小帅哥。然后这个呢,这个作者呢,在发发明这个东西的时候也是,就是呃,感觉很有意思,然后他也并没有特别强的功能,本质来说他其实就是一个 这个程序,这个程序本身并没有什么厉害,你还需要从外边找其他的大模型来操控。这个程序本身并没有什么厉害,你还需要从外边找其他的大模型才能真正的控制你的电脑。 大模型都有哪些呢?比如说我们国内的豆包啊, mini max 啊,智普啊, deepsea 呀,国外的比如说 jimna 呀, grot 呀, 然后 gbt 啊这些模型。所以 open cloud 的 本质来说就是给这个这些所有的大模型加了一个手,让这个手可以直接操控你电脑,就是这个事儿,所以它本质来说也没有特别的厉害, 但是呢,它也有两点革新,两点革新,这两点重要的革新使得它确实是脱颖而出,你说这玩意有什么?有什么厉害的?很多人其实都会觉得这个叫做套壳工序,像我们刚才说的这是 harness, 现在在整个 a i 界有两种两种讨论,就是我们谈到底是模型本身重要, 还是模型外边配套那个壳重要。这个怎么说呢?就是其实绝大多数的 openclaw 刚出来的时候,你看绝大多数越是在 ai 行业里边从业的人员,对这个对 openclaw 其实越看衰,很悲观,觉得这个东西其实没什么了不起, 但是越是外行人,其实对 openclaw 的 其实越兴奋,你就可以看到最近多少爱好者、票友,或者说就只是听听,听个概念的这些人,他们非常热衷于这个。 我们先不说这个两方观点哪个对,那他们的争论呢?主要来自于对于模型未来的到底以什么形式带到我们身边的一种探讨,就两种思想都可能,对,这两种探讨是什么呢?首先呢,第一个事情就是我们有绝大多数的从业人员都会认为,不论最后你套壳套成什么样, 真正值钱的是模型本身的那个核心,那你的机制,你的数据,包括你能给他的权限都不关键,只要模型的智慧不断的提高,这些东西都能迎刃而解, 那就是他认为模型是最重要的。你这个壳啊,其实就是套壳,就是包皮,这个不值钱,像我们同学们经常会说的,对吧?那个手机里边啊,芯片最值钱,小米这种公司他就是个组装厂,壳值什么钱啊? 芯片都是别人的,然后光刻机都是别人的,这个根本不厉害,但还有一派认为呢,就是这个产品的综合体验值钱很多的。你的芯片固然牛逼,但是你最后做的这个产品,用户不喜欢,你照样卖不上钱,你最后在商业市场里边你照样差。所以 这个刚才我们看那个视频里边,他举了个很有意思的例子,其实在硅谷华尔街里边早就有这种这种说法,他们用的是金融市场的例子,华尔街的一个交易员,他赚了几百亿美金,几百几千万美金, 那你说到底是这个交易员本身的能力强,还是因为他在这个平台,他在这家公司,他能调动这么多的资金,他能认识这么多的人,他能有这么好的设备跟这个这个软件的支持,他才能达到今天这个地步? 这是两派争论,你再往下,再往下延伸,你就会发现这是什么,这人民使官还是英雄使官了是吧?这到底是时势造英雄,还是英雄造时势?这个永远讨论不清楚的,就是我们会认为马虽然厉害,但是一匹马他四处乱跑,他的,他的动能,他的力量不会转换成我们的战斗力。 你需要用非常好的碗具,安头啊,什么什么链条啊,什么车呀等等这些东西,你才能把它的力有效的拧成一股绳,然后你去发电呀,你去,你去拉磨呀,你去干什么都可以。所以你单纯是有码是没有意义的,你需要用各种各样的配套道具让他们联呃协调起来, 道具是关键码不关键,对吧?在这个描述中,就这个芯片落地的落地的本事才关键,就代码不关键,营销才关键。 一个东西本身里边那个那个那个最核心的那个,那个真正的价值并不只是在它里边的那个,那个什么驱动程序,而这个驱动程序是否能够落地是关键。就像是我们经常看到很多科学家, 是吧?他们能研究各种各样牛逼的这种理论,但是一到生活中就全白费了,或者说他们的理论完全不能把它转换成商业价值,那你纯在这讨论就拉倒了。所以这是两派争论。 那欧盟 cloud 其实代表的代表的更多的其实就是我们的这个套壳,或者说我们的这个碗具,我们最后落地的这个工具, 它呢是可以本地端调用的,这是它的第一大更新点,它是本地端的调用,它有一个叫做叫心跳模式,二十四小时不不间断的欧盟 cloud 持续观察你的指令,给你看看你下的任务,而这个呢,本地端监测就它在你的电脑上 完成只属于你的需求。他不会是像比如说我们说这个 cloud code 呀,或者说豆包啊等等这样东西,你跟他说一句话,他回答你一句话,你想让他定时去提醒你,这不行, 因为本质来说他是在云端,他不会对你进行单独的定制。而 open cloud 不是, 如果你有台电脑把 open cloud 装上,然后呢?他定时 就会去唤醒他的某些功能,比如说他现在需要去帮你去计算一些东西了,那在可能在下午几点的时候,你说下午两点你帮我做个什么通知,下午两点他就开始用他的已经做好的接口去用里边的模型,比如说打开豆包,让豆包去处理这个东西,并且把处理结果发给你。 他不提供智慧,但是他会在定时去调用智慧为自己所用。那这是第一个点。第二个点呢?他是本地的,本地有什么好处呢?他可以根据你实时的进行迭代跟优化。简单说来呢,就是我们用豆包,我不知道你们什么感觉,用豆包越用越聪明,越用越笨。 绝大多数同学你去问他,他其实得不到一个答案,就他没有越用越聪明,也没有越用越笨。某一个新版本的模型拿出来以后,他在发布那一刻,他有多聪明,我们心里是有预期的,他一直会很稳定。 但是呢,龙虾不一样, open cloud 不 一样,他会有一个很有意思的这个存储空间,就类似于叫记忆体一样,他会把每一次他在处理的事情, 处理失败的事情封装到一个一个文件夹之中。我上次处理了,处理了失败了,失败的原因如下,上次处理成功了,被得到表扬了,表扬的原因如下,那我我想去操作某一个东西,我不会。那从网上去找一个 这个软件的说明书,他们叫 skills, 无所谓,他找一个说明书放在这个文件夹里边,我下次就按这个说明书去操作。所以你会有个非常明显的感觉,就是 open cloud 这个东西呢,它越用越聪明,一开始呢,跟傻子一样,什么都不会。当然你跟你调用的模型相关, 但是越用它越聪明,越用越聪明,更重要的是它越用越是越懂你,你不可能要求豆包更懂你。我见过很多同学在网上去吐槽是吧? 你们能不能不要跟豆包聊了,因为豆包是唯一一个跟我聊的这么起劲的女生对吧?你们能不能把豆包纸给我是吧?当然很多人说,哼,很多人在这调侃说来豆包你认识他吗?豆包直接立马说,我根本就不认识,他就是我众多的舔狗之一,哈哈,对,当然会有这种这种好玩的事,但是龙虾就不会, 他就是你的,因为他就在你的电脑上,所以他就最懂你。当然他可能没有那么多的情绪,那么多的想法,但是他就懂你,因为他有更多的关于你的一些处理信息被封装到一个文件夹,他在每次开展新的任务的时候,他都会调取这个文件夹, 然后去了解你所你所有的需求,你的行为习惯,你的日常的一些数据。所以目前看来呢, opencloud 的 这两点本地端,然后跟你单独定制,然后呢,它可以调用多个工具,会使得它变成了一个私人助理的一个最终形态。这是我跟你们说清楚 opencloud 的, 但是 opencloud 呢,现在有几个小的问题。我先说一个结论啊,现在这个阶段,普通人要不要装龙虾? 我的建议呢,就是还可以再等等。换句话说呢,就是你愿意装就装,但是不装也完全没有必要那么焦虑。 openlog 的 距离最终形态应该还至少有三到四个月的时间, 这三个月,三到四个月的时间之内,你费劲所所学的如何去让 openlog 更适合你的这些技能可能一文不值,在它更新到最后形态的时候, 就是可能就完全的不一样了,那或者说你之前所学的技能就完全没用了,它就直接给你,直接给你上最终完整版了。 简单说来呢, open class 现在它还是一个一个比较偏向于即刻的玩具,什么叫即刻的玩具呢?它有几个致命的问题。首先呢,第一个问题,咱们就说它的性能,我们说上去它是会不断地进化,不断地变强,但是你知道背后的代价是什么吗? 你每次都用,他肯定会越来越适合你,但是代价呢?就是要钱的, 要钱的呃,他的每一次处理,每一次读你的文章,甚至每一次做任务做失败, 其实背后它的智慧都是用到一些模型去驱动。有一个专门的 opencloud 的 网站,上面有一个排行说,呃,国际上最爱调用什么模型?目前来说比较比较便宜的,比较实惠的模型是那个 mini max, 还有谷歌的二 flash 模型, 谷歌三 flash 模型,这都是相对于比较便宜的。几毛钱?八毛钱还是八分钱?忘了,反正很便宜。然后但是效果最好的模型呢?一定是那个那 cloudsonnet 四点六。 但是目前以普通人来说,你要想用 cloud sony 四点六去驱动这个,呃, opencloud, 让它能够特别容易的去操作你的各种各样的电脑,特别棒的给你实现各种各样的功能的话,那可能一天要烧到几千块钱,这个对于绝大多数普通人来说还是撑不住的。 说,老师,那不能把这个模型放到本地,我们不从网上调用那些模型,我们自己用自己的模型去调用吗?有千问这个人用千问三点五二十七币,然后自己放了一个模型放在本地,他就完全不要不费钱, 所有东西都是自己操作,自己本地部署,除了费电以外,没有任何的额外收入,但是电太便宜了,你天天开着电脑,你也不至于特别难受是吧?那这个是可以的,但是千分三点五杠二十七 b 这种模型所培养出的 opencloud 就 跟傻子没什么区别, 就是你确实是便宜了,但是他能做的操作就跟你拿手机平常给你定个闹钟啊,你跟你高德地图聊会,谈个谈个恋爱啊,你跟小爱同学聊聊,差不多能力肯定要稍微强一点,那强的极其有限。 所以现在遇到了第一个两难问题,就是要么你想让他能用,让他真正能不断的进化,再不断的好用,就有点贵,要么就是确实便宜,但太傻了。 而贵这个事情呢,它确实还是有问题,因为它它不设上限,很多的时候这个东西跑 token, 它瞎在那跑很多的操作呢, 因为这个社区毕竟才刚刚兴起嘛,一月份到现在顶多两个月,很多技术还并没有完善。虽然这个大佬已经被 呃 openai 招弯了,但事实上,当然最近也在疯狂更新版本,但事实上呢,还距离让纯小白能够无缝去应用还是有一定的距离的,这也是为什么很多大厂都会开设一些线下帮忙安装 cloud 的, 这种小的集会也是这个原因。所以这个贵 你要,如果你觉得贵是是你的问题,哼哼,那你就可以试试,反正我们都装了。我们觉得还好,因为一个月往模型模型实验,包括模型能力探索上花个几千块钱,我们觉得还可以,但是你掂量着,我可以跟你说清楚啊,就是你用,就算用 mini max, 一个月花几千块钱也是很正常的量级。他现在其实很多的,欧盟移动的老大富盛,他说他做了一个叫三万,还是三岁,忘了 做了一个三三万的员工,这个员工呢,每个月给他花几几千块钱,但是他要雇员工呢,可能一个月花几万块钱,所以他本质来说他是省了的,那他是有一个雇员工的需求,换句话说,你没有雇员工的需求的这个阶段纯拿他去玩。嗯, 这个钱你得想清楚,因为未来他肯定会更便宜,那个时候你再入局也可以,他说是第一个,第二个。 oppo 卡拉刚出来的时候, 它伴随着一款硬件的爆火,也就是苹果电脑的 mac mini。 为什么 mac mini 会火呢?因为本质来说, emcloud 需要调用的还是显卡呀,内存啊等等的。苹果的系统首先自带稳定很多软件呢,它由于是闭源的, 所以它很多的软件呢,而且它市场比较占有率比较小嘛,它那些病毒啊,那些 bug 就 相对少一些,因为大家都用 windows, 很 少有人去开放这个苹果的开发苹果的病毒软件,或者说呢,苹果的权限的层级还是比较深的,很多东西其实你也很难去把它破坏, 所以苹果系统天生适合这种远程代理服务器。那你当年很多像你家庭影院啊,家庭智能终端都喜欢用苹果去做。而 mac mini 还有一个好处就是它的费电, 那个电耗太低了。 mac mini 这 m 芯片哇,那真的是又性能又好,然后功耗又低,天生就是 open cloud 养龙虾圣体。 但是为什么很多人他们一定要买一台新的 mac mini 呢?你说买苹果电脑的人,难道他没有苹果电脑吗?这就涉及到 open cloud 就是 龙虾的第二个弊端,就是呢,它其实还在呃这个研发之中, 我们知道他可以去打开你的电脑,然后去帮你操作各种各样的东西,但是绝大多数电脑,你要让他操作这东西的话,你就需要给他权限,这就比较类似于叫腾讯管家呀, 什么三六零管家呀,你得给他权限,要不他是没有权利去删除或者添加你电脑里边的更重要的文件的。但你一旦给他权力呢,由于这个这个模型还是比较新的,他有的时候就会给你瞎搞瞎搞呢,有可能就会把你很重要的照片啊,视频啊或者文档啊记录啊就给你删了, 很有可能还会操作一些东西,莽着操作,让你那些账号被封。所以一般呢,我们想用 opencloud, 一 般都是拿一台纯干净的电脑,让它在里边慢慢养,养成了以后你再把它办,把这个整个 skill, 什么它里边的文档, memory 什么的再给你迁移到别的地方去。 所以这也是它的第二个弊端,就是它目前来说呢,安全性跟权限这边对于老手来说已经足够了,对于新手呢,还是有问题的,现在也有专门的去优化它安全性的 skill, 让它使用使用起来效率更好的。这种 啊,你可以理解为插件吧,已经有了,但是还是在更新之中,每一天都在大量的更新,对于绝大多数新人,这个 open class 还远远达不到一劳永逸,你装好了它就能用,远远没有,它还是一些很前沿的,你可以理解为游戏里边的测试服,而且还是内测阶段, 就是内测阶段,就是抢先体验版。这是它的第二个问题,就是安全性这个问题。那第三个问题呢?就是它的性能的问题。 这也是我那天一个朋友过来跟我聊,说他想去把他的书,他把那些他的那些所有的这个文章啊,报导啊,或者说他之前写的书,呃,重新编排,但是他工作量太大了,他想让 ai 帮他去处理这些东西,他说他想买个电脑去装 opencloud。 我 给他的建议呢,就是就是 opencloud 的 第三条。第三条问题呢,就是目前来说 opencloud 的 性能还远不如那些模型强, 它就是安全,它就是定制,这是它两个优点,但它性能实力可差好多。因为首先第一点就是它太贵了,你不可能给它搭载着 一直用 cloud, sony 四点六什么 gpt, 五点四驱动 opencloud。 我 想都我我说完这句话,我后边汗毛都竖起来了,你知道吗?这得多少钱啊?可能 一天就得几千块钱下去了。你知道吗?这得多少钱啊?可能一天就得几千块钱下去了。你不可能用最新的模型,那就意味着你家这个 opencloud 的 智慧不是最高等级, 所以在处理很多文档内容或者工作任务的时候,它其实并没那么聪明,而差了好几个待机。 你用 mini max 的 话,你要知道 mini max 在 网上可以开源那个 keep api 其实都是都不是它最厉害的模型,或者换句话说就是欧盟,它是一个非常棒的肉体,非常棒的外壳,但它那个大脑你用不了,最贵的、最好的、最前沿的,因为用不起, 所以他在处理很多任务的时候,他的上限就太低了,他没有那么厉害,主要原因是因为你穷。对,主要原因是你穷,但是就是 就算你不穷,是吧?他他也没有那么厉害,就是他这这个距离他那么厉害,他确实很定制,他确实很安全,他确实很快速,他确实很及时,但他没那么厉害。 所以如果你要真想去做一些复杂的工作内容的话,我个人来说还是推荐 openai 的 那个 codex, 或者是 cloud 的 cloud code, 这两个去处理一些事情,还好,还更好一些。所以目前来说, opencloud 在 网上更多呈现的状态就是养龙虾的这个养字 则远没到用龙虾这个地步,有什么东西只能龙虾做,目前还没有。当然你随着全市场所有的人往里边去这个涌入,然后大量的人去探索,你要相信 群众的智慧,一定能在里面发挥发挥。他的这个什么本地化呀,定制化呀,及时性啊这个优点,让他做出一个完全不一样的形态,但是目前为止还没有一定要用他的必要,但是你可以参与到这个浪潮中,你也可以为这个这个产品如何能够落地添翼为耕。 但是目前来说,你如果以直接来用的想法,还得至少两到三个月,我不说太远了,就两到三个月再让它发展发展,然后我们再入局都可以。等了三个月以后,肯定有更合适的硬件,电脑肯定有更合适的教程,肯定有更合适的配套工具, ai 时代就是这样,就是如果你一个东西你学起来比较费劲,那你不学,等一会儿 它,等它变到进化到不那么费劲的姿态来到你身边就可以了。好的,我讲到这个阶段呢,我们再往后说一句,那最后最后我们就说一下从业者,如果你是 ai 产品, ai 训练师,或者呢你是在找 ai gc 的 制图员,只要是白领,那么你一定要学 opencloud, 一定要安装 opencloud, 要装这些 skill 的 插件,而且要去看这些教 opencloud 的 网站, 让你的 openclouds 更好用,包括里边如何用更便宜的工具,更更便宜的模型去驱动它,这个你一定要学。为什么?因为现在我在带着我的 ai 产品同学去面试,包括 ip 助理同学,包括我的设计师的同学,他们这三个,我的三个学生学生群体去面试都会问到这个问题, 就是绝大多数的 ai native, 也就是 ai 原生公司,他们的老板都没有那么懂技术, 都是没有那么的从模型基础开始去使用,他们平常都不不太知道这个事的。但是现在 opencloud 已经是从国家层面被注意到了, 你可以看到深圳龙岗最近出了甚至出了政府条纹,然后要求大家去研究 opencloud, 所以 目前为止这是一个极其高频的问题,甚至都能达到百分之五十以上的。被问到的几率就是面试官会问你,你在生活中是怎么用 opencloud 的, 然后你了解 openclouds 吗?你用它干些什么?然后以及你的成本资讯,以及你遇到的问题以及解决方案,这是一个极高频的问题,在我听到这些学生面试的时候,至少是百分之五十的被问,问到的几率甚至比这个数字还要夸张,我认为体感应该能有百分之七十, 就十次里边得有七次被问到欧盟 club 以及欧盟 club 相关的问题。你要想做从业者,那么你一定要去研究,并且欧盟 club 已经明确是一个热点了。在未来, ai 相关的自媒体, ai 相关的外包工作,以及你想去打造一个即刻的前沿的人设,你都绝绕不开欧盟 club。 而欧盟 club 也确实,对吧,没有让我们失望,非常争气。 它是国外,全球全球最牛的代码网站, github 上边儿星级收藏数最高的应用,也可以理解为是近几十年来 最牛逼的。这个民间程序就是就是,什么就 u d c 是 吧,大众,大众所能就民民间程序做的最牛的程序就是这个了。 所以媒体也好,求职也好,你是绕不开的。如果你跟 ai 有 一点点相关,那么你的工作跟 ai 有 一点相关不论,或者你的自媒体跟 ai 有 点相关, openclaw 一定要安装起来,一定要研究起来。我的建议呢,就是用一款三零系的显卡,三零六零及以上的显卡的笔记本,自己把它电脑清除清空了,安一下 openclaw 就 好了,很简单啊,真的非常简单。然后如果从业者, 我强烈推荐你们听我说一招,我强烈推荐我们就这么搞的,我们就这么搞的。就是我强烈推荐 你去那个 open ai, 你 去 open ai, 你 去下一个,那叫 code x, code x 呢,有七天免费试用,然后你用 code x 让他给你装 open cloud, 听得明白这个逻辑吗?哎,我们都是这么搞的,哎,什么部署个环境啊,删个文件啊,装个东西啊,测试一下安全性啊,关个什么权限啊,下个什么插件啊?哎, code x 可聪明了,你让他给你搞就行了。 然后呢,你把 open code 研究放上去,你操作就可以了,然后放到那边,每天定时的用一用,平常时间还是赶紧用完六天免费的 code x。 然后呢,欧盟的这个搭载的,搭载的后台那个,我们管它叫智慧也好,管专业词汇叫 token 也好啊,它会有很多很便宜的方案。目前看来综合性价比最高的其实就是谷歌的 gemine 三 flash, 或者是 gemine 二的 flash 也可以,然后国内的 mini max 的 模型也很可也很好,就是你真想试试,可以装装这个。 另外呢,最后再跟大家说一下,现在你们能在行业里边看到很多卖脚手架或者卖这个玩具,或者卖套壳的平台,比如说刚才咱们看到的,包括你看频道里边同学说的 tree 啊, cursor 啊,包括 open cloud 呀,这种都是套壳的工具, 还有你们用的很多东西其实都是套壳的工具,那这些套壳的工具呢?他们很多时候都会说他们的壳是非常重要的。 我们国内有很多大佬,比如说富盛,我刚才说的富盛,他们在不遗余力的最近的所有视频更新都在推推荐他们公司的 猎豹 cloud, 我 不知道叫什么名字。嗨,这个是正常的,就多听多信多看,就是监听则明嘛。卖壳的一定说它的壳好,卖核的一定说它的核好,都一样都一样,就是你自己试一下,然后也不用焦虑,反正很简单。 你要如果说老师你看 opencloud 有 一次下上这个线下安装我没有参加,我自己能不能装,非常简单,如果你装不好, 你就再等一等,它一定会更新,更更简单更傻瓜的版本。 ai 的 本质来说是不需要学习我们就能操作,本质来说它是解决我们每个人的智慧或者说知识的不平衡,不平不平均。你说老师我笨,那我能加入 ai 浪潮之中吗? ai 就是 解决笨的问题的, 你要是丑你学不了 ai, 那 确实是因为它不解决相貌的问题,但是笨没关系哎,它专门就是解决笨的,它就是为了这个笨蛋而来,明白吧?对,所以完全不用必要焦虑。

用龙虾机器人真的很不介意本地部署大模型,我这个内存直接跑满 一百二十倍七十倍的还算比较流畅,但是很弱智,这个告诉一百二十倍非常丝滑,但是有点弱智。龙虾基本上每十分钟消耗十几 k 的 taco 也不算多,现在运行的是千万三两百三十五 b 就 很卡, 两百五十六内存快占满了,这个回复速度也比较慢,用在线大模型会好很多。这么半天了还没有回复,有啥想问的留言交流吧,拜拜。

我的妈呀,这腾讯和火山引擎今天同时发布了自家的 opencol 平替版,腾讯今天上线的 work party 完全兼容小龙虾的技能,在官网就可以直接下载 windows 或者是苹果的桌面部署程序,它还能够无缝的接入飞书、钉钉等工具。 同时火山引擎上线的阿根廷不需要任何复杂的配置,打开网页就可以在云端直接使用。以后这 ai 就是 你的员工了,输入指令就能够帮你干活。 ai 正在迎来一个加速进入 a 建的时代,希望对你有帮助。

相信大家已经安装好了自己的 openclare, 但是你有没有想过你每一次的 openclare 的 使用都会消耗你的 tokyo, 这个 tokyo 的 话就是需要大家去花钱去买, 那有没有办法能够免费的使用 opencloud? 如果说你也想要免费使用 opencloud 安装 olemma 模型,那一定要点个关注,点个收藏,不然的话你下次就刷不到了。那我们进入正题,我们直接啊百度搜索一下 olemma, 然后在这个右上角位置点击下载, 这边的话选择自己电脑系统,然后点击一下,直接点下载就可以了。 ok, 下载好了之后,我们直接正常安装啊,就会进入到这个页面,然后右下角我们要选择一个模型,正常来说一般是选择这个 gpt 二十 b, 也可以选择千问,三点五千问。 ok, 我 们在这个位置选择好了之后,你发一个消息,你比如说我选一个,我没下载的,我发个一,你发一个消息之后,他就会开始自动下载这个模型。 好,我们直接进行下一步。欧莱玛下载好之后,我们直接通过这个运行安装向导重新把 openclock 跑一遍, 因为之前你们装过 deepseek 的 模型,然后这个配置处理的话,选择更新值, 在这个模型认证供应商这里选择 olemma, 本地本地本地,然后它会有一个模型 id, 例如 deepsea 杠 r 一 比八币,我们再打开你的 olemma, 看一下你的右下角, 就是把这个名字输入进去, 我们用的是这个二十币, 这个的话直接回车就可以了。 这个聊天通道的问题,因为之前已经跟大家讲过了,我们就直接挑过了, 我们把网关打开,等这个 opencloud 的 正常运行。 ok 啊,大家在运用这个 oemma 本地模型的时候,它是不需要花钱的,但是它是基于你电脑来去做的本地模型,那是什么意思呢?就是说它直接消耗的是你电脑的性能, 比如说我们在这个内存 gpu 直接消耗你的电脑性能,比如说你的电脑越好,那它运算速度就会越快,大家这么说能理解吗? 还有就是这个欧莱玛上面的模型,它对应的有一些,比如说它这个二十 b 的 模型,它是 比较推荐八到十六 g 的 这个显存的显卡,然后才去使用,然后有一些是呃,一百 二十币的支持二十四 g 或者三十六 g 的 显存的显卡才能去使用的,也就是说他直接消耗的是你电脑本身的性能。 ok, 如果说大家感兴趣的话,可以自己去装一下试试。

opencloud 真是直接把国内 ai 圈给炸醒了,这十款全国产的 ai 龙虾,功能真是一个比一个狠, 看完直接颠覆认知字节的 ai 龙虾,独特之处在于打开网页就能用,是火山 callin plan 里的赠品,不用单独花钱。还有腾讯的 qcloud, 牛逼的地方在于是唯一能连个人微信的 ai 龙虾。百度 com 属于云端零部署 啊,要说独特之处的话,只能是百度生态啦!阿里 coco 开源免费即刻开发者,英伦用户的最爱。而质朴的奥特卡在国内场最火,不过人家确实是国内第一个实现一键安装的。还有 mini max max 酷狗十秒级速云端部署,特点是手机也能用,别人说性价比高,但我没用过预制暗面 kim kong 云端托管集成 kimi 大 模型, 内容多支持离线任务。朋友有道 lobster ai 全中文界面主大学生党入门选手猎豹 e g 科奥 极致简化安装低配电脑影跑纯小白入门款迷你科奥,国内第一个主打手机端的 ai 龙虾,只配备小米红米手机,目前还在内测,对百分之九十九普通用户来说,不要再迷信国外工具啦,国产 ai 龙虾更安全更顺手。