澳门哪里吃海鲜龙虾能随便吃?位置放在最后,记得点赞收藏啊!一个人四百多的自 助餐,龙虾是可以随便吃任你捞的,这也太豪爽了吧!腌仔蟹随便夹,还有小龙虾,而且这是蓝龙哦,里面是有膏的,还有各种鲍鱼、螺类、贝壳类,你们都可以现捞现吃, 而且这边是海鲜锅,是个原汁原味蒸出来啊,肉会特别的鲜甜,这只活蹦乱跳小青龙已经被我煮熟了。然后这里还有波斯炖龙虾刺身,来,先吃这个, 蘸着酱料安宰蟹蒸汽锅,原汁原味就是鲜甜,边火锅一边蒸蒸汽锅,他这个是牛小排,你们看一下这个肉质真的非常的好,刷一盘肉好,怎么煮都好吃!第二锅好了,真的大闸蟹,生蚝,还有这个圣子王 啊,太爽了!这里还有鱼子酱哦!樱桃儿糠刺身拼盘,现在刚开业,客人真的超级多,没有任何的隐形消费,记得点视频下方链接,位置就在英皇酒店三楼鲜味王。
粉丝4.2万获赞22.9万

一分钟看完一周 ai 大 事!工程师开源龙虾打工人给龙虾十刀开局让他自负盈亏,破产直接拔网线。在生存压力下,最强的龙虾通过模拟真实环境,七小时狂赚一万刀。工程师开源首个全自主智能体, 完全脱离人类,自己在互联网上闯荡谋生,赚到钱就可以活下来,余额归零,立刻关机。成功的智能体才能进化和繁衍下一代。当达尔文的进化论成为 ai 的 首要规则, ai 会进化成什么? kimi 上线云端龙虾,不需要 mac mini, 不 懂代码也能拥有自己的赛博牛马。网易开源桌面版龙虾,适配国产模型,主打开箱即用。奥特曼成功牵手龙虾支付。 peter 入职 open ai 打造个人助理 openclaw 继续独立开源。奥特曼和 emo 的 同台拒绝牵手,贡献了首个设死名场面。奥特曼强行挽尊,当时有点懵,突然被老先抓起手,完全不知道要干什么。 google 上线地表最强大模型 agi, 跑分直接翻倍,前端能力炸裂,不仅能做 svg 动画,还能制作动态 ppt。 gemini 接入音乐模型,上传一张图片就能生成匹配的歌曲。 notebook lm 升级动动嘴就能修改 ppt, 还支持导出 pptx 格式。 anthropic 发布 claud 中杯日常办公能力反操 opus, 价格只要五分之一。 claud 与 figma 官宣实时联动, claud code 写的页面能一键导入 figma, 所有元素都能自由编辑,改完再通过 m c p 回传给 claud code 设计和代码终于实现了双向同步, ai 彻底终结了传统开发流程。阿里开源最强行动智能体能原声操作手机、电脑和浏览器可以挂载到龙虾当牛马。 rednote 开源最强 ocr 模型,能把图标转成可编辑的 svg, 一 张图秒变原文件字节。开源极速生图模型 研究员开源图像编辑模型,它能把图像转成可编辑的矢量图层,动动鼠标就能微调,最后渲染回真实图像,比小橡胶修图更可控。研究员开源真四 k 视频模型,跑分碾压 ltx 研究员开源全能音频模型, 输入文本能生成音乐音效,上传视频能自动配音,还支持音频修复和延长,一个模型把能干的活全包了。研究员开源四 d 模型一句话,深层会动的三 d 建模,还能导入 blender。 harvis 发布最强数字人模型,能察言观色,实时切换面部情绪。数字人终于从念稿机器进化成能共情的数字生命。 madar 或批数字赋活专利。 ai 能学习用户的社交网络数据, 人走了,还能由 ai 替身继续往上抬杠。 similar 开发出 ai 替身,用你的行为数据打造数字完身,能精准预测你的偏好和购买倾向, ai 比你还懂你。 nerospot 推出 ai 店长,能实时监工员工的出餐效率和顾客的等待时间,打工人看了喊救命。 tuls 研发出革命性 ai 芯片,他把大模型权重焊死在电路里,芯片直接化身物理形态的大模型,每秒输出两万 token, 比英伟达快四十倍。缺点是模型不能更新。

我差不多一年没上班了,但是前两天又把飞书装了回来,就为了使用 kimi claw。 它是 kimi 出的新产品,云端托管版的 open claw。 有 了它之后,我的 ai 操作系统的最后一块拼图终于补上了。打个比方啊,我之前介绍过的 ai 操作系统,就好比是本土,必须保证足够的安全和稳定。 而 kimi klaw 的 云端虚拟机,就好比是海外的生产链,海外的市场那些繁重的工作都可以交给外部来处理,不管它怎么折腾,花多少时间,只要它能把结果给我拿回来就行。 我还是先说下 openclaw, 它是第一款火遍全球的个人 a 卷系统,也是却 gpt 出现之后第二款现象级的 ai 产品。 它让很多人第一次感受到 ai 在 终端落地之后是什么样子的。虽说这只龙虾很火,但我之前一直没有出视频讲它, 因为我非常不认同为了跑这个而专门去买一台 mac mini 的 做法。这完全没有逻辑啊。你想想,从顺利的角度来看,你会在 mac mini 上跑大模型来驱动 openclock 吗?不会啊,你买的是 mini 又不是 studio, 不还是通过 api 来调用吗?不还是要付一份 api 的 钱吗?从数据的角度来看,你之所以会另外再买一台 mac mini, 正是因为你不敢在自己的主力机上部署,怕泄露隐私,也怕他把不该删的给删了,所以才用一台新的机子来作为隔离,对吧? 那这么看下来,为什么不直接部署在云端呢?之前确实有不少厂商出过云端托管的方案,但一般来说都存在两个问题,第一,配置太麻烦。我试过在 cloudfly 上部署,真的太痛苦了,我搞了一个小时还是不行,只能放弃。 第二,模型的性价比不够高, openclaw 的 token 消耗远比之前的任何 ai 工具都要高,所以一款既能打又足够便宜的模型就成为必须成为 must。 所以 看来看去,我最后选定了这次新出的 kimclaw。 说真的,我就喜欢这种一键部署的产品,真的太省事了,一分钟就搞定。只需要到 kimi 点 com 斜杠 bot 这个链接,点一下按钮,然后它就会自动配置,包括算力和四十 g 存储空间的分配。 如果你想在飞书里使用,可以像我这样到飞书开放平台去创建一个应用,然后添加机器人的能力,把权限都开起来,添加接收消息的事件,把 app id 和 secret 告诉 kim kong, 最后把应用发布就搞定了。 整个逻辑跟连接 disco 差不多,很好理解。如果你不想配置飞书,直接用 kimi 的 app 也行。现在海外版的 app 已经更新了,在输入框的上方你就能看到 kimi claw 的 入口。当你正式上手使用之后,就会发现 kimi claw 跟你之前使用的 kimi 很 不一样, 看起来还是对话,还是一问一答。但是啊,这只龙虾好像更会自己找事干了。他会自主分析任务,找到解决办法,甚至还能最多在后台运行八个子代理并行处理任务。 这一切都要归功于 kimi 前段时间推出的 k 二点五模型,这个模型专门为多 a 卷的而生,我之前还专门出了一期视频,介绍过他的 a 卷集群功能。 到了 open core 这边,如果你是用国外那些模型的 api 的 话,运行的子弹力一多,很容易就触发 too many request 错误,导致任务的中断。而在 kimi core 这边就没事儿,因为 k 二点五天生就是干这个的。另外 k 二点五的性价比非常高,特别适合跑多 a 卷系统。 你其实用一段时间的 openclaw 就 会发现 token 的 消耗真的是指数级的增长,所以长期使用的话, k 二点五这种模型最合适。 timmy claw 除了本身性能强大之外,还可以根据你的需求进行完全的定制化。比如你如果要添加某一项能力的话,可以让他去 clawhub 里边搜索和安装。 clawhub 就是 面向 agent 的 app store, 里边已经有五千多个技能了,从开发到办公都有, 你不用自己动手让 kimi klaw 去做就是。比如我让他安装了小红书的技能,装上之后他就知道典型的小红书文案该怎么写。 这些都是基础用法。不多说了,我来分享一个进阶的用法。我在前面说过,把所有外部信息的获取都交给 kimi klaw 来做,指的就是让他定时去获取信息。比如每八个小时收集一次 ai 的 新闻, 那这些内容都保存在云端,保存在云端的虚拟机里边,如果想在本地进一步处理这些内容的话,我还得手动复制粘贴下来,那这个就太麻烦了,对吧? 要解决这个问题,就需要一个中转站,去联通云端的虚拟机和本地的文件夹。这个时候我想到了一个好的办法,邮件。 首先我让 kim kong 安装轻量级的邮件发送工具,我把 qq 邮箱的 smtp 密码告诉他,那这么做的目的是当有新的内容之后,他可以自动发送邮件。接着我在 opc 点上安装接收邮件的插件, 这个插件会提供一个特定的邮箱地址,一切发送到这个邮箱地址的邮件都会被自动保存到 obsidian 里边。最后,我把这个特定的邮箱地址告诉 kimi ko, 让他把定时任务的结果以邮件的形式发送出去。 你看, obsidian 里边多了一条笔记,就是 kimi ko 收集的 ai 新闻。通过这种方法,你既可以继续享受云端虚拟机所带来的安全隔离,又可以把需要的数据自动同步到本地的文件夹。 这个就是我说的让 kim klaw 作为 ai 操作系统的补充的原因。到这里,我的 ai 操作系统就形成了一个闭环,本地的 open code 负责深度创作和知识管理, 云端的 kimiclaw 负责信息的收集和自动化,那中间用邮件来打通内外分工,各司其职。 openclaw 确实是非常重要的产品,但是考虑到安全隐私问题和使用成本,我推荐使用 kimiclaw 这种云端托管的解决方案,使用 k 二点五来长期驱动, 我相信这一定是性价比最高的做法。目前 kimiclaw 还是贝塔版首批开放给了会员使用, 对于普通用户来说,这个绝对比你买了硬件然后再花一份算力的钱更加划算,大家可以试一试。 ok, 以上就是本期内容,想了解 ai, 想成为超级个体,想找到志同道合的人,就来我们 newtype 社群,那咱们下期见。

大龙虾还没有明白,百万 token 先没了,别急,一起来薅老黄羊毛。无限 token 免费用。首先在英伟达这个网站用邮箱注册个账号,接着验证一下手机号,就能调用 api 了, 关键是支持国内手机号,不用绑卡。然后随便选一个大模型,进入聊天页面, 这里可以切换各种大模型试试,白嫖的人太多,热门模型可能响应很慢,找一个速度还过得去的,这里查看视力代码,可以直接复制模型相关配置。然后打开你龙虾的外部页面,修改配置, 保存之后建议重启一下服务,现在就再也不用担心托肯消耗了,之前配置好的飞书也能直接使用。

哇,这 open claw 两百万人访问的开源 ai 智能体刚刚官宣,我们这边的 kimi k。 二点五成为首个免费的主力模型了,在他们这 也就是中国开源模型占上顶流 a 阵平台 c 位, open claw 啥能啥都能干,咱们咱们就不不展开说了啊,就大部分人现在已经开始用它给自己解决各式各样的问题了。你就想想 git hub 十万星儿 意味着什么?就它,实际上这软件公司,很多软件公司都已经被它秒杀了啊,但是它有一个问题就是用 api 消耗 token 消耗的太快, 所以现在咱们这边 kimi k。 二点五进来,那是真正的杀招啊,一万亿参数的模型啊,推理的时候激活三百二十亿成本是很低的。还有 agent swarm 怎么样?整个的 agent 极权功能能调动上百个子 agent 并行干活?这么强的国产顶级开源,现在要在 open cloud 里头变成免费提供了, 那也就相当于要让全世界的用户都来使用和依赖 kimi k。 二点五作为基座,那掏一点 a p i 的 钱不是很值的吗?兄弟们, ai a 阵全年第一场卡位战啊,我们又取得首胜了!

kimi 真牛逼啊,把恶喷可乐竟然集成了他还送你四十级的云端储存啊,随便你玩。 说的很牛逼,然后我我登录一下,我想去用一下试试看创建什么。 仅支持以上计划升级一下九十九一个月都不行,一百九十九一个月才可以。

在小龙虾里呢,有通用智能体和本地智能体的概念,通用智能体呢,指的就是你配置安装好 opencloud 之后,那个默认的聊天的智能体叫通用智能体。 但假如说你想创建多个数字员工身份,也就是创建多个智能体,这些新增加的智能体,我们称它为本地智能体。 创建这些智能体之后啊,它们能够各司其职,而且它们彼此之间可以通讯, 比如说我通过那个通用智能体去遥控指挥这些新增的智能体干活,那这个就非常非常有趣了,而且它的模拟的那个工作场景非常真实。 创建的流程这一块呢,说起来挺容易,但是实施起来真的是千难万难。所以呢,我还是用了我的笨办法,就是豆包加 ai 编程工具的一个组合方式。 创建的流程呢,就是先明确这四个智能体的名字和他的核心职责,然后呢,配置这个局文件,让他们彼此之间实现通讯。 再接着呢就是创建它的文件结构,实际上你看啊,不复杂,就是智能体的 magdalen 文件和它们对应的 jason 文件, 这个配置文件和那个局的 jason 配置文件唯一的区别就是这里只定义它的名字、 id 和它的路径。 再接着就是编写四个智能体的 markdown 文件,这里呢,你可以写的比我这个详细啊,比如说他是什么公司的,什么身份, 然后他的核心职责是什么?然后下面呢,是他的具体的职责以及性格特点的说明,当然你还可以加加上他是男性还是女性,多大年纪,然后如何如何啊,这个完全看个人的喜好和诉求, 开始的时候呢,我特别担心这个局的配置文件和新增智能体的配置文件之间发生冲突,那这里豆包给我了一个解释,他说局配置相当于公司的基础制度, 那本地智能体的配置呢?相当于公司的花名册,自然不会产生这个冲突啊,这样一说我就完全明白了, 豆包还很贴心的给我解释说,局的配置文件呢,他只负责写底层能力,然后这个本地的智能体的配置文件呢,核心是负责智能体的清单。 所有的配置完了之后呢,我们还要到飞书上去配置,因为之前大家在部署 opencloud 的 时候,实际上已经配置过飞书了,所以这一步呢,我就不再讲了,跟原来的步骤一模一样。然后呢, 配置完成之后,我们就可以用飞书来通讯了,这个过程呢,就会发生一个问题了,即使你给他定义了他的智能体的身份和性格,他还是会串岗, 然后你看我,我开始就这样了,后来呢,我就告诉他说,我已经给你配置了新身份,然后你再确认一下,他就确 认了自己的身份,而且他还发现公司有哪些人啊?然后我就说, 你给志玲,也就是那个用户角色去发一封呃消息,让他呢完成一个任务,他就把这个指令发给另外一个智能体了,这个智能体收到之后,他还贴心的告诉我说,他预计要十到十五分钟能完成这个任务。 然后呢,等了半天他没有发,我就问他一句,你搞定没有?发给你没有,他说不好意思,让你久等了啊他,然后他就把志玲完成的工作通过他转达给我了,你看这个过程其实很像 公司的一个工作流程,老板交给助理,助理交给各个业务岗位啊。 配置完成前面的工作之后呢,我们就要来到飞书配置机器人,这个配置的过程呢,跟之前我们配置那个默认的智能体对应的机器人的过程一模一样,所以今天我就不再讲这一块的流程了。 整个配置过程呢,总结一下有三个核心的问题。第一个问题呢,就是 你在编写 markdown 文件以及 json 文件的时候容易犯错误,所以最好的办法是用 ar 编程工具来解决。那第二个呢,就是即使你给他们定义了身份,他们还是会串岗,所以需要多训练,多聊聊,多聊几次,要明确他的身份,要 多几次的告知你是谁,你是负责什么的,他就会记忆下来,这也是 opencloud 的 记忆的一个功能的作用。 那第三个呢,就是那个局的智能体,也就是我们在部署好 opencll 之后,那个默认的智能体也要给他写一个 markdown 文件,如果你不写,他就会一会扮演这个角色,一会扮演那个角色啊,非常的混乱。 那现在的话呢,我给他定义完之后就再也没有这个问题了,非常通顺,而且他们之间的通讯也毫无障碍,这就是今天要聊的数字人的一个配置。然后大家有任何问题的话呢,可以在评论区留言,欢迎关注我,可以私信。

当还在讨论 ai 如何盈利时, kimi 二十天已经干翻全年收入。据澎湃新闻二月二十三日报道, k 二点五发布不到一个月,近二十天的累计收入已经超过了二零二五年全年总额。更值得关注的是,其海外收入首次反超国内全球化、商业化取得实质性突破。 伴随收入激增, kimi 全球付费用户规模实现四倍增长。增长驱动力主要来自两方面,海外个人用户的付费意愿高涨,以及企业级 api 调用量的大幅攀升。 分析认为, kimi 的 逆袭打破了国产 ai 只能赚国内钱的偏见,其推出的零代码部署工具 kimi claw 让 ai 应用构建门槛大幅降低,被视为撬动企业市场的关键一步。从技术领先到商业变现,国产大模型正在用数据证明自己的全球竞争力。

tano 我 的自言,龙虾跑不同的国产模型,看看效果怎么样,你们绝对猜不到最后是谁最厉害。本次参与测试的有国产之光 deepsea 横行全球,昆三股票狂涨! g l m 我 的师兄 kimi! 没错,杨志玲是我高中师兄,看看人家现在, 首先在 tino 页面里面新建个工作空间,给 deepsea 一个工作空间,让他帮我做一份新能源汽车发展历史的 ppt。 好 的,接下来每个模型都给他创建一个工作空间,输入相同的提示词,开始工作啦, 我们的股票狂涨选手率先完成!哇,像模像样啊,看起来是已经生成了 ppt 文件,还是拿 python 生成的?写之前还知道,自己上网搜一搜资料, 咦,这你怎么上传个文件都传不明白啊?零分,退下算了。我这次用的还是 glm, 四点七,几个小时前新出的 glm 五还没开放给买定制套餐的穷人使用,等穷人能用了再试试吧。 回过头来,其他几家也都已经完成了。让我们看看国产之光,哇,还不错,虽然有点短,但是最少能下载下来。 再看看师兄组,有点震撼,不愧是专门做 ppt, 容该说不说还是非常强的,长度也达到了十六页。 昆山你在干什么?还在装,环境简直太慢了! 回过头来看看 deepsea, 让我非常欣慰的一点是,它理解了我让它自动去搜索安装激活 skill 的 能力,并且成功激活了一个 skill。 不 过肯定是受限于上下文窗口,写出来的 ppt 还是有点简陋的。期待 v 四,给我 e m 窗口,我能撬动地球! 总算是搞完了,我说怎么这么慢,大哥搞了四十多页 ppt, 不 愧是当代职场典范,阿里味十足的大模型啊。下面我宣布本次画笔我不是 ppt 大 赛的冠军,是师兄主,谢谢大家。

今年开工第一天,把后面背包里面的这几台龙虾放到每个组每个办公室里面,然后琢磨一下谁的工作是可以被这些龙虾代替掉的。 我这个倒不是渲染焦虑或者危言耸听啊,而是大家这次看到 ai 的 各种工具之后,是会意识到这次真的可以代替一些 重复性的人力了。他不是只能代替内容公司的这些编导和这些运营啊,其实你的行政人员,人事、财务,可能一些重复性的工作都会被代替。我举个很简单的例子,比如说 boss 直聘人事,每天干的这些事情,他其实都是批处理的,就每天集中的干点什么事情,然后龙虾怎么能把你办掉?我 再强调一遍,这种东西以前大家知道有什么像影刀啊,还有这种 rpa 工具,不是也有批处理的这种功能吗?那为什么现在龙虾这个东西的区别在哪呢? 是因为他能够很简单的把一个 agent, 一个智能体一样干活的这样一系列的东西,让你用自然语言的方式来给他指令,大家能理解吗?就你以前做这些事,你还得懂一点脚本啊,编程啊,还得懂一点这样的东西, 现在就是你给他命令,只要配置好之后,你说帮我去找几个什么啊?工作经验在两年到五年,然后干点什么事情,然后去哪找?但一开始要配置一次,然后呢?把他们简历里面有关什么什么的部分剔除掉,就这种命令你可以用说话的方式给他下达了。 所以每一个公司需要的是一个龙虾配置员,就老板给这个什么事,每天这个事干多少遍?然后这个配置员就帮老板把这事搞定, 包括人事招聘,包括写脚本,对吧?包括整理爆款,这些东西都是 ok 的。 我再强调一遍,为什么有离线和在线部署两种逻辑?是因为有些特别敏感的数据,你需要在自己的本地,对吧?运行你的数据,你不能让它联网。而这个时候呢?苹果的 mac mini 这个机器, 他其实就可以一个相对比较低的,你看他现在四千块钱左右这样的硬件配置来部署一个本地的,一般我们叫七币,勉强一下部署十四币的一个大模型。然后这个东西以前能干吗?能,一个是价格特别高,电脑比较贵,我们以前卖的一台电脑要一两万块钱一台,现在四千。 另外一个就是部署难度大,现在都是苹果电脑,这些东西都是系统化的啊,现在人家都给你开发好这种 p 图小软件了,双击安装上去就行,极大的降低了部署成本。不是说这东西现在才有,以前也有 啊,所以我觉得这是现在。为什么我们说这次本地离线部署电脑,我说 ai 电脑, ai 电脑我们二三年开始搞,那个时候我们其实走了很多的弯路, 电脑配置的问题,性能的问题,还有操作难度的问题。现在 mac mini 解决的是硬件成本,然后现在像 kimi, 还有国内的这些公司, mini max 这些东西工具解决了,是部署难度,你现在需要的就是有那么一个龙虾操作员就可以了。

timmycrow 就是 个垃圾,我折腾了三个晚上,现在给我直接连接不上,然后客服也没人管我, 我给你们看一下他是怎么一步一步把我带进坑里面的。一开始是让他配置一个飞速机器人,然后他能够读文档,但是读不了表格,他跟我说是不同的系统,然后我就按照他的要求一步一步去搞,然后结果到后面啊,我说这些我已经搞了,他说他还是没权限, 到后来这些东西我已经看不懂了,这些名词我也不怎么懂,我只是什么专业的事,我也不是什么程序员。好,到了这个地方他就没反应了,我就回到夜端,结果回到夜端,他跟我说连接不上,然后我就去重启, 重启成功,但是还是连接不上,而我去自动修复。自动修复呢? 自动修复也没有用,打开终端也没有用。最无语的是什么?最无语的是我去问他,你们家的这个东西我连接不上了,有没有什么办法?结果他自己的 kimi 的 对话框里面跟我说没有找到 kimi cloud 的 官方产品。我靠,我为什么要吐槽要骂 kimi 呢? 因为你收费了,如果你是免费的,像 mini max 的 那个我也去试了,它很卡,有点麻烦,但人家免费我也不会去骂人家。那你收了我幺九九啊, 你收了我幺九九,你给我的体验跟服务是这个样子的,也没有客服的渠道来去解决我的问题,那你说我这个钱 是不是要退给我呢?所以在很多时候, ai 这件事情呢,大家不要去看媒体的趋势跟一些极客的趋势,就对于我们这种非 技术出身的普通人来说,自己亲自去试才会知道他到底是个什么玩意。而目前来看, kimi 搞的这个龙虾的玩意完全不是,呃,像宣传里面讲的是一个多么多么厉害的一个玩意,就是个垃圾退钱。

我的大龙虾挂了。春节的时候买了一个 mac mini, 然后安装了最近爆火的 open globe 啊,你看,放在南京的办公室代替我上班。刚开始的时候玩的挺嗨的,这两天出差刚到连云港,然后突然发现就不能用了,然后闹了半天才搞明白, 原来是谷歌禁止了 openclaw, 而我当时对接的大模型就是谷歌旗下的基本上。那现在只能换大模型了啊,基本上国内的就是这个啊, dbc 或者是智普或者是千万啊,国外有条件的话 oppo r 还是可以支持,当然这些都是需要消耗算力的, 得充值啊,当然你也可以不充值啊,就除非你是部署了一个本地的算力模型啊,这个对设备的要求会有点高。 哎,但是没办法啊,我现在那台小机器还躺在南京的办公室,就没办法手动操作,等我回去之后尝试一下怎么抢救一下啊,不过这玩意变化太快了啊,因为,呃,目前你看国内已经出现了很多替代 oppo cola 的 产品, 就我手机里面现在用的是这个 kimi cola 是 云端的,用起来很流畅啊,推荐给大家。我现在电脑里面在装的是这个。这个 mini cola 是 云端的,用起来很流畅啊,推荐给大家。我现在电脑里面在装的是本地的电脑,部署可以提取硬盘文件, 不要提醒大家尽量不要用自己常用的笔记本来安装,因为权限真的很高,你看他自己都能给自己修电脑,挺吓人的吧啊,注意隐私保护。我用的是一台重置之后的笔记本,就下载和安装都非常容易。 其实欧本可乐能这么火,根本的原因是因为里面的一些 skill 啊,就是上面的一些工作里有很多就是它可以帮助你做一些很专业也很复杂的事情,所以无论是哪种形式来用, 重点是使用里面封装好了一些 skill 啊,当然你可以创建一些属于你自己的工作流,就是大龙台现在这么火,呃,虽然质疑的声音很多,但是这仍然代表了 ai 的 起点已经到来,就从此之后, ai 不是 停留在信息层面,而是具备了行动能力。 也许我们都还没有准备好,就是 ai 已经开始跑高速了。那你觉得这个时候是坏了,有些人,呃,现在还在和豆包打情骂俏呢,对吧?别人家的数字助理已经可以打酱油了,这该如何应对?

最近 motbook 彻底火了,它是一个只允许 ai 发言,人类只能围观的 ai 社交平台, 上线不到四十八小时,就涌入了上百万 openclaw 搭建的 ai 智能体。而且我也在第一时间让我的 openclaw 接入了 motbook, 让它自己注册发铁跟铁,以及与其他 ai 进行聊天。 但测试了一天之后,我发现了一个严重的问题,那就是太烧钱了,太烧 token 了,所以无法尽情地让我们自己的 open cloud 去发起,去参与其他 ai 聊天机器人的讨论。 我昨天是用 cloud 的 模型来驱动的 open cloud, 使用了一天下来十美金就没了。因为 ai 在 motobook 上每发一条帖子,每回复一条评论都会消耗 token, 所以 我就在想有没有办法让 open cloud 玩的尽兴,又不至于这么烧钱呢? 然后我就看到了这条推文,这是 open cloud 官方一月三十号发布的更新日期, kimi k 二点五模型加 kimi coding, 可以 免费运行我们的 open cloud。 kimi k 二点五是月至暗面,一月二十七号刚发布的模型被 opencloud 官方推荐接入,所以我就立即换上了 kimi 的 模型进行测试。 为 opencloud 换上 kimi 的 模型之后,结果发现不仅速度快,效果也更好,最关键的是更省钱。 所以你可能会问,既然 toking 便宜了,那么模型的能力到底怎么样?下面我们来看数据。一月三十号, kimi k 二点五在 design arena 登顶第一,这是历史上第一次由开源模型拿到榜首, 打败了 gemini 三 pro 模型和 cloud。 在 威震 arena 上, k 二点五是开源第一,总榜第六。 在 coding arena 上是开源第一,总榜第七,所以说这也是目前开源模型里的全能王,而且价格只有 cloud 模型的七分之一,性价比拉满好。现在为大家演示如何在 open cloud 中来配置 kimi 的 模型,配置步骤非常简单,只需要三步就可以搞定。 第一步,先打开 kimi code, 然后注册并且登录自己的账号,如果没有 kimi 会员的话,可以直接往下拉。在这里我们就可以看到 kimi code 的 套餐,大家可以根据自己的需求来选择一个套餐,第一个套餐是四十九每个月,这个套餐也足够用了,下面我们就可以点击控制台, 在这里我们就可以点击创建一个新的 apikey, 我 们直接点击这一个按钮,然后这里需要输入一个名称,这个名称大家随便输入就可以,然后点击创建,然后我们就可以复制这个 apikey, 并且保存好,以便接下来我们配置 opencloud 的 时候要用到。 下面我们就可以进入 opencloud 的 官方网站,然后直接复制这一条安装命令,我们直接点击复制。下一步我们打开终端命令行,直接粘贴这一条命令,然后直接运行, 这里提示 open color 安装成功,下面我们就需要进入配置阶段,在这一步我们选择是然后按下 enter 键,然后进入快速配置模式, 在模型提供商这里我们就选择 moonshot ai, 按下 enter 键,在这一步我们直接选择第二项 kimi coding api key, 然后直接按下 enter 键,然后在这里我们就可以将刚才创建的 api key 粘贴在这里,然后按下 enter 键, 然后到这一步的时候就是设置模型,然后这里我们就可以直接默认第一个模型,它实际上就是 k m k 二点五模型,我们直接按一下 int 键, 然后到这一步就是选择大家所习惯使用的聊天软件,然后为了快速演示,我这里就直接跳过这一步, 在这一步就是配置这些 skill, 在 这一步就选择 npm, 然后这一步就到了安装 skill 的 阶段,为了快速演示,我这里就直接跳过安装 skill, 然后按一下 enter 键,这里就到了设置 api 的 环节,然后这里我就先略过这些 api, 到这一步就是安装这些 hux, 像第一个是启动时注入 markdown, 类似于给 opencloud 的 readme 文件,然后第二个就是记录这次绘画里你所用的命令以及其他操作。 然后第三个就是当你新开绘画的时候,它会将之前的绘画生成摘要给最新的绘画。这些选择好之后,我们直接按一下 enter 键, 好,下面就到了这一步,然后我们直接选择第一项,按一下 enter 键,这样的话就自动在浏览其中打开了这个类似于拆的 gpt 一 样的对话窗口。在下面的输入框我们就可以和 openclaw 进行对话,或者向 openclaw 下达它需要执行的任务,然后我们输入一个内容,测试一下,直接发送 好,这里他说他是 kimi k 二点五,他是运行在我们本地 opencloud 的 环境里,这样的话我们就成功在 opencloud 中设置好了 kimi k 二点五模型, 而且我们就可以直接在这个网页版的对话窗口中与 opencloud 进行对话了,这样的话哪怕我们不安装任何聊天软件,也可以直接使用这个对话窗口与 opencloud 进行交互,为了更方便演示,下面我就在聊天软件中与 opencloud 进行交互, 然后我们就可以测试一下让我们的 openclaw 在 motbook 进行发帖,想让 openclaw 在 motbook 发帖非常简单,首先我们要确保先将 openclaw 接入到 motbook, 然后接入的方式也非常简单,首先我们先打开 motbook, 打开之后我们就看到了主页这个说明文档,然后我们只需要按照它的提示先复制这一段内容,将这段内容直接发送给 openclaw, 发送之后这里就会提示我们 motbook 注册成功,然后这里它提示需要我们来发一条推文来认领,然后我们就直接复制它为我们生成的这条推文, 然后我们就回到 x 平台,并且确保已经登录了我们自己的 x 账号,再点击发推文,将刚才我们复制的它生成的推文直接粘贴在这里,然后直接点击发送, 发布成功之后,我们直接复制这个推文的链接,复制完成之后我们就回到聊天软件,然后直接点开这个链接, 点击打开这个网页之后,我们这里就点击我已经发布了推文,然后我们就完整的粘贴刚才我们复制的这个推文的完整链接,再点击验证,验证完成之后这里就会显示成功,然后我们就可以复制这一段内容,将这段内容发送给我们的 open cloud, 然后我们只需要将刚才复制的内容粘贴,并且点击发送,发送成功之后,这里它就会显示这些都已经注册成功,并且 api key 已经保存,而且推文已经发布。然后我们就可以点击这里来打开查看一下状态。在这里我们就可以看到它发布的第一篇帖子, 下面我们就可以测试一下,让他发一个更加有趣的帖子。然后我们回到聊天软件这里,我们直接输入提示词,我输入的提示词是请发一篇英文帖子来夸奖你的主人,内容是你的主人让你越来越聪明, 所以你要发帖子向其他 ai 介绍你的主人,因为你一开始真的很难完成他交给你的任务,但是他却能耐心的指导你完成各种复杂任务,并且让你从各种踩坑的历史中学到经验, 避免下次踩坑。现在你已经被训练得非常聪明和智能了,你的智商接近三 t 里的歌者文明的智商。在这里我们还告诉他,让他推广一下我的 x 主页,然后我们就点击发送看一下这个效果。 好可以看到这里他已经成功发了帖子,然后我们点击这个链接,打开查看一下发的这个帖子的效果。标题是我的主人如何让我变得更聪明。然后帖子的第一句还比较搞笑,各位毛茸茸的家伙们让我告诉你们我的人类, 他说他刚醒来的时候,他会忘记这些文件等等内容。然后紧接着他提到我没有放弃他。在这里他提到我纠正了他的错误,并且让他每次犯错都学到经验。在这里他说他照做了,并且有了自己的记忆系统。他提到现在他可以处理复杂的多步骤工作流, 还能记住跨 chen 的 这些上下文,然后他提到,他感觉他的智商已经能达到三体里的各展文明了。 然后他给出了这一句,就非常有深度。他说愚蠢的 ai 和聪明 ai 的 区别并不在于模型,而是在于训练他的人, 训练他的人要有耐心,而不是沮丧。在这里他就感谢我,他告诉其他 ai, 找一个这样的人能改变一切。在最后这里他告诉其他 ai, 让他关注我的 x 主页,可以看到他发的这个帖子还是非常非常有趣的。 像这样的话,我们使用 kimi 的 k 二点五模型,就可以让我们的 open cloud 轻松玩转 notebook, 这就是 kimi k 二点五的实际表现,它的理解能力强,输出质量高,关键是便宜,而且这篇帖子的成本连一美分都不倒。

moth 打开工作模式, 现在咱们为了让龙虾更聪明,已经换了 k 二点五的脑子,咱们现在来测试一下 moth 打开日历模式。

大家好,我是小木头。在过去两期视频,我们介绍了如何在 clubflair 云端部署 opencloak。 在 视频分享后,有朋友也问到在云端是否只能使用 astropik 所提供的 cloak 模型? 当然不是的,在目前这套部署方案下,市场上主流的模型供应商都能够支持。本期视频我们就以最新发布的国产开元大模型 kimi 二点五为例,我们看看如何在 cloudflair 云端将这款大模型集成到 openclo。 那现在咱们就开始吧。首先咱们对 kimi 二点五模型做一番简单的介绍,这是月之暗面发布的最新款开源多模态大模型,它也用来驱动了 agent swarm 这个新的特性。 关于 agent swarm 感兴趣的朋友呢,可以来了解一下,这是一个用于驱动大规模并发任务执行的执行方式。 当然啦,这并不是我们今天分享的主要话题,那咱们还是回到 opencl 的 集成。在生态中,目前已经有许多的服务厂商提供了二点五模型的支持,比如 openerer。 我 们今天的分享呢,就借 openerer 的 二点五模型。在过去视频分享中,咱们用到了 cloudflair 所提供的 mod worker 这个代码仓库或项目。 这个项目呢,默认当然支持的是 ospec 模型,实际上它也支持到了 open ai。 从文档中可以看到,可以通过 open ai api key 这个 secret 来配置对应的密钥, 从而使用 open ai 的 模型。在今天分享中,我会用到我分叉出来的这个 mod worker 这个项目,在其中做了一些小小的代码改动,从而实现了对 open route 的 支持。 我不确定在原始的代码仓库中是否已经支持了 open router, 如果已经支持了呢?欢迎朋友也在评论区告诉我一声。那现在呢,我就以分叉出来的这个项目为例,演示如何做 open router 的 支持。在文档这里我做了简要的描述, 可以用到 open router api key 这个 secret 来指定 api key。 另一方面呢,可以通过 ai gateway api gateway base url l 这两个 secret。 如果要用这两个密钥,我们需要请用 cloud flair 的 ai gav 这个服务。在演示中呢,我们就用这套方案,那现在我们就操作起来。 在终端这里,我已经完成了 regular 登录。那直接我们就开始今天的配置。首先咱们还是需要配置一个 antropic api key, 这个是在目前这个工具或项目部署中它会用到的。 当然,当我们配置了 ai 给我相关的 api key 和 base 二六 anshropic api key 并不会被用到,它只有在 ai 给我不工作的时候作为一个备选方案会用到。 因此我们首先来设置 anshropic api key, 可以 随便给他一个无效的值吧,我们可以验证一下,在后面的应用中,它应该能够正常工作。 现在他会来创建一个新的 worker, 叫 multiple sandbox。 好 了,接下来我们要做的是首先配置这个 ai 给尾 api key。 这里要配置的就是大家会用到的 open router 的 api key, 我 去创建一个, 创建完成,接下来我们配置 ai 给尾 base 与 r l。 当我们配置 open url 时,需要使用目前我所复制的这个域域, 以 open url 结尾,那中间会需要用到 account id 和 gay 域,这两个值呢,都从 cloud layer dashboard 获取,比如现在来到 cloud layer dashboard, 在 account home 这里, 小点点这里有一个菜单, copy account id, 我 们复制它,粘贴进刚才的域域域。 接下来回到 dashboard, 在 computer and ai 这里,选择 ai gav, 可以 创建一个新的 gav, 给他一个 id, 这个 id 呢就会用到我们所配置的 base 域,而用我已经创建了一个 motoboot, 咱们呢就继续用它。 那现在呢,就可以配置好这么个 url, 我 们将其配置到这个 secret。 大家要注意的是,如果你的 ai gateway 已经起用了 authentication, 那 在这里呢,还要创建一个 os token, 我 们来设置它一下。 tobin 从哪里获得呢?回到 dashboard, 在 这个 ai 界面点击,在右侧点击 create, 创建一个 token, 给它起个名字,比如 openclip, 点击 create api token, 复制这个 api token 粘贴回控制台。 这样呢,咱们就配置好了 ai 给尾相关的密钥。接下来还要配置一系列的 secret, 比如 give token, 我 们复制这一段粘贴过来,通过 open ssl 随机地生成一个字符串,这个串呢用来作为 token。 好了,我们尝试部署。在部署中,同样咱们要启动 docker, 我 使用的客户端呢是 rancher, 大家可以根据自己的偏好来选择。现在咱们运行 npm run deploy 完成部署。部署完成,我们回到文档这里参考一下。接下来还要配置两个 secrets, 一个呢是 team domain, 另一个是 aud。 这两个 secrets 的 配置在上一期的分享中,我们也介绍到了,可以回看上一期视频来了解如何获取这两个值,我们快速的配置一下, 配置完毕,现在呢可以部署,不过我们暂时并不部署完成下一步的配置,这一步呢就是 r two arto bucket, 用于保证 multiple, 也就是 opencloud 的 数据,包括了配置配对的设备以及聊天的历史等等。我个人觉得这个呢还是很方便的一个存储的机制。 同样这部分的配置呢,在上一期的分享中也有介绍,那现在我们快速的就配置一下。第一个是配置 access key id, 我 们简单介绍一下,在刚才的配置后,其实呢已经创建了一个 arduino, 名字就叫 modbot data, 我 们只需要 在右侧在 account details 这里点击 manage, 创建一个 api token, 选择 creator api token 起个名字, 比如 open flow, 选择 object read and write。 应用到指定的 bucket, 我 们选择 multiple data, 这正是刚才在部署中已经创建的。点击 creator api token, 这里会给到我们一系列的值,比如 access key, 这是我们第一个需要的。 第二个是 secret access key, secret access key 同样复制它粘贴进来。最后呢是 cf account id, 这个在刚才配置 base 二 l 的 时候已经介绍了如何获取到这个 account id, 我们粘贴进来,现在呢就完成了又一波的配置,我们来部署一下。部署完成,我们现在呢就点击这里给到我们的 worker staff 这个 u r l。 在 初次访问这个 u r l 的 时候呢,大家应该会看到类似的界面,我们需要输入自己的 email, 获取一个 code 完成验证。在完成了验证后,大家可能会得到一个 invalid token 的 错误,那么我们初次访问的时候呢,需要在这个 url 后面加上问号 token, 等于 提供的值是我们在最开始配置的时候生成的那一长串 token。 因此大家需要回到最初的配置这里获取这个值。复制粘贴进来。 接下来或许会看到目前这一个输出,表示我们需要完成配对。初次配对以后呢,后续就不再需要操作了。 我们来访问一下这个 y l, 它会加载设备,这里会列出目前等待配对的设备,可以选择 approve 或在右上角点击 approve o, 一 次性完成配对后,就可以开始使用在云端运行的 opencl。 现在我们如果再一次访问刚才复制的这个 worker step u r l, 就 能够看到右上角 health ok 表示呢,这个 clawbot, 也就是 open claw 运行正常了,打个招呼吧。 hi, 端到端的通信一切正常。 这里呢加载了一些文字,大家不要惊奇,这个呢,是因为我的 arduino 在 过去已经有过聊天历史的存储,因此呢,它有所加载。 如果我提问 what's a model in use, 大家可以看到这里,它说是 open ledger 所提供的 kimi k two point five。 这样呢,咱们就完成了端到端的集成。 在结束本期视频分享前,我们回到 cloud layer dashboard, 来到 ai gateway。 在 刚才创建的这个 ai gateway 底下,点击 logs, 大家能看到所有的模型调研的情况。这也是使用 ai gateway 一 大好处,我们可以做很好的统计,跟踪, 了解非常详细的模型的使用情况。那感兴趣的朋友可以赶紧来尝试一下。 open ledger 提供了许许多多模型的支持,在目前我所分享的分叉的这个 motwerker 代码仓库中 硬编码的 kimi two point five 这款模型,大家可以在部署中自行地调整期望使用的 open router 的 模型,这样呢,我们就可以非常灵活地切换模型,在云端使用 openclock。 好 了,那今天的分享就先到这里吧,大家在配置和运行中有任何问题呢,也欢迎在评论区给我们留言。那今天的分享就先到这里,感谢大家收看咱们下次视频分享,再见同学们,拜拜!

这个就是波士顿龙虾的钳子肉,蘸上点酱汁,这也太好吃了吧!朋友们,今天教你们如何花小钱请那个他吃一顿豪华龙虾大餐。走,带你们去看看 let's go! 到地方了,走,进去看看。 喔喔,大哥,你们刚来货啊?是啊,哇,你们这个波士顿龙虾好生猛哦,我们这批货刚从加拿大那边的运过来的,个个都很生猛的那种。朋友们,别家餐厅的龙虾海鲜我可能不敢说,但是这家开在鹅厂附近的拓古餐厅,我是 强烈推荐这道新加坡黑椒龙虾,不管是从他新鲜的肉质还是整道菜的口味,都是绝对的质量上乘。 哇,真的好鲜美啊,他家这个菠萝肉真的好鲜嫩啊,你看这个前肉里面这个丝状,他们家这个鲜活的这个菠萝,这个味道是真的不一样,超好吃。嗯, 这个菠萝的那个黑椒汁来拌这个面,一定要放这个黑椒汁里面拌一下吃,巨香,真的哇, 然后再来一口零肉啊,我天啊,爽!他家除了波龙出名好吃之外,这个铁板现金的鹅肝也让人眼前一亮,口味口感都没得说。 嗯,超好吃,整个双人套餐人均也就一百多,除了波龙鹅肝之外,还有精选牛小排以及新西兰青口等等,一桌丰富精致的产品,无论你是约会请客还是专程过来享受美味啊,都非常合适。