你养龙虾了吗?我养了两只,一只是云上的,一只是本地的,先养的云上的这只,但是我发现一个问题,我上午发他指令让他给我出一个短视频的脚本,结果下午才发回给我 啊,这个延迟有点太高,也可能是跟我服务器的配置不高有关系,所以又养了一只本地的龙虾啊,同时也是因为考虑到纯线上的话。呃,好像跟我这边的业务关系并不是特别大 啊,而且还要消耗 token 对 吧?能省则省嘛,用它们还不如用豆包啊,用 deepfake 这些。 所以呢,本地的话,我就为了他一些数据,把一些我们之前的爆款视频呢,还有一些爆款脚本呢,还有一些规则文档啊,发了给他,让他去分析这些文档,再给我出新的短视频脚本, 哎,结果发现还还挺好用的。他可以把一些呃文档分析的很透,包括给他的一些呃敏感词,他都能根据规则去做处理。哎,我觉得挺好的。然后还没有试他能不能剪,我在想 如果让他去用剪映,把这个脚本用这些本地的素材剪出来的话,他应该也是可以做到的。等下次我抽时间试一试。你有没有在养龙虾呢?咱们交流一下。
粉丝721获赞7254

很多朋友最关心一个问题, openclo 小 龙虾到底要不要钱?如果收费,每个月得花多少?今天咱们就来好好捋一捋。首先要明确一点, openclo 这款软件本身是开源免费的,不过想让他真正跑起来帮你干活,还得准备两笔开销。第一笔是房租,也就是给小龙虾找个住的地方, 可以是你的个人电脑,也可以是一台云服务器。对新手来说,更推荐诸葛云、阿莫云这样的云服务器,一年大概六十块钱左右,用在自己电脑上虽然也行,但可能会带来一些数据安全方面的一块。第二笔是口粮,也就是让小龙虾动脑干活,是消耗的 ai 大 魔性算力, 这部分是按用量收费,有点像家里的电费,用多少交多少,让他多干活自然就得多吃,闲着的时候就不花钱。刚入门的朋友来说,可以先准备一百块钱,足够买上一批口粮, 体验起来。那有没有完全不花钱的办法呢?也有,如果你家里有一台性能还不错的电脑,可以尝试本地部署加开源大模型的方式,这样连房租都省。但要注意,本地部署虽然省钱, 对数据安全的要求却更高,如果不懂得如何做好防护,反而可能有泄露风险。所以对新手来说,还是建议先从云服务器入手,既省心又安全。

今天我养了只小龙虾,使用本地的资源,不需要额外的 api 收费。现在我们把这个小龙虾记录到聊天平台进行测试,我们先给他发送一个指令, 就让他开发一个贪吃蛇的游戏,现在是四分三十四秒,我们看看他用了多长时间,不到一分钟 ai 就 生成出来了。先复制这个地址,打开浏览器,输入这个地址, 这只是一个简单的小测试,像这样的效果,游戏开发团队一个人需要花费半天的时间,像设计元神这样的游戏大作,今后小龙虾也能开发出来。我们是做工作站服务器配置方案的,我们已经部署了多只小龙虾,用在文职开发设计,如果你想养只小龙虾,来找我部署。

呃,很多朋友都好奇,养一只 oppo 可乐小龙虾到底要花多少钱啊?要不要半亩钱?其实呢,费用就两块一块呢,就是房租,就是服务器,你去做一个云浮球形入门配置也完全够用,大概是六十块钱一个月。第二 呢就是口粮,就是大拇指算力,这个具体呢,要看你怎么用,用的少呢,一个月就几十块,用的多呢,模拟选的贵的那几百上千也是很正常的, 新手我建议就直接去 kimi 这种平台,先充五十块钱就跑个流程,所以说最便宜的方案就是服务器六十,算力五十一百一。那么再回答大家最贪心的三个问题,第一个问题呢,就是要不要翻抹墙啊?不需要,国内完全能用。第二呢,要不要买新电脑?也不需要,原来电脑能上网就行。第三呢,会会不会很烧钱 啊?我们是用多少充多少,其实是可以控制的啊,所以说你可以先花一百一把第一种龙虾养起来跑动之后呢,再根据自己的需求要不要升级模型,要不要加大用量。

我刚看到一个非常可怕的东西,这些都是暴露在公网的小龙虾界,也就说任何人他只要访问这个链接就能访问到这个小龙虾的实力。呃,这个网站是一个 公网上开放的,可以看到之前因为一些漏洞或者是一些其他渠道暴露是出来的一些 opencolo 泄露的一些地址,然后这些地址里面有的是, 呃已经泄完全泄露了自己的 gay v token, 还有一些是没有被泄露的,这些服务器加起来大概有接近三千左右,可能这上面主要是一些版本比较老的,然后他会存在一些历史上,就是 open pro 被别人给爆出来的一些安全问题,就是大部分可能是基于这些安全问题导致他们的风险比较高。是所有装了 opencolo 的人都会被暴露在公网上吗?这倒不是,有一些版本他安装的时候可能会是绑定的监听所有的地址,这种情况下有可能会暴露在公网上。如果你在本地装的话, 大部分用户应该都是没有公网 ip 的,如果你在自己的电脑上用过内网,穿透一些软件,类似于远程桌面的这种,就有可能会被攻击。然后另外一个风险比较大的就是你在云服务器上不服,你要 访问,从本地访问过去的话,一定要走公网的啊。当然在现在的版本,即使我们把它暴露在公网, oppo pro 它自己其实还是有做一些防御的,就是有一些健全。呃,通常是需要我们去输入一个账号密码或者是 tok 后才能够正常的去使用它。

呃继续聊聊小龙虾啊一点感受啊。首先啊当前他还是有一点使用门槛的啊,就不管是使用安装还是使用过程中的这个能力的提升啊都是需要一些动手能力的 啊。所以对有些技术背景的人来说啊会玩的很开心啊,否则的话会比较迷糊和麻烦 啊。二是用这个东西是有成本的那并且成本还不低啊,成本主要消耗在这个大模型的调用上啊,我们习惯了平时用的那种免费的对话式的 ai 啊,但小龙虾走的是啊 api 调用 ai 啊,这个是要按照 token 或者是套餐收费的 啊,也有免费的方案但要么不稳定啊要么慢啊要么能力差啊要么就得本本地部署啊在这个硬件和电费上花钱啊所所以尝试阶段的话就不要啊,在成本上太纠结就该花的钱还是要花的 啊。第三是啊使用它是有风险的,那你要么就不赋予它权限啊要么云端部署啊,但这样的话会失去很多关键的体验啊。如果给他完全的权限啊那你就要做好面对意外的风险 啊。所以尽量不要在这个自己的主力工作机上部署啊。那我这些天是在这个安装在我主力的工作机的这个笔记本上做的测试啊。我我非常小心啊,但也发生过被清文件走不过来的情况 啊。后来就只要我感觉到可能发生风险的这种作业啊我都会要求他必须提前做备份啊或者是让我确认。 呃第四就是小龙虾是通过呃 skill 扩展能力的啊,提升体验感。呃是要去找合适的或者是呃自己开发这个 skill, 否则的话是没有实用价值的。 呃,是 skill 就是 个自然语言的说明书啊,是一种 ai 的 提示词啊。所以开发它不需要写代码 啊,就即使需要脚本啊也能自动的生成啊。从原理上看啊,我们在电脑上能做的操作啊,基本上他也都能做。是啊,所以按照自己的这种啊习惯配饰和做垂类的 ck 是 让他成为啊有利助手的方案 啊。最后再提一点,就是如果你的工作是涉密啊或者是隐私敏感啊,建议还是要用本地部署的大模型 啊,就不敏感的工作内容啊,可以走走这个能力更强的线上模型。呃,安全第一吧啊,先聊这些吧。

小龙虾啊,小龙虾,玩了两天了。嗯,我的部署方式是在我的飞牛,飞牛这个 nas 主机上部署一个容器,容器里边部署的小龙虾 啊,容器里部署的小龙虾,然后调用了我本地模型,本地模型选择了奥拉玛, 因为我的显卡是五零七零钛显卡,目前是跑了一个旧币的,旧币的前文三点五旧币的模型,十四币的模型也能跑。嗯,像旧币的我能跑到九十多头啃,速度还不错。 但是你如果说你在奥拉玛直接问这个大模型,他有点傻,我问他今天几号,他都不知道,看他的。嗯, 哎,他他他既然给我找出来了,刚才我上午问时他还不知道呢, 上午问的时候他还他还傻不拉几的看。上午问的时候没有查不到日期信息,然后让我查手机和电脑 啊,但这种部署方式呢?有有个问题,就是用多款部署,然后调用本地大模型,如果你在欧拉玛里边直接测这个数据,速度还是还是不错的。还不错。 嗯,但是如果说打开这个龙虾在这里边,在龙虾里边这个对话,他速度反应特别慢,我不知道为啥,是网络原因还是还是配置的问题, 所以说我决定打算放弃这种部署方式。我终于把龙虾部署到我本地和欧拉玛一台电脑上来,看看速度会不会提升起来。但今天这个这龙虾他也很笨, 他在装软件的时候把自己改自己的配置,把自己改死了。应该说他自己改自己的配置,又写的格式还不规范,写的东西不规范,然后配置文件出错,然后自己又挂掉了, 他自己,他自己改,自己把自己改崩溃了,这个龙虾, 完了完了,芭比 q 了。 我本来就想让他改一个问题,把他回答的问题的时候用流势书写的方式就是 一行或者一段一段的出,他现在出现的方式是问完问题等好半天,然后一下子把那所有的问题,所有的文字全部出来,这样等的时间太长,不是那种,嗯,从 一行一行的出那种方式,我就为了让他解决这个问题,我让他自己去解决,他竟然把自己给搞崩溃了。你看看,和用打字的效果和模型显示方式保持一致。 这是我问的,我问的, 让他自己去改变,让他自己去改,他自己改,改改改。 然后我给他一个一个方法,然后去配置他,结果 我把这个都都给他了,他说他明白了,结果,结果呢?结果呢?没搞成, 他让我试一下,一试连接断了,连接断了,这等于是他把自己搞崩溃了。 但我, 嗯,也也换了一种,用用这个 m studio。 m studio, 这个,这个,我下载好多模型,我准备用用这个 m studio 测一下这个各种模型的速度,测一下我,我的五零七零态 能跑到什么程度。嗯,一般我的显卡,这显卡跑二十米以上的怀疑都困难,都跑不动,还是不行。 大家有什么好的本地补水方式或者方案可以交流一下。 能不能推荐一下这种 ai 性能比较好的主机?我现在看就苹果的主机性能比较强。价格很贵啊。

不需要科学上网,也不需要花五千块买 mac mini, 甚至不用担心 token, 直接就能在微信里养龙虾了。只不过这次不是 open curl, 而是腾讯刚推出的 q curl, 从下载到使用只需要两步,真正做到了傻瓜式操作,专业级体验下载电脑端 q curl 用微信扫码绑定,从这一刻开始,你的微信就变成了 q curl 的 远程遥控器。 它的核心思路其实很简单,微信直连本地部署,你不用再在不同应用之间来回切换,也不用学习复杂指令,只需要在微信里说一句话, ai 就 可以帮你完成对应的操作,无论是处理文档、操作电脑,还是执行某个具体任务,就像和朋友聊天一样简单。对比起 open curl, 在 不用科学上网的环境下, q curl 相对的更安全, 被木马攻击和危险 skill 自动运行的概率也会大大降低,目前还在灰度内测地址我放在评论区,有没有资格就看各位的运气了。 据说下周会开放邀请码,并且腾讯的软件肯定会有免费的版本,所有 token 费用都由官方承担。同时支持 mac 和 windows 双系统,没有门槛,也没有隐藏成本,下载扫码开用,基本就是一个真正意义上的零门槛开箱即用的本地 ai 助手。

哈喽哈喽,大家好,我是你的好朋友,辫子啊辫子,今天的话其实想分享一下 open core 的 吧,就是最近不是很火吗?龙虾,然后大家可以看一下我的电脑屏幕啊,我其实是走了几条路吧,就第一个是像这个一般的这个, 呃,本地部署,那我本地部署其实是,呃用了这个莱马啊,以及这个拆的 boss, 那 我就可以给大家看一下我拆了 boss 能做到点什么呢?就是, 呃,它可以进行本地部署,然后我用的是这个千问三点五,然后九 b 的, 那他其实比较吃内存啊,所以用起来其实有时候也不是有时候吧,就挺卡的。你正常你看他一段话,就是我用这个,我是用 gmail 去生成的这个话术,然后发给他之后 他其实花了将近两分钟的时间去思考,然后面我说你思考比较慢,你可以在五秒内回复我吗?然后结果他用三十五秒去思考, 比如说我,我今天我跟他说晚上好,那他说连接失败了,其实这东西我也不知道为什么,就是他其实连接失败了,那这个可以,到时候可以问下,问下有没有有没有那个点。但我觉得本地部署的好处是今天你可以去自己去熟悉嘛, 然后他不会消耗你的这个托尔斯,然后你其实可以去看看,就是对应的一些方式,嗯,这些其实都是你自己可以去布置的 啊,那我觉得本地部署其实没啥坏处,坏处可能就是比较占内存,当然可能有人会在本地部署里的文件里会下一些东西。 第二个可能就是云端部署嘛,然后我展示一下吧,就是比如说像这个 phone 等,我不知道怎么读啊,就云算力平台,这个其实我用的比较多,然后其实会用它搓一些 skills 嘛,其实还挺好玩的。 对,然后比较复杂的我其实我做不了,然后他这边会有飞速的配置,像这种云端布置的这种平台呢,其实他会 就是你的这个账号的这个余额。其实怎么说呢?其相对来说你的托管是用的其实还是比较快的,可能大家用这种吉梦啊,可灵啊,用的多了之后,然后或者豆包那个 send 用了之后,你会发现这种云端被部署特别特别费钱,但它好处是 我觉得他的反应速度还是还是可以的吧,比如说我现在跟他说晚上好,然后其实挺快的,就可能就十几二十秒吧, 这我觉得挺快的。然后第二个是他其实也在不断的调整和优化,然后他会有一些社群的一些活动,其实你参加完之后可能拖更是也不用太费吧。像我这边其实没有怎么充钱,我没有充过一分钱 啊,都这个平台去赠送的。对,因为参加参加,一直在参加活动嘛。啊,你可以看我对应的托尔斯的消耗,就这些,其实就是钱啊,五十三块钱,十七块钱 啊,就那天其实我一直在研究嘛,就 skill 怎么写,然后怎么符合自己云端部署,可能会那个安全一点。然后第三个我觉得就是大厂, 大厂推出的这些工具吧。首先我们来看一下这个字谱,嗯,我说实话字谱这东西还挺吓人的,就是你,这就是我,我现在鼠标在这里啊,而我不用鼠标就手在这里啊,然后点这个一键接入飞速 啊,一键接入飞速之后,然后这边有个开启这种配置啊,你就你可以体验我手放在这里啊,我真的没有胖啊, 就你发现他全程都是他自己去操作的,然后包括你看他这个东西要复制的。大家如果做过这个飞书开放平台这个 api, 就 就飞书跟这些, 呃, open crawl 的 这些工具做这个 api 对 接的时候,就是他都需要复制的,然后代码编辑啊,什么都有一系列流程的。我第一次做的时候我自己手动大概花了 一个小时时间吧,然后他现在全自动化,大概一两分钟就能操作完。就 说实话这东西非常非常吓人,我一句可能其他的这种大厂平台未来都可以可能会用这种方式,但我觉得这东西对 小白来说是,嗯,特别吓人的事情就是他没有任何就电,我这个是苹果电脑,正常来说苹果电脑应该会有一些权限的这些提醒,但竟然没有任何权限提醒,直接绕过了这些权限提醒,可能也是这个是一个点,我觉得对于小白特别吓人。然后第二个是 你可以看到我这个积分,就是我我注册完之后其实有两百两千三吧,两千三百一十吧,然后我前面一直在测试这个飞书,其实没怎么跟他聊天吗?就可能发了一个字,你好,发现我这个总的积分消耗其实比较比较快的,将近消耗了三百积分 啊,然后我觉得起啊,还有还有一个就是对于积分来说的这个商业化的这个点,就是你发现, 卧槽,二十九五千积分就看着好像很多,就是你刚看了,其实他跑不了多久,一下就跑完二十九,你可能就要充一百零九了,就这东西非常非常快,然后当你在这边点关闭的时候,他整个都关掉了 哈,我我我不知道他是为什么会设计成这样子的。就是对啊,我退都退不出来的,难道穷逼哈不充值的人就不能用吗? 好的,我觉得这个是一点,然后还有一个就是,呃,像,比如像这个腾讯出的啊, qq, 那 qq 目前我还没有 这个对应的这个验证码啊,对应的验证码,但我听朋友说好像还是挺不错的,我到时候拿验证码之后可以给大家测试一下。目前来说就是第一种是本地部署嘛,其实 现在其实最大的问题是本地部署它难度其实挺大的,而且它的模型像我这个下这个模型的话好像是四个 g 还是五个 g, 反正模型挺大的,挺比较占电脑内存吧,当然你如果你电脑内存大,或者你外置一个硬盘,那我没话说,是吧?但好处就是它不消耗 tools, 然后如果这个东西本身比较 安全,你又比较懂的话,其实本地部署还是挺好玩的。然后第二个是云端部署嘛,云端部署的 点其实在于它整个算力啊,就整个信息其实都是在云端上去部,所以你其实没什么压力在算力上面,然后也会有一些 skills 的一些简单的一些插件吧,就是用用也可以。嗯,最大最大的毛病我觉得还是 怎么说呢,就是云端部署其实你要看对应的平台的能力,就平台如果牛的话,你发现 不如起来就特别方便,然后用起来特别方便,然后平台如果一般的话,你就发现你要等他迭代这东西你得等平台,平台牛逼你就好用,平台一般就要等。然后第三个就是这种大大厂做的这些东西,你看像这个到现在还让我充钱,就感觉就是 好像有点就是新型的韭菜,你知道吧?就是,哎呀,就是又发现自己又变成韭菜了,但是我不知道为什么这东西 那么多人在吹,我觉得也没什么必要。当你这三种方式都尝试完之后,你发现,卧槽,普通人 还是用豆包吧,豆包可能是最好用的,对吧?今天晚上就给它全部卸载,卸载完。所以说像这个龙虾这个流程呢,就分为三步是吧?第一步,上门安装龙虾 啊,第二步,卸载龙虾付了三百到五百块钱。第三个,修理龙虾,龙虾毕竟你养的吗?你养个宠物猫都愿意每个月花个五百,生病了直接花个三千,五千都没,都不眨不眨一下眼睛的养龙虾你舍得它坏掉吗?就像我刚刚这个 对吧?如果我特别特别在意的话,我一定要花钱给他修好了,对吧?但我其实没那么在意,虽然确实挺装逼的,就是装完这个逼我觉得差不多了吧,哈,对,给他卸载掉吧。

小龙虾是一个 an 景嘛?它是专门做服务的,它为什么这么火呢?它现在可以嫁接到 ai 大 模型上面,大模型功能非常强嘛,它参数越多,它的功能性越强。它现在小龙虾通过 a p i 的 方式接管大模型,所以它就变成了 ai 自身技能的这样的一个工具嘛。它的优势就在这,然后它可以通过 an 景就是小龙虾这样的一个引擎去接管大模型的 a p i, 所以 说这就变成了一种非常好的一种组合嘛。

哎,家人们,今天我给大家介绍一下我最最近那个项目的一个更新。嗯,现在的情谊是,我在跟 opencloud 的 使用的过程中,我发现 opencloud 在 本地端啊,如果你没有呃 t s r 的 a s r 的 api 的 话,你只能通过 你文字输入的方式跟他聊。在文字输入过程中呢,因为啊 open 整个的响应相对来说还是比较慢的,所以你就会傻乎乎的在这等待,当然你也可以去做其他的一些任务,所以我就思考在我等待的这个过程中,能不能有一个虚拟人美女陪我在聊着天,然后当 open 完成任务之后,他把结果发送给这个前端的虚拟人,那我就知道他完成了,然后再给他布置新的任务。 所以为此呢,我就搭了整个电路。那整个电路呢?整个是实现的方式呢?就是用户通过语音输入,然后通过外部的 speech 的 呃 recognition, 也就是 s r 技术把它转成文字,然后文字呢给到了我本地的模型, 这样的话,我的 open pro 它主程序的处理通过原单模型,然后本地游戏闲聊也不需要那么好的模型,所以用一个本地的模型流逝的处理来生成相应的回复的文字,包括我还要求他做了些情绪分析, 然后输出呢,也通过游戏的方式可以做文字的打印,当然,嗯,如果是文字输出,你看起来也累,所以我就要求它合成了语音来播报,那 s r 和 t d s 包括整个大模型全部是本地端的, 嗯,然后我们来一起看一看它整个的一个一个产品的一个价格,目前呢还是用的这个网页端,后面我会通过那个 inotool 把它转成就是像 live to do 啊这种模式,因为我找到模型,我找到一个模型,这样我只能生成一个这样的模型来替代, 然后这个是后台 openclo 的 一个状态。嗯,他完成任务之后呢,他就会呃显示为空闲,然后就通知前端已经完成了,然后忙碌的时候呢,他就会后端就忙碌起来,然后这边呢可以用来切换他相应的一些模型。嗯, 你可以选择不同的,当然目前都当前还是用的本地的,就是三 d 的 模型。然后当你点击这个对话开始的时候,你通过唤醒之小转换行可以聊天,然后长时间不跟他聊天超过二十秒以上的时候自动进入休眠啊,一旦你点了这个以后,他其实就已经开始了,然后无论你切换什么窗口,他其实都在用啊, 那个迷你的就是默认的语音输入,包括包括语音输出。好,我们点一下他问你愿意使用他的麦克风,然后说好了小爪, 然后啊,签了小爪以后,他就启动了监听了,开始监听你说话了。因为都是本地的,所以他的声音都没有那个原来那些声音好听。那无所谓了,只是我们做一个测试。嗯,后期嘛,你,你有,你有他可能的费用,你也可以用原来的模型, 然后因为你看我一直在说,所以他一直监听我,我只有停下来,他就会认为我这段话说完了。啊, 你有什么技能? 你有什么技能? 其实他在没有噪音的情况下,其实他整个输入还是可以的, 然后整个动画做的还是比较粗糙的,就也没有什么动画,反正测试一下吧,无所谓,你们自己做可以, love to be, 做的好看一点, 拜拜。

跟风部署了一个 openclock, 就是 我们常说的一个小龙虾。小龙虾我没有选择在本地部署,因为我这里只有一台主力的电脑,另外本来想在一台闲置的电脑上面,嗯,布置小龙虾,但后面再试吧,因为我现在自己有一个云服务器,云服务器部署了小龙虾之后连接了飞梭,反正 其实整整个城区都跑起来了。小龙虾它作为智能体确确实实有比一般的普通的有一些科技之处,它在协调其他资源方面或者是办事方面可能有更强大的延伸。 不过在云服务器的平台上,可能里面的应用还是比较空,所以它它目前的能力和普通的大模型没有什么区别。后面我在云服务器里面再增加一些应用,那么它就可以为我办更多的事,如果不输到本地的话,会存在信息泄露的风险,这就是这个领进我。我里面的模型是千万的三点五 模型,其实最好的是用国外的一些 cloud 相关的一些最新的模型,但是我也懒得去花这个成本了,所以说就直接用国内的大模型来把它给链接上。

今天为客人安装了一台小龙虾工作站,他是用小龙虾做视频编辑工作的,我们是通过 windows 的 平台安装了虚拟化工具呃, gpu 直通到虚拟机里面,然后把小龙虾这套软件部署到虚拟机里面,确保小龙虾这样一个平台的安全性。 企业应该肯定是首首选的是安全第一,第二就是说适配性要好,就是完全能解决它的问题。我们这台机器采用的是特的那个工作站,适配的是 r x 五零九零的 gpu, 两根那个三十二 g 的 内存这样的一个平台。我们现在部署了多只小龙虾, 应用于文职开发呃,设计等等。我们这边还提供一站式的从电脑工作站配置到本地部署,如果你也想了解,加关注,后台找我。