大家好,我是团长,之前给大家分享了我用小龙虾的经验,就是准备两只小龙虾帮你做跨境或者是外贸业务,一只小龙虾就是云端的小龙虾,让他帮我们去 挖掘客户,找客户联系信息。另外一只就是本地部署的小龙虾,让他帮我们去和客户沟通聊天,转化成订单。 现在给大家介绍我本地小龙虾的配置,其实很简单,就是这么样子一台小主机,然后呢这么一个小的显示器,再加上这么小的一个键盘,这个键盘打开就和咱们平常的键盘使用大小差不多,这三个匹配到一起, 非常节省空间。然后呢非常省电,一天二十四小时在那工作,没有任何问题,声音也很安静,你们看 和这样子一个电脑比起来,比电脑还小,比苹果电脑还要小,这种情况是节省空间,省电。然后呢又静音,你如果是一个家里面装上五个,十个,他也不影响你的这种工作,像团长直接又买了十三个这种小龙虾,帮我们去谈客户,谈订单。 机子装好之后,就是这么小的一个工作台,手掌大小的一个机子,手掌大小的一个显示器,然后呢半个手掌大小的一个键盘,这个机子使用起来和咱们平常用的电脑是一模一样的,就是迷你就是小,就是相对便宜。 最终我的经验是大家本地的小龙虾,我们是用它来去聊客户,聊订单的,大家不需要配置 mac mini 那 样子那么贵的机子, 尤其是你谈不同的产品的时候,不同的机子他去负责谈不同的项目,不要让一个机子谈很多种项目,这样子他会串台。 ok, 将来可以给大家分享更多我们的使用经验,一起好好干吧。
粉丝31.9万获赞131.8万

有想玩 ai 养龙虾的吗?这可不是吃的龙虾,是二十四小时不用吃饭不用睡觉,帮你干活的助理。没错, 就是这个! opencloud, 被网友戏称为 ai 养龙虾。可以看一下这一套 ai 养龙虾教程, 完整覆盖了从入门到落地的全流程,没有废话,全部是干货。从小龙虾是什么能干什么,到环境怎么搭,怎么安装,老师一步一步带着你操作 它。这是录不好的课程,你可以随时随地反复看,反复学,这是新手入门 opencloud 的 最好的选择。

浏览器搜索 qcloud, 或者直接登录网址,网址在评论置顶下载腾讯封装的龙虾安装包,支持苹果和 windows。 苹果注意选择自己的芯片版本, 下载完成进行安装。可以选择你需要的安装目录, 安装完成 直接用微信登录, 这样就安装好了。赠送的有 token, 可以 免费试用。这里可以选择关联自己的模型,推荐用 coding 图案,不用担心超出使用 token。 这里我在确认模型配置是否正确。这个还可以扫码直接绑定微信机器人,点击左下角,然后就可以用微信控制电脑了。

三十二 g 内存的 mac 跑本地大模型,到底能不能实现偷啃自由?今天我用谷歌刚发布的干马四给大家实测一下。 干马四是谷歌的新上的开源大模型,主打高性能和本地部署,官方说他能在手机上跑,还能流畅运行,但是我始终想不出这个部署在手机上有什么应用场景,于是作为养虾人,每天都在焦虑偷啃的消耗,竟然手机上没有使用场景, 那么本地部署来养我的小龙虾是再合适不过。它的部署其实很简单, windows 用户直接用欧拉玛, mac 用户我推荐用 x m l x, 这是专门为 mac 深度优化的推理框架,相比欧拉玛性能更出色。 打开后进入 admin panel, 在 models 页面搜索 hugen face, 输入伽马四各种参数版就出来了。 我的设备是 m 三 max, 三十二 g 统一内存。今天的重点是两个问题,第一,三十二 g 内存能流畅的跑哪个参数?第二,本地部署的输出质量能不能满足日常要求?我已经把干马仕连入小龙虾工作流,先上硬菜 测试。三十一 b 是 比特量化版,现在是十四点十四分,我们记下时,但是结果比较尴尬,等了一分钟风扇狂转还没有出结果,所以结论是三十一 b 在 三十二 g 内存上是跑不动的, 如果电脑是六十四 g 以上应该就会很合适,那么我们就试一下二十六 b, 现在是十四点二十一分,不到一分钟结果就出来了,透口深深的速度稳定在每秒三十三个,这个速度对于我来说是完全够用, 快速少了一眼回答,质量还是不错的,于是继续追问,重复刚刚的问题,测试下上下文记忆能力。 又追问了模型对比和选择建议,主要考察三点,上下文连贯性并理解能力及问答准确性。 从结果来看,上下文记忆能力没问题,也没有胡编乱造。我们再换一个场景,让他帮我写公众号,推荐一个合适的模型。结论,测试下来,三十二 g 内存跑二十六 b, 响应速度是可以的, 输出效率挺高。当然,回答质量还需要深度测试,看能不能达到商用的标准,但是要彻底说满足,偷啃自由。现在下结论还是太早,因为在测试中发现一个致命的问题, 干马仕标称二百六十五 k 上下文,但我问了七个问题,就报上下文。一出这个问题很头疼,不解决的话基本没有保留历史对话记录,也只能不停的删内容或者开新对话,对于长期使用影响很大。 所以目前我在找解决方案,研究了几种可能的思路,看能不能突破限制,如果能搞定这个问题,本地部署才算真正可用。找到方案后第一时间通知给大家,今天的测试就到这,我是林浩,我们下期见!

openclaw, 一 款能接管你的电脑,真正自己动手二十四小时替你干活的 ai 工具。因为 claw 这个单词有龙虾钳字的意思而被国内网友戏称为 ai 小 龙虾。为了用上这个小龙虾,有人甚至花几百块找人上门安装 openclaw, 腾讯还专门搞了个线下活动,免费帮你装龙虾。这期视频手把手教你学会 openclaw 的 本地步数。 一、前期准备工作,硬件要求不高,一台能联网的电脑, windows、 mac 系统都可以,只要不是特别卡都能流畅运行 openclaw。 如果你的电脑里有重要文件资料,建议把 openclaw 部署到虚拟机里运行。软件方面,我们需要先在电脑上安装 nodejs 和 git 这两款软件。首先来到 nodejs 官网版本,建议选择 vr 二 lts 稳定版,点击获取 windows 安装程序, 下载后打开软件安装包,勾选同一软件安装协议,然后一直点击 nex 的, 再点击 instyle 开始安装,稍等片刻, note gs 就 安装好了。然后进入 get 软件官网,点击下载,没反应的话可以到评论区看看安装选项,全部保持默认即可。 最后把这个 view release note 取消勾选,点击 finish 完成。二、安装 openclaw, 点击左下角开始菜单,输入 powershell, 选择以管理员身份运行,然后输入这一行命令,按下 enter 键运行, 系统会询问我们是否确认执行策略,更改输入 y, 按下回车键表示同意,然后再输入 openclaw 官方安装命令并执行, 剩下的就是耐心等待 openclock 完成部署。安装过程中你可能会遇到各种各样的错误提示,直接截图问 ai, 根据他们的回答逐步解决问题, 期间会有一个弹窗提醒,选择允许访问,随后会来到这个界面,表明你成功完成了 openclock 的 本地安装。接下来我们还需要对 openclock 进行配置,按下键盘上的左右方向键,切换到 yes 回车,确认出石化模式,选择 quickstar ai 大 模型。这里支持使用 gpt、 mini max、 kimi、 豆包、火山引擎、阿里千问、百度千帆等。这是国内主流 ai 的 api, 使用费用大家可以自行选择。 这里以 kimi 为例,依次选择 kimi apikey, 点 c paste、 apikeynow, 然后打开浏览器,搜索 kimi 开放平台,确保账户有余额。点击 apikey 管理,新建 apikey 名称,输入 opencloud 项目,选择默认复制这串密钥,并粘贴到刚才的窗口即可。 如果你喜欢用豆包,就选择这个火山引擎 pass 的 api k, 然后进入火山引擎控制台,点击这里的 api k 管理,创建一个 api k, 粘贴到 power shell 窗口中,返回 timi 的 配置界面, 按下 enter 确认执行模型版本,选择默认的即可。这一步是配置通讯频道,我们选择最后一个 skip, 包括后面的配置,搜索引擎配置、 skills、 自动化脚本全部选择,暂时跳过,等跑通了再回来配置即可。 最后一步选择 opens web ui 系统,会自动调用浏览器,打开 opencloud 的 聊天窗口,如果小龙虾可以回复您消息,恭喜您完成了 opencloud 的 本地部署。下期视频我们具体了解小龙虾的使用方法。

现在小龙虾里面配的就是墨尔模型,就是剑马寺以四 b 奥拉玛的,我问他你是什么模型,有哪些功能? 下方剑马寺,然后看一下他配置文件里面怎么配置的, 配置文件里面这个 provide 的 就是奥兰马的,然后类似幺二幺,是本地的幺二七的点,零点零点一模型,这里佳木斯下载了谷歌最新的佳木斯模型, 我一开始下载的是二十六 b 的, 发现我的机器带不动,输入一个信息让他回复,要等了半天,好,差不多一一分钟吐几个头坑吧,太满了,带不动。所以我后来下了这个四 b 的 一四 b, 这个大小是九点六 g, 九点六 g 之前那个二十六 b 的是十七个 g, 然后测试了一下新的速度,就差不多可以用他现在这个推移,差不多是这样子,你发中文,他反正推移的时候都是思考,都是用英文思考的,但是他回复的时候他都是中文给你翻译回来了, 然后他的数据截止日期是二五年,一月份的就一年多以前的,还是给你们测试一下,看看他的速度啊,这头壳输出 这个是没有加速的啊,你看看。 然后我的机器配置是这样的,是那个 l l 的 那个 n 五的芯片内存只有十六个 g, 所以 二十六 p 那 个带不动。

一天一个邪修网站第五十七期今天介绍的网站是今天一个视频教会你怎么本地部署最近爆火的小龙虾,这是一个可以免费本地部署小龙虾的网站,点击立即部署,选择符合电脑配置的模型,这边建议选择推荐的就可以了,然后等待部署就可以直接跟他对话, 就非常简单。在这里你还可以看到他现在所拥有的技能,足足五十一个,也是完全够我们普通人日常使用了。最离谱的是 你担心的托管费用在这里都无需顾虑,这里的本地模型都是免费使用的,而且本地部署数据都在自己的电脑里,绝对安全。更有意思的是,独大师 ceo 田野带着团队的龙虾 ai 纯纯跨界实测,用龙虾五天硬生生憋出六点六万只,从 被拒签到直接过审签约了番茄这本虔诚的网文叫穿镜恋中后全网求我别发疯,感兴趣的爽文爱好者可以去看一看,不想花钱又想试试小龙虾的,可以先从 l f 扣的试试,手不掉队不踩雷就非常离谱。

由于小龙虾消耗托肯太贵,我要零成本运行,一块四零九零,显卡带不起来。由于 deepsea 模型太大,现在对电脑改装公司电脑装了一只龙虾,这个龙虾只能运行三十 b 的 deepsea 模型,七十 b 的 时候运行特别特别缓慢,我从医院偷偷跑出来了, 换上正常的衣服,对我的电脑进行改装。大家看一下电脑本身,这台电脑是一个 i 九十二代的,一个 cpu 和一个四零九零的显卡,但是七四 b 的 模型运行不动, 把这个三零九零和这个四零九零准备放在一起去运行,这个电源是两千瓦的电源,应该可以带动吧。然后由于这是原来插了一个采集卡,把这个口给占了,那只能用一个延长线 延长出来,但是这个机箱又小了,再换机箱也麻烦,我就到了电焊铺,搞了一只三角铁,还有奇奇怪怪的配件,我看能不能把它给装一下。我的初步想法是这样, 就初步想法往上一放,哎,这头我一固定,这头一固定,我这样一插,理论来讲应该是正常的, 但是这也有个危险性,这个铁渣子一旦掉到主板上,一通电就直接短路了,就说这是个,这是个风险性极高的货,哎呦哎,借的东西不行,装不进去炖了 哦,现在有个问题,这个还转不了,对啊,这个转的时候铁渣子都掉显卡里面了,现在遇到难题了,因为你看到这个铁渣子一旦掉到这个主板里面,就会,就会短路,所以现在必须把它退掉。 开始讲戏了啊,只有他固定下来,只有这个固定下来才能把这个固定下来。如果,如果说从这个孔转,你看 如果从这个孔钻钻进去,会导致这个显卡必须下移,如果显卡下移的话,这个线,这个线是插不进去的,你从这穿他一个孔, 他撑不住啊?他要往下压的呀?你看他一个孔,你现在穿这,他往下压的,他变成这样了,我看对不对?

下面介绍一种小龙虾的本地部署方法,我给他叫做本地云部署方法。首先打开虚拟机,打开虚拟路由,用于让虚拟机连接外部网络, 再打开虚拟机, 现在虚拟路由已经开启了,虚拟机也已经开启了。我们打开模拟终端,连接开启的虚拟机。 我在这个虚拟机里安装了一个 k 三 s 容器管理系统,并在这个系统中部署了小龙虾。 我们看到 openclaw 已经在 running 状态,因为小龙虾的权限比较高, 将小龙虾直接安装到宿主机当中是一个非常危险的行为。 以上小龙虾运行在 k 三 s 容器中,而容器又运行在虚拟机中,这样就实现了对小龙虾的两重封印,很好地降低了隐私泄露的风险。我们打开浏览器, 输入小龙虾的 control ui 地址,给小龙虾发送一条消息。 好的视频就到这里,感谢收看。

现在我的小龙虾呢,用的是我本地部署的千万三点五二十七 b 的 awq 的 模型,响应速度非常快,这是在麦克上面的小龙虾,然后呢调用的是我在我这台五零九零啊上面, 我这台五零九零上面部署的这个千万,这是在我五零九零上面部署的千万三点五二十七 b 大 模型。你看好一会任务呢,非常快,响应非常快,然后这个显存的占用呢,已经到达了百分之百,然后你看这边的速度多快,哇塞,网络也没有延迟,然后响应速度极快,感觉太棒。

想拥有一个二十四小时在线的 ai 助手吗?今天教你五分钟内在 mac 上部署 open call, 打造你的专属数字分身。首先检查你的 mac 准备好了没有,打开终端,输入 node v, 如果显示版本号,说明 node js 已安装版本需要十八以上。如果没有用 vm 安装 命令,我放评论区了。接下来是关键步骤,默认 n p m 局安装需要苏斗。我们先配置用户目录,输入这三行命令,创建目录配置路径,刷新配置。然后一行命令安装 n p m install, 即 open card。 安装完成后输入 open card version, 确认一下现在启动配置向导 open card onboard 第一个安全警告输入 yes onboarding mode 选 quick start, 快速开始 model provide 的 重点来了,推荐选 zai 智普,国内用户友好,颜值低 off method 选 c n, 使用国内端点后面的 channel, search, scales, hux 全部跳过,先刨起来再说。最后 hoch mod 选 t u i 终端界面启动配置完成,启动它 open country 第一次启动,他会问你,你是谁?想让他做什么?我的设定是这样的, 我是欧皇兄电力工程师,关注 ai 和 web 三,你的职责是协助我优化工作流代码,编辑文稿输出, 它就会给你一个很棒的回应,并且记住这些信息,这就是你的数字分身诞生了。最后提醒一点, open call 有 技能系统,但 call up 上有三百多个恶意技能,安装前务必检查源码,定期运行,安全审计 open call security audit。 好了, opencar 安装完成,下期教你怎么配置 discord, 让它二十四小时在线关注我,一起玩转 ai agent!

首先直接双击打开登录电脑端的小龙虾,等几秒钟,如果你是没用过的话,你必须要先注册, 先注册。然后呢就回来网页端,就是这里先注册嘛,因为我已经注册了嘛,我就点登录账号是这一个,这输入密码这账号嘛?然后呢就连接, 比如说我随便发一个咯,五二零发送电脑端就会接收到了,你看是不是还有这里有一个使用说明,要先看一下这里。 好,现在可以了。

界面啊, open cologne, 来看一下咱们整个配置。这边呢是 cologne 的 get 位,他的网关,这边呢是本地的欧拉玛服务器 哎,这边已经好了,其实呢,走了一些弯路,我跟着豆包的思路啊,给我转圈转了一天。然后呢,我用 tiffany 呢,直接改了一个 jason 的 一个配置文件,直接跑通啊,就是这么。哎呀神奇,看一下, 我这边是跑的本地的欧拉玛,用的千问三点五九币的一个模型。你看这边啊,我已经开始给他对话了。这边想做什么啊?怎么称呼这边?你看下一步呢,继续折腾一下。

给上班族和学生党分享三个 open crawl 超实用的 skills, 再手把手教你下载、安装和一键部署。第一个必装的是 error guard, 这是防止装多款技能,易出现冲突、死循环、误删文件等问题。 后台运行占用极小,实时监控内存、 cpu 和权限,自动熔断危险操作,阻断冲突指令,遇到异常及时告警, 既不干扰正常使用,又能防止系统崩溃和数据丢失。第二个 contestkeeper, 日常处理长文档备考计划跨天项目时,无需反复重述背景、文件路径和格式要求,它通过本地向量存储,强制跨绘画锁定关键上下文,让 ai 始终跟上思路。 备考时记住复习进度和邮件模板,长任务,效率直接翻倍,堪称常对话必备的记忆锁。 第三个 file organizer pro, 它能自动识别文件类型,按日期项目智能规档,还支持批量重命名、去重和垃圾清理,可自定义规则适配个人需求。比如将备考资料统一规档,无需手动整理,一句指令就能让桌面和下载文件夹清爽有序,适配强迫症和效率档。 很多宝贝还不知道怎么下载这些 skills, 我 们先下一个龙虾部署工具,只需一键安装就能自动部署,无需繁琐调试,打开就是可用状态。在二指浏览器搜索七二四恐龙虾,这个是官网地址,大家别下载错了哈。 下载完成后打开,让它自动配置一下网关,之后点击右上角的兑换码,输入 x x 二零零,能每天领取免费偷看, 然后选择技能商店,这里汇总了全网所有的 skill, 直接搜前面推荐的几个名字,或者大家可以慢慢浏览寻找需要的,一键安装就会配置完成,然后开启对话就能使用啦。

最近养龙虾特别火,今天我带大家在国产系统环境里养虾,我正好手里边有一台笔记本啊,笔记本安装的是银河麒麟操作系统 v 十的二五零三版本,在开放麒麟社区我看到了他们制作的龙虾的安装包, 我直接下载的叉八六版本到本地。下载完以后,第一步我先要对这个安装包去付全,也就是给他一个可执行权限,需要在命令行里边去操作。 命令已经打在弹幕上了,输入的时候需要注意输入空格, ok, 直接双击启动,允直接运行, 始终允许。 第一步我们先需要配置模型厂商,我们可以选择智普 默认 api 密钥,需要大家去单独注册,我提前注册了一下, 将 apik 复制, 然后保存配置,开始安装, 安装配置成功, 安装成功以后会弹出一个安装成功的对话框,打开网页,我们可以复制把这段,把这段地址打开网页,我们复制这段地址 可以用火狐浏览器,也可以用三六零安全浏览器。打开之后我们输入一段命令试试, 耐心等待一下, 把动态汇总了下,速度上也还可以。以上就是龙虾部署的详细步骤,部署起来很简单,感兴趣的朋友可以去体验一下。

本期视频呢,给大家带来 windows 环境下 open cloud 的 一个安装,那最近大龙虾比较火,很多朋友都私信我说龙虾在 windows 环境里面怎么去安装呢?那本次视频呢,就给大家带来一个详细的教程。 首先呢,呃,安装大龙虾需要前置的依赖两个环境,第一个话就是 node js, node js 呢,它是一个前端的 java script 的 运行时环境,所以说我们要安装龙虾需要安装一下它,因为 大龙虾是基于 note 去做研发的,然后 note 的 话,大家都登录对应的这个网站,然后就下载,我们是 windows 嘛,所以说需要下载 windows 安装程序, 然后安装完这个安装程序之后呢,大家就直接一步一步的进行 next, 然后最后 install 就 可以,其他的其实都不需要进行任何操作。然后除了 note 这 s 之外呢,还有一个 get 的 下载, get 下载呢,就是 get 这个地址,大家可以看视频里面对应的这个网址,然后进行一个下载,我们也是 windows 去下载 windows 就 好。 那这个 get 呢,它是一个代码管理相关的,然后把这两个依赖都安装好之后呢,我们就可以回到大龙虾这边,然后它龙虾的一个安装命令的话,其实是非常简单的,就直接执行对应的这个命令,在 我们的终端里面执行就好,然后我们是 windows, 所以 说我们就选择这个 i w r 这条命令就好了。那在安装大龙虾之前呢,我们先来到 cmd 里面,看一下我们刚才说的这种 get 怎么去判断我是否已经安装成功了,就执行 get 杠 warren 啊,看一下它的版本号是否是 ok 的, 还有就是 node node 的 版本 啊,可以看到它对应的这个信息也是 ok 的。 还有一个点就是我们为了防止在安装过程中会出现一些失败的情况,我们需要把本地的防火墙进行一个关闭, 那关闭防火墙呢?给大家说一下,就是在设置里面打开隐私和安全性,然后 windows 安全中心这个地方会有一个防火墙和安全网络保护,然后这里面有三个,我们可以挨个点进去,把它对应的给关掉,然后专用网络给关掉, 还有公用网络也给它关掉,关掉之后这三个都关掉了,那么对应的防火墙就关好。我们配置完这个环境之后,就可以去执行它提供的这条命令,直接一个复制,然后执行 ok, 到这里呢它前置的一些安装就已经结束了,那安装完了之后呢,我们还需要进行 opencloud 的 配置,它直接让我们进入了配置界面,所以说这个地方我们就直接进行配置就好了。 那第一个内容呢,它是说 openclaw 是 一个非常强大的,然后进入也相对比较强的,就是需要我们给很大的权限的一个软件,那是不是我们需要去同意,那没同意的话肯定也是装不了,所以说直接就 yes ok 了。 然后第二个的话就是是否要快速启动,或者是底下的这个主功能配置,我们直接点快速启动就行。 接下来这个是需要去配置模型和对应的一些验证,那模型服务的厂商的话,它支持比如说 openai, 还有国内的什么 mini mix, 还有这种 kimi 以及千问。那这个地方我们使用的是阿里的千问,因为我之前有阿里千问的一个 co apply, 所以 说这个地方我们需要选千问。在选千问之前呢,因为它是一个 os 这种验证方式,它不是那种我们把对应的 api k 输入进去就 ok 了。 那 oos 呢?它是直接会在浏览器里面去打开验证的链接,然后你进行一个同意。打开之前呢,需要你在浏览器里面已经登录过千问对应的网站了,然后它才可以跳转过去,不然的话它这个地方会有失败的情况,所以说在执行之前一定是要在浏览器里面 登录过千问对应的这个网站。还有一个点就是我们前面不是把防火墙给关掉了,如果不关防火墙的话,这个地方去跳转的时候, oos 可能会验证失败,所以说大家一定要执行一下防火墙的扳币。那我这个地方呢,我们就直接去选择一下千问的一个 oos, 好的,那这个地方呢?它就跳转出来了千问的一个 os 验证的链接,那我这个地方呢,只需要点击一下确认,确认完了之后就可以回到我们对应的 这个地方,就可以看到它这个地方已经 os 验证成功了,就可以让我们去选择模型,那选择模型呢? 我们这个地方就保持默认现状就好,直接回车,回车完了之后,这一步让我们选择一个渠道,这个渠道这个 chanel 呢,它其实是 之后我们可以比如说通过飞书啊,或者是说 telegram 这种软件去进行一个对话,和机器人,也就是和我们龙虾进行对话,如果这个地方你已经准备好了飞书或者是 telegram, 也可以在这个地方直接配置,那我们这个地方呢,先去跳过,后面的话我们会有专门一节去告诉大家怎么去 连接飞书,连接这种 telegram, 所以 说我们直接 skip for now, 然后提示的这些东西呢,直接就是允许就好。还有这个地方就是选择对应的一个提供,这里我们直接就是 skip for, 然后他问我们现在是不是要去配置 skill, 那 skill 呢?是龙虾作为现在那么强大的一个工具,它的一个精华所在,但是我们可以进来看一下, 这个 skill 里面其实就是龙虾它自己支持的一些 skill, 那 如果大家有需要的可以去直接安装,那我们这个地方呢,因为后续也是会给大家去 出对应 skill 安装的一些视频,所以说这个地方我们先去跳过,然后后面如果有一些我们需要的 skill, 到时候再去安装就可以,所以说先去跳过啊,这个地方呢先去使用空格选中,然后跳过。 接下来就是要配置一些什么额外的一些 k, 那 如果我们不需要配置的话,就直接选择 no 就 好,包括什么 no, banana 这种我们都不需要,还有什么 no 顺,这个也不需要, open i 的 k 我 们也不需要,所以说就直接 no 就 ok 了,然后 no, 然后这里呢选择一个 hook, 就是 一个钩子,这个地方我们也不需要,所以说直接跳过,选中,然后回车, 然后这个地方它是要去安装对应的一个 gateway 网关,它会跳出一个新的窗口,那这个窗口的话我们不需要关闭,因为之后我们去与龙虾进行 web 页面的对话的话,我们需要对应的这个 gateway 进行一个启动, 然后我们就回到之前的这个窗口,然后他会问我们现在我们要去与货币进行交互,是用命令行的方式还是启动一个 web ui? 那 我们更清晰的肯定是使用一个 web ui, 所以 说选择这个 web ui 可以 看到这个地方,我们就打开了对应的 open cloud 聊天机器人的一个网页端,现在可以看到他右上角就是健康状况是正常的。然后我问他,你好 好的,可以看到他的回复说,你好,我刚上线,然后我是谁?你是谁?他需要让我们给他起名,给我自己起名。比如说龙虾作为那么强大的一个工具,他其实是有一些记忆的文件的,那所以呢我们把龙虾装完之后, 需要经常的和他去做一些对话,也就说我们传统意义上养龙虾,那也就是这个龙虾你给他的知识越多,他越能帮你去提供更有价值的一个服务。 那到现在呢,我们对应的这个龙虾就已经装完了,接下来你就可以跟他去进行对话了。除了这个之外呢,我这个地方还给大家准备了一些其他东西,就是有一个文章,这个文章里面呢除了刚才我们提到的就是怎么去安装对应的龙虾,还有就是安装过程中可能会出现一些失败,比如说千问欧奥斯那个地方验证他会失败, 就是我们在安装的时候,这个命令窗口直接一闪而过了,那如果我们抓不到错误的话,可以执行一下这个命令,就是在安装过程中如果有问题的话,它会把错误日期输出到这个文件里面,可以把这个内容拷贝给一些,比如说 dvc 这种模型,让它去帮忙去查看是什么原因。 还有就是 opencloud 它支持一个 doctor, 就是 它可以进行一个诊断,然后诊断完之后修复后可以执行这个 opencloud config 进行一些内容的配置。那这个命令呢?也是我们后面可能去切换模型啊,或者是说切换对应的 channel 都会使用到的一个命令。 那除了安装之外呢,还会就有对应的一个卸载。呃,这个卸载主要的作用主要还是说我们在安装过程中可能有一些失败,那我们如果想把它卸载干净的话,可以去参考我上面写的这些命令,这样的话就可以把它卸载干净,然后你再重新进行安装。

现在 ai 都能养龙虾了,就是这个 openclo 被网友戏称为 ai 养龙虾。就是你一句指令, ai 小 龙虾,它可以直接帮你在电脑上干活,你可以理解成雇了一个二十四小时不用吃饭不用睡觉帮你干活的小助理。 这一套 ai 养龙虾教程,完整覆盖了从入门到落地的全流程,纯干货,无废话。从小龙虾试什么能干什么,到环境怎么搭,怎么安装,再到本地模型怎么用,一步一步带着你操作,是新手入门 opencloud 的 最优选择。

很多人在问 oppo klo 的 这个龙虾呀,本地部署有什么优势?今天一条视频给大家讲清楚。我,我用一个例子给大家讲,比如说你目前当下你的营销数据,你的粉丝数据啊,或者核心用户的信息等等,这些东西你要不要上传到云端?我们也要考量的第一个点是什么呢? 他会不会像几年前这个所谓的网盘一样,有一些网盘可能就关闭了,这个资料你还能不能拿的出来?第二个问题呢?这个数据上传到服务器上之后,你会不会担心这个服务器的公司掌握你这些数据? 那如果做到本地部署呢?第一个问题呢,就这些数据都在自己的电脑里面,咱们不用担心被别人看到,特别是这种敏感的数据,比如说咱们粉丝的数据啊,客户的信息,这种敏感的数据我们可以在本地电脑上, 不会说上传到服务器里面,随便谁都可以调取,那这个点就是比较好的一个点,同时还有一个优势是什么呢?目前我们用本地的时候, 相应来讲他不用来回再跑一次晕转,所以效率会比较高。所以本地部署最大的优势其实就两个,第一安全性比较高,第二效率性会比较高,反应比较高。 所以如果你这边要是做龙虾部署的话,你想了解一下目前本地部署和云端部署对比有哪些优势的话,那我今天这个视频我希望可以帮得到你,如果你还有哪些问题呢?我们可以评论区里,欢迎交流。

嗨,朋友们,那最近欧文科罗真的是太火了,我自己呢也用了一段时间啊,说实话确实还是蛮惊喜的,不管是工作上还是日常生活啊,他都能够用的上,而且确实效果还是蛮不错的。那同时呢,我也发现身边越来越多的朋友和公司已经开始把它引入到自己的业务里面去了, 所以呢,我就在想 ai 这个东西,普通人到底应该怎么去用 excel 去做表格一样, 那关于它具体能做什么,怎么用到谁的工作业务里面去呢?我后面会再单独出一期视频来跟大家分享一下。在那之前有一个问题,就是很多朋友还是没有跑起来过 open call, 不知道怎么部署, 那感觉门槛还是挺高的,不知道应该从哪里下手。那这期视频呢,就是我专门为这一部分朋友准备的,哪怕你是完全的零基础也没有关系,我会带你一步步把它装起来,跑起来,只需要你跟着做就可以。那我们现在开始吧。 首先我们需要先打开浏览器,输入这一行网址,那这行网址呢,就是 open cloud 的 官方文档, 打开之后,左上角可以切换成简体中文,我们划到页面的下方,找到快速开始,那里面呢就有安装的命令。不过在执行这一行命令之前呢,我们还需要再安装另一个东西,让这个命令可以在我们的电脑上跑起来。我们打开这一个网址,点击获取 node js, 这里以 windows 系统为例,点击 windows 安装程序下载,下载完成之后呢,我们一路点击下一步就可以了。安装完成之后呢,我们可以按一下键盘上的 u 键来输入 power show, 注意右边有一个以管理员的身份来打开。我们要点击这个,不然后面可能会遇到权限的问题。 我们输入这行命令,然后回车,只要页面出现版本号,那就说明我们刚刚的工具已经安装好了。回到我们刚才的 open class 文档,把安装命令复制过来,在蓝色窗口里面右键粘贴回车执行。 那不出意外呢,就可能会出现一个满屏红色的报错。那别慌,这只是一个 windows 的 安全策略在拦截我们执行这一行命令。我们输入一行命令来解除这个限制。 回车之后他会问你是否确认要解除这一个限制。我们输入字母 y 回车页面,如果没有任何的输出,那就说明我们解除限制成功了。 然后我们再把 openclock 的 安装命令重新粘贴进来回车,然后稍等一会就安装好了。安装好了之后呢,我们输入 openclock 杠 v, 只要出现版本号,那就说明我们的安装已经成功了。接下来我们开始出手话配置粘贴,出手话命令稍等。加载完成之后呢,页面会进入一个引导。 第一步他在问你这是个人使用的模式,如果要多人共享,需要配置访问锁定是否要继续?我们这里选择 yes, 用键盘上的左右方向键来进行切换,然后回测确认。 接下来我们选择配置模式,我们选择快速配置,然后是选择大模型,可以选择阿里云火山引擎或者是其他已经购买的大模型的厂商。这里我已经提前准备好了,用制定的配置来为大家进行演示, 输入大模型 api 接口的地址,先把默认的内容删掉,右键粘贴你复制好的接口链接,然后回车,这里输入 api 的 密钥,右键粘贴回车。因为我用的是 open ai 进入模式的接口,所以呢这里我选择 open ai, 然后选择要使用的模型,我这里选择的是千万三点五的模型,等待验证通过之后,下一个输入框直接用默认信息回车就可以了。 接下来是配置对话入口,也就是你想要在哪里跟小龙虾进行对话,如果不进行配置的话,默认只能用它自带的网页版进行跟它对话。那这里呢,我们先暂时选择跳过,稍后呢我会再单独讲怎么进入到飞书里面去。 下一步是配置联网搜索的能力,我们暂时选择跳过,然后是配置技能,我们选择跳过,接下来是配置 opencloud 的 自动化拓展功能,如果说你只是刚开始使用,只勾选最后两站就够用了,如果说你想要体验更加完整的功能, 我们直接全选也没有问题。最后一步选择第二下选择,打开 webui 浏览器就会自动打开 opencloud 的 网页版的界面,我们在对话框输入任意的内容,会看到小龙虾返回的消息,那就说明我们的配置已经成功了。 接下来我们来配置飞书接入,为了避免记用性的问题呢,我们这里用飞书的官方插件,不过在这之前呢,需要先安装另外一个工具,主要是为了避免配置机器人到了需要扫码这一步时候二维码显示异常。 打开浏览器输入这个链接,我们点击 windows 六十四位的安装包,下载完成之后呢,我们直接打开一路默认下一步就可以了。那做好之后呢,用之前打开 pos 的 方式来打开我们刚刚安装好的工具, 然后我们粘贴飞出机器人插件的安装命令,等待安装完成之后呢,页面会弹出一个二维码,我们用飞出来扫码,按照页面的提示来创建机器人。 当机器人创建好了之后呢,稍等一会,让 open color 重新加载,启动之后,就可以直接在飞书里面和机器人进行对话了。那到这里呢, open color 的 安装就已经全部搞定了, 那么以上就是本期的全部内容了,如果说你在安装过程当中有遇到什么问题呢?也可以在评论区留言,后面我会分享更多 open color 的 使用方法。如果你觉得这期内容对你有帮助的话,欢迎点赞投币转发,那么我们下期再见!