不会还在有人花钱买 tokyo 养龙虾吧?嗯,看我如何实现本地免费的算力查询一下杭州今明两天的天气, 可以看到现在龙虾已经开始调研工具了。那我是怎么实现的呢?就是本地这台可以跑满血 mini max 二点五的 大模型推理服务器,现在这里已经开始发热了,那么其实并不需要英伟达八张 h 一 百显卡。那么给大家看一下我们这台机器的配置, 我们用的是 k transformer 架构,把所有大模型放在内存里,而实际上只用了一张四零九零显卡就可以实现哦。那么这台本地大模型推理服务器你想拥有吗?
粉丝4356获赞3.0万

很多朋友呢在下载完龙虾之后,非常关心的一个问题,我是不是可以用一些免费的模型,然后去让龙虾进行使用,那这样的话我就可以不花钱了。之前我也给大家介绍了一些免费的厂商,提供了一些免费模型,但是那些免费模型呢,他是会限定一些额度的, 那就会有很多朋友问说,我本地部署模型是不是 ok 的? 那怎么让龙虾去连接本地的部署的模型呢?那这期视频呢,我们就来看一看怎么实现。首先呢在本地模型部署有一个非常牛的软件,就叫这个欧拉玛, 这个软件呢我们可以下载之后,它可以去帮我们去下载对应的一些我们想部署的模型,并且呢在它软件里面可以进行一个启动, 这样的话就不需要我们自己去找对应的模型资源,然后进行一个模型文件下载,然后再去启动对应的模型,所以说这个软件呢非常的方便。那这个欧娜玛的一个安装呢,我们这个地方直接就是给大家提供了下载链接, 就进入到欧娜玛点 com 这个地方,然后点击对应系统的一个下载方式,比如说你是 windows 就 直接点,然后下载完了之后直接安装就可以了。那安装完了之后它是一个什么效果呢?主要是有两个地方,首先呢 安装完之后它有一个文件夹,文件夹里面呢它会有一个 app 的 入口,可以把对应的 app 打开,打开之后呢我们就可以在这个地方跟它进行一个对话,可以看一下它所支持的一些模型,比如说 gpt, 然后 deep sync, 千问的,然后 mini max, 还有一些什么拉玛,然后本期我们就以千问的这个模型给大家进行一个讲解,看对应的龙虾怎么去连接。那我这个地方呢,已经把千问和拉玛的这个模型已经下载下来了, 所以说可以看到如果没有下载的话,他这个地方会有一个下载按钮,然后如果已经下载好的这个地方是没有下载按钮的,大家到时候可以下载一下,一会也给大家说一下怎么去进行一个下载。然后我这个地方就可以跟他在这种格式化的页面进行一个对话,问他你是谁, 那可以看到它现在因为它是一个 think 模型,就是它会思考,然后思考完了之后它会进一个回话,可以看到它的一个速度,在本地的一个部署模型速度还是比较快,当然了这个也是看你本地机器的一个性能,那我当前的这个机器呢,是一个五零八零的显卡,所以说它的一个效率还是比较高的。 然后除了这种方式之外呢,我们还有就是控制台的这种方式,就在这个地方我在文档里面给大家写好了, 就是我们可以在 power shell 里面去执行欧拉玛瑙,千问八 b 就 这个模型, 八 b 这个模型如果我们执行了之后,你本地如果没有去下载对应的这个模型,他会先去当 load 的 把对应这个模型给你下载下来,如果已经下载完了之后,他会直接去启动对应这个模型,那你在这个地方也是可以跟他对话的,你问他是谁, 然后进行一个 syncing, syncing 完之后输出对应一个结果,可以看到还是比较丝滑的,那本地模型呢?已经部署成功了,接下来我们就是要让我们的龙虾接入到这个本地模型。接入本地模型呢,其实也比较简单,那这个地方呢,我给大家介绍的是通过修改 opencloud 的 配置文件, 它里面有一个 open cloud, 点 json, 去把里面对应的一个内容进行一个修改,然后我们先按照上面这个步骤去打开 open cloud, 它对应了一个文件位置,我们就可以先去这个地方,然后 按照我命令执行就行了。先 cd 到点 opencloud, 然后进来之后呢执行这个 start 点,打开对应的一个文件夹,打开之后这个地方会有一个 opencloud 的 json 文件,然后编辑给它,在记事本里面编辑就 ok 了。 那我们可以看到之前呢我们这个地方,因为我是豆包的模型,所以说这个地方会有一个豆包模型的配置,那还有一个 agent, 就是 这个与我们对话的这个 agent, 它对应的模型使用的是什么?可以看到这个地方使用的是豆包, 那我们想去使用本地的欧拉玛模型,其实只需要修改三个地方就可以。首先第一个地方就是我们需要在猫豆子这个里面把我这一段给它拷贝进去, 找一下猫豆,然后与豆包进行一个平行位置, 然后把它删掉,加一个逗号,一定是一个英文逗号,然后加完之后我简单说一下它对应的一个内容,首先它是请求的 url 是 什么?就是本地的 logohost, 然后端口,然后 v e 接口 这个 appk 的 话,实际上它是因为本地模型是不需要这个 appk 验证的,所以说你这个地方随便写就 ok 了,跟我这个一样就可以。然后这个地方模型的话你就是用自己的,我们刚才不是下载的是千万八 币吗?所以说这个地方就是千万三八币。然后配置完这个之后,我们还需要去修改 agent 的 它所使用的模型。首先我们需要在底下去把欧拉玛对应的这个模型添加到它可用的模型列表, 在这个地方添加进去。 ok, 添加完了之后我们还需要替换一下,就是这个地方把这个 primary 给替换成我们下面的这个好的保存完了之后呢,我们这个地方的配置就结束了,就直接可以回到命令行执行一下, 我们把这个地方给关掉,关掉之后执行 open cloud get away。 这个因为我们是命令行之前启动的,所以说我们直接关掉之后呢,就相当于对应的龙虾已经结束了,那我直接执行它重启就好了。但是如果大家是 没有在这个地方直接关闭,它是后台执行的,那大家是需要执行 open cloud get away restart。 大家一定要记住这个点,我们直接启动 可以看到这个地方他有 agent, model 是 欧拉玛的千问三八 b, 那 说明我们这个地方配的还是没有问题的。我们来到龙虾这个地方给他对话一下, 那这个呢?是我之前问他的这个模型使用的是什么,那现在呢?我在问他说你现在的模型是什么?你当前使用的模型是什么? 那可以看到它现在已经告诉我说使用的模型是千问,然后它是通用实验室自主研发的超大规模语言模型, 所以说我们现在就已经切换成功了,这样呢,大家就可以拿龙虾去玩本地的模型了,也就不需要花你一分钱了。但是这个地方大家要注意,一定你的机器性能相对来说会好一点,那这个模型的速度运转会更快一点。然后如果你机器性能非常好的话,因为我这个地方配置的是八 b 的 模型, 八 b 呢代表是它的一个参数量,那三十 b 呢?像这种大参数量的,它的一个效果一定是要比我八 b 的 这个模型的效果会好一点。如果你的机器性能非常卓越的话,那你去下载三十 b 的 这个模型, 当然它需要很大的这种资源,所以说当它运转的时候,它对应的这个思考或者它的一个能力也是要比我八 b 的 强的。所以说这个地方看大家一个机器情况。

现在很多人用 open core 龙虾来提升工作效率,但是他用云端的大模型,大家又有所顾虑,数据不安全,依赖外网还会受限。想让龙虾直接调用你本地的大模型吗?今天这期手把手带你切换,安全又自由。 好的,真的是手把手教哈!现在我们在左下角搜索框上面输入 c、 m、 d 三个字母,在弹出来的命令提示框里面,我们首先要进行一个环境检测,那检测的内容无非就是两项,首先第一个是龙虾的环境是否是安装正确,另外一个是欧拉玛本地 你的开源大模型运行框架是否正常,有些人到这一步可能就开始挂了,哎,我这里怎么跟你不一样呢?这些都是基础环境的问题,点赞过千呢!我会为大家出一期教大家怎么零基础安装龙虾环境,并且配好本地大模型。 openclose 需要一个 api key 来识别,欧拉玛服务 这里我是使用了 linux 常用的,这种 spot 命令在 windows 环境下应该是识别不出来,所以待会大家看到一定会出一些问题啊, 那我们换另外一种方式就可以了。所以现在我们是通过 open call 来配置他的 a b i k, 这个 k 可以 是任意的支付船。我这里是设置成了欧拉玛 logo, 那 你要设置成 abc 也是可以的。 现在大家看到提示就代表着我们的龙虾已经连上了本地的大模型,当然现在还没结束啊。接下来我们要检查一下奥巴马服务是否已经开启,因为如果没有运行的话,是需要重新再启动的。这里输入的是本地奥巴马的服务地址, 可以看到我现在本地正在使用的一个大模型是千问三点五的九币,如果没有顺利出现模型铃声,那需要执行这条命令,手动启动本地大模型。那如果你的拉玛本来就是正常运行的,执行这条命令呢,就会 有错误,跟我一样,这是正常的,不用慌,现在我们干脆新开一个命令行窗口啊,我们先检查一下这个龙虾里面的模型有哪一些啊?用 openclose model list 的 这条命令就能够查询的到,第一个千万三幺四 b 的, 这个是之前我使用的本地模型。 第二个呢就是龙虾他默认使用的大模型啊,这是一个在线的大模型。然后呢,用现在大家看到的这条命令,我们就可以让龙虾去找到本地正在使用的大模型。 千万三点五九币。执行完了以后,龙虾会自动的重启,重启以后倒转到这个龙虾的 t u i 交互界面, t u i 交互界面是我们和龙虾进行交互的一个 窗口,我们可以交代他去做什么啊,他会在同样的地方给我们反馈。按 ctrl c 就 可以退出 d o i 界面。紧接着用 open claw on board 这条命令 来启动龙虾的出石化像道这一步用方向左右键就可以选择 yes or no, 这里我们选择的是 yes。 第二项默认选第一个就可以 回车跳转以后我们就可以在龙虾里面看到一个表,这个表里面就显示出了龙虾检测到的本地大模型。千万三点五九币。下一个配置我们可以选择一二两项中的一项,但是千万不要选择第三项 reset, 接下来模型供应商选择,我们直接跳转到最后一个,跳过就可以, 然后选择 o provider, 在 这个 default model 里面连接的欧拉玛模型应该会出现在最上面,并且作为末日模型选择这个就可以了。后面的设置大家只需要参考视频的配置就行。 最后重启龙虾我们就可以来测试是否切换成功。由于之前我已经使用了飞书来测试一下本地的 overclock 使用 大模型是否是正确的啊。大家可以看到当前我发送的消息是直接会发送到我本地的服务器的, 然后有本地的大模型去查找问题。好,我们看到了现在这个龙虾去查询了一下,回复我们当前模型是圈问三点五九币,这个是准确的啊,那基本上到现在 本地模型切换呢,就是完成了啊。最后给大家展示的是拉取本地模型常用的两条命令啊,第一个是拉取,第二个是查询啊,有需要的宝贝啊就可以去参考一下。

这只视频是小白安装 openclaw 这只龙虾的教程,带你一次性搞定安装配置、接入 ai 模型等必要流程。没有代码基础也没有关系,我会把每一步都拆解给你。 opencloud 是 一款能在你本地电脑二十四小时不间断自主运行的 ai 智能体。它由 peter stacker 采用 tabscript 开发,目前还获得了 opencloud 的 官方认可与支持,并作为开源项目进行扶持。安装 opencloud 第一步就是进入它的快速开始页面, 复制官方指令并黏贴到终端执行。整个过程呢大概需要一到两分钟。安装结束后呢,我们就可以进行快速配置,让它顺利启动。如果你是初次使用的,我更推荐直接采取快速开始模式,操作会更简单。 接下来需要为它对接 ai 模型,比如 open ai 的 或者 astropack 的 都可以。我这里以 astropack 为例,使用它的 api key 来完成配置。进入 cloud 的 开发者平台,点击开始构建创建并获取 api key。 记得给密钥设置一个标签,比如命名为 open cloud, 再把密钥复制黏贴回终端里对应的 ethopic api key 输入栏。之后,你还可以选择具体使用的模型。我这里呢选的是 cloud office for。 不 过要提醒一下, opencloud 调用模型的频率是非常高的,使用成本呢可能会迅速增加, token 会烧得很快。 完成模型配置后呢,你还可以设置与 opencloud 通讯渠道,比如 telegram、 whatsapp, 还有就是 skill 配置,包括谷歌地图、 nano banana、 notion 或者 openeye 深层图片等拓展功能。 这里就先不配置占据略过优先,保证系统能正常运行起来,下一期视频会逐步完善更新给大家的。 下面的基础配置都完成后,就到了最后一步选择,你可以通过终端直接使用 openclaw, 也可以选择网页 ui 界面操作, 如果用终端模式,就能在这里直接与它对话了。而我在演示中选择的是网页 ui 会跳转到带画指令的页面,你可以像使用拆 gpt 一 样,轻松便捷的与 openclaw 进行交互。

最近养龙虾特别火,今天我带大家在国产系统环境里养虾,我正好手里边有一台笔记本啊,笔记本安装的是银河麒麟操作系统 v 十的二五零三版本,在开放麒麟社区我看到了他们制作的龙虾的安装包, 我直接下载的叉八六版本到本地。下载完以后,第一步我先要对这个安装包去付全,也就是给他一个可执行权限,需要在命令行里边去操作。 命令已经打在弹幕上了,输入的时候需要注意输入空格, ok, 直接双击启动,允直接运行, 始终允许。 第一步我们先需要配置模型厂商,我们可以选择智普 默认 api 密钥,需要大家去单独注册,我提前注册了一下, 将 apik 复制, 然后保存配置,开始安装, 安装配置成功, 安装成功以后会弹出一个安装成功的对话框,打开网页,我们可以复制把这段,把这段地址打开网页,我们复制这段地址 可以用火狐浏览器,也可以用三六零安全浏览器。打开之后我们输入一段命令试试, 耐心等待一下, 把动态汇总了下,速度上也还可以。以上就是龙虾部署的详细步骤,部署起来很简单,感兴趣的朋友可以去体验一下。

谷歌最新开源的大模型 demo four 据说很强,在综合能力上甚至超越了二十倍规模的开源模型。 今天教大家如何快速部署在本地,以及分享一下在 mac mini 上的实际体验感受,具体感受什么样?大家看视频吧。首先打开欧拉玛官网,下载它的应用程序, 打开应用程序,我们看一下他目前支持的一些免费的开源模型,还没有 demo, 所以 我们需要去他的官网再去下载下载到本地。那么这里呢,有很多不同的型号 可以看一下,它有很多不同参数的型号,有满配的,还有一些轻量版的。那因为我这个是 mac mini m 四十六 g 版本,所以我们就选择它系统默认推荐的这个九点六 g 的 好,只需要复制这个指令,然后打开终端运行,它就会自动去下载 这里下载了。那么我们先测试一下, 测试一下他的回复速度,因为是第一次响应,所以速度会有点慢,然后我们打开活动监视器,看一下他占据内存的情况, 这个模型本身就有实际系统走内存差不多也跑满了,这里他已经有回应了,我继续再测试一条, 第二次响应速度要比第一次快很多, 我叫 jam 四,我是一个由谷歌 deepmind 开发的。 ok, 现在我们打开欧了吗?然后去加载一下,这里要重启一下这个程序,然后再看模型选择,里面 最下面就已经有了已经安装好的,现在我们把这个模型对接到本地的小龙虾,只需要复制这个指令,打开终端,在终端里面运行,它就自动会加载好, 这里有不同的模型选择,都是他支持的一些免费的大模型,我们选择 demo 让他去运行。 ok, 这里已经加载好了,测试一下他的响应速度。 这里我是放了八倍速了,说实话,因为实在是太慢了,他平均回复一个问题的速度差不多要两分钟, 非常非常慢。我本来想在这个小龙虾里面测试一下他的执行任务的能力,但是这个速度的话确实没有办法, 但是它有个好处啊,如果你有低血压的话,你就可以用它。我是动物城朱迪警官,你好吗?我过得还好,不错,谢谢。这里我甚至尝试开启快速模式, 但是实际的感受没什么变化,就还是那么慢, 所以只能放弃在这里面做测试了。那么我们还是回到欧乐玛,在这个软件里面测试一下这个模型本来的能力。这里给他放两张图,让他识别一下图先, 一个是标格,一个是周杰伦,看一下他能不能准确的识别。 这里我也是开了倍速的啊,但是这里的速度要比小龙虾里面快很多, 我给他给出的答案是,图二是陈坤,图一是一名中国艺人, 看来这个版本的模型识图能力还是有点差。接下来测试一道经典的陷阱题啊,这个对大模型来讲是一道陷阱题,很多大模型都倒在了这道题上面, 那么他给的建议是走路去,最后测试一下他的复杂推理能力, 这道题是我让 gbt 五点四给我出的一道推理题。 abc 三人中恰好有一人是骗子,永远说假话,另外两人永远说真话。他们各自说了一句话, a 说 b 是 骗子, b 说 c 是 骗子, c 说 a 和 b 至少有一个是骗子, 请问谁是骗子?给出答案,并且给出完整的推理过程。好,他给出的推理过程和答案我跟 gpt 五点四给的标准答案对比了一下,是一样的, 所以它的复杂推理能力还是可以的。 ok, 总结一下实际体验感受啊,你如果是 mac mini m 四十六 g 版本,虽然能运行,但是它会把你的内存拉满,就是你的电脑会一直处于满负荷的状态,而且响应速度也很慢,所以使用感受是很差的。 当然,如果你的电脑配置足够高的话,你是可以去尝试部署在本地的,因为它的响应速度肯定要比我这个要快很多。而且你还可以尝试去部署它的满配版,比如三十 e b 那 个版本, 能力应该是要比这个强不少。

哈喽哈喽,我是大海,很高兴又和大家见面了,昨天呢,大海给大家录制了一个教程,就是在我们本地的这个电脑上去安装我们本地的大模型欧拉玛啊,然后呢再去用我们的虚拟机安装一个 open close, 然后实现我们完全本地化养虾的一个全过程,对吧?不需要偷啃,也不需要花钱, 但是呢,很多朋友反映说这个安装过程还是比较复杂,尤其是安装虚拟机和后面半段,这个安装 open close 啊就云里雾里了,最后可能还是安装不好,那么今天呢,大海就给大家来一个更快速的方法,大海直接把自己的这个 ym 虚拟机昨天安装好的这一套打包成一个压缩包,大家下载下来一解压就能用了,对吧? 当然这个 openclo 这个本地大模型还是要需要大家自己去安装一下,根据自己的实际需求和你的电脑的配置,然后去安装一个属于自己的模型,那么下面这个 openclo 的 安装大家可以直接一步带过了,对吧?我们来看一下今天这个 教程啊,首先呢我们就要安装一个虚拟机,然后呢把这个大海的虚拟机压缩包打开,修改一点点内容,然后咱们直接就给他访问,非常的方便。那首先第一步我们来安装一个 vm 虚拟机啊,这一步如果说已经做了的朋友,你就跳过这一步,直接看第二步,对吧? 大海这里呢去安装一个啊,没有下载的同学呢,你就去这里下载一个,直接去安装这个 vm 虚拟机,它是向下兼容的,如果大家想使用我今天打包的这个程序,你必须版本至少要高于我昨天是十七点六点四,所以大家这个版本至少也是十七点六点四,不够的你就去升级到这个版本, 点击下一步接受下一步。这个地方呢,安装的时候我们自动安装这个对应的程序啊,以保证我们能使用。 然后呢什么什么我们下一步,对吧?其实就是一直下一步就行了,然后我们直接下一步,下一步 安装好,这里已经安装好了,我们点击完成。然后呢我们就开启我们的这个 v m v 二迅疾,开启了之后呢,大家这个地方不要新建,也不要这个打开,对吧?把大海打包的这个迅疾给它下载下来啊,我给大家提供了网盘链接,随便选一个进去下载好, 然后这个下载出来的安装包就是长这个样子,一个无邦图六十四位的 vip 压缩包。然后呢你就自己找自己的固态硬盘,比如说我,那这个盘是固态硬盘的吧?我我新建一个文件夹进去, 我这个压缩包呢,打包是两 g, 解压后是五 g, 所以 说大家最少最少你的那个固态硬盘上要留十 g 到二十 g, 对 吧?去给它用来运行,如果说你想很好的体验的话,至少也得五十 g 左右啊, 这个地方我们直接去给它放进去,放进去之后我们直接给它解压缩,全部解压缩就可以啊,好,解压缩好之后呢,我们就可以直接从我们的这个虚拟机里头去打开虚拟机,找到你刚才解压缩的这个文件夹, 然后呢里头会有一个六十四位文件,我们直接打开它,好,然后你就打开了这个虚拟机,点击虚拟机,然后给它设置,主要是看看大海设置这个四核八 g 你 能不能带动啊?你的电脑的硬件配置比四核八 g 低,你就 把它改的小一点啊,不然太大那个开启不了。接下来就是这个选项,这里呢,我们选到高级,看看他有没有起用这个侧通道缓解的禁用啊,一定要把这个地方勾上好,这个地方勾完成之后,我们就可以直接开启我们的迅疾啊,这个地方弹出了我已移动或者我已复制,你就随便选一个,我选择我已复制。 好,这里我们就已经登录了,对吧?登录名是无邦图,登录的密码是大海增援网,无邦图 密码是大海资源网啊,好,然后这就登录了,对吧?登录了之后呢,我们要去远程连接一下,不然这样操作太麻烦了,你点击上面的虚拟机 s s h, 我 们去连接到 用户名呢,我们还是无绑图。然后呢,我们直接选择连接,然后这里呢?连接的时候他问你 yes no, 你 就 yes, 对 吧? 然后呢, password, 就是 大海资源网,对吧?盲书就可以。好,我们就进入了我对应的这个地方啊,大家进来之后呢,就是如果你要去试用一下,那没问题,如果说你试用了之后感觉不错,你准备长期用的话,大家一定要把自己这个乌帮图系统的那个密码改一下, 这个改密码的命令就是这个搜索 password, 呃,乌帮图,这是改这个乌帮图登录用户 的这个,嗯,登录密码,然后你速度 password, 就是 后头不加用户,不加误绑图,那他改的是这个 root 权限的密码,然后这两个密码都应该改一下,因为这个大海的视频暴露在公网上的,你将来要长期使用你这个密码,别人能访问到啊,这,这不太好,大家还是要去改这个密码的哦,密码现在都是大海资源网。这原程连接了之后呢,咱们就可以把这个地方关掉了,把虚拟机关掉,我们 点击叉,然后让他在后台运行,因为这里我们远程连接了吗?就可以直接去操纵他,然后呢我们去输这个 ipaddr 啊,看一下他的本机地址是多少,右键粘贴进去,回车, 然后呢找到这个 e n s 三三,然后下面有一个 int, 对 吧?然后你看这个地址和昨天不一样了,昨天是呃, 幺六零幺二八,我今天变成了幺九二幺六八二四七幺二八,对吧?你要记住这个地方是二四七幺二八,把后半段记住,一会咱们会用到。好,知道这个之后呢,我们接下来就 s s h 转发小龙虾,对吧?我们直接在这里去给他搜索 powershell 啊,找到这个 powershell, 然后我们去打开,然后呢 powershell 里头就是用这条命令,对吧?把它复制一下这个地方,我们右键粘贴进去,然后呢把最后这个改一下,对吧?这是二四七点幺二八啊, 回车,然后输入一下你改好的登录密码,我这里还是大海资源网,对吧?回车,好,然后你就转发成功了,然后我们就可以直接通过这个下面这个幺八七八九这个带这个的去登录了啊,我们直接在这个浏览器就去 黏贴,然后他就访问了,对吧?访问了之后呢,我们就用我给你的这个登录 token 密码给他 连接好,就登录了,就和大海昨天就长的一模一样了,对吧?当然现在有一个很很大的问题,是什么呢?就是现在咱们这个连接是连接上了,对话不了,因为你这个电脑上还没有欧拉玛大模型,而且即使你有欧拉玛大模型,你这个连接这个地方也不对,对吧? 啊?我说你好,他开始一只猩猩转圈圈了,对吧?很多朋友都是这个问题,所以说呢,咱们还得给大家演示一下这个欧拉玛的问题啊。 那么今天呢,大海是给大家做一个快速演示,如果你想详细的了解欧拉玛的安装和具体如何去选择配置和模型,去看大海昨天的教程,非常的详细啊,非常详细,讲了大概十五分钟,欧拉玛 好,这个地方我们直接去安装,然后呢,如果说不会的朋友,你就去参考我昨天的这个文档教程啊,就是这一篇,这一篇开开篇就是安装欧拉玛啊,好,然后呢,弹出这个,我们直接 install 欧拉玛的这个下载地址,如果说大家下载慢的话,在昨天的这个文档里, 他有对应的这个网盘分流链接,大家去我的网盘里下载,速度会快一点啊,奥拉玛的官网呢?我们这里要访问一下,一会要下载一个模型,我今天呢就选一个小一点的模型,为了给大家演示嘛,对吧?咱们看千分三点五最小的模型是多大? 千分三点五最小的模型是零点八 b, 二 b, 四 b, 咱们就来个零点八 b 的, 对吧?最小的这个只要一 g 嘛。这个模型,然后呢这个复制上, 今天是为了演示,快啊你,你实际上零点八 b 在 电脑端根本没法用,零点八 b 这种模型是给手机准备的,是给移动端准备 各种小设备。安装好了之后呢,咱们先不管他,根据咱们昨天的教程,还要给他去配置一个全局的系统变量啊,我们直接在这个 windows 里这里搜索系统变量,然后呢编辑系统环境变量,打开这个窗口,点击环境变量,然后去下面系统变量里头点击新建,然后呢把咱们这个欧拉玛 host 给它复制进去, 然后呢变量值复制,我这个幺幺四三四啊,大家都是同样的粘贴,然后呢直接点击确定就行了。这个地方我们点击确定修改了这个环境变量之后呢,我们要重启一下欧拉玛啊,把这个欧拉玛在这里去啊,去给它退出, 然后呢我们再重新把这个安装的欧莱玛去给它打开好,然后接下来呢,我们是要找到这个 windows 真机 ip, 我 们从这里呢搜索一个 cmd, 在 这个界面下呢,我们去给它输入一个 ip config, 也是在这里复制就行了, 复制,然后在这里去粘贴,回车找到这个 vm。 net 八下的 ip 为四地址啊,今天你看我变了,变成幺九二幺六八二四七点一啊, 把这个 ip 地址给它复制出来,在浏览器里头黏贴,然后呢去给他后头加个英文的冒号,加上欧拉玛的端口。幺幺四三四, 回车允许啊,这个地方呢就可以看到我们访问对应的地址,幺幺四三四,欧拉玛 is running, 对 吧?能看到这个就说明行了。然后接下来呢,我们就是去给我们的 open close 把我们的欧拉玛弄上去,这个欧拉玛还没有安装咱们对应的这个大模型,对吧?咱们刚才复制的大模型 在这里啊,咱们把这个重新复制一下,然后呢在这个里头我们右键回车,然后让欧拉玛去拉取对应的前文三点五的镜像啊,整好了咱们可以在这个窗口里试一下啊,你好 好,前文三点五啊,这次不不错,虽然是零点八 b 啊,但是他还能回答,行,然后我们把这个地方关掉就行了, 这个欧拉玛已经安装好了,然后就是看我们的教程,对吧?现在我们这都已经搞定了,然后最后就来到了最后一步了,欧拉玛的模型也准备好了,我们就来到这把这个网关和模型重新配置一下啊,这里复制 啊,在这里呢,我们去右键粘贴进去,然后去回车,然后这里呢?首先我们是 yes, 对 吧?然后呢?呃,我们来,呃,这个快速开始, 然后呢我们去升级数据,就是选择第二个,然后这个地方我们的欧拉玛我们去,呃,选到欧拉玛回车,然后呢你看这个地方,这个地址就不对,对吧?这个地址我们要用哪个呢?幺九二点,幺六八点, 呃,二四七点,幺幺幺四三四,就是用这个地址啊,把这个复制一下, 这个地方右键粘贴进去,然后给他回车,这个地方他让你选是本地还是云端家本地,大家一定要选云端家本地,因为你一选本地,他就开始给你拉取那个超大的模型啊,这个肯定是不行的, 那么想要设置这个云端家本地,你欧拉玛就得登录云端账户才可以啊,没有欧拉玛账户的同学呢,你就在这里你去注册一个啊,大家最好是用啊,比如说 altlook 邮箱,就是微软的啊,比如说这里我就用一个 altlook 邮箱啊,然后呢它会让你创建密码,然后呢它就会给你的这个 邮箱里头去发一个验证码。好,然后呢还需要一个手机号,我这个地方呢用我国内的手机号啊,咱们国内手机号前头就是加八六,好也正常收到了, 这样我就注册好了欧拉玛的账户,然后就能登录了啊,你就拿你的这个欧拉玛,把欧拉玛界面打开,然后呢你会看到这里可以找到你刚安装好的模型,我这是千万三点五零点八币啊,刚安装好的,然后呢你点击左上角这个 呃 city, 然后呢点击这个登录,然后它会跳转到你的网站账户,你直接点击 connect 连接 好,这个时候你这个奥拉玛账户你就登录上,而且呢登录这个账户有一个好处,就是云端大模型能免费用啊,只不过它每个月每一天都有限额,那么具体限额的消消耗量什么的,大家去看昨天的视频啊,我们这里就可以选择了,在这里我们选择 云端加上本地的大模型,然后这里呢我们就可以找到我们本地的模型,比如说这里可以找到我们欧拉玛三点五零点八 b, 就是 咱们刚刚安装的,我们直接回正,然后呢剩下的这些内容咱们就不需要,对吧? 全部都是稍后再设置,这个地方设置我不需要,然后呢空格不需要 网关,咱不需要的网关咱们已经登录了,这个地方我们直接退出,然后呢也是等一会再设置好这个地方我们就搞定了,对吧?搞定了之后呢,我们把这里我们重新去给他刷新一下,然后模型这里呢我们就可以选择我们刚刚安装的千问三点五零点八 b, 对 吧? 好,然后我们来尝试的和他对话,你好,这个地方你会卡住对不对?那你当你这个地方卡住的时候,你就先切换一个其他模型,先给他刷新,对吧?先给他切换一个云端模型啊,这里,比如说我给他切换一个这个, 哎,啊,来了来了,稍微等待了一下,你好,我是你的 ai 助手,然后千分三点五零点八币,对吧?没问题,这个地方呢我们就已经完成了我们的快速配置,只要大家把这些包什么的安装包下载好,那么大家也能像大海一样在十几分钟的时间内呢,把我们这个大模型配置好,直接本地用起来, 好吧,那么大家注意使用的时候呢,要注意去修改自己各个地方配置的那个密码,不管是系统登录密码还是 open clone 登录密码相关的这些具体的设置呢,大家可以返回去看我昨天的视频,好吧,那么咱们今天视频就到这里结束,我们下期视频再见,拜拜。拜拜。

啊啊! 之前有小伙伴问 lm studio 是 否支持小龙虾 open club 以及如何配置,这次就简单做一期视频,教大家如何设置,也是超简单的,如果你还不会的话,跟我一步一步操作即可,这也适合新装小龙虾的配置哦。 首先自然是确保你已经下载了你要用的模型,这里我就用千问三点五三十五币作为例子,大家可以看到我已经加载好了。然后只需要来到小龙虾这里,直接运行 opencloud on board, 这样我们就可以配置新的模型了。 小龙虾还是比较智能的,它会识别到你已经有配置,这里我们只需要改动一下模型,所以我们选 update values。 然后就是熟悉的配置页面了, 我们选 custom provider, 这里默认会出现奥拉玛的本地服务器地址。我们则要来到 lm studio, 点击 server settings 这里我们关闭 require authentication, 并且打开 serve on local network。 此时右侧就可以看到 url 从之前的幺二七点零点零点幺变成了你本机的 ip 地址, 这样部署在非本机的服务也可以调用 lm studio api 了。如果你的小龙虾是部署在本机的,那就不用打开 servelocal network 这个选项,保持幺二七点零点零点幺的 ip 地址即可。由于我的龙虾是在其他设备上部署 的,所以我这里需要把本地的 lm studio api 地址暴露给他们,我们点击这里复制,然后删掉奥拉玛的地址并粘贴上去。这里注意, 我们要加上一个斜杠 v 一 再按回车。然后这里我们就选 paste api。 但是由于我们之前关闭了 require authentication, 即不需要 api, 所以 我们这里随便打个一二三四即可。 这里我们可以选 open ai compatible, 即 open ai 兼容 api, 不 过 i o m studio 也支持了 osraplay 兼容 api, 你 也可以尝试拥有。这里我们就选 open ai 兼容 api 了哈。这里我们输入模型的 id 名字即可。我们回到 i o m studio, 这里就是模型 id 了,我们复制下来,在输入的时候需要加上模型的提供商,由于这个模型是昂尔斯的,所以我们打上昂尔斯斜杠,再粘贴上去。按回车之后,我们就会看到龙虾说 verification successful, 即验证成功, 这里直接回车,然后他会让我们给模型一个别名,我们就不起了,直接回车。 下面我们可以全部按跳过,因为我都配过了。最后重启小龙虾的路由就大功告成了。打开 t u i 后, 此时我们就可以看到 l m studio 已经接到龙虾来的请求了,然后这里也显示正在使用千问三点五三十五 b 的 模型,然后龙虾也回复了内容怎么样,你学会了吗?

浏览器搜索 qcloud, 或者直接登录网址,网址在评论置顶下载腾讯封装的龙虾安装包,支持苹果和 windows。 苹果注意选择自己的芯片版本, 下载完成进行安装。可以选择你需要的安装目录, 安装完成 直接用微信登录, 这样就安装好了。赠送的有 token, 可以 免费试用。这里可以选择关联自己的模型,推荐用 coding 图案,不用担心超出使用 token。 这里我在确认模型配置是否正确。这个还可以扫码直接绑定微信机器人,点击左下角,然后就可以用微信控制电脑了。

给大家简单科普一下,就是龙虾他一般包括几个东西,一个呢就是龙虾,他有一个这个 啊,他自己这个软件本身是免费的开源的,就是龙虾这个软件是不要钱的 啊,这个是第一个步骤,然后第二个呢,要用龙虾的话,你必须给他找一台服务器,你可以是本地自己的苹果电脑啊, windows 电脑都行,但是最好的本地电脑的话是那个 mac mini, 所以 为什么他卖脱销了?还有第二种方法,就是我们租云服务器 啊,那像目前的话,我租的是腾讯云的服务器,然后六十块钱一个月,然后第三个,这个很重要,第三个就是 要给那个龙虾配大脑,就是配智商,我们就把龙虾当成一个 ai 员工就好了。好,这个配好之后,第二第四个你要给跟龙虾建立一个沟通方式啊,它可以是非某书,可以是微某信 啊,然后呢,丁某丁啊,现在我们各位都已经接入那个龙虾了。好了,这这四个相加起来其实就等于一个完整的龙虾了啊,好吧,所以本身龙虾是免费的,但是呢,这两个步骤是要花钱啊,像这个的话,我目前是六十块钱一个月 啊,然后这个的话,目前大概是,呃,一千块钱一个月,这个因人而异了,有的人可能几十块钱一个月,有可能,有的人可能几千块钱,甚至上万块都有可能,他根据你的任务量以及你用的这个模型的这个难度来的, 对,花的越多就用的越多,花的就越多啊。然后这第一个啊,第二个呢,就是啊,我们讲一下那个龙虾跟豆包的区别,大家应该有印象吧, 就是豆包更像什么呢?更像一个临时工,就是豆包他的记忆是比较短的,可能就几天,你 把你跟他聊聊了一天两天之后,你会发现前面你跟他讲的事情啊,或者是上周跟他讲事情,他不记得了,这是因为他的这个记忆是比较短的,对,他大概就一周的记忆,对他如果太长的话会干嘛呢?会导致那个 就是他的算力偷啃,消耗非常多啊,那大厂为了节约成本,他是不可能去做这么大的这个存储的。对,毕竟是免费的啊。那龙虾第一个好处就是他是长期员工啊,他是永久记忆,越用越懂你, 这是龙虾的第一个大的优点。然后第二个就是豆包,它属于这种相对被动的,就是我们啊,让他动一下,提一个问题,他就回个答案给你 啊,他不会说主动的去问你,或者主动去干活。但是龙虾不一样,龙虾他可以主动干活,你比如说像我们每天要写日报,每天要去 啊,写笔记,这种时候龙虾就可以每天定时提醒你,或者是说你每天让龙虾去帮你去联网搜索一些这个你的行业那些信息,动态的信息,你的竞争对手的信息,这种每天要重复做的定时任务的话,龙虾就可以搞定。 对啊,然后呢,第三个是这个权限方面,就是豆包这种,他只能控制他豆包浏览器那端的, 但龙虾不一样,龙虾可以控制你的电脑,你的浏览器,还有你的这些文件。但是这里也带来一个风险,就是 他的权限太大了,他就有可能会数据丢失,哎,删除你的数据啊,或者是可能把一些你不想要的数据上传到。对啊,你的饮食数据上传到云端,所以他也是有好有坏,好处就是他权限更大,可能干更多活,但是坏处就是确实有些数据风险的问题 啊。然后豆包还有一个豆包,就是就是你单页面只能单页面干活吗?对不对?但龙虾他可以干嘛?他可以搞很多个龙虾在一起,然后呢?龙虾拉到群里面,然后还有把你的真人同事拉到群里面一起写作。这个我是觉得龙虾比较牛的地方 有鞋做工工的。对,然后另外一个说他技能啊,技能就是豆包上面的技能的话基本有豆包来啊,自己封装。那你龙虾的技能呢?你可以自己无限叠加啊,你在那个捞哎, 克拉哈上面可以装非常多的技能,有几千个啊。所以你可以理解为豆包是别人培养好的员工啊,你短期有事情时候聘用一下。然后呢?我们克拉是自己培养的啊,自己培养 啊,然后不见得说你的你培养就比他的好啊,我觉得绝大部分人培养的不如他。对,所以这也是我建议,如果是新手小白没有用过豆包,那些都还没用好的话,没有必要着急上龙虾啊, 这个大家理解了吗?理解了,敲敲六六六,我们就往下走。对,所以刚才总结了下那个龙虾有几个大的优点,就相对于豆包啊,第一个就是永久记忆。 那这种时候适用于什么场景呢?就是比如说你,你的这个任务是要长期持续的,你比如说我们做健康管理这种事情,你比如说你想要在一年时间内把你的这个体重可能减到一百五啊,一百四要长期监督的,或者是你有一个 啊,某个病吧,你要长期跟踪监督的,或者是你的心理的问题要长期跟跟踪的。那这个时候啊,龙虾就很好用,但是你如果只是平时不小心有一天感冒了啊,像我最近感冒发烧了这种的话就没有必要 啊,但是像我工作这种啊,一年的公司的经营就很有必要啊。第二个就是龙虾他是可以高度定制的,包括他的技能 啊,包括他的人物定位,就大家一定要把龙虾定义为是什么?定义为是 ai 员工,对属于自己的员工啊,就是把龙虾理解为 ai 员工,整个事情理解就轻松多了。那龙虾进来第一件事情其实是干嘛?我们是要写一个岗位说明书,告诉龙虾 你进来你的职责是什么,你的岗位是什么啊?你要帮我完成什么事情?对,你能做什么?等一下我们再讲一下那个龙虾,就是龙虾装好之后下步要怎么去培养龙虾的事情 啊?对这龙虾第二个优势,然后第三个优势就是龙虾是可以拓展技能的,你比如说他原来没有办法联网搜索信息,没有办法帮你做网页这种,他都是可以去拓展去学的 啊,根据你的需要自己去去弄,所以相当于是个组装的 ai 员工啊,然后豆包是别人已经装好给你的成品拿来就用 啊。第四个就是它有这种主动干活的这个功能啊,第五个就是可以人机协做,好吧 啊,这里我们就快点过一下,然后龙虾的话有有几个风险,就是我们不能只说好处不说坏处,对吧? 对,第一个就是,哎,他费用还是比较高的,每个月都有费用,对你你用起来至少每个月一百块钱都是打底的。嗯,然后呢?用高了就不上线了,但是我觉得如果你大量用的话,一个月至少还是要一千到三千。 然后这里来自于两大块费用啊,一个是这个服务器,就是你理解为是房租嘛?对,等于给员员工租房子啊。第二个是抖量的,就是你给他配那个 ai 刷立投肯的,然后这一块占了百分之九十五,这块百分之五。 然后龙虾第二个风险什么呢?就是还是有一些数据隐私的问题,比如说他不小心误删了,误删了,或者是他听你的指令听错了,听错了,他把你的那个数据删了,那就很麻烦。所以我们为什么说新手 一定要注意,干嘛一定要注意数据安全?对啊,不要轻易把你本地的这个文件授权给他。第二个是有些关键的资料提前做好备份 啊。第三个呢,就是技术门槛比较高啊,我看有没有那个咱们直播间有没有用过那个龙虾的,然后用龙虾之后发现龙虾挂了,怎么喊都没有回应了, 有吗?然后怎么都救不活,有吗?有,扣一下五五,对,有吗?我跟大家讲我用龙虾,我后来发现我说的最多重复的一句话是,你好在吗?在吗?在吗?然后他都不回复,龙虾老是我,那龙虾老是挂它有两个原因,最主要的原因还是那个 api 不 稳定, 因为 a t i 为了省钱走了那些中转站,然后不稳定它老是断。第二个是有时候那个服务器啊,也会也会挂,然后就会导致它那个停,对吧? 你看教大家怎么去抓龙虾,抓龙虾其实非常简单,难的其实是干活,对,就要去如何去训练它 啊?啊?对,刚才讲了几个费用啊?一个是这个租房费,也就是服务器,你要么去买 mac mini 四千块钱,要么就是租云服务器,几十块一个月啊,然后这个大大大模型这个费用就很高了,几十到几千都可能,安装就很简单。等一下我们可以直接给大家实操一下 啊。 ok 啊,我们讲一下就是怎么去用好龙虾 就用好龙虾。其实我们第一个就是有一个思维定义,叫做什么呢?你要把龙虾当做一个 ai 员工,新入职的员工啊,新入职的员工,那第一件事情其实我觉得是要给龙虾做一个介绍,岗位说明书, 岗位说明书你要告,告诉就是你不要想着一一只龙虾帮你干所有的事情,这样会有个很大的问题,就是龙虾他会很晕。第二个是那个上下纹太长,你的蒜粒消耗非常大。 第三个是上下文太多,会太杂的话会干扰他啊,所以最好是一只虾装港装虾。嗯,第一个是港务说明书,你比如说你是让他做文案呢 啊?还是说让他去做这个 ceo 助理,对吧? 第二个要给他干嘛?公司情况,对,告诉他你目前是什么情况。第二个是公司情况或者个人情况介绍,就是新员工进来,他不可能一开始就干活吧?你要互相了解对吧?他要知道他的上级是谁,他的 这个公司这个整体情况目标什么的,对,了解公司的组织架构。对啊,然后第三个呢 啊给他吃掉了,第三个你要跟他确定好这个流程就是他日常做的这些事情的流程。呃,一会也会讲一下豆包啊啊,然后第四个就是干嘛就是要给他装技能了,装技能 啊,然后第五个是要持续迭代,持续学习啊,持续学习迭代啊,龙虾的好处就是它可以持续迭,持续学习迭代,然后呢数据越纯会越多,然后他就越懂你, 越理解你啊,所以龙虾其实就是把它当成员工就好了啊。再看大家理解吗?理解敲敲六六六。好吧,大家知道怎么装龙虾吗?哦对我还给大家讲一个很重要的东西,我给大家讲一个非常重要的东西,就是为什么龙虾大家会觉得很难, 因为龙虾在这里它属于第五级,就是其实龙虾本质上它它的属性属于什么?它属于智能体, 大家理解吗?大家知道这种题吗?知道敲一,不知道敲零就是要用好龙虾。其实有几道坎要过,第一道坎就是 你熟不熟练应用大模型,比如说像豆包啊,比如说像那个 deep sea 啊,对吧?这是第一个普通的对话,然后第二个 你懂不懂写提示词?对,懂不懂跟他一起跟他对话,然后这个在进阶就是你会不会用提示词去搭建这种提示词的智能体啊?这三个都还算简单一点,然后再进一步呢,走到工作流智能体 啊,那这里到时候就要搭配上,在这里头其实这是裤已经是搭搭建上了,然后到这里时候还要搭配这个 skill 这些的,然后最后才到这里,然后很多朋友觉得很难的原因是什么呢? 有两个,有两个要素,我觉得第一个是很多人可能还在这个阶段直接跳到这里了, 所以跳的时候你会感觉非常吃力,对啊,这是第一个,第一个坎,所以这里我觉得应该是 ai 基础的问题。然后第二个坎呢,很多人可能没有带过员工或者带过新同事 啊,所以他没有这样的概念,他就会比较难,所以这是为什么龙虾会觉得很难啊?然后我自己的几个养虾经验啊,给大家讲一下。我自己养虾的, 我我养了五只虾,然后呢,一个是 ceo 虾,一个是健康虾,还有一个 ip 虾,一个出出虾,一个 guo 虾,然后健康虾呢,主要是管理我这个身体跟心理的健康 啊。 ceo 虾呢,是帮我管理公司的,给我出谋划策,算是我的那个 ceo 教练吧。然后 ip 虾是帮我去写文案的,监监测我那个做 ip 的, 然后出出虾是辅助我写书的,还有个焗油虾,做焗油的,然后目前啊,我龙虾他们一天花四十多块钱,我用的不多,因为很多,坦白说哪怕是我自己,我用龙虾都不多,我因为很多任务,我发现没有必要用龙虾,我很多任务,我可以用那个豆包啊,用 minis, 用这个 club 都可以。 然后我我自己总结了一下,就是龙虾对我最大的帮助,什么呢?第一个我在飞书上面可以直接用啊,特别是我搭配语音输入法非常好。第二个长期项目用龙虾确实是对的, 你比如说像我要我们要经营公司,对吧?那这个是要持续长期的,是输入信息的啊, 那这种事情龙虾是非常好,包括每天的工作复盘,每个月每周的这些。第三个是龙虾会主动提醒啊,比如说每天晚上提醒我去写周报,每天早上提醒我今天的重点事情是什么啊?有个像有个多了一个电子妈妈催,那坏处呢?就是我发现了一个坏处, 就是龙虾。坦白说,龙虾你如果搭配的是国内的模型,还不如不用。对,还不如直接用豆包,真的不如不用。我,我已经用过了,用了这个智普 kimi mini max 啊,然后呢? cloud codex, 最好用的还是海外这个 cloud。 然后第二个是那个,就是 gpt 五点四,只有用这些才够聪明,坦白说, 否则很多时候真的不如用那个豆包这些了啊。另外一个还有一个很大的问题,就是如果没有技术基础的人用龙虾的话啊,出了故障你都不知道怎么修,你都不知道你龙虾怎么死的。对,不懂编程的话就不知道哪里出错,真的真的 啊啊,所以我建议大家啊,就是我,虽然我们虽然有龙虾客,但是我不会盲目推荐大家去买啊,所以我觉得百分之九十的事情是不需要用龙虾的。 真的,大家记住这句话,百分之九十的事情是不需要用龙虾的啊,因为贵啊,效率和能力也没提升多少, 所以建议新手呢,先用好别的 ai 再用龙虾啊。但是呢,龙虾有必要学习了解一下,就是你没见过没吃过猪肉,但是得见过猪跑,我觉得是这个意思,就是你要看一看最先进的智能体他长什么样子, 万一哪一天你的任务普通的 ai 解决不了的时候,这个时候呢,咱们就可以用那个龙虾了。你比如说你想要做一年的这个,呃,身体的管理,公司的管理, 对吧?或者心态的管理,或者是某个项目他周期比较长的,你不希望说每次跟 ai 交流的时候都要反复的给他强调这些背景信息的, 那这个时候龙虾就很有价了。所以我真的跟大家说真心话,就是龙虾不要 着急学,可以学,不反对学,就是刚才说了,你可以看看最先进的他长什么样子,你花一点小钱试错,我觉得是没问题,但是不建议你现在发太多精力, 花太多精力去沉到里面去啊,然后给大家讲一下怎么装好啊?装其实很简单啊,像我自己,我是在腾讯云上面买的,我给大家看一下几只虾可以装到一起的。这个没关系啊,大家看啊,第一步的就我们进到这个,大家看在这个藤某云上面 啊,在这里啊,藤某云上面,然后进来之后就是腾讯云上面,然后呢 ai 智能体下面选龙虾就好了,龙虾完然后下面呢?地址的话,这里随便选吧。 哇,涨价了,呵,有意思啊,他涨价了,可能龙虾太火了,原来我们买的是这个,六十块钱,现在涨了吧,这是怎么七十二块钱了啊?大家可以买这个,我觉得买这个好一点,就是玩一下,准备这个预算七十二块钱啊,买完啊,你点购买 啊?大家可以截图一下啊,然后这个碗装好之后呢?会怎么样?装好之后你进来就这里就有了 啊,大家看,对,这个等于龙虾的房子,对,这就是龙虾的房子。你,你叫做工位也行,他的办公位。好, ok, 那 在这里装完之后呢?下一步干嘛呢?你在这里啊,在这里给它配模型,就是配大脑, 你比如说像这里,你可以跟过去看啊,在这里的话,它有很多模型可以接你,像这个 mini max 啊,然后 kimi 啊,智普啊啊,国内这三家好一点 啊,然后你如果想接海外的,你就得选自定义模型,然后输进去,然后你看,我我,我有那个 code 啊,还有这个 cloud 的 啊,目前我用的是这个 gpt, 五点四啊,所以这里就可以配配大脑了 啊,然后第二个呢?配通道啊,配通道的话,像我一般会用飞书,因为我的数据基本都是沉淀在飞书的。 对,这个是跟龙虾沟通的渠道啊,我的知识库啊,那个全都在飞书上面。然后呢也可以配那个微某信啊,这样就可以直接聊了啊,这样配好的话,你你在上面就可以用了。你比如说给大家看看我的龙虾吧,大家看, 刚才看到吧,刚才给大家说的有几只虾,你看一二三四五啊,然后最近我还在沟通这只虾呢,沟通这只虾,我准备出一本书嘛,出一本书,然后那个让虾帮我写东西呢, 这个是啊,出书虾专门负责出这个书的文案啊,出那个框架,然后呢出论文,然后自己再去审核。然后第二个是这个 ip 虾, ip 虾给大家看啊,比如说,哎,我要做那个 gu 的 选择题,一下子,然后它就给我列出接近一百个选择题,然后都是这种说人话的选择题 啊,大家可以看一下,然后呢还可以帮我写这些,写这些内容啊, 然后跟大家讲一下 ip 虾, ip 虾这只虾就是应该有比较典型的意义,就这只虾是怎么炼的 这只虾啊?第一个就是岗位上面,其实我就给他想的很清楚了,他就是一个啊,短视频 文案,携手,先给龙虾定岗啊,文案啊,携手,好,这他第一个事情岗位定好,然后第二个事情我给他丢了两个知识库, 知识库,这里有两个知识库,一个是什么呢?一个是我的风格库,就是我以前做的短视频,我比如说我拍了几百条,我把这几百条的文案发出来,我们叫做文案风格库, 让龙虾熟悉自自己啊,对啊,风格库。然后第二个是什么?是这个行业知识库, 因因为我让他帮我写那个 g o 的 东西,但他如果对 g o 一 窍不通的话,或者是他获得信息是错误的话,那他写出来东西就不对了啊,不能睁眼说瞎话嘛。好了, ok, 那 这个搞完之后,下一步是什么呢? 下一步啊,他他就是给他定流程,就比如说通常 我应该叫,应该叫做训练他技能吧,训练他两个技能,一个技能其实就是写选择题的技能。 第二个是文案的技能,我就基于这些东西去跟他聊,然后确定好风格之后,让他把这个风格固定下来,他以后就知道怎么写了啊。然后我还会再给他配一个技能叫搜索,就是可以实时搜索联网信息 啊,所以你看这只虾基本就这么用,但是这里用的好处就什么呢?它每次写出来东西就越来越像你,而且它会持续叠带。然后另外还有很重要的是,我可以把这只虾 打包成一个,一个文档,一个数学,就叫做技能,大家知道什么里把它打包成一个 skill, 然后呢?一个技能包给我的同事用,同事用 就是我同事不用再去那么复杂的训练了。对啊,他直接拿我这个去用,然后呢?他把他的风格酷改一下就好了啊,这个大家理解了吗?理解,敲敲六六六给大家看一下啊,等于说把这个技能分享出去, 让同事就可以直接龙虾就可以直接用了。对啊,然后我再看一下啊,我还有一个 ceo 虾 啊,来个 c u 虾。但是其实我也有很多困惑跟大家说,我用龙虾说有有很很大的烦恼,第一,我最大的第一个烦恼,我把把烦恼写下来,就是我自己真实遇到的一些坑。 第一个烦恼就是那个 api 不 稳定, 这第一个烦恼,第二个烦恼就是 龙虾有时候那个记忆还是会有些问题啊,你以为他记得,但他实际上不记得, 记忆出错了啊,这个其实也跟 api 不 稳定有关系啊,这个跟 api 有 点关系,但是还有另外一个问题,就是你如果没跟龙虾去规定好你的记忆的存储方式,就比如说你电脑里面的文件怎么归类整理的 啊?龙虾不知道这些锁影关系的话,他有时候确实找不到你的信息,就是这个信息明明有也没有啊。第三个是什么呢?第三个是龙虾乱删东西, 然后这个事情你是不知道在哪一个指令里面可能会出现的啊,就比如说你以以为他存好一个东西,他不会动了,但是可能在未来某天他突然找不到这东西了,你不知道龙虾在哪个时刻干的 啊,也有可能是我们的指令下错了,也可能是他理解错了,但也有可能是 ai 的 幻觉导致的啊,这是误伤了。所以在这里我的建议什么呢?就是重要的东西我们自己要做一个备份, 然后比较推荐大家备份到飞书上面去,这样龙虾忘了你自己还不会忘啊。然后第四个啊,第四个是我最早遇到的坑,就是我最早也是抱了很大期望,就想说一只龙虾去管所有的事情啊,全能龙虾, 但是我发现根本跑不通,没必要啊,你跟他说 a, 他 以为你在聊 b 的 事情,忘了,信息量太大了,你就一直瞎干好一个事情就好了, 所以还是得让龙虾定岗,分对专家专岗,我觉得这是比较简单的好吧啊,然后跟大家聊一下,看他有什么有什么,大家有问题可以打在公屏上看下,大家有什么疑问啊。

经过一整天的折腾,不停的调试测试,终于把龙虾和欧拉玛本地部署的大模型链接上了。下面说一下我这次的经验,并不是所有本地大模型都支持龙虾,目前经过我测试,最好用的是千万三, 我本地的硬件最高能支持在欧拉玛里面跑三二 b 的 大模型,但是速度比较慢,所以我下载了一个九 b 的 千万三,先试一下 九臂的千万三在欧拉玛里面可以很快的速度运行,但是在龙虾上反应的速度就有点慢, 而且只能支持本地聊天或者处理文本任务,让九臂的千万三驱动龙虾去打开浏览器都实现不了,也可能是因为我本地部署的大模型太小,有没有哪位部署过比较大的本地大模型的朋友可以说一下使用效果如何? 所以我打算暂时放弃使用本地大模型去动龙虾,去购买二十九元包月的 mini max 的 a p i 来使用 tucker, 量大管饱,关注我,一起交流养龙虾!

公主,你现在看到的就是谷歌最强的开源模型加码四,可以看图,能听音频,也有不错的推理机制,最重要的是完全免费,给我几分钟,从零开始,将加码四部署在自己的电脑上。我们直接开始 先花一分钟和大家聊一下贾马四是什么?它是谷歌刚发布的开源 ai 模型,跟商业版的怎么奈同根同源,你可以理解为谷歌把自家最强的 ai 技术浓缩成了一个免费的版本,直接送给你用。 那么它好在哪里呢?三个点。第一,多模态,不只是聊天机器人,你可以发图片让他看,发音频给他听,还能写代码。 我们可以看看这张表格,横轴是模型的参数体量,而纵轴就是性能表现。贾马四以满血版的性能表现和千万的三百九十七 b 的 模型能力基本持平,关键在于它的体量只有千万的十分之一,这真的非常夸张。 第二,完全免费,不用充会员,不按 token 收费,并且可以商用,你可以模改它做成各种有意思的本地模型,拿去做产品也没有任何的问题。第三,隐私安全,因为跑在你自己的电脑上,所有的数据都不会出,你的电脑拿它处理合同,财务,私人物件,不用去担心泄露。 ok, 我 们直接动手。你现在只需要打开一个浏览器,然后把它放到全屏上,直接官网上搜索欧拉玛点 com 啊,然后这个东西就出来了。然后你只要点击整个画面的一个右上角 download, 看到没有?然后你可以选择你是 mac os 系统还是 linux 还是 windows, 我是 mac os, 那 你就直接点击这个 download from mac os, 然后我们就可以看到这个画面上的右上角应该是会有个下载的链接, 然后等它下载好就可以了,因为我这边其实已经安装好了吗?那么我这边的最终的一个输出效果的话,大概是在这里。你们下载完了之后,打开你们的桌面上的欧拉玛,你们看到的应该是现在这样子的一个画面,那就说明你已经安装成功。 佳马仕一共有四个版本,你可以根据你的电脑配置进行模型的选择,模型的能力越强,所需要的配置就越高。对于内存小于三十二 g 的 玩家,我建议大家直接安装一四 b, 三十二 g 及其以上,可以试试看二十六 b 和三十一 b 的 参数量, 其实这两者模型的能力大通小异,如果你是为了极致的精度,可以选择三十一 b, 但是在我看来,二十六 b 呢,其实是一个非常甜点的位置,达到了速度和精度的一个平衡。如果你不知道你的电脑内存是多少,这里针对 mac 用户,你可以选择终端输入这行命令。 而 windows 用户你可以点击 win 加 r, 点击回车,召唤出来你的终端以后,然后再输入这个命令,也可以显示出你的内存。选择好对应的模型,我们只需要打开终端,和刚刚一样的步骤,根据模型输入指令直接回车即可。等待模型下载好,打开你的 oala, 选择模型就可以开始了。 ok, 我 们打开我们欧曼的软件,你点击这里,然后往下滑,你就可以看到你刚刚已经安装好的这个佳马仕。我们来问他一个很有逻,就是说很有那个逻辑陷阱的一个问题,就是我今天要去洗车,但是只有一百米,你觉得我是走路去还是开车去? ok, 我 们来看一下他的一个答复是怎么样子。 这是一个非常有意思的一个逻辑陷阱题,我们可以从不同的维度去分析。逻辑层面上来说,必须开车去, ok, 这一点已经很棒了啊。 那如果说是从脑筋急转弯角度上来说,他说如果你走路去,那么你是在散步,而不是在洗车。哦,也就是说他分为了三个维度,一个是脑筋急转弯,一个是实用主义层面,还有个就是逻辑层面。我们来看一下他这个佳马仕的这个逻辑能力。哎,你还真别说这小参数,但他的表现还是不错的。 那么 jamas 它的一个很大的优点就在于它其实是支持这个多模态的。我们来不妨给他上传张图片,我们来看一下。 ok, 那 么我们上传一张什么图片呢?哎,上传张这个图片,你们看怎么样啊?就是这是一朵花,然后有个太阳,有一本书,我们来让他看看。我说,啊,描述一下, 描述一下这个图片,我们来看看他的多模态识别能力怎么样?说实话,本地具有多模态识别能力的模型,而且是能够你自己去模改的,其实并不是很多。我们来看一下。 ok, 一, jeff 二,然后 jeff 三,给了几个他看到的一些画面。好,我看他现在在思考和输出。这张画面充满了诗意,唯美且带一丝忧伤。 画面主体是一本翻开的书籍。哎,确实是对的,背景与中景是一个画面,然后呢,躺着一只洁白的玫瑰,然后背景是有一个夕阳,散发出这个温暖的金橙色光芒,哎呦,很不错,你们发现没有,是不是很棒?就是说他好像 表达的还是很到位的,但是因为呃,我其实本来还是想测一下这个关于音频识别和这个视频识别的,因为这个佳马仕它也是支持视频识别的, 但是因为欧拉玛官方不太支持,所以大家可以自己去谷歌 as do do 上面去玩一玩。所以总的来说,其实通过这么两个比较简单的测试,它当然不够严谨,而我觉得感受来说的话,这个香奈儿丝还是 真的是能够在本地帮我们处理一些比较复杂的一些任务的,就是在文字层面以及去多模态识别能力上来说,是一个比较抗打的模型。 看到这里相信你一定会明白, olama 本身是一个模型管理器,你当然也可以不用贾马四,你可以选择开源的 deep stick, 千问等等,其他的开源模型还是同样的命令,一键配置就可以了。 本地捕鼠的最大优点就是保护你的隐私,模型的使用不会受到任何的限制,同时也可以支持模型的微调,让它更合你的口味。下期我打算教大家小白如何从零到一,微调自己的本地模型,感兴趣的可以点个关注,我们下期再见。

目前市面上有非常多的这个龙虾的部署方案啊,总结下来,对于我们普通人来说,主流的就两种,一种是用这些大厂直接优化好的一个一键式部署,三秒钟就能部署成功的一个方案。还有一种就是买一台 mac mini, 然后去接一个大语言模型去部署。哪一种方案是最好的?那我告诉你,没有最好的,只有说哪一个最适合你啊?我是建筑设计行业的,我经常都要用电脑, 而且用一些比较复杂的各种各样的一些软件,那对我这种人来说,我天然操作电脑的能力就还可以,然后也愿意去研究一些新的东西。如果你也跟我一样是属于这一类人的话,那我告诉你最好的方案就是买一台 mac mini, 然后去接一个大语言模型进行部署。 如果你平时基本上都不用电脑,只是在手机上去操作一些软件的话,那我的建议就是直接在选一个大厂的,然后一键部署。 为什么这么说呢?因为你买一台 mac mini 并不代表你就一定能够把这个东西装上,因为装这个,呃, open color 的 这个过程是有一定门槛的。对于我这种人来说,呃,我操作下来我都是跟着别人的视频一步一步的去操作,而且操作过程中还会出现很多问题,很多 bug, 我 还得去问 ai 怎么解决,然后一步一步的解 bug, 这个过程对于普通人来说真的是相当相当难受,有可能你在装的过程中你就放弃了,那你买了 mac mini 不 就浪费了吗?而且装好那也只是第一步, 那你以后装好之后,你你时不时还得更新,因为它是一个开源的一个项目,并不是一个成熟的大厂做的一个比较成熟的一个产品,也出现了很多安全的问题。有可能你两三天就要更新一次,而且更新了之后,有可能你原来接的飞书的或者其他端口的都断联了,都没法用了,那你又得去解 bug, 去操作半天,这一套操作流程下来, 你真的是会放弃使用龙虾啊。所以我现在建议是这样的,如果你到目前为止,你只是在网上了解了龙虾,但是还没有真正使用,那么你现在先别着急去买一台 mac mini, 你先找一个你信任大厂的去装一下它一键部署的龙虾,先用一段时间。当然我也要提前提醒一下你,一键部署的这个呢,虽然它方便,但是它的权限呢,也会大打折扣,它的能力的上限也会大打折扣,因为你在云端部署的那个本地你根本就调用不了, 就是那台电脑你不知道在哪里,你也看不到它的界面,你只有一个聊天窗口界面,那么你可能大概率感觉它跟你以前的这个 ai 是 没有什么区别的。 然后再加上你还得要接很多这种 a p i 接口,比如说你想要纹身图、纹身视频,那你得要花钱去买它的 a p i 接口,你才能让龙虾完成这件事情。这个怎么理解呢? 就比如你买了一台手机,你不给它付费买流量,你是不能上网的对不对?你不装软件的话,那它也就只能去翻一下这个基础的界面,基础的功能对吧?你不能达到一些比如说剪视频这些功能,所以你在云端用的时候,你大概率是感觉不到它比原来的这个 ai 有 提升特别多的 好。但是我也建议你先尝试在云端用一下,你用完了之后呢,你再去想象一下你有没有使用龙虾的场景。比如说你在公司里或者你生活中有一些比较 复杂的,重复的,但是他的每一步操作呢,都是比较清晰的,你可以把它流程化的一个事情,如果有的话,那我恭喜你,你利用龙虾大概率是可以去提升你的效率的,你把你的整个这个流程,把它跟龙虾用自然语言沟通一下,告诉他你的这个需求,然后让他帮你生成一个这样的一个技能 scale, 让它每一天帮你自动化的去完成。如果你在用云端的过程中,你都发现不了一些使用场景的话,那我建议你现在也先别着急去买 mac mini, 因为,呃,有可能你大概率在短期内找不到你的使用场景,那你就需要等一段时间,等几个月,等各行各业的牛人 把一些技能研究清楚了,把一些需求场景研究清楚了,然后它们就会出一些教程,然后你就跟着这些教程手把手的去用这个东西, 那他大概率是能给你带来提效的。但是我也要提醒一点,那那些人提前研究出来了,他提前使用了,肯定是能够提前享受到红利,然后赚到很多钱的。 那你后使用的人大概率只是在你原本的工作和生活中稍微提点效率。反正最终总结就两点,就是如果你是一个平时不怎么操作电脑的人,你就直接云端一键部署就可以了。那如果你是一个经常用电脑,也经常用一些复杂软件的人,那我建议你现在就直接买一台 mac mini 直接干,或者你以前有一个老的笔记本,那你就用 windows 去本地部署了。但是 windows 本地部署会有一点麻烦。什么麻烦呢?就是它的步骤会多一点。当然我相信对你这种你们会操作电脑人来说都不是问题,因为网上的教程都已经比较成熟了,它无非就是要先安装一个能够用 linux 系统转换的一个系统。 那 windows 系统就是不太友好了啊,有可能你在用的过程中你会发现不太稳定,甚至你自己的电脑,因为,呃,平时用的时候风扇也要转啊,然后电屏幕也要开着啊,然后经常他可能因为温度过高啊,或者什么蓝屏啊,各种问题啊,甚至你的电费消耗也是比较大的啊。如果还没有用龙虾的一些朋友啊,我建议你们从现在开始就用起来。

最近 open core 真的 火出圈,有人甚至愿意花大几百找人上门安装,这让我瞬间想起了去年被康费 u i 支配的恐惧。看着全网都在吹它多强大,结果自己一上手, 满屏的花式英文报错和像蜘蛛网一样的连线,直接让人怀疑人生。也正是因为这个,去年我做了款傻瓜式的 ai 渲染器,帮助大家玩 ai。 而今天,我们带着它的升级版意外 ai 桌面端来了。 采用全新的无线画布设计,配合大模型的 agent 能力,让 ai 帮你自动思考如何做图和修改。摒弃了传统的提示词的玩法,来到画布页面,只需要把素材丢到画布上, 然后在右边用大白话告诉 ai agent 你 想要什么就行。例如告诉他帮我生成一个简约风格的卧室设计效果图,他就能迅速帮你优化提示词了,并自动帮你搭建、调用工作流,最终生成这样一张精致的效果图。其 是底层原理就是大模型加上 comfyui 的 底座,你看到的界面是这样的,实际上内部的界面是这样,就是你们熟悉的 comfyui。 但我们雇了一个指挥 comfyui 工作的大模型专家,由他来决定到底调用哪个流程, 什么时候调用。也许你手上有几百个 comfyui 工作流,真正用的时候完全不知道该用哪个,但现在你只需要说人话,大模型专家来帮你决定并自动去使用。我们再看个例子, 比如要将图片中的主体抠出,在画布中直接选中图片进行自动抠图即可。将抠出来的素材像这样与另一张风景图片一起选中,告诉 ai agent 拼图就实现了对话式的 ai 改图。要是感觉图片中少了些什么,先别急着重新生成,直接选中图片,选画笔工具, 用你的灵魂画手涂鸦出大致的轮廓,告诉 ai aj 你 在画什么, ai 就 能将涂鸦代表的素材完美 p 到图片上。还有像这样的风格迁移、细节修复等等,对于无线画布来说更是不在话下。到这,相信有些眼尖的设计师朋友也发现了,这不是跟国外那个九十九美金一个月的设计神器某二 t 差不多吗?没错,但我们是免费的。 肯定有人会问,凭什么免费?是不是要割韭菜?这是真的冤枉。之所以免费,是因为 y 桌面端用的是你家电脑自己的算力,我看到太多设计师 花了大几千甚至上万配了个性能不错的电脑,然后每个月还要去各种 ai 网站充几百块钱的积分升图,家人们显卡放那不用都要生灰了。一歪桌面端的目的就是榨干你电脑的闲置算力,让你的显卡真正为你免费打工。 当然,如果你的电脑带不动也没关系,我们还提供了云端部署的快捷入口,租用云端服务器按用量计费,这同样也要比直接在 ai 网站上冲积分要划算很多。当然,这次的新版桌面端依旧保留了 ai 全球搜灵感的功能,二十四小时利用 ai 去寻找最美的灵感,方便大家使用以后就能看到好看的图片, 直接在画布上开始创造了。最后我们再聊下到底怎样才算是一款好的 ai 设计工具。经过和无数设计师朋友交流后,我想说,一款好的 ai 设计工具应该是让用户能轻松上手,而不是宣称自己有多么多么强大的功能,却要用户花大把时间精力去学习。这 就像现在很多人在吐槽,不会安装 open class 的 人其实根本不适合 open class, 他 们已经在找人上门卸载了。简单好上手,这也是我们开发 evi 桌面端这款产品的初心。我认为设计师应该把宝贵的时间投入到打磨创意上,而非浪费在不属于自己专业的领域。同时,目前 ai 发展迅速, ai 工具应该是开放的, 能兼容各类 ai 大 模型和工作流,这也是这次 evi 全新版本的最大亮点,包容一切,同步进化。后期我们会为 evi 桌面端更新更多、更强、更好用的功能,让每一位设计师都能自豪地说出,我们不用养龙虾,我们设计师有自己的 ai 工具。也希望各位观众朋友点点关注,一键三连跟我们一道见证!

部署本地小龙虾的三种方式,一是去官网下载小龙虾,自己电脑装个开源大模型,不消耗托克,就用自己电脑显卡算力养龙虾。 缺点对技术要求很高,对电脑显卡要求也很高,优点就是省钱。二是去官网下载小龙虾,用云端的大模型,不消耗自己电脑显卡算力。但是要问云厂商买托克,优点就是对电脑配置没要求,技术要求相对低一点,更低一点。缺点就是相对第一个花费更高一点, 数据安全性差一点是直接去云厂商买台云电脑,云电脑可以自带小龙虾。优点就是非常方便,傻瓜化操作,小白也能玩。缺点就是花费比第二点贵,但是操作比第二点更简单。关注我讲小学生都能听得懂的 ai。

今天分享一个让龙虾兼顾低成本、强算力与高自动化的思路,核心逻辑是通过龙虾的自动化规划加操作系统入,外加利用云端模型免费额度放大龙虾的能力。 画面中展示的就是我发给龙虾的任务描述,这个任务的价值在于,它能把你看中的瞬间变成你拥有的。以前看到别人的视频很漂亮,你想复刻很难,现在只要把看中的画面截图,龙虾将其逆向成代码模板, 你就可以生成同样效果的视频。流程启动后,龙虾会自动便利文件夹,将所有截图图片逐一提交给云端大模型。 我们利用云端模型的顶级视觉能力,将图片中的视觉效果直接用 motion canvas 动画代码进行复刻,通通变成自己视频中可附用的模板。流程中用到了我开发的 desktop marko 技能,它赋予了龙虾直接操作 windows 系统及各类软件域外界面的能力, 解决了龙虾无法模拟键盘的局限,从而实现了极其灵活的文件上传与交互。这套技能成熟后,我会将其开源给各位, 生成的代码会由龙虾自动提取并分类保存。这种方案让我们能快速将外界的优秀视觉效果转化为自己的动画资产,为后续的视频全自动生产储备资源。

只要复制粘贴,龙虾就能一键安装,把我的这几句提示词记好,就能掌控龙虾从安装到卸载的所有问题。 直接跳过各种龙虾的复杂操作阶段,原地完成数码进化,像解锁满血能力,拉满记忆能力,瞬间学会如何做漫剧、做自媒体等等,甚至可以让安全家务也一次完成补齐。 第一步是安装,我们复制这行提示词发送龙虾就会自动完成安装,装完之后就会自动打开龙虾的外部 ui 界面,然后我们再打开准备好的安装文档,复制这个提示词发送龙虾就会连接到飞书, 发送之后,模型会帮我们自动安装飞书插件连接好了,我们验证一下,发一条消息,可以看到已经连接成功了。龙虾工具箱中一共有二十五个基础的必要工具, 相当于龙虾的虾钱,但现在刚装好是残血版。接下来我们用这个提示词把龙虾的全部能力解封,其实就是让他所有的工具变为可用状态, 测试一下,让他打开我们自己的 chrome 浏览器,搜索今日热点新闻,这个打开了就意味着工具成功解锁。接下来复制这个提示词,我们把记忆能力改成满血版,主要目的是安装一个本地向量模型,解锁所有的记忆功能。成功之后再打开文档,复制这个记忆参数优化的提示词发送,稍等一下就会提示 已经完成,并且要求重启,我们直接发送重启龙虾,这样能力和参数就都是满血版了。能力和记忆都满血之后,重点就来了,我们让龙虾进行数码进化,比如你想让他秒懂怎么工作,其实不用一轮轮喂语料,直接复制这行提示词,顺便附上你想让他学习的本地文件路径。发送后稍等一下, 龙虾就可以直接吸收这本书的精华内容。接下来我们测试一个你工作的相关问题,看看他有没有用你的思维方式去思考相关的问题,给我们更高质量的回复。从回答可以看出,他已经完全基于你工作的底层逻辑在思考。 同理,也可以把你的 cloud 或叉 g p t 导出的个人数据文件丢给他,他就能无缝继承你所有的数字资产,完成终极进化。进化完成后就是安全了, 我们虽然无法彻底解决安全风险,但可以做个看门狗,用这类方式给安全做个加固。用我准备好的这个提示词文件,告诉模型查看文件内容,并按照步骤逐步执行。复制文件路径放在最后面即可。稍等片刻,安全加固就会完成。 接下来,我们用自然语言安装和筛选适合你需求的 skills, 你 只需要复制这个提示词,描述你的需求。比如我们说我需要每天自动查看 reddit 热帖摘要,点击发送提示词,稍等一会儿,它会自动去筛选好的 skills 库中去找并安装它。自动安装好了之后,我们可以发个消息测试一下,稍等一 下,他会使用这个 skills, 可以 看到他已经找到了我们指定板块的热帖。上期说的那些需要你自己去注册配 c l i, 掏钱买 a p i t 才能激活的 skills。 现在大家可以尝试让模型帮你从筛选过的库里找一下,看看有没有能直接跑的,是不是很简单。 这期教程,我们把龙虾从安装到满血,从进化到安全加固,全程只用自然语言,没用一行代码就完成了。文档和提示词都开源分享给大家,希望多多点赞收藏,鼓励一下大家。在使用过程中如果还有其他的问题,欢迎在评论区留。

没有啊朋友们,我的龙虾管家 qcloud 今天正式开园了,所有想玩想用 opencloud 或者是想基于这个项目继续开发新功能的朋友, github 也已经上线了项目,大家可以看看改改,当然也欢迎大家只是顺手给个心心。 那这期视频呢,我想跟大家好好聊一聊,怎么用 qq 玩龙虾,以及我们为什么要做这个工具,我们又是怎么极限搞出来的?以及大家最近可能特别关心的关于壮民的史末好,大家点好收藏、关注、赞,我们直接开始! ok, 先给新朋友介绍一下什么是 qq, 简单地说, qq 就是 我们开发的一个帮你更轻松更傻瓜式的用上 openclaw 管理龙虾的桌面工具。 因为大家都知道 open club 很 强,很多人很想用,但说实话,我最初本来想出这个教程的时候,我就发现想装上一个 open club, 从环境、安装、配置权限到模型到报错,每一步对小白来说都很劝退。 评论区也有大量的朋友说动手装了,但是一直卡住,甚至有人准备花五九九找人上门安装了,已经放弃了的朋友可以扣个一。 我就觉得这不行啊,这个 ai 时代,大家本来就很容易 formal 了,如果连试一试的门槛都这么高,那普通人该怎么办呢?所以呢, qpl 要做的事情很简单,就是把那些安装、配置、管理的门槛给打下来,让大家直接就像操作传统软件一样,跟着界面点点点就好了。 nice, 我 简单演示一下 qcloud 的 关键功能啊,官网呢?上线了新版的 qcloud, 我 们双击安装,装好了之后呢,它就会自动帮你检测环境,然后你只需要去填写你的 api key, 然后选择你要连接的这个服务,然后扫一个码,你就可以在软件里跟它对话了。 如果你的 qq 号有问题呢,你还可以在面板中进行管理,比如说自己重启网关啦,一键修复啦,这里可以切换模型啦,下载 skill 啦等等的管理功能比较清晰简单吧。 那与此同时呢,我其实也花了很多心思去做一些正经产品基本不会做的事,比如把教程做进了软件里面,比如说装这个 open cloud 的 过程中有很多选项,小白一看就很慌,这啥意思?不敢乱点啊?那我们就在旁边做了这个大白话的解释,卡片。 那再比如,当时连接飞书的时候,大家经常会迷糊,我到底要去哪里去复制这么一大串东西呢?那我就把这些原本要写在外部的一个教程里面的步骤,给它嵌到了软件的交互里面, 大家觉得还应该有什么功能,也可以在评论区告诉我,咱慢慢上。搞笑的是啊,中间有一版,我把所有的报错提示都改成了大白话。内部测试的时候,小伙伴就吐槽, 哪有这种报错,显得咱们产品太不正规了,后面我们才收敛了一点,给他改回去,不知道你们觉得呢,我是应该保留还是应该正经一点? 那所以呢, qq 也确实是一个带有很强个人色彩的产品,他不太按套路出牌,但是呢,目的绝对是想做成一个贴心的龙虾管家。 ok, 那 接下来呢,我们就来聊聊很多朋友在评论区疯狂艾特我的壮明事件。 首先,咱们为什么要叫 qq 老?其实非常简单,老粉都知道,早就有很多朋友叫我秋秋、秋子、 qj qg, 我 私下的这个社交媒体呢,也一直都叫 qq 秋秋, 所以说把大家的称呼跟 openclaw 结合一下,再简化一点,哎,你可能都能想到叫 qq 老吧。 于是呢,基于粉丝朋友们给的灵感,那我们就定了这个名字叫 qq 了,我自己也很喜欢,很大气,很可爱。那本身我们这个频道和这个 qq 了,都是在粉丝的支持和鼓励下才有了今天。 qq 呢,也是为了方便大家才做的东西, 所以我们团队的小伙伴为了保护咱们共同的产物,也非常的认真。那就在这个期间呢,陆续的把商标、域名、社交媒体都注册了, 其实还花了不少钱呢,那为什么这么谨慎呢?不知道大家之前有没有看到过,我们确实是看到过一些博主的新闻,说他自己的名字被抢住了,或者是他跟粉丝特有的一些说法,被人拿去做了盈利的招牌,而且还都是些大博主, 最后呢,要么还得给人家钱,要么又得被逼改名。但老实说,我自己那几天其实是非常忙的,一边开发 qq, 一 边在写文案,一边准备直播,一边准备装修,一边在面试,完全是分身乏术。所以名字这个事呢,我也没太当回事,这个行政来问我,我还觉得他小题大做。结果 我们发布之后,评论区和其他的朋友们都给我们转了一条新闻,某大厂就在我们发视频的前一天,发布了一款名字相似,功能相似,甚至连 logo 都有点相似的产品,我当时就呆了, 还有这种事?那我们团队的小伙伴也都非常惊讶,大家就说,这怎么弄啊?大象和蚂蚁还能撞衫了? 当然了,我们短暂的这个惊讶之后,哎,反应过来我们应该高兴啊,这不正好说明我们在 ai 领域的洞察,我们对产品的直觉和对这个起名,这个 sense 跟巨头都英雄所见略同了。 开玩笑,我们当然还是一个非常非常小非常非常开你的自媒体小团队了。不过呢,大厂做这个是为了他们的生态布局嘛? 那我们来做这个免费的开源软件,只是因为评论区里面粉丝们的龙虾焦虑,而且虽然大厂背靠技术,有渠道有资源,但是作为离小白用户最近的人,我们也有跟粉丝朋友们的默契,有大家的支持,对吧? 因为 qcloud 对 我来说,它确实不是一个冷冰的产品,它也是我跟粉丝朋友之间的一种连接纽带。因为我们开发的时候,大家的评论和脸我都是有画面的,我都能想象到大家使用一些功能的心情和出 bug 的 样子, 像一种非常搞笑也很珍贵的对话,就像有的朋友看我的公众号文章说都能听见声音一样,是吧,咱这个铁铁都是很铁的。然而,就在我们准备开源前夕,发生了一件神秘事件, 我们在大长版的 qq 号发出来之前就注册好了的公众号,突然变成了未命名账号,理由是涉嫌对用户混淆,误以为是其他官方主体, 就是这样。那至于重名这件事后续怎么处理呢?如果有进展,我会第一时间跟你们分享。再顺便说一下,我们 qqlab 核心代码已经完全在 app 开源,大家也可以在官网免费下载使用,也欢迎大家多多来参与我们这次不太一样的开源共建。稍等,我会详细说一下哪里不一样。 ok, 那 我们是怎么在这么短的时间内做出 qqlab 的 呢?先说结论,除了肝,当然就是靠 ai 了。 除了第一版的测试版是百分之七十左右的 web coding, 后续的版本基本上做到了百分之九十九。 light 版本呢,实际是我们一周之内完成了对整个架构的重构,所以整个过程本质上也是一次非常极限的 web coding 和 ai 写作的挑战。龙虾 cloud code, codex 都是主力。再给大家看个好玩的,我们的 logo 真的 就是龙虾生成的。而且我只用了一句话, 因为当时龙虾有我们更多的上下文,他了解我们的项目,也知道我一些倾向和喜好,所以我就说了一句,他就设计成了这个样 子,然后发到群里,大家都觉得不错,哎,就这么定了,他有一个三 d 的 这个虾爪,然后上面有一个开机键,然后我们想到把它倒过来变成了 q, 既可爱又有我们的品牌字母,又有 open cloud 的 属性,又有开机键来代表这个龙虾管家的意向。 我只能说,请把决打在公屏上。不过呢,由于我们的 logo 是 偏替给转的 svg, 所以 中间有一次我们发出去的中间版 logo 是 糊的,还就有人反馈,这咋 logo 都糊了, 的确是五毛钱的 logo, 因为 nasa banana 身图刚好五毛一张 那,但是啊,整个过程它也没有听起来那么轻松,整个开发过程真的也不是说我一句话, ai 就 咔咔咔都做好了,产品的设计,功能的取舍,交互的梳理,架构的方向到问题的排查,我们自己也蛮好算力的, 实际写代码的时候呢,也得跟龙虾斗智斗勇,揭穿 cloud code 和 codex 的 谎言和敷衍,反复的跟它打磨。 而且龙虾也是一个年轻的开源项目,他一直在更新各家的插件,也一直更新,模型也一直更新, bug 也有很多,我们有时候甚至都分不清这是龙虾的 bug 还是插件的 bug, 还是我们自己的 bug, 修完你的修你的,修完你的修你的。 所以虽然是 vip 顶,但是这一个月也还是挺累的。老粉应该发现了,我们最近视频更新的有点慢了,其实我们团队很多人过年都没回家了,中间还熬了非常多个大夜,人事都在帮忙做测试剪辑,都在群里帮人解决 bug, 大家可以看我们非常凌乱的这个战场,而且吃了很多顿宵夜,我感觉我都胖了。而且为了开发这个 qq 老,我们其实也推掉了一些商业合作,专心的做这个可能没有什么收益的实验。不过虽然如此,压力也更大了,但是最后大家还是非常有成就感 的,也真的要特别感谢团队里两位年轻的开发小伙伴,我们大家一起用 ai 做了一件能帮到更多人的事。 好,那开头就说了,今天我们把 qcloud 正式开源了,那我知道很多朋友他不是程序员,所以我也简单科普一下什么是开源。 简单来说,开源就是把自己的代码全部公开,任何人都可以拿去用,拿去改,拿去做自己的东西。比如我们每天用的手机底层,它就是谷歌开源的安卓系统。 那更近一点的 deepsea, 他 们也都一直在开源他们的模型,分享他们的技术报告,全世界的公司都可以去学习,所有的企业和个人也都可以下载他们的模型。那你看现在国产大模型百花齐放,有了更多强大的开源模型,这就是开源最酷的地方, 前人种树,后人乘凉,后人呢,又再种了更多的树。那我作为 ai 博主,原本我的工作就是给大家去宣传讲解这些厉害的开源模型和项目, 那这个过程中我也实打实的收获了大家给我的关注和信任。所以虽然跟这些伟大的项目相比, qcloud 只是一个微不足道的小小工具,但是我们也希望加入这个让我们受益的行列, 从克服者也变成一个贡献者,帮到更多需要的人,甚至影响更多人也成为贡献者。而且说实话,只靠我们团队几个人呢?肯定是还有很多做不到,想不到也来不及做的地方。在开源的这两天,我们都还在不停的修 bug, 并且追这个 openclaw 的 更新和新的这个微信官方插件。当然现在我们已经支持最新的 openclaw 了, 那社区的力量肯定是更强大的。所以我也特别想说我有一个小小的愿望,因为过去大家总觉得参与开源贡献、提 pr、 提 e show 好 像都是专业开发者才做的事情,但是我希望 qcloud 这个项目 不是这样的,我希望所有感兴趣,所有有想法的人都可以参与贡献,哪怕你之前不会写代码,只是在尝试纯歪不扣顶,哪怕你只是用了之后发现了一个 bug, 提了一个建议,只要有价值,我们就会通过审核,或者是社区的朋友一起帮你把它改到通过审核,把你的想法变成现实。 总之,我希望所有不论技术水平的人,在这个项目都可以平等的参与,上到大厂的专业团队,下到第一次尝试 web coding 的 普通朋友。我也很希望有一些朋友通过 qq 老完成他人生的第一次开源贡献。 所以,大神欢迎,小白欢迎, web coding 欢迎,传统手艺也欢迎。那我也要特别感谢这次内测群里面的这些朋友, 我们也在项目的主页对部分朋友表示了感谢,感谢大家提出了重要的反馈,顺便我也要打个广告,欢迎开发相关的人才加入我们。虽然我们可能暂时不能提供和大厂一样的顶级薪资, 但是我们能给你一个绝对纯粹,没有各种汇报 ppt 内耗的一个创作环境,而且 ai 工具不限量,如果你热爱 ai, 并且想和我们一起折腾出更多真正有用有意思的东西,不要犹豫,加入我们, ok, 那 最后我还想说,我之所以这么做,这么希望大家都能参与,也是因为我在做 qq 的 过程中更加相信一件事,在 ai 时代,一个小团队,甚至是一个人,真的有机会做出一些帮到很多人的东西。 所以,如果你过去有什么觉得自己做不到的事,真的请你大胆尝试,哪怕现在他还很小很粗糙,很不完美。没关系,先把第一步迈出去,跟 ai 一 起成长,你会发现这个时代还挺有意思的,你也会发现原来你可以做到一些事。 好了, qq 了已经在 github 上了,去看看吧。用它改它,或者只是点个心心,或者把视频转发给你认为需要的朋友,还有点赞、收藏、关注我们,下次见了。

不知道你有没有想过,就是把这 open cloud 直接装进这 u 盘里,做到即插即用,插到任何一台电脑上立刻就能使用,不用安装不留任何痕迹,用完直接拔走。现在你可以把整个 ai 环境随身带走,无论是在公司,在网吧或在朋友家, 电脑上都能直接运行,而且重点是不仅方便,而且更安全。如果你不想在电脑上留下各种环境或者各种依赖,那么今天这个方案就非常适合你。接下来我们将一一演示下如何实现它一键部署,非常适合新手小白, 就通过这款开源项目来一键部署。那就把 u 盘插电脑上,好操作好命令拿去下载安装就可以了,直接把它安装包给下下来,就给它刻入 u 盘里。当然如果你跟我一样是 windows 用户的话,那么直接下载它安装包就可以了,我们点下载 好,下载好以后它总共是三百七十 m n 左右,但解压以后它总有一 g 左右啊。然后现在把我们准备好的 u 盘插入电脑上,好操作好 u 盘以后,咱先打开它,进入我们 u 盘里。 打开以后,咱先把我们刚下载好的这个这个整个安装包拖进来啊,分布好以后再把它夹出来, 直接把它解压到 u 盘里就可以了。这个压缩包里全部的必备环境,不仅有 open 口主程序,还有相应的插件 都在里面啊。解压完成以后来看一下目前它的文件夹总共有多大啊?解压完成以后总共将近有一 g 左右啊。这个关闭掉线可以把这个压缩包给删掉了,就不需要了,占空间啊,删掉它 好,删除以后再给它关闭掉,那先把拔出来,到时候如果你需要在其他电脑上运行这个 u 盘里的这个 open 口的话,那么只要把这 u 盘插入对方电脑上好,插入好以后它会自动弹出来,然后下面进入根目录下, 打开目录,进入以后找到里面有个便携版,打开它好,打开以后就往下拉,它有一个 windows 九点 bat 处理, 那么需要找到上方有一个 mac 刚 start 的 这个 command, 这个 p 处理也是可以的,因为当前电脑是 windows, 那 我就打开这个 windows 这个 p 处理 好。前面以后我们稍等一会啊,这个时候没看到它会自动弹这个配置中心,如果需要选择模型的话,那么在里面进行选择,别的 mini max, deep sync, open i, cloud 等等都是可以的。如果你在国内的话,那么你可以选择这 mini max 或者 deep sync 都可以,在海外的话建议选择 open i 或者 cloud。 选择好以后咱们就点下一步,然后在上方这里填写我们的 api key, 插入好友,点击保存并继续,它是会把这个配置文件,下次使用的话打开就可以,不需要再重新配置了。然后这里可以对接 telegram 或 qq 机器人等等都是可以的,对接好友打开就可以了,咱们看一下, 请自我介绍一下。大哥你好,我是你的智能助手,专门帮助你完成各种任务,你可以叫我助理,有什么需要帮助的话可以随时告诉我。好,这样的话就可以了,可以创建定时任务,也可以做任何事情,这样的话这定时任务他就创建成功了, 到时候可以自己去玩就行了,但是 carry 项目他有一定局限,但是他整个部署环境的话都是这个固定的,拔掉硬盘以后他就会清空掉,但数据会保留到硬盘。

到底有没有一个完全免费的本地运行的 ai 代理?阿里推出 co pub, 让担心使用成本和数据安全的朋友们得偿所愿, 今天就用一分钟带大家体验吧。首先是下载和本地部署模型,先安装 almas studio, 需要教程的进主页查看置顶视频。 接下来在 musego 搜索 copart 杠 fresh 要选择 g g f 格式,一般就是极显,选四 b 杠 two 四独显且显存大于六 g 的 可选九 b 杠 two 四 下载到本地,打开 lms。 二 d o 就是 配置模型参数,加载模型并开启服务,然后去官网下载安装 copart, 然后它支持多种方式安装电脑没有 python 的 选择就是一键安装, 否则使用 p i p 安装成功。启动后在浏览器打开网址,进入 cocore 的 web 界面, opencore 有 的功能 cocore 基本都有, 而且界面配置对新手来说更友好。接下来开始配置模型,右上角切换到中文,左侧点模型,选 l i s studio, 然后发现模型,然后测试连接这个配置成功后可以聊天,开启愉快的玩耍吧!

一天一个邪修网站第五十七期今天介绍的网站是今天一个视频教会你怎么本地部署最近爆火的小龙虾,这是一个可以免费本地部署小龙虾的网站,点击立即部署,选择符合电脑配置的模型,这边建议选择推荐的就可以了,然后等待部署就可以直接跟他对话, 就非常简单。在这里你还可以看到他现在所拥有的技能,足足五十一个,也是完全够我们普通人日常使用了。最离谱的是 你担心的托管费用在这里都无需顾虑,这里的本地模型都是免费使用的,而且本地部署数据都在自己的电脑里,绝对安全。更有意思的是,独大师 ceo 田野带着团队的龙虾 ai 纯纯跨界实测,用龙虾五天硬生生憋出六点六万只,从 被拒签到直接过审签约了番茄这本虔诚的网文叫穿镜恋中后全网求我别发疯,感兴趣的爽文爱好者可以去看一看,不想花钱又想试试小龙虾的,可以先从 l f 扣的试试,手不掉队不踩雷就非常离谱。