从 open globe 二点二六,二点二三版本的时候, open globe 这里面呢,它默认已经是支持了中文的,所以说大家就不用再次去考虑啊,汉化版的这类的,它这里面已经是可以使用中文的了。 那这里面的话呢,我来给各位去演示一下如何使用欧拉曼来给 open globe 提供这样的一个模型服务。 那这里面的话呢,我们现在所使用的欧拉曼呢,大家最好是下载一下最新的那个版本,我这里面现在装的这是最新的零零一七的这样的一个版本欧拉曼的版本, 然后呢,我们现在先把这个 open code 正常的给它运行起来,那运行起来之后呢,我们这里面我现在已经是拉取了一些镜像了,模型了已经。好。然后呢,我们在这里面运行的时候,欧拉玛, 然后呢浪尺一下,然后加上一个 open loop。 那 对于这个你这样运行 open loop 的 时候,你看如果说你不写它这里面的话,会让我们去指定你到底运行的是 open loop 还是什么,对吧?那如果说 你的版本没有达到零点一七的话,那它这里面就会提醒我们说不支持 open loop。 记住了啊,要使用 open code, 当然呢你还可以指定你使用哪一个模型,你看它这里面的话,告诉我们说它推荐使用这些模型。 好,那当然呢,我们在运行的时候也可以直接加上一个杠杠模度,然后呢就有一个,就是啊,千万三加上我们的这样的一个模型,我们就直接使用它所推荐的那个模型就好了, 那当然了,你也可以使用其他的这些模型都可以。好,我们就直接去运行它,然后它是否它问我们说是否要运行,直接回车运行,然后我们需要稍微等待一会儿。 好,那这里面运行的时候,它其实自己会去修改这个 open coding 阶梯的这个配置文件的,不需要我们再手动的去编辑这个配置文件的,所以说这个版本的话使用起来的话还是非常方便的。这里面, 然后呢我们在这里呢就可以去问看一下我们的这个情况。 states, 好, 现在所使用的就是千问三八 b。 好, 那这个时候呢,咱们随便的去聊一下天。你好, 好,那它这里面的话呢,现在已经是可以能够正常的回复我们了,对吧?你是哪个模型? ok, 那 这里面的话你看使用起来相对于来说还是非常方便的。 ok, 大家可以自己来尝试一下。那这里面的话我顺便说一下,明天晚上八点整,那么我们准备开始去搞一个 open globe 的 直播。呃,如果感兴趣的小伙伴大家可以过来听一下。 那这里面的话呢,我现在写了一个基于 open clone 的 一个练习手册。嗯,那基本上呢算是很全面的。包括呢,我们这里面到底怎么去安装 open clone? 那 么以及我们在使用 open clone 的 时候怎么样去 定义这些?通过变量的方式去引用我们的 ipr k, 那 么以及在它的配置文件里面,它常能够用到的这些 edit 的 这些设置包括了什么? heartbeat, 比如说人在内存的搜索,上下文的裁剪,压缩,并发限制,对吧?那么以及还有日制的这些管理,包括了还有我们如何去做这样的一些审批、自动审批等等等等。 那么还有一个像,比如说我们常能够用到的这些文件,比如说 so 啊、 use 啊啊,当当当当当,它们分别是什么意思? 好在这个实验文档里面呢,基本上算是讲了一个很全的一个内容了。那当然了, 这个文档现在还差一些没有没有没有写完,我会继续往这里面去填充一些东西,反正明天晚上直播的话,大家如果感兴趣可以过来听一下。
粉丝2110获赞9896

大家好,今天我们来玩 jam 四加 cloud code, 内容包括下载运行 jam 四,接入 cloud code 编程能力测试。接下来简单讲一下安装和接入。通过欧拉玛瑙 jam 四就能够下载模型, 需要注意的是需要加上模型的具体大小,比如说下载三十一币就是欧拉玛瑙 jamma 四冒号三十一币,等待几分钟模型就能运行。欧拉玛连接 cloud code 也很简单, 用 cc switch 点击右上角,选择自定义配置请求地址,当中填 local host 和端口号,幺幺四三四保存就可以了。 终端输入欧拉玛 launch cloud model jam 四三十一币。 这样来看一下,现在的内存压力是很小的。执行指令登录说一句话,我们内存一下子就上来了,这样子呢,就说明我们的 cloud code 已经在调用 jam 模型了。 要测试的场景是让接入了 jam 四的 cloud code 复刻我们的官网,想让它变成苹果官网的风格, 先到 get design, 点 md 里面找到它的设计风格,进入到前端重构目录下 执行指令。这条指令是安装一个 md 文档,让 cloud code 知道如何模仿苹果的官网设计 design, 点 md 好, 现在已经可以了,命令也很简单,请你使用 next nex 的 gs 复刻我们的官网,参考 design, 点 md 中苹果的设计风格,我们就持续等待吧, 它已经运行了半个小时,还在 plan model, 还在思考该怎么办,我们继续等待吧,现在已经持续运行了快一个小时,代码也编已完成, 打开看一下,启动的时候报错了,让它修复一下,现在来对比一下。 左边是重构之前的效果,右边是重构之后的效果,可以看到右边还是很贴近苹果网站的风格,今天做这个测试主要是想看本地模型在 agent 的 场景下是否能够使用, 相比之前的本地模型只能够聊天,现在已经可以支持一些 agent 的 操作工具调用,基本可以长时间的运行任务,相信再过半年本地模型也能够达到生产的效果。大家有什么想测的可以告诉我, 今天先到这里,谢谢大家。

今天我用了一阵子的 amos 啊,最大的体悟就是简单省事啊,像龙虾对接欧拉玛 lm studio 这样的本地模型啊,需要手工配置啊, amos 真的 是非常简单啊。 大家好,我是根谷啊,今天是 amos agent 系列课程的第二堂课,很多人的虾还没养好啊,现在又开始养马了。首先给大家看一下效果吧,我打开这个 amos 啊 amos, 比如说我做几道题目啊。先来一道简单的吧, 小明现在有十二个苹果,吃掉了三个,又买了五个,现在有多少个?我首先看一下欧拉玛这个,这一枚的四二十六币啊。好,他已经装载进去了。装载进去的话以后你看啊,一辆车 每小时六十公里,二点五小时能走多少公里数?那第二次就会快很多,因为刚刚我很久没用它休眠了哈。我们再做一道比较难的题目吧,一道概率论的题目。这道题目是比较难的,一个盒子有三个红球,五个篮球不放回抽两次 啊,就是这个球第二次抽到红球的概率,他给了两种方法对吧?嗯,那再给两个这个脑筋急转弯,这个小时候经常经常被坑啊。小明的妈妈有三个儿子,大儿子叫大毛,二儿子叫二毛。小儿子叫什么?小儿子是叫小毛吗?不对,是叫小明对吧?来一个这种吧 那来一个这种。呃,他这个记忆体没有的,比如说,呃,美国的现任总统。总统是谁呢?他应该要去网上去找,哎, 或者是美国的第一任总统是谁,我看看他能不能知道叫 music music music 啊。 这个 ems 最大的特点就是它,如果是啊,如果是它没有的功能,它一定会去网上找,比如说,比如说北京今天的天气如何,这对它来说应该是有难度的,它应该没有这个技能才对的,是吧? 那它你看它要去这个叫酷 google 去搜寻这个北京的天气,它要去 bing 里面去试了,是吧? 大概是搞不定的,我觉得它应该需要做一个这个天气的一个 api 的 接口去访问,它自己要去写这样一个技能, 然后我讲一下怎么样去快速的让这个爱马仕对接你本地的模型,因为你的电脑足够强大的话,我建议你还是用本地的模型啊,因为非常省钱啊,非常省钱啊。第一步就是进入这个欧拉玛,对吧?我用的是欧拉玛的当当 low 的 欧拉玛,是吧?我用的是苹果的, 自动的,就下载,下载完了以后这个没有什么可讲的,就是一个应用程序打开,打开它的话,这里面有很多模型啊,如果你电脑配置比较好的,就去下这个二十六 b 的 啊,二十六 b 或者是 三十一 b 的 都是没问题的,我的成,我的电脑下三十一 b 是 没任何问题的,当然我的电脑也是跑不起一百二十 b 的。 下完了以后,下完了以后你测一下就好了,比如说我下了这个这个这个 这个,这个我是有的,对吧?这 gpt 的 你,你是什么模型啊?对吧?它就是 gpt 的 这个这个单元模型,是吧?下完了以后,这个就挂在这里就不用管了,就是好通了,它出现了 cking thinking 啊,就 ok 了啊,你就不用管了,你可以把它擦掉。那第二步要要你知道这欧拉玛用的是什么端口?那欧拉玛端口的话是幺幺四三四,那这个端口是怎么知道的呢?很多人他在问这个端口怎么知道呢?其实是靠那个 l i s f 这个,你去看它的监听端口, 欧拉玛这个监听端口就是幺幺四三,是默认的,这个东西大家记住就好了,他不是八千是吧?也不是八千,也不是幺幺四三五,就是这个就就用这个命令,命令行啊,这是教大家一个小技巧,然后怎么把它配置上去呢?也是非常的简单的,是爱马仕,爱马仕这个名字我觉得取得特别棒啊, model 就就一个命令。然后呢?你翻到下面了,如果你用了龙虾的话,这些都是他把龙虾的配置倒过来了。假设你第一次配,第一次配是没有这些的,但是这个这个选项是有的,叫那个卡斯特吗?卡斯特吗?在哪里啊?自定义的端点,这个这个 这个这个 http 冒号双写,这个幺幺四三四回车,这里的 api 你 们不需要,不需要,因为不需要 api, 来这里面就选择模型了,对吧?这里面你选择一二三四,我应该是默认的是二二,是我最喜欢的模型啊,这是目前为止 最强大的模型啊。这个上下文这个窗口最好设置为非常大,七万 七万是没问题的啊。好了,以后就是 amos, amos, amos, amos, 哎,它总会出中文, amos, 哎,这就好了,最好是你先杀一遍进程,然后呢取一个新的回放框,因为它毕竟不是在浏览器里面,它全是这个命令行,所以说开始用起来可能不会那么习惯,但是用着用着应该就比较顺手了。比较顺手了啊?

很多小伙伴问我如何让 openclaw 对 接本地欧拉玛大模型,我今天就分享一下成功经验。 openclaw 和欧拉玛的安装过程我就不重复了,网上一大堆教程,我只想模型的配置部分。首先打开你的 openclaw 安装目录, 找到配置文件, openclaw 的 jason 打开, 我来说一下几个字段的含义。 providers 这里边呢,一定要填 v l l m, 然后就是 base 幺 l, 这个是要填你本地奥拉玛大模型的地址,如果是同一台机器,那么默认地址应该是幺二七点零点零点一。我这里是局域网幺九二点幺六八 啊。一般情况下,这里都是要填幺二七点零点零点一的,然后是默认端口幺幺四三四。最后一定要记着加一个斜杠 v 一, 这个很重要很,我好几次都是没有加这个 v 一, 然后导致配置失败的。 api 这里边呢,填啊, open i compilation, 意思就是说兼容 open i 的 啊。 api 格式。 apikey 这里边是随便填的,然后其他的部分你都可以照抄,然后别抄错了就行了。有一个要说的点就是这两个字段,一个是 id, 一个是 name, 这两个内容都是要填你奥拉玛大模型里边的 模型名字,这个和大模型的名称要保持一致,你要是不知道的话,可以运行欧拉玛里斯去获取到。如果想配置多个模型,你可以在下面再加一组配置,配置方式跟上面是一样的。 最后就是 agents 里面的配置了,注意, primary 这里除了添大模型的名称以外,前边一定要加上 v l m, 以斜杠的前缀,这里要和之前配置的 providers, 这里边的 v l m 要保持一致。 填完以后保存文件。注意,保存文件成功之后必须要运行一次 openclaw getway restart 命令,才能让你刚才的配置生效。等 openclaw 重启成功后,我们来测试一下是否生效。 ok, 现在已经生效了。

今天是我们小龙虾养成日记的赫默斯安装和本地欧拉玛部署的配置,赫默斯大家现在称他为爱马仕,和小龙虾一样是一个智能体,作为智能体的大脑,他可以连接我们本地的欧拉玛,实现指令接收,思考决策工具,调用 最后一个结果输出的全连录本地化壁环,完美解决头肯网络以及隐私的问题。我们今天直接演示一下如何安装以及配置,进行一个实操演练。首先我们准备的环境,我们今天使用马克来进行安装, 当然 windows 和 linux 也是支持的欧拉玛本地部署,这个其实我们前面讲过,已经是比较基础的内容了,我们可以直接到欧拉玛的官网, 这就是欧拉玛的官网,点击这个下载,我们就可以直接选择自己的系统进行下载完之后就可以了,在 mark 上下载。欧拉玛安装完成之后 是带一个终端的,就是我们可以直接使用,比如我们这里有个本地的已经部署的千万三四 b 的 一个小模型, 我们直接可以问大家,比如说你好,他很快就会给我们一个回复,因为我刚才发过你好了,他这个是有记忆功能的,这就是欧莱玛的一个安装。 当然如果安装完之后呢,我们我们可以通过命令行来看到我们的欧拉曼的版本,我们现在装的是零点二零的版本,零点十九之后的版本是进行优化过的。面对 mark 系统运行的更快,我们再回到我们这个文文章中, 这就是我们欧拉玛的安装,安装完成之后,我们可以本地的拉取我们一些模型,这是我平常拉取过的,有的也没有删除,这个我们可以在欧拉玛的命令行中直接可以看到,直接拎死他一下就可以看到我们已经安装过的 所有的这些模型。欧拉玛的安装我们其实是相对比较简单的一个,我们下面可以看一下我们赫默斯爱马仕的安装,这个安装其实现在也是非常容易,就这么一条质量就可以了, 我们可以看到这是爱马仕的一个其他的网站,在这上面有详细的介绍,其他的源码,他是开源的,这里我们可以看到他同样是一条指令安装也可以,我们下面进入安装过程。 好,现在我们已经安装完成了,我们安装完成之后可以通过赫默斯沃审看到我们当前的版本,我们当前是零点九点零的版本,四月十三号的 python 是 三点十二,这些都是自动安装的,其实我们的这个赫默斯爱马仕已经安装完成了,你们可以看到我们这个是版本已经安装完成了, 下面我们要进行一个模型的一个配置,我们这个配置我们刚才安装的欧拉玛的模型在进行配置上,我们可以演示一下配置的过程,直接就是 hermes mod, hermes mod 之后呢我们可以看到这里面有一个列表, 我们可以用上下键选选择,我们这选到 custom, 我 们点击回车,这个时候需要我们输入一个地址,这个地址我们就输入我们奥拉玛的地址,奥拉玛的地址就这个默认的这个地址和端口,我们不需要改它,我们直接给它复制过来, 这个后边加一个 v e, 因为是聊天的,这个时候我们要说 k, 这个 k 我 们随机的就可以,没有关系。 这个时候他会列出我们欧拉玛里面已经拉取过的这些模型,我们这里面选一个我们使用的就行,比如我们的千万三四 b, 在 这里它是一个六, 我们直接输一个数字六就行了。我们选择完模型之后是一个上下文的长度,这个长度我们就要手动输一个,输个六十五 k, 大家记住这个地方长度,他的爱马仕的要求最少是六十四 k, 我们可以稍微输大一点,没有关系,如果我们不输,默认可能是一个四 k, 我 们就没有办法去使用,调用的时候就有问题,这个地方记住我们输比这个四 k 大 一些,这个时候我们再输一个显示的名字,我们就叫前文三,嗯,三 四 b, 这时候我们这个模型就就已经配置完成了。回到这个文章里边,就 当我们的模型配置完成之后,我们就可以启动我们的核模式了,就是我们一个 ai 的 本地运行,我们验收一下看它怎么样,我们直接启动我们输入核模式,哎,我们可以看到这个时候已经启动了核模式, 这是一个界面,我们当前的模型是千万三四 b, 就 我们刚才创建的这里有一个基本的介绍,他的一个吐司, 他的一个 skills 都在这里,现在有二十八个图纸,有七十九个 skills 是 可以使用的。 我们先先运行一下,看这个模型有没有成功,我们给他一条指令,那用 python 写一个代码,看看这个函数的运行情况,看一看我们这个爱马仕的运行情况,我们把这个指令贴在这里,直接回车,我们现在等一等, 我们看到现在我们这个爱马仕已经运行完了,我们给他一个指令,让他写一个函数,并且解释这个函数的代码逻辑,这里写了一个函数,有一个逻辑的介绍,你们可以看他运行的还是非常好的。 好了,这就是今天给大家介绍的爱马仕赫曼斯的安装以及欧拉玛的配置,更多内容我们下一期再见。

前天我安装了 alama 本地大模型, 今天呢,就想在本地安装 open 可乐,让 open 可乐调用这个 alama 的 本地大模型。 首先呢,我用这个豆包大模型,然后问他一下怎么在本地安装 apple, 在 mac 电脑上面安装, 然后我就按照他的指令一步一步来安装。 由于是新电脑,所以不能直接复制拉取 opencloud 的 这个命令,先打开这个终端 看。我一开始直接复制这个命令拉取的话,它就出错了,它说缺少这个运行的环境, 所以根据它的提示,我就先安装了一个 pro 这个命令的环境。 把这个环境安装好了以后呢,还要安装这个 node js 这一个环境,这两个环境都安,安装好了以后才能安装这个 opencool, 否则的话是装不上去的。 现在反正都有大模型,有什么问题的话,你直接把这一个问题啊贴到这个大模型里面,然后问他下一步该怎么办就可以了。 用 blueprint 测试好。 blueprint 已经安装好了, 那现在安装的是 node js u d g s 已经安装成功,这时候就可以安装 oppo nano, 将 oppo nano 从原代码拉取下来, 将命令行输入到终端里面去, 这时候提醒我说镜像有问题,所以还是直接拉吧。 本来想它能不能快一点,通过镜像能不能快一点,但是镜像不行,这下面就按部就班的,根据它的提示,能够我们一步一步来安装 openclaw。 安装 openclaw 的 时候先选择呃,这个快速安装模式, 现在这个 open class 是 最新的,二零二六点四点九, 那 quick start 这个模式,我们选择 quick start, 下面配置飞速机器人, 这个飞速机器人的,呃,应用权限,这个上面要仔细一点, 我这个 oppo 可乐安装好了以后一直连不上飞速,后来查找原因,嗯,就是这个飞速机器人的这个应用权限没有配置好, 这种还要记得发布,不发布的话它也是不行的,就是音乐没有声,音效好。这个 opencloud 已经启动了, 等 oppo 可乐启动了以后,这时候我连接它的这个本地大模型还是不行。为什么呢?因为这个我连接的一开始连接的是千万三点五二十七 b, 二十七 b 这个大模型呢太慢, 所以它一直在这动, 后来我把它大模型改成千万三点五的九 b, 你 看这个是我连接飞速的时候,连接了好长时间都没连接上,后来还是一步一步排查原因啊,才才找到了。就是它的应用权限里面 没有配置好, 最终那个飞速机器人要和这这一个 opencloud 要进行配对,在飞速机器人里面发一个,你好,它会产生这个配对码,把这个配对码呢粘贴到这个聊天 界面上面去,它会自动的进行配对。那第一步呢,就是要把这个 搭模型要配置好,这个搭模型也花了我很长时间,主要是,嗯,电脑后台开的程序太多了,可能它运行不起来,跑不起来,所以现在更换了一个千万三点五九 b 的, 你看现在界面显示飞速配对成功了, 然后我问他,你用的什么大模型,看看这个模型有没有突出 这个反应。 open color 的 反应还是有点慢啊,这要等一会儿,它不像那个直接和大模型对话, 你看他出来了, 他显示的是饿了吗?千万三点五九 b, 这个模型九 b 参数是千万三点五的这个版本,然后他还告诉我运行的速度有点慢是什么原因, 你看它也出来了,说显存或者内存的限制,其实这个在本地跑这个大模型还是有一些弊端的,除非你的硬件特别好。 好的就这样这个本地的 openclock 和本地大模型就已经安装好了,谢谢。

小龙虾一晚上硬生生干了我几千万的头坑,你是不是经常听到这样的一些言论呢? 你说养个小龙虾还能破产,这合理吗?大家好,我是韩山,今天是我们小龙虾养成日记,欧本可乐的安装 以及欧拉玛本地模型的配置,让大家一分钱不花,把欧本可乐接到我们的本地模型上,装好之后,你会发现它不仅能聊天,还能真正的帮我们干活。我们现在先搞清楚 opencloud 和欧拉玛到底是怎么连接的?欧拉玛是一个本地模型的运行工具,它主要负责下载、加载以及我们的推理, 默认的端口就是幺幺四三四,我们不需要修改。当然如果我们的欧拉玛是部署在网络上或者我们其他服务器上,可以把这个 ip 换成对应的地址就可以。 opencloud 我 们的个人助手,他负责我们连接,我们的前端就是我们的用户, 我们的终端,我们的飞书或者我们的网页,然后通过我们这个小龙虾去连接我们的 open cloud 以及我们本地模型,千万三千万三点五等。根据模型的反馈,他会去调用我们一些工具,一些插件来进行具体的工作,这就是从聊天到行动一个完整的流程。这里有一个关键细节, 就是我们给这 opencloud 配置欧拉玛的接口的时候,它默认是走原生的 apichat 就是 可以流逝的输出, 我们不要在后边加这个 v e 就 可以了。下面我们看一看怎么样使用这欧拉玛。欧拉玛我们其实前面的使用,包括其他地方已经讲过很多,我们今天讲一下这个终端,这个窗口里面我们可以从这里面选择模型, 比如我们这些带一个云朵符号的就是云模型,就这些模型我们是直接可以使用的,他不跑在我们本地,只是通过欧拉玛这个软件去连接欧拉玛的服务器,这也是跑在欧拉玛的服务器上的, 我们可以直接使用,当然这个使用它是有一个免费额度的,我们可以看一眼,这就是我们使用额度的地方,这里有一个周,有一个四小时周呢,会重新设置一次,这个用量都是免费的,如果我们觉得不够用,直接去升级就可以 升级,有个二十美金的,有一百美金的,他最大的区别就是使用量上这是他的五十倍,这是免费量的五十倍,是二十美金,再乘以五就是一百美金。当然我们使用拉玛主要使用我们的本地模型,就是我们下面这些已经安装过的,比如千万三四 b 啊,我们之前装的 包括前面三点五的二 b, 我 们可以试一下这个,比如你,你好,我们看他有一个反馈就可以了,这就是他的一个反馈,其实这个模型里面我们如果选择这些 没有下载过的,他就会直接去给我们下载,比如我们选择这个干嘛?四,我们这个时候再输一个,你好,我们可以看到吗?这个地方他就开始模型下载,没有下载过的模型他会自动去下载,下载完之后就开始执行, 这就是我们现在这个欧拉玛可以通过这个窗口来进行控制,非常方便,也可以通过命令行去我们去拉取这个模型,可以看到这是我们刚刚拉取的一个铅汞三点五二 b 的 一个模型, 这个模型就是直接通过命令行拉取就可以。那我们现在讲一下直接使用欧拉玛的命令来启动我们的 open class, 我 们这时候直接启动就可以,启动完之后我们可以去选择模型, 选择这模型的时候,我们可以看到这里有很多我们这些我们刚才安装过的这些模型都会有, 这些模型都会有,但上面这些是一些云云端模型也是可以使用的。我们使用一个我们刚刚拉取的这个三点五二 b, 我 们看它一个什么效果,这个三点五的二 b 这些会车,这个 我们稍后再设置,我们可以看到它的相关的一些配置,比如我们的模型, 我们这里问他一下你是什么模型,可以看到他前面三点五二 b 就是 我们刚刚下载的有拉玛通过量化版本加载,这是一个简单的介绍,我们现在让他打开淘宝试试, 我们让他直接通过浏览器打开页面,我们可以看到这个时候这个淘宝页面已经打开了,虽然他打开的过程不是很流畅,一开始呢只是给我们找了一页这个网站,但是我们直接告诉他使用浏览器打开,这个时候一开始也是没有打开, 他会自己去修复去寻找问题,找到了打开的方式,使用一个命令行打开了我们的淘宝网页, 就是我们后边这个页面,这就是小龙虾的能力,就说他一开始办不到的时候,或者一开始没有实现的时候,他不断的去尝试很多方法,因为他是有权限的, 有些电脑浏览器的打开权限,一些命令行的执行权限,所以他会自己去主动的尝试这些解决方法。最后找到一个能够实现的一个 命令行已经打开这个浏览器,这就是我们使用千分三点五二 b 一个本地小模型实现的一个功能。更多 ai 内容我们下一期再讲。

阿拉玛作为我们最常用的离线 ai 模型工具,最近也是非常活跃,就在刚才,零点二、零点三正式推送了, 这已经是本周第三个正式版本了,四月二号到四月七号五天四个版本,这个节奏属实不慢,我们今天就把这一批更新从头捋一遍。要说零点二零点零系列, 这期的主角只有一个, google 的 詹玛四。四月二号跟着欧拉曼一起来的詹玛四,这次一次性支持全部四个规格,最轻的是 e 二 b 和 e 四 b, 适合笔记本和配置一般的个人 pc, 而二六 b 的 蒙混合专家适合显存或内存容量较大的环境。 最后是三 e b 的 纯密集版本,适合计算资源比较充沛的用户尝试。为了支持 jam 四的运行, alama 底层也跟着 jam 四补了分词器的 sentence piece bpe, 支持 m l x, 后端也修了一个 tokenizer 的 配置不生效问题, 这些是 jam 四能刨下来的基础。然后从零点二、零点一到零点二、零点三 三个小版本,目前共经历了三个小版本。四月三号推出零点二、零点一版本,主要修复了 jam 四的工具调用,解决了参数自创例,有引号的时候解析会出错。 整个脱扣的处理流程也重构了一遍,稳定性提升明显。另外为 gemma 四开启了 flash 叉神长上下文场景下速度更快,显存占用也更低。新 u d a 和 rock 这边也跟着修了一个底层的调用时机问题,按卡 a 卡用户都受益。四月 四号推出零点二、零点二版本就一个改动,打开欧拉玛桌面 app, 以前进去是个启动页,现在直接就是新对话界面,就这一件事,但下面点赞的人还挺多的, 这种小细节确实影响每天的使用感受。零点二、零点三是四月七号,也就是今天刚出的这个版本, jam 四的工具调用又进一步打磨了, app 里的模型列表也 从不更新了, jam 四直接能在界面里找到,不用自己去查命令。另外修了 open call 启动 t u i 的 一个问题, 终端用户应该有感。最后说说零点二,零点四现在已经到 i c r 了,预计很快正式发布这个版本。最值得关注的是苹果 m 的 性能优化,用了一个叫 n a x 的 技术,专门针对 m 芯片, m 五设备的推理速度会有提升。是 m 四在 m l x 路径上的 flash tension 也补全了, m 系列芯片的用户这次能完整享受到这个优化。另外,奥拉玛奎埃的这个命令也做了一次清理,修复了从已有 safeton 模型创建时的问题, 有自定义模型导入需求的用户可以留意一下。目前稳定版零点二、零点三已经通过自动更新推送,如果想尝鲜零点二、零点四的,可以去 guitar releases 手动效 rc 二试试。好,今天的内容就这些,我们下期见。

哈喽哈喽,我是大海,很高兴和大家见面了,今天咱们来讲一个 open 可乐小龙虾的替代方案,它呢比小龙虾安装更简单,使用更方便,而且很有可能在你本地配置不高的情况下,速度还更快, 程序员朋友肯定一眼就认出来了,咱们使用的是 vs code 的 客户端,搭配了一个 clean 的 插件,然后咱们大模型呢,使用的是咱们本地的欧拉玛跑的大模型,而且今天大海将给大家介绍一个新的一个模型啊, 为什么说这套方案它能够替代小龙虾呢?小龙虾之所以厉害呢,主要是取决于两个,一个是它的长上下纹,带有记忆功能,还有就是它能够对工具进行一个调用, 但是呢龙虾它安装起来是比较复杂的,而且如果说咱们本地的这个电脑配置一般的情况下,你开启这个龙虾就要有一个 linux 的 环境,不管是用虚拟机的方案还是 wsl 的 方案,它都会去占用咱们系统的一部分性能。 那么如果说本地电脑配置不高的情况下,我们还要跑本地大模型,那么龙虾他对话起来就会非常的卡顿了。那今天给大家介绍的这种方案 vs code 呢,本身他是程序员去敲代码的这样一个工具,但是只要你给他加装了一个 clean 这种能够调用工具的 插件上去的话,那你也可以直接实现和自己的这个编程工具进行对话,不管是日常我们的文档管理啊,你和他对话,让他帮你完成一些事情啊,联网搜索呀, 还有包括我们的一些 i m c p 的 工具啊,使用浏览器啊,甚至说拿这个工具帮我们制作一些自己本地的软件,或者说帮我们进行一些网站开发,它都可能能力比那个 openclo 还更强,因为它日常是我们程序员朋友去使用的一个工具,相信程序员给自己设计的这个东西一定是差不了的。 这个本地模型呢,依旧是千万三点五的一个量化版本,但是这个量化版本呢,它强就强在它是用这个 cloud 四点六 opus 去蒸馏过的,所以它在逻辑推理方面以及这个工具调用方面都是比较强的, 而且在奥拉玛的官方可以下载各种量化版本。我这里呢今天使用的是一个四 b, 你 可以看到它总大小只有五点三 g, 我 可以轻松的把它装进我的显卡当中,哎,这样跑的速度也是可以的,可以接受的。 我们直接来让他帮我们执行一个任务,执行完任务之后,我们再给大家详细的讲如何的安装我们的软件插件,以及如何配置我们的模型接口。好吧,我这里直接给他一个开发软件的小人物,相信这个难度呢,对于咱们本地模型来说还是有点的。 帮我生成一个桌面小软件,点击开启一个秒表计时器,鼠标的左键呢,开始计时,右键啊,这个时间暂停。我们把这个命令呢发送给他, 可以看到他的第一个动作就是去连接我们本地的那个欧拉玛,我们可以看到他开始分析了,用户需要一个桌面秒表应用功能,包括左键开始计时,右键暂停。我将使用 python 的 什么库来创建一个图形界面应用,你会看到他会有任务分解这样的过程,对吧? 创建 python 秒表应用,实现左键开始计时功能,实现右键暂停功能,显示计时时间,添加重置功能,测试应用。然后接下来呢,他将创建一个基于他的应用好,他开始了,然后呢, 它会自动去安装需要的一些插件和环境,这个就是这个 cleen 的 强大之处,它和小龙虾其实是 差不多相同的,但是你会看到它是基于 vs code 的 这样一个编程的 id 工具来实现功能的,所以它在安全方面做的是很好的。同时呢, 他在系统级的去调用一些工具的时候,也是比小龙虾可能更得心应手。比如说去创建文件,去修改文件,可以看到他这里的对应的文件的代码已经生成了,但是他需要我们去批准,他的一个动作就是批准他要创建一个新文件,可以看到这就是我们这个 ms code 加上 clean, 它对于安全的一个管控,一些关键性的,比如说关于文件增加修改这些东西,它都会来询问我们的意见,那我们什么都不用做,只需要点击,哎,是不是要保存,是不是要去执行就行了?点击保存 好,你会发现他这里说这个 u v 已经安装了,但必须重启 vs code, 他 才能实现。他的这个功能可令他自己想到了一个对策,就是说,呃,不需要说是去安装 python 环境了,他给咱们创建一个这个 html 的 界面,一个网页端的桌面程序,也能实现对应的功能,那我们看他接下来要怎么操作啊? 好,他又来让我们创建一个新文件,这时候我们点击保存,其实我已经能在桌面上看到这个文件了啊, stopwatch 啊,就是秒表啊,他说文件已经创建成功,现在用浏览器打开测试,然后呢,他说是这个需要我去批准浏览器的权限,我批准,如果说你不想点这么多的这个批准的话,你可以展开这个 批准这管理这里。哎,把他想要的权限去给他勾上,他就不会每次都让你来批准,比如说我这里把使用浏览器以及编辑项目文件都给他勾上,大家要注意,这里的读取所有文件和编辑所有文件是不能随便去勾的啊,有可能对你其他的文件造成问题,但是去编辑和读取项目文件是没有问题的。 好,这里我们也不等他自己去测试了,我们来手动测试一下,我直接去开启这个对应的秒表,按照咱们的这个规则是左键开始, 然后右键暂停,没问题,然后还能重置。这个整体的功能是实现了,而且样式大海也非常的喜欢,而且大海也正需要这样一个应用,但是呢,我还是想要一个桌面级的应用,所以这里呢,我给他关闭,我跟他说 python 已经安装好了,请帮我生成桌面用的程序, 你看他要制定了新的计划。针对我这个安排,他说用户 python 已经安装好了,让我重新生成桌面程序,我需要一检查 tony 的 这个 keep 是 否可用,然后呢?来安装一个依赖,然后再运行秒表程序。好,所有的任务终于已经跑完了,我们来看一下它这个实际的效果怎么样啊?桌面上出现了很多文件,我们就点最后这个启动秒表啊,确实是出来了啊,然后左键点击 右键暂停功能也没问题,当然我觉得这个界面也太丑了,对吧,不如这个 html 写出来的还是比较难的啊,不过幸好是两个都能用, 那么相信看到这里呢,大家已经能体会到这套工具加上本地大模型的强大之处,那么接下来大家就跟上大海的脚步,我们一起来安装这套方案。首先呢是去 vs code 的 官网下载它的安装包,我们这里直接点击 download for windows。 好, 这个速度也是非常快,下载好了之后呢,我们直接打开文件, 同意此协议。下一步,那这个地方可以自由的选择你安装的位置,下一步,下一步,那这里可以自由的选择是否把这个 code 添加到上下文菜单啊?我这里不添加,我点击下一步, 然后接下来我们点击安装,然后这样呢我们就完成了 vs code 的 安装,我们点击完成在打开的这个界面呢,他默认是一个英文的界面,如果说你习惯用中文的话,点击左面的插件市场,我们在这里搜索一个中文,那这里我们可以看到一个中文简体的语言包,我们去给他安装 啊,然后他右下角就会弹出来,改变成中文,然后重启,我们点击好,这时候我们打开整个界面,就变成一个中文界面,接下来咱们依旧点击左侧的这个扩展, 然后呢我们在里头搜索咱们今天要用的卡拉 ok, 他 会给我们非常多的版本啊,如果说你是习惯看英文界面的话,你就安装这个原版,下载量是最最大的,如果说你喜欢中文的话呢,咱们下载量还挺大的。卡拉 ok, 我 们安装 信任发布者和安装好,很快他就安装好了,然后呢我们可以把这个窗口往右拖一拖,对吧?啊,这个地方点击标记已完成,这里呢我们可以选择前按模型,也可以选择自带 api 的 密钥。如果说你是用的云端大模型啊,你有比如说 到的四点五或者 g p t 五等,你就继续,对吧?这里我们使用自己安装的大模型,我们就自带 api 密钥继续。然后 api 的 提供商呢,我们这里选择 open ai 的 啊,也就是兼容 open ai 格式的啊,接下来呢就输入基础 u i l 和兼容的 api 密钥,我们就可以继续开始使用了。 如果你还不知道如何去安装这些软件啊,不花一分钱在咱们的本地安装大模型来调用的朋友呢,去看大海之前的这些视频补一下课啊,相信呢,你也能学会如何的去安装。那么接下来呢,我就先从奥拉玛开始,首先打开本地的奥拉玛,然后这里呢,我去选择一个本地已经安装好的模型,打开了之后我们可以先在这尝试 和他对话啊,看正不正常,可以看到他这个对话方式,他是有一个思考过程的,对吧?然后接下来呢,我们是去设置一下对应的这个欧拉玛,这里我们去把他的上下文长度给他加到一百二十八 k。 然后接下来呢,我们去浏览器访问一下欧拉玛的本地的服务, local host 单口号呢是幺四三四,哎,可以看到我老马一直装,你没问题。好,接下来呢,咱们再给他后头加个斜杠 v 一, 然后继续斜杠啊 models, 哎,这个时候我们就可以得到对应的这个 id 啊,这个是一会我们要填的。好,接下来呢我们就把这个 到 v 一 这里啊,不要加 models 复制起来,然后到我们刚才的这个位置啊,基础输入的 url 啊,这个 v 一, 然后呢 a p i 这里我们可以随便输,比如说我这里输一二三模型的 id 呢,就是咱们这里已经打印出来 复制粘贴,然后这时候我们点击继续啊,把这个地方擦掉,然后呢我们来试一下和他打个招呼。嗨,你好,那奥拉玛这里呢,我们可以关掉这个窗口,只要他在后台运行就可以了。 好,只要他正确的回复了你的要求。你好,在的,我有什么可以帮助你?我可以帮你干嘛干嘛干嘛。那么咱们这个设置呢就已经好了,你可以开始和他对话了。 那么咱们今天视频到这里就结束了,相信大家也能通过自己本地的 vs code 加上 client 这个很好用的插件来实现我们本地大模型的调用,去帮助我们真正的解决一些实际的生产问题。好吧,那咱们下期节目再见,拜拜。拜拜。

hello, 大家好,我是阿江,今天给大家分享的视频是在 cc 里边如何免费使用这个 deepsea 的 新模型。 首先我们需要下载这个 cloud code, cloud code 就是 你打开你的这个命令行,比如说你是 windows, 你 就把这一段粘进去就可以了。 如果你是这个苹果,你就把这个命令粘进去,它自己去安装了。安装之后让我们找到一个目录,直接输这个 cloud, 它这边就可以了,具体的就可以上网上去查一下教程,这个非常简单,上次我推荐那个 o b 去启动这个 cloud 的 时候,小伙伴问我如果有中转站或者是有其他的是怎么去配?我们这边需要用到一个工具,就是这个 cc switch, 可以 在这去下载适合你的这个版本, 像我这个就是 windows 版本的。我们今天免费用这个 deepsafe 是 通过这个平台摩塔的话,它免费提供一些额度,我们直接就是在我们这库里找到我们想用的,比如就 deepsafe 吧, 等它进去之后,它这儿会有一个查看代码视例,它这边就有你的 key, 你 把这个 key 复制,这是你的 key, 这是你这个 u l l 的 链接,就是对应的是这是你的 key, 这是那个链接。配置好之后, 可能有的人没有,你把这得点开,有的人会这块会被被折叠,你点开它有一个获取模型列表,可以获取到六十三个模型,我们要用的那个模型,往后看,这是 d 和 c flash, 我 们就用这个 flash 吧,它速度非常的快,我们就把这些主模型啊,这个海库啊, smartnight, opus 都配好 好之后点保存去测一下就是配置,配置好起用之后直接点可乐,他这边就运行了,所以就是大家想免费尝试的话,可以通过这个摩塔还有 cc switch 在 可乐里边使用。 ok, 那 这期视频就到这,如果各位小伙伴还有什么关于 ai 想要了解的内容,欢迎在我的视频下方留言,拜拜!

你知道你的电脑自己可以跑 ai 吗?不用联网,不用花钱,打开就能用。我电脑上装了一个叫奥莱姆的软件,装了一个 ai 模型,断网的状态下照样帮我写文案,回答问题,分析数据,跟网上那些一个月几十块的 ai 会员用起来没有任何区别, 唯一的区别就是它免费。怎么装呢?第一步,浏览器搜索奥莱姆官网下载安装。第二步,在命令行输入 饿了么 pro 千万三,等他下载完之后的话呢?第三步,打开就能用了,全程五分钟,不花一分钱。工具是免费的,省下来的钱投资在自己身上不香吗?