粉丝370获赞1.3万

一分钟让你搞清楚关于全球最强开源模型 jam 的 一切。最近谷歌开源了 jam 四,我将用四个问题 让你清晰了解关于 jam 的 一切。 jam 各版本的区别,我家的电脑能用吗?模型怎么部署安装?普通人用来干什么?先说他的四个版本,三一 b 直接冲上全球开源 ai 榜第三名,以前要机房才能跑的能力,现在你家里的高端游戏显卡就能搞定。 轻量版的一二 b 和一四 b 为手机、平板以及中低端电脑设备打造,性能虽不是最顶级,但是绝对好用够用。而二六 b 猫号称总参数两百六十亿,但实际每次思考只用其中三十八亿个,最相关的效果却能媲美两百六十亿, 能理解超长文章以及视频。简单说,无论你是用手机、笔记本还是高性能电脑, jam 四都能给你免费安全强大的顶级模型体验。再说你家里的设备是否能用上?一张图告诉你 jam 四个版本的最低要求。 对于多数人而言,家用的电脑设部署一二 b 一 四 b 完全够用,基本能满足百分之九十的使用场景。另外两个版本对内存要求较高,但是性能出众,属于好马配好鞍。 再说模型安装,整个过程大概十分钟左右。首先下载 lm studio, 然后打开 opencool 或者 id 工具,让它查找你本地配置,给你推荐安装哪个版本。之后在 lm studio 里下载,运行搜索推荐的模型名点下载,最后接入 opencool 或者 i d e l m studio, 提供 open ai 兼容 api, 在 open 框里把 api 地址改成, h t t p l o c a o s t colon twelve three four slash vivo 就 能用 jama 四驱动你的 ai agent 了。 网上攻略一大堆,这里就不展开了。最后说下所有人最关心的能用 jama 做什么?这里推荐三个场景,可以去试试。第一, 构建本地知识库,把工作和学习相关的文件丢给本地 jama, 让他帮你形成系统化的知识。构建个人知识库时进行向量缩影和 anitive, 解锁数据不出本地,安全合规。第二,给家人搭建一个 ai 助手,下载好模型,配个界面,电脑手机都可以直接对话,不花钱不泄露隐私。第三,内容创作 最大优点是无限额度,即便不如部分付费模型,但可以靠大量尝试提升优质内容的概率。千马寺会改写国内企业及政府客户的私部模型格局吗?欢迎在评论区发表你的观点。

谷歌终于坐不住了,正式卷开源市场, jm 四的效果到底如何呢? jm 四的发布啊,真的有可能让我们实现头很自由。这期视频呢,老张给大家简要介绍一下 jm 四怎么安装到本地,以及如何搭配到我们的 open klo 大 龙虾上, 附带所有的安装步骤啊,大家可以一起来体验一下。后续呢,老张也会根据测评效果给大家接着发视频,这期是我们完整的部署流程,老张重点给大家简单聊一下,就是为什么 jm 四的发布啊,会让大家感觉谷歌真的开始卷起来了呢? 首先第一点,他和目前谷歌的 jimmy 三用的是相同的技术基座啊,所以说他的能力是毋庸置疑的。第二点就是商业自由,你直接部署下来做什么都是可以的,都是允许的。然后第三个就是支持多模态,无论是文本、图像甚至小规模的视频音频, 他都可以直接支持。第四点就是结合前段时间爆火的 open klo, 他 可以直接在本地对接 open klo 以及对接 klo 的 code, 实现本地的偷根无线化。这是老张给大家总结的四点,为什么詹姆斯的发布会让大家感觉,哎,可能真的要进入到一个新的纪元, 然后呢,他所发布的这四款模型呢?老张给大家做了一张图片啊,大家可以到时候把它截下来。第一个模型一二 b 的, 他本身是用于手机或者边缘设备八 g 显存, 然后最高端的三十一 b, 他 所对应的旗舰版本呢,是对应的是二十四 g 加,所以大家根据你的需求来进行对应的模型选择。老张这次视频呢给大家来看一下三十一 b 的 这款模型的安装, 然后关于本地的安装部署啊,其实非常简单,任何开源模型,其实我们只需要让他和欧拉玛就是那个小羊驼结合到一起就可以了,然后找到你符合要求的版本。安装成功之后啊,欧拉玛现在已经有了一个完整的应用端了,所以大家可以直接在这个位置和他进行对话交流。 那我们想要下载 jm 四到你本地的电脑上,我们可以使用它的官方指令,会告诉我们直接怎么样去进行 jm 四的对应安装,像老张想安这个三十一 b 的 对吧?我们就把它拿过来, 把它直接这有一个 c l i 命令行安装方式,把这个东西直接复制在你的开始菜单中,单机右键选择运行输入 cmd, 直接把刚才指令粘贴过来,这儿的时间会很长,因为它有二十个 g 的 大小,我们直接稍作等待 安装成功之后,我们也可以直接回到它的客户端中,在模型选项上找到我们安装好的詹姆斯冒号三十一币, 然后可以直接进行对话。老张他处理一个较为复杂的提示词,我们让他看一下当前显存的内存消耗, 咱们拿这个 ai 慢距的提示词来测试啊,这个提示词非常的长,我们看一下他读取提示词的能力,以及他的这个显卡的性能消耗,我们看一下啊,这个显存直接拉满的,达到了百分之九十四的占比, 而且这个响应速度还是非常快的,只需十一点七秒啊,就把整体的业务流程给我们直接补齐了,而且呢按照需求给我们进行了对应的提问,要什么样的慢距效果,所以说以目前的测试反应来看呢,他的这个响应速度起码要比之前的很多大模型要好的多, 所以接下来我们自己来尝试一下对话类的工具,可能大家都不是很需要的,我们能不能把它接入到我们的 open clone, 丢到我们的龙虾里,让它们俩来进行联动的。然后这期视频呢,老张顺便给大家提一下,就是最新版的 open clone 的 部署流程 啊,咱们可以快速的去过一下一些重点的细节,因为之前老张发过很多期的部署视频一块的呢,因为它本身啊, wsl 它是相当于在 windows 系统上安装一个 linux 的 独立系统, 这样的话呢,就直接相当于在你电脑上安装了一个独立的存储空间,它所谓叫做沙盒安全,而且运行起来呢是不会有任何的兼容性的对应问题的,因为 windows 中啊,它的权限呐,路径等经常会报错。所以说我们这 期视频重点教大家怎么用 wsl 进行 win opencl 的 部署安装,这样的话, windows 和 wsl 的 安装您都了解之后之后学起来就非常方便了。 然后接下来呢,老张给大家简单的介绍一下在 wsl 中如何安装我们的 openclaw, 因为之前呢,咱们介绍过太多次了,很多兄弟留言说老张就别介绍怎么安装了,然后我们就给大家简单说一下注意事 项。首先第一呢,你想在 wsl 上安装 openclaw 的 话,第一点你得先在你的 windows 系统下把 wsl 安装一下,当然很多电脑老张发现其实都是自带的, 怎么检查是否自带呢?咱们可以直接输入 wsl 空格杠杠威森,如果弹出定的版本号,证明 wsl 电脑已经安装了,如果没有弹出的话,使用安装指令 wsl 空格 insert 直接安装即可。然后紧接着按照老张给你提供的指令复制粘贴就可以了。先安装你的优班图, 安装之后进行一下更新。安装完优班图之后啊,在这选择这个倒三角,找到优班图系统,就可以直接进入到你的优班图系统当中。 在你安装过程中啊,它会让你设置一个用户名和密码,到时候可能需要做一步密码验证。在优班图系统中,注意是优班图系统中运行这些环境指令,分别安装 python 三,安装一个压缩包工具,方便安装一个 node 点 ps, 然后再安装一个 get 工具。 如果说为了检测每一步安装是否成功的话,你可以分别输入,比如 note 杠 v、 npm 杠 v, 包括 get 杠 v, 在 这检测我们对应的这个版本。如果都能弹出版本号,证明你三项安装都是成功的,这是配置 openclo 的 基本的内容要求。 然后紧接着我们把基本环境配置好的兄弟,你还需要在这个位置安装一下这个欧拉玛。 这老张要重点说一下,说老张我不在本地都已经下载好欧拉玛了吗?为什么在优班图里还需要再配置一下?其实我们优班图中是可以调用本地的欧拉玛的,但是很多兄弟在调用过程中分别给老张留言说说调用时无论是 ip 地址找不到,还是 ip 的 动态变化,导致每次都需要重新连接,重新配置。 所以说最简单的方式就是把欧拉玛在你的优班图系统中再次的安装一遍。其实安装非常简单,只需要把第一步的安装指令复制过去,直接在这个位置直接粘贴即可。安装成功的检测方式很简单,你就输入欧拉玛, 如果他不报错还给我们对应的选项,是咱们是进行对话呀,还是怎么样的证明你的安装就是成功的? ctrl c 直接退出。 所以说欧拉玛安装之后,紧接着就是把我们的模型在当前的优班图中跑起来。老张刚才给大家测试的是 jm 四三十一 b 模型,我们直接输入指令欧拉玛空格 run, 然后你的模型效果直接回车,第一次时他会直接进行对应的模型下载。如果说你现在只想用 open klo 来调用欧拉玛的这个占四的话,可以在我们的本地电脑上把之前咱们那个桌面端给他 删掉,如果说你不你想两端都使用的话,就可以直接在这个位置进行使用了,然后发一个你好看一下响应速度, 嗯,响应速度是非常快的,所以接下来我们把这个家伙欧拉玛的詹姆士直接部署给我们的 openclo, 在 这怎么中止对话,摁一下 ctrl c, 再摁一下 ctrl d 啊,就可以直接进行中止对话了啊,所以说大家可以直接的把它退出来, 退出来之后我们在这儿部署一下 openclo。 关于 openclo 的 安装呢,官网推荐是使用 c o r l 这种安装方法,但是老张发现很多兄弟在使用这种安装方式时呢, 出现了这个网络问题,导致下载出现卡顿,如果说 c u i l 的 方法报错的话,直接使用 n p m 安装也是完全可以的,安装完之后直接输入 open klo 空格杠 v 来输出最新的 open klo 的 对应版本啊,这就是老张跟大家说的一些建议啊,大家按照这个要求去做就行了。 然后接下来我们进入到配置,直接是直接输入它的配置指令回车,选择 yes, 然后选择快速开始就可以,我们直接配置一下模型, 然后选择更新,这选择谁呢?选择这个欧拉玛啊,然后选择默认的这个 ul, 选择本地模型,让他去给我找一下咱们本地有哪些模型,稍作等待 好,选择当前的这个模型,咱们四三十一币,然后配置我们的聊天软件啊,这个老张之前讲过太多太多次了,现在呢,他又支持了很多,包括 qq 之类的,大家有需要的话可以按照之前老张的教程再来一遍,我们先跳过 打开之后啊,就可以直接对话。但是如果说善于观察的兄弟们也发现了,老张呢把这个使用模型呢换成了这个一四 b 的 模型,不是那个三十一 b 的, 因为三十一 b 呢,老张在测试的时候也好,或者在一些使用时候也好,他有的时候会出现这个连接超时的问题,也是 oppo klo 更新到最新版本出现了一个能启动问题, 这个呢,老张现在还没有特别好的解决方案,所以说我先用一次必得给大家进行演示,发一个,你好,我们来测试一下他的响应速度啊,还是比较快的。 然后接下来呢,我们再把之前的那个慢句的提示词发送过来,我们来看一下他能不能更好的帮我们去进行慢句提示词的对应理解,以及对应的相关反馈。 嗯,其实我们看到啊,他反馈的这个结果呢,和三十一 b 相比啊,真的是有一定差距的,但是呢,确实也是另一方面实现了我们所谓的叫偷根自由。 大家呢也可以后续啊,去测试一下怎么让本地如果你的显卡够用的话,把这个大模型给它跑起来。然后老张呢也会及时给大家更新,无论是在评论区中还是视频中教大家如何使用。我是程学老张,定期分享 ai 好 用知识,希望大家多多关注。

大家好,本期内容我来分享如何在本地部署谷歌新开源的多模态 ai 模型代码四,我会分享命令行和格式化界面两种安装方案,零基础也能轻松搞定。 最后我还会教你如何修改部署的路径,彻底解决大模型占用 c 盘的问题。本地部署的优势就是你的数据可以完全保存在自己的电脑上,隐私安全有保障,而且支持模型微调, 可以打造专属的 ai 助手。但是他也是有缺点的,就是我们需要稍微懂一些技术,还有就是硬件的支撑,如果电脑配置高,自己可以部署折腾一下。有了本期视频,就算你不懂技术,跟着视频操作也可以部署成功。 本期演示我只分享入门版本,主要就是参考部署的方法和流程。接下来我手把手带大家用欧拉玛一键部署。 首先我们先来了解一下 jam 四到底是什么,它是谷歌新发布的开源多模态的 ai 模型,与 jimmy nay 是 同源的。 简单来说,谷歌就是把自家的 ai 技术打包成了一个免费开源的版本,让每个人都能用上。它的能力是非常全面的,支持文本交互、图像识别、音频处理,还能生成代码, 基本上覆盖了所有的 ai 应用场景。下面我们再来看一下它的核心优势。核心优势它有三个,第一个就是多模态能力,文本、图像、音频代码,一个模型全部搞定。 第二个就是完全免费,它没有会员订阅,没有暗次收费,可以随便的去使用,甚至用它去开发商业化的产品。第三个就是比较重要的隐私安全保障,本地部署模式下,所有的数据处理都在自己的设备上完成, 敏感信息不会上传到云端,这是三大核心优势,就是在我们安装之前,需要我们了解一下这个安装环境。首先系统兼容性 demo, 四是支持 mac os、 linux、 windows 三大主流操作系统,基本上覆盖了绝大多数的用户。 然后就是内存要求,如果你的电脑小于三十二 gb, 推荐安装四 b 版本,自己安装体验折腾一下就可以。如果你的内存达到或超过了三十二 gb, 那 就可以选择二十六 g 或三十一 g 的 版本。 在这里有一个小提醒,就是如果是 mac 电脑 m 系列的芯片,它的显存和内存是合二为一的,大家直接看内存就可以。如果大家不是 mac 电脑,比如 windows 或者 linux, 那 么就优先看显存,显存不够再看内存,这是关于这个配置的查看。像这个本地部署也非常简单,仅需两个步骤即可完成。第一个就是安装欧拉玛,这个欧拉玛就可以理解为是本地大模型的一个容器, 它是装大模型的,有了它才可以运行。第二步就是我们容器安装好之后,我们需要给它把模型放进去,就是部署模型,两个步骤即可搞定。下面我们直接进入实操环节,我们来一起看一下部署的全部流程。 在这里第一步我们就先要有这个欧拉玛,他是一个大模型的容器,就是我们打开之后选择右上角的 download, 这时候我们就需要选择匹配自己系统的版本,在这里我这是 windows, 然后我们选择 download for windows, 在这里选择 download for windows 之后就会弹出窗口,我们选择路径直接保存就可以,当下载好之后,然后我们就安装即可,安装好之后打开就是这样的主界面,这个是我之前安装的版本,部署着一个一点五 b 的 zip, 然后下一步就需要我们去选择大模型,我们还来到刚刚乌拉玛的这个界面,在这里我们选择左上角的 models, 然 然后在这里我们可以看到该马四,然后我们选择进来,它提供了好多个版本,在这里我就选择一个入门的版本,主要就是演示安装的流程,比如我们选择 e 二 b, 然后我们选择,这时候我们就看到了这个安装命令,选择右边的这个两个方框,然后选择 copy, 然后下一步 我们就按键盘上的 windows 加 r 键,这时候出现运行窗口,然后在这里面输入 cmd, 然后直接回车, 回车之后就出现了这个命令窗口,然后我们刚刚复制了直接鼠标的右键,可以看一下,这个命令就粘贴过来了,然后我们直接 回车好了,这时候它就开始部署到本地了,在这里我们需要等待一段时间,好可以看一下出现了 success 这个提示,就证明安装成功了。现在我们在这里可以直接和它对话,比如我们输入你好当前什么模型,然后我们发送 可以看一下,他现在回复我们了,我是一个大语言模型,我叫 jama 四,这时候我们就在本地已经部署成功了, 然后我们再回到欧拉玛的客户端,在这里在这个对话窗口右下角这里,这里可以选择模型,然后我们找到刚刚部署到本地的 jama 模型好了,这时候就切换好了。同样在这里我们也可以直接和他对话,比如我们输入你好,然后发送, 这时候他就回复我们了,你好,很高兴和你交流,请问有什么帮助到你的?到这里我们就已经部署成功了。前面我们分享的是使用命令行 c l i 模式去部署,其实还有一个简变的方法, 在这里我们还可以选择模型后面对应的这个按钮,也是可以直接部署的,这个是非常方便的。好,最后我再分享一个大家比较关心的问题,就是我如何设置这个本地模型的一个部署路径, 在这里我们也不用去改环境变量了,这个客户端是直接支持的,我们选择左上角的设置,然后在这里选择这个 model location, 在 这里我们就可以去设置模型的一个保存路径,在这里大家自己设置就可以,是非常方便的。 好,下面我这里演示的是上传了一张图片,就让他识别这张图片,我们一起来看一下他给我们的结果,好了可以看一下,我们给了他一张图片,我们问他这是张什么图片,他给我们的回复, 这是一张符号或者是图标,然后他还分析了主要包含的元素,还有用途预测等等,能够精准的识别内容,并生成详细的描述, 表现还是可以的。好了,现在我们本地部署成功了,然后刚刚我们也做了一个功能测试,第一个就是我们和他对话,就是文字处理,第二个测试的就是这个图像识别,他也是可以精准识别的, 他虽然是多模态的,但是目前我们用的这个容器不支持多模态的输入,我们暂未测试音频和视频的识别。好,最后我再补充两个细节,就是第一个欧拉玛的拓展性他是非常强的,除了可以部署这个 demo 四, 还支持比如通用签问或者是 deepsafe 等众多的开源模型,部署方法也是完全一样的,一条命令就能去部署。第二个就是本地部署的真正价值不仅仅是隐私保护,更重要的是支持模型微调, 可以用自己的数据去训练模型,打造一个完全专属的 ai 助手。好了,这就是我们本地部署的所有内容,大家感兴趣的可以自己折腾一下,探索更多的玩法。好了,我们本期内容分享就到这里,可以留下你的想法,我们下期再见。

今天我将跟着大家一起本地步数加码四,接入 open core, 彻底告别托肯焦虑,接下来跟着我操作。 这里我们先进入 elama 的 官方网站,进入官方网站过后,我们直接点右上角的 download 下载,我们这里是 windows 系统,选择下载 for windows, 点击这里, 这里就等它下载好。下载好之后,我们这里就直接双击运行,这是它的安装界面,我们直接点安装这里,等它默认安装好。 好了,这里 elama 就 安装好了。然后我们到这个地方 elama 的 官方网站,选择 models, 这个地方选择 command 四, 然后这里我们选择我们的模型,这个模型的选择我们根据我们的显卡显存大小来选择。我们这边看一下我们的显存是多少, 这里看到我使用的是四零七零的显卡,显存是十二 g b 的 显存,十二 g b 的 显存的情况下,我们可以选择这个九点六 g 的 模型,这个一四 b, 这个我们直接点进去,选择一四 b。 点击进去过后,我们直接复制这条命令,然后运行一个 cmd 窗口, 直接粘贴这里,它就会欧拉玛会自动地给我们安装这个模型。呃,这里等的时间是比较长的, 这里模型已经下载下来,并且运行起来了,我们向它发送一条消息,试一下你是谁, 反应还是可以的,这就跟了我们信息回答了。好了,在这里过后呢,我们就可以把这个窗口关闭掉, 关闭掉过后,在 lama 这个地方我们去选择这个模型,在这个位置也就可以和它进行通话了。 比如我们问他一句,你可以帮我做些什么, 他已经帮我回答了,在这里呢,我们因为我们是在本地虚拟机上安装的,所以而且我们为了方便以后可以在其他计算机上也可以调用,我们在这地方设置这个位置 点,这个位置点设置这个允许在网络上运行,把它开起来点了就可以了。 好了,我们下一步就开始配在 open core 上配置啊,在这里我们进入虚拟机之后,我已经执行了 npm i, 刚接 open core 全曲,安装 open core 的, 我们这里可以执行一下 mini, 看下我们安装的版本。 openclock 杠 v 是 安装的最新版本二零二六点四点五版本,然后我们执行 openclock on, 在 这里我们进行一个调试,这个地方我们 yes, 这里选择快速,这个地方它是让我们选择大模型,呃,大模型它这里有,我们选择本地的这个位置点确定 这里我们直接就选择本地的,不要选云,上面是带云端的,就选择本地模型。 这地方让我们选择模型,我们选择这个,这就是我们刚刚这个就是我们刚刚下载好的模型,就是 直接回车。等一下, 这里让我们选择通讯工具,我们这直接跳过,暂时不管这个,直接跳过。 呃, scale, 我 们这边也选择否先进行最简单的安装 网关,我们就直接重启, 选择 open ray web ui 好 了,我们看一下 open core 运行起来了没有。 open core getaway style sta 好了,已经运营起来了,我们进去看一下, 这边需要 token, 我 去看一下 token 是 多少,关于 token 的 话就是我们,我现在是在虚拟机里面安装的, 我要重新打开看一下,在虚拟机里面安装,我们就直接去通过这条 mini 访问我们的虚拟机, wsl 的 虚拟机访问,然后无斑图选择 home 目录,选择我们的用户, 然后这里选择点 opencloud 这个文件夹,然后这一个 opencloud json 让我们看一下,到 git 里面去,这个地方就是我们的 talking, 复制粘贴下来到这个地方,点连接好了,我们尝试给他发一条消息,你是谁? 在主位置这个地方,我们可以看到这地方是我的模型。 我再问他一条消息,你现在使用的是什么模型? 看这里已经是我当前运行的模型 工具,在这里我们就可以看到了,我们现在整个 open call 来使用的是我们本地模型,就不需要去购买 token 了。好,今天内容就这么多,谢谢大家。

嘿,大家好,想没想过在自己的电脑上就能有一个超强的人工智能助手,而且重点是完全免费。今天啊,我就手把手带大家走一遍,看看怎么把谷歌最新最厉害的那个开源模型 gemma four 装到你自己的 mac 上。 咱们平时用那些云端的 ai, 像是 cloud 什么的,确实挺爽的,对吧?但问题也来了,首先就是太烧钱了,那个 api 的 token 消耗啊,简直就是个无底洞。 而且你想想,你所有的数据都得传到别人私服期上,隐私这块总有点不踏实,更别提万一断网了,那就直接歇菜了。 不过呢,好消息来了,谷歌这位赛博菩萨放出了全新的 j 马四开元模型,这什么意思呢?意思就是我们能直接把他吓到自己的电脑上跑。 你想想,这一下就解决了所有问题,完全免费,再也不用担心 token 即费了,数据全在自己电脑里,绝对安全,而且就算没网,他也照样能用。 我知道,一听到部署命令,可能有点头大,但你放心,整个过程真的特别简单,对新手超级友好,基本上就是敲几行命令的事,咱们分分钟就能搞定 好。那咱们先来准备一下工具,你看屏幕上,左边这个叫 c m u x, 右边呢,就是你 mac 电脑里自带的那个终端。说实话,对于咱们今天这个事,你根本不需要装新的东西,直接用系统自带的终端就行了,超级方便。 接下来这个是咱们今天的核心工具,叫欧拉玛,你可以把它想象成一个嗯,一个专门给本地 ai 模型准备的应用商店。有了它下架、运行管理这些大模型就变得特别简单,后面我们还会用到它来,一键安装像 open crawl 一 样的神器, 安装奥拉玛也是一条龙服务。你看,就这么两步,第一步要是你电脑上还没有烘不入,得先装一下。装好之后,第二步就更简单了,打开你的终端,把这行命令复制进去,一回车他自己就全搞定了。你现在可以暂停一下,先把这一步给做了。 等他跑完,你在终端里应该就能看到这个提示。看到这个可爱的小羊脱挑标和 successfully installed 这几个字。看到这个就说明,恭喜你,最关键的一步已经成功搞定了。 好工具,咱们装好了,那接下来就到了激动人心的选模型环节了,得给你的 mac 挑个最合适的接码。 哎,这个问题很重要啊,因为 jamart 它有好几个版本,不是随便选一个就行的,你得看看自己电脑的内存有多大,选对了跑起来才顺畅。 你看这张表,一目了然。我教你一个特别简单的判断方法啊,就是确保模型的内存需求最好不要超过你电脑总内存的一大半,这样能留出足够的系统空间。 比如说你的 mac 是 三十二 gb 内存,那选这个三十一 b 的 满血版,它大概需要十七到二十 gb 就 完全没问题,跑得动。如果你是十六 gb 内存,那可能就要考虑二十六 b 或者更小的版本了。 好,决定好要哪个版本之后,咱们就可以开始下载了。还是在终端里先敲第一行命令, open 杠 a alama, 这是为了把 alama 服务在后台跑起来,然后再输入第二行, alama run gemma four, 杠三十一 b。 你 看,我这里用的是最强的三十一 b 版本做示范,如果你选了别的,就把最后的三十一 b 换成你选的那个版本号,比如二十六 b 或者四 b。 很 简单吧, 敲下回车,你就能看到这个下载进度条开始动了。这个三十 e b 的 模型还挺大的,差不多十九个 g, 所以 具体要多久,就看你家网速给不给力了。可以去泡杯咖啡,耐心等它一会儿。 好,最激动人心的时刻到了,下载完了,咱马上就能跟它聊起来了。下载一结束啊,欧拉玛就会自动把模型加载好,当你看到屏幕上出现这个 send a message 的 提示,就说明成了 gemma four, 已经在线等你了。 哇,太棒了,我们成功了!你看,我就随便问了他一个问题,你是谁?他马上就回答了,最爽的是什么?是,这一切都是在我自己的电脑上拷的,完全离线,完全免费!那个凡人的 token 机飞表永远都是零。 当然了,可能有的朋友不太喜欢在这种黑乎乎的命令行里聊天,感觉不直观。别担心,咱们刚才装的欧拉玛,它其实也是一个正经的 app, 你 去你的程序屋里找,就能看到这个可爱的小羊驼图标, 点开它就是一个非常清爽的聊天界面,你可以在里面直接选键盘四模型,然后就像用普通聊天软件一样跟它对话了。 好了,基础的聊天我们已经搞定了,但接下来才是真正好玩的部分。咱们可以给这个本地 ai 来个大升级,用一个叫 openclo 的 东西,把它变成一个超强的智能体,也就是 agent。 你 可能觉得,哇,听起来好复杂,但实际上呢?借助于 alama 的 强大,这事也简单到离谱,你猜怎么着?还是一行命令就搞定 你?运行这行命令之后啊, alama 就 会自动帮你把 openclaw 下载配置好。然后最关键的一步来了,他会问你要用哪个模型来当这个智能题的大脑。那还用问吗?当然是选我们刚刚装好的 gemma four 啦! 这样一来, openclaw 就 拥有了 gemma four 的 智慧,可以帮我们干很多更复杂的事儿了。就 像原作者说的那句特别有意思的话,搞定这一步,咱们就算彻底实现龙虾自由了。呵呵,这个龙虾指的就是 opencloud 的 那个图标。这个说法真的太形象了,意思就是我们解锁了一个超级强大,而且还有完全免费的本地 ai 工具,想怎么用就怎么用。 所以你看到现在你的电脑里已经有了一个完全属于你自己的免费又强大的 ai 智能体, 他的潜力真的超乎想象,无论是帮你处理日常琐事,还是开发一些复杂的应用,他都能成为你的得力助手。那么问题来了,你会用它来创造点什么呢?特别期待看到大家在评论区分享你们的想法。

内存搞了四根八 g 的, 这个是显卡,联想的幺零六六涡轮卡,他在电脑上安装一个谷歌的这个 ai, 他 叫 jam 四,这是个本地的模型,可以离线跑, 就不需要联网。最开始我也疑惑,你这个 ai 怎么能离线跑呢?跟我们用那个豆包一样,不联网。他怎么回答问题呢?看了下这个文件大小,四点二 g, 五点九 g 的 不同的版本,十七 g, 十九 g, 这个本身是训练好的,各种乱七八糟的数据都存好了, 当然也有代价吃硬件嘛,他这个运转吃你的内存跟显卡,在线型的那种 ai。 gpt 豆包,他的安装文件很小,两百兆,三百兆,他让你问问题之后发给了云端服务器,消耗的是服务器的硬件资源,他运转好了之后再把结果顺着网线给你。反过来 这么一个过程当然有代价, gpt 可能要交钱,这离线模型你不用花钱买,那个什么头盔免费的。这里面四个版本,一二 b, 一 四 b, 还有三幺 b, 他的硬件要求都不一样,这个要求是最低的, 还可以在手机上面跑。搜了一下,主要是吃内存跟显卡,对 cpu 要求不高。我搞了个幺零六零六 g 的 显卡,就跑这个模型,一四 b 的。 到这个网站去下载 lm studio studio studio studio 工作室软件里面叫工具级的意思, lm studio stu d i o 回车第一个就是这个官网,打开好,这个是全英文的,右上角 download, 先给他下载下来, 点这个 download 和 windows 下载五百八十兆了,下载速度五点七兆还行。好,这个下载完了直接安装中文界面的,为所有人安吧。下一步路径我也不改了,直接安装 好,安装完成直接运行英文界面的,点这个 get start, 开始 我 gmail 四模型,不用专门下载,直接就跳出来了。还是一四 b 的, 直接点这个蓝色按钮, dongle 的 gmail 四一四 b 大 小六点三三 g 让它下载就可以了。这个速度还挺快的,可以让它后台下载,直接继续, 把它忘了删掉,不管他直接继续,这就是他的聊天界面。下载进度在这调成中文,点左下角这个小齿轮, app 浪轨迹,默认英语, 选简体中文关掉。啊,已经变成中文了。这下载速度一秒两兆多。还行,刚才那个界面没有这个模型的话,你可以直接搜这个小人头,点一下 搜索模型,加满四一 b, 一 二 b 都有看下载按钮不就在这吗? completed 下载完成。怎么加载?很简单,点一下这个播放按钮, load model 加载模型,这不就出来了,测一下这个识图功能怎么样啊? 这个 d 轮的话也是完成 paste 粘贴。这是啥发送?这在思考好,结果出来了, pet 聚酯纤维,没问题,没毛病。

哈喽,大家好,酷狗前两天刚刚发布了最新的大模型 gm 四,这个大模型它是完全的开源和免费的,能够在本地的设备上离线运行,我用了这几天,我觉得这才是二零二六年最合理的 ai 技术路线。 真正值得关注的是,呃,他的这个原声支持函数调用,这就意味着这个模型能够自主的使用工具,浏览网页,执行代码,调用 ipa, 相当于你在本地安装了一个智能体,全程也不用联网,也不用花钱,完全可以调用本地的算理。但是呢,很多人都不知道怎么使用,所以今天跟大家分享一下专门四的使用。专门四分别有四个不同的版本,分别是 e 二 b 四、 b 二十六 b a 四 b 和三十一 b。 这些模型大小各异,可以部署在手机、电脑和云端的服务器中,它非常适合文本的生成、编码和独立任务。这张图片呢,是谷歌官方的一个,相当于是个测评吧, 不同大模型之间的一个测评。我们可以看到这几个都是市面上比较好用的大模型,嗯,包括我们国产的 d c 克千万和 kimi, 还有那个 g p t, 我 们可以看到这是它们之间的那个性能的一个对比吧。嗯, nice 区域,我们可以看到这个是 g m 四,在我们传统的认知里,模型越大,参数越多, 它的性能就越强。在途中我们可以看到 g m 四的这个三十一 b 的 这个模型,在实战能力上竟然超越了千万的三点五,因为三十一 b 它只有 三百一十亿的这个参数。千位三点五呢,它有将近四千亿的参数,这两者之间的这个体积相差了十倍,所以呢,你可以看出这面四就是用十分之一的体积跑出了十倍体积的对手,那这就意味着你不需要再付 报的这个服务器的费,你在自己的电脑上,手机上就能够拥有世界最顶级的这个 ai 大 脑。然后我们看一下这四个版本的功能吧, 以及定位。三十一 b 被称为是全能大脑,它可以处理任何的这个你所想要的执行的一些任务吧,它的定位呢,也是非常的明确,是最顶级的一个型号,擅长呢查某某的创作以及 深度的逻辑推理,它就像人类的思考会给你列出这个提纲一样,然后排查啊错误,然后再输出, 所以他非常擅长于这个深度的长文写作。那么第二个是二十六 b 的, 这个被称为效率之王,它的定位就是相对于上一个呢,它是一个平衡的版本,那么它的功能是保持在极高的智商的,同时呢,响应呢,要比三十一 b 更快, 所以呢,它适合于这个频繁的互动啊,快速的迭代的创意的这种工作。那么第三个和第四个是一四币和一二币,这两个呢被称为侧端的,先分我们,我我认为的就是说它是一个轻量化的模型,它只有四十亿和二十亿的一个参数,所以呢, 呃,它的这个体积相对也比较小,但是呢,虽然说它的体积比较小,但是可以通过这个 single 的 强化处理一些日常的对话呀,这个日常的整理,呃,简单的,这样还是非常的流畅的, 我们可以看到这是专门四网页端的一个界面,其实我这两天用的,用下来,我觉得他的这个云端的和网页端的这个使用其实是非常的非常的好给我的体验。因为普通人说实话你的电脑可能 配置没有那么高,所以你装了最高的那个等级的那个模型,你使用起来你的电脑可能就会如果说你的性能不够的话,你的电脑就会起飞的。所以我建议啊,就是如果说你不是做一些特殊的一些任务的话, 我建议直接用网页版的是最靠谱的。那电脑端有 pc 和 mac 的, 它的一个好处我刚刚讲了,就是直接在本地运行,断网也可以使用,最大的一个好处就是它是保护隐私的,不用担心你的文件或者说是你的信息隐私会被泄露,因为断网也可以使用,我觉得啊,是 这么的一个最大最大的一个特点。那么另外就是它的手机端是苹果和安卓系统都可以用啊,因为手机的内存是有限的, 所以呢我的建议就说如果是你非要在手机上装这个,我建议就是用的轻量化的这个版本的,否则的话你的手机肯定会发烫,它运行起来 特别的耗费你的本地的这个手机的一个算力的。所以最最第三个就是云端的,我是最推荐的这个直接再往月端调,而且你可以直接用免费的算力,因为使用也是免费的,你往月半使用也是免,不像其他的一些大毛器,你用着用他就没法用了,他就你的这个免费的额度,用完了 不让不让你用了。但是 gm 四它是无限使用的,目前来说是免费使用的,所以的话呢,大家如果说是想用的话,尽快用起来,我觉得是非常好的一个大冒险。大家如果说有其他的问题,我们在留言区可以互动一下,有什么问题可以直接问我哈。

hello, 大家好,我是 ken。 上条视频说到 gemma 四在接入到 openclaw 之后,只能充当一个聊天机器人,我不愿相信,也不甘心, 一个二百六十亿参数的模型,能力应该远远不止于此。于是我今天又坐下来折腾了一天,有好消息也有坏消息,听我慢慢说。 先说好消息,今天的第一个突破,在我给他安装了文件系统技能之后,赋予了他读写我本地文件的技能。果然,他可以根据我的指令在桌面生成一个 markdown 文件,算是一点小小的生产地了。 但当我让他在桌面上创建 word 或者是 ppt 文件的时候,还是一样会牢牢卡住。 好消息到此为止,但接下来我想到了一个新的思路,既然 openclaw 是 有记忆的,它可以学习并且积累技能, 那么如果我先接入到一个聪明的大模型,把我需要的技能都完整的走一遍,再切换回 gem 四大模型,看它能不能完美的复刻出来。 于是我切换成了 podocr 技能之后, 在桌面上放了一张带有简单文字的图片,然后让 codex 先做一遍演示,把图片上的文字准确地提取出来发送给我。 结果非常顺利, codex 不 但把桌面上的文字准确地提取了出来,还帮我顺带把技能也优化了一遍。 好现在切换回 jama 四,让他重复刚才的操作。我给他下了一样的指令, jama 四可以正确地调用 pad ocr 这个技能,也能够识别到桌面上的图片,但就是在提取文字这一步,他怎么样都做不到,会卡住。 我中途问他是否有停止工作,向我汇报进展,他都说正在提取文件中,但是无论我等待多久,十分钟,二十分钟,半个小时 都没有给我任何的反馈。我担心是不是他在运行的过程中,我的电脑内存不足,导致他没有办法生成,于是我把模型切换成了更轻量级的 e 四 b 版本,结果还是一样,会在提取文字的过程中牢牢的卡住。 这让我有点困惑,究竟是我的电脑内存不足,还是模型的能力不够?我更倾向于认为是模型的能力不够, 因为二十六 b 混合专家模型在实际工作的过程中呢,只会调动四 b, 也就是四十亿的参数。 这个被激活了四十亿参数的专家可能还没有学会怎么去运用 o c r 这项技能,但也不能完全排除是运行内存不足导致的。 现在还不能下定论,只有等四月十六号我的 max studio 到货以后,我让他跑三十一 b 满血版的大模型才能够有答案揭晓了, 到时候我会第一时间和大家分享我的测试结果。上一条视频的评论区有很多人问我,他的设备的内存是多少,什么版本 能够跑什么样的大模型?这里就 gemma 四的四个版本呢,我分享一个简单的小公式,供大家去进行自行计算。普通模型呢,就用你的内存或者显存储以四, 得到的数字就是你能运行的大模型版本。比如说,如果你的内存是十六 g 除以四等于四,那么也就是说你的电脑可以跑 e c b 这个版本。接入 open cloud 以后呢,可以做问答机器人,也可以生成 markdown 文件。 但是 jam 四的二十六 b 混合专家模型是略有不同的,因为就像我刚才所说,它在工作的时候呢,只会调动四 b 的 参数,所以呢,是比较特殊的,如果内存达到二十四 g, 就 可以运行二十六 b 混合专家模型。 还有一个简单的测试方法就是如果你电脑的内存是足够的,你可以把呃一二 b, 一 四 b 和二十六 b 三个版本的大模型都下载在本地,然后用欧拉玛去运行它们,看看你提出问题或者下指令之后,他们是否能够做到秒问秒答。 如果能够做到秒问秒答的话,那接入 openclaw 它是可以做问答机器人使用,没有问题的。但是如果在欧拉玛中只是作为聊天机器人,它的回答都是相对来说比较慢的话,那接入 openclaw 肯定是没有办法使用的。 在接入 openclock 以后呢,内存的消耗量会稍微大一点,所以大家在实际使用的时候,最好还是能够留一些余量的好。今天的折腾就分享到这里评论区,告诉我你们还想看什么,我们下期见。

如果我告诉你一台普通手机就能跑通谷歌刚刚发布的最强 jammerfour 模型,你信吗?而且支持原生多模态,完全离线使用,不用花一分钱。这期视频我将大眼重明,开始在安卓和 iphone 手机上跑通 jammerfour 模型。 在开始之前,首先我们需要打开零度薄扇,这边文件链接,我们放在视频下方,打开以后就往下拉,上面我们接所需的全部资料。首先第一步我们先来安卓手机来做测试,小白就他的下载安装包,我们可以在谷歌应用上点击下载,或者直接下载 app 安装包,我们直接前往打开它,简单多想 好,打开以后点击安装一下,我们点击安装一下,给他下载安装到安卓手机上。好,安装好以后,打开它来看一下它里面是否支持这个最新的 java 模型,点该 start 是 否允许这个方式,我们点击允许啊,下面进行设置一下。我现在还不知道我当前手机是否支持这个模型,因为我这手机比较旧。然后在上方这里可以选择 ai 模型,第二次平衡,第三次高性能,那之后我可以置顶以, 然后下面来下载一下模型,在左上方这里我们你上一个上横看好,进入以后,然后打开这个 model 这个 app 来进来模型应用下载,来看一下你们是否制作一个 gm 四模型啊,来在下面往下拉看一下,好在下方这里看到它里面有一个 gm 四 ecb 量化版模型,总共大小的话是一点二 g 左右, 这个应该是他根据单机手机的配置来进行推荐的,给我推荐是一点二 g 的 模型啊,接下来他呢,来先下载安卓一下啊,打开有没看到他里面有不同的量化版本,最高话是二点三 g 啊,但是我目前说手机话,他这个配置不是很高,所以他可以给我推荐是一点二 g 的, 但如果你安卓手机配置比较高的话,倒是应该选择更高的模型。这句话我就选他推荐的,就说 q y k s l 这个模型,这应该是一个比较小量化版了,总共是一点二 g, 咱们勾选它来先下载一下,好,勾选它以后就往下拉拉底部,它下方有一个当动的按钮,总共是一点二 g 左右 啊,叫他下下来,这个下载过程该修点时间了,到时候继续耐心等待下啊。过了一分钟左右,他先下载完成了啊,先返回去,咱们载入这个模型啊,在手机这里面上有一个发色,就选下 好均匀换,就往下拉拉,底部有一个自定义模式,我们打了他来创建一个模型,这个模型没上完全名自定义啊,在下方这里选择模型,别打了,他还有比上面有一个选择下载的 啊,这个是没看的,第一个就是我们刚才下载好的这个 jumbo four 模型了,咱们学的他啊,这样就早就进去了。下方的散热纹长度你可以自定义,这个主要看你这个手机这个硬件配置啊,如果硬件不是很高的话,就不要拉太高了啊,下方有个最高的 token, 搜索量是五百一十二 啊,先不用管他,我们先不用管我们点下方一个保存一下。好,这样的话就可以了,我们就可以把这自定义模型就给它弄好了啊,先打开它,打开以后呢测试一下,比如要帮我编辑一个贪污色小游戏,他也是可以帮我们搞定的,非常快,打开正常聊天话也是没问题的,都可以进行本地一切使用。 好,收把安卓手机的,我先做 ios 的 来,先重新返回,刚才点下来,把这个 ios 版机下载一下,我们第一前往。好,打开以后先把这款应用程序给登下来,它是完全免费的,它是可以完全加载本地的一些模型的,来界面下方下载按钮给登下来。好,下载好以后我们打开它, 打开以后它将会提示,欢迎来到这个 locally ai, 它是一个完全离线的 ai 助手,可以保证一个隐私和安全性,同时它可以对当前手机硬件进行优化,来设备对应的模型按键问题继续好,这时它来选择模型下载, 第一个是大苹果提供的,然后第二个是 mr, 第三个是千万三点五 i b 模型,这种不用管他,我先跳过,你跳过就可以了。好,跳过进入以后,那么第三方有选择模型,进入以后没看到小王就会出现一个 java 最模型的,它是目前最新的,支持深入思考,支持多模态。那么底下打开它,我们给它动下来, 总共是多少 g 啊?总共是三点六 g, 也是最新版本,那么点击 download 的 给他下下来。 好,下载好以后来先返回去,我们来试一下,看效果到底怎么样啊这是没看到他沙漠就会出现这个卷毛腹模型的,我们先来测试一下他多模态,并且我学会在桌面上随便扔一些东西在上面,然后我们来问他一下,他看到什么?同时我也会问他一下,在上面总看到几个西瓜籽啊,然后现在我们来问他一下,我们打开这个深度思考模式, 那么一下面一个 take a photo, 先来拍照一下,好,拍照好以后,然后发送一下啊,先问他一下,你看到了什么?桌面上都有哪些东西啊?我们来看一下他是否可以把全部东西给识别出来啊? 哎,他开始了,他说我根据你的定位图片,我看到桌面上有各种电子产品和一些小瓶装物品, 然后在下方一头列出来。他的桌面上主要有以下这个机械东西,第一个是一个自然手机,一部深色的自然手机放在这个画面左侧,这个没错啊。然后手机壳保护套,一个带有花卉图案的这个片子式或粉色调的手机贝壳, 然后旁边放了一个蓝绿色的小瓶装物品,一个亮蓝绿色的小瓶,看起来是某种护肤品或者是精油,然后一个大型罐装产品,一个带有标签的罐子啊,这个才会被识别出来了,这个是益生菌啊,他先把这个识别出来了,这个没错, 然后下方还有个电子配件,一个黑色的小电子配件在罐子后面啊,那个也是我的这个录音东西啊,这个声卡,哎,他这个他有的东西没识别出来啊,就西脖子,他没识别出来啊,这为什么他没识别出来? 我再问他一下,拍照一下,黑色点点是什么?总共有多少个?我们来拿数一下。哎,完了, 他都由于我无法视他,都由于我无法进行化学分析,我无法确定这些颗粒的具体身份,他们可能是以下几种东西,第一是天然成分,他都可能是干燥的种子啊。这个没错啊,因为他确实是干燥的西瓜籽。 他说我手下总共是九 k 啊,那他就错了,总共十六个啊,谁知道这方面他还是有点欠缺的。我一会来问他翘肌 b t 啊,看翘肌 b t 能不能打。对啊,我同样问翘肌 b t, 看到了这个黑色颗粒是什么,然后总共有多少 k? 他看起来这些黑色小颗粒是西瓜籽,哎,这他打对了,我帮你数了一下,总共是十七个。哎,撬极币也打错了,这个数数这么难吗? 这么明显,他居然数错了,总共十六个,他数成十七个了,也还是数数不行啊。所以我就不能怪这个 gm 负了,连撬极币地他也没数。对啊, 那进来测试一个逻辑推理题啊,就是概率加反直觉的这个逻辑推理题目是这样的,你参加一个游戏节目,有三扇门,其中一扇门后面是车,另外两扇门是严。你选了一扇门以后,主测类是这答案的,打开另一扇有严的门,并问你是否要换门。 问题是换门是否有利,为什么?这个大家能理解吗?我同样把它伸出触角模式给打开,那看下它能否答对。 哎,他知道了,他就是一个经典的蒙提货饵。问题的变动答案是换煤更有利。为什么换煤更有利?因为当你选低扇门以后,你只有三分之一的概率选中了车, 意味着身价。两扇门中有三分灾的概率包含了车。关键在于主持人他知道答案的干预,当你选择某扇门的时候,你只有三分之把握形容他, 主持人做的就是故意蒙蔽你。简单来说,坚持原版,你仍然只占了最初的三分之一机会。换版的话,你就再抓住主持人排除那个错误选项,从而获得了那个三分之一的概率。哎,这个没错,这他理解对了。那现在测试他代码编程能力, 比如他把我笔写一个山地鱼缸场景,鱼要看到有真实感,水和水缸里的水草也要好看且真实啊。先发送下来,验证一下它代码能力。好,它现在完成了。那先把代码刻出来,先放上电脑上去运行一下,看效果怎么样啊?它不仅提供这个 gs 代码,还提供这个 cs 一 二四代码,还有这 h t m l, 来看一下效果啊,酷毙哈。以后把它放在电脑上打开看一下。打开效果,大家看一下,它是非常可以的,看到非常真实啊。对于一个小魔仙来说,能打得到效果的话,已经非常可以了。然后下面再测一下,看他对这个药物这个识别到底怎么样。 来猜一下这药是干嘛的?瑞巴派特片,我们点击派斗一下发给他,问他一下这个是干什么的,估计很多人都不知道这药是干嘛的,我们看他能否知道。 他根据你提供图片作为文字信息,这是一个药片或者是局部使用产品。他说产品名称是瑞巴拜特片,他由于这个设计失灵和健康产品,我无法提供医疗建议。如果你对该产品的具体用法或使用方法、健康效果有疑问,请务必咨询医生, 他是非常谨慎的,可能好多人不相信他的离线这个性能啊,我们先把这个网全部断开,打开的飞行模式。原来把我写个恐怖小说到了五千字左右,哎,看开始了,他用的是繁体啊, 我目前是完全是离线的,他这个分章来写啊,千万别总共写到第五章了,这样换一部五千字左右恐怖小说,需要一分钟左右,他就可以帮你写出来了。 那下面在头像在这个离线模式下来测试一下他这个动感能力啊。那头像问他一下,你看到了什么?总共两个小东西啊,一个是大象,一个是蚂蚁。 他说以前是我看到的主要内容描述,第一个主体就大象的头部,画像中可以看到一只大象,然后第二是蚂蚁,就小吴姐, 没错,他请注意他的,由于图片中的细节非常小,我对蚂蚁的四别是基于其微小尺寸的预测,让他真猜对了啊。今天四别所用的全部资料,他们的链接我都发到视频下方在报上。

macbook air 五二十四 gb 内存跑 google gemma 四二十六 b 就 跑在本地总参数两百六十亿,激活参数仅三十八亿,每次推理只调用小部分效果,拥有 dance 两百六十 b 的 推理深度,但跑起来像个小模型,用云端 api, 每个月账单我看的心慌,用本地模型都更无限, 多少次对话都行,不限速不封顶不算钱。 jammer 四二十六 b 的 能力边界实测下来这几个场景, jammer 四二十六 b 表现不错,代码生成,代码 review 技术文档拷写,问题解答 作为日常辅助工具,这个能力区间覆盖了我百分之八十的使用场景和 cloud code 的 配合。本地 jammer 负责推理和理解 cloud code, 通过丰富的插件来赋则执行和操作两个工具叠加之后的工作流。 一,让 jammer 分 析需求,给出方案思路。二, cloud code 生成或修改代码,这个循环不依赖任何网络条件, 在任何地方随时可以进入工作状态。 macbook airm 五二十是 gb 跑 jammer 四二十六 b 不是 勉强能用的,勉强是稳定可用的,可用 token, 无限数据本地离线可用。这三个优势结合起来,不是云端不够好,是本地真的更自由。

谷歌终于坐不住了,正式卷开源市场, jm 四的效果到底如何呢? jm 四的发布啊,真的有可能让我们实现头很自由。这期视频呢,老张给大家简要介绍一下 jm 四怎么安装到本地,以及如何搭配到我们的 open klo 大 龙虾上, 附带所有的安装步骤啊,大家可以一起来体验一下。后续呢,老张也会根据测评效果给大家接着发视频,这期是我们完整的部署流程,老张重点给大家简单聊一下,就是为什么 jm 四的发布啊,会让大家感觉谷歌真的开始卷起来了呢? 首先第一点,他和目前谷歌的 jimmy 三用的是相同的技术基座啊,所以说他的能力是毋庸置疑的。第二点就是商业自由,你直接部署下来做什么都是可以的,都是允许的。然后第三个就是支持多模态,无论是文本、图像甚至小规模的视频音频, 他都可以直接支持。第四点就是结合前段时间爆火的 open klo, 他 可以直接在本地对接 open klo 以及对接 klo 的 code, 实现本地的偷根无线化。这是老张给大家总结的四点,为什么詹姆斯的发布会让大家感觉,哎,可能真的要进入到一个新的纪元, 然后呢,他所发布的这四款模型呢?老张给大家做了一张图片啊,大家可以到时候把它截下来。第一个模型一二 b 的, 他本身是用于手机或者边缘设备八 g 显存, 然后最高端的三十一 b, 他 所对应的旗舰版本呢,是对应的是二十四 g 加,所以大家根据你的需求来进行对应的模型选择。老张这次视频呢给大家来看一下三十一 b 的 这款模型的安装, 然后关于本地的安装部署啊,其实非常简单,任何开源模型,其实我们只需要让他和欧拉玛就是那个小羊驼结合到一起就可以了, 我们可以去一下欧拉玛,之前没有安装欧拉玛的兄弟们也不用担心,直接去他官网安装即可。一个羊驼啊,现在已经开始玩龙虾了,但是这个不,这个是我们,我们首先 现在官方已经开始逐渐的把羊驼和龙虾结合到一起了,我们直接选择对应的登录的,然后找到你符合要求的版本,直接安装到您的电脑上就可以。安装成功之后啊,欧拉玛现在已经有了一个完整的应用端了,所以大家可以直接在这个位置和他进行对话交流。 那我们想要下载詹姆四到你本地的电脑上,我们可以使用它的官方指令找到官网的 model 选项,然后这有一个詹姆四,我们进入,他会告诉我们直接怎么样去进行詹姆四的对应安装,像老张想安这个三十一 b 的 对吧?我们就把它拿过来, 把它直接这有一个 c l i 命令行安装方式,把这个东西直接复制在你的开始菜单中,单机右键选择运行,输入 cmd, 直接把刚才指令粘贴过来,这儿的时间会很长,因为它有二十个 g 的 大小,我们直接稍作等待 安装成功之后,我们也可以直接回到它的客户端中,在模型选项上找到我们安装好的詹姆斯冒号三十一币, 然后可以直接进行对话,老张他处理一个较为复杂的提示词,我们让他看一下当前显存的内存消耗, 咱们拿这个 ai 慢距的提示词来测试啊,这个提示词非常的长,我们看一下他读取提示词的能力,以及他的这个显卡的性能消耗。我们看一下啊,这个显存直接拉满的达到了百分之九十四的占比, 而且这个响应速度还是非常快的,只需十一点七秒啊,就把整体的业务流程给我们直接补齐了,而且呢按照需求给我们进行了对应的提问,要什么样的慢剧效果,所以说以目前的测试反应来看呢,他的这个响应速度起码要比之前的很多大模型要好的多, 所以接下来我们自己来尝试一下对话类的工具,可能大家都不是很需要的,我们能不能把它接入到我们的 open klo, 接入到我们的龙虾里,让他们俩来进行联动的。然后这期视频呢,老张顺便给大家提一下,就是最新版的 open klo 的 部署流程 啊,咱们可以快速的去过一下一些重点的细节,因为之前老张发过很多期的部署视频,咱们可以去到时候去看一下。只不过这期视频呢,我想给大家来讲解一下这个 wsl 的 这个部署优势。 很多兄弟看老张之前视频都是用 note 直接下载安装的,但是为什么老张最后给大家又转回到了 wsl 这一块了呢?因为它本身啊, wsl 它是相当于在 windows 系统上安装一个 linux 的 独立系统, 这样的话呢,就直接相当于在你电脑上安装了一个独立的存储空间,它所谓叫做沙盒安全,而且运行起来呢,是不会有任何的兼容性的对应问题的,因为 windows 中啊,它的权限呐,路径等经常会报错。所以说我们这 期视频重点教大家怎么用 wsl 进行 win opencl 的 部署安装,这样的话, windows 和 wsl 的 安装您都了解之后,之后学起来就非常方便了。 然后接下来呢,老张给大家简单的介绍一下在 wsl 中如何安装我们的 openclaw, 因为之前呢,咱们介绍过太多次了,很多兄弟留言说老张就别介绍怎么安装了,然后我们就给大家简单说一下注意事 项。首先第一呢,你想在 wsl 上安装 openclaw 的 话,第一点,你得先在你的 windows 系统下把 wsl 安装一下。当然很多电脑老张发现其实都是自带的, 怎么检查是否自带呢?咱们可以直接输入 wsl 空格,杠杠威森,如果弹出定的版本号证明 wsl 电脑已经安装了,如果没有弹出的话,使用安装指令, wsl 空格 insert 直接安装即可。然后紧接着按照老张给你提供的指令复制粘贴就可以了。先安装你的优班 图,安装之后啊,在这选择这个倒三角,找到优班图系统,就可以直接进入到你的优班图系统当中。 在你安装过程中啊,它会让你设置一个用户名和密码,到时候可能需要做一步密码验证。在优班图系统中,注意是优班图系统中运行这些环境指令,分别安装 python 三、安装一个压缩包工具,方便安装一个 note 点 gs, 然后再安装一个 get 工具。 如果说为了检测每一步安装是否成功的话,你可以分别输入,比如 note 杠 v、 npm 杠 v, 包括 get 杠 v, 在 这检测我们对应的这个版本,如果都能弹出版本号,证明你三项安装都是成功的,这是配置 openclo 的 基本的内容要求。 然后紧接着我们把基本环境配置好的兄弟,你还需要在这个位置安装一下这个欧拉玛。 这老张要重点说一下,比如说老张我不在本地都已经下载好欧拉玛了吗?为什么在优班图里还需要再配置一下?其实我们优班图中是可以调用本地的欧拉玛的,但是很多兄弟在调用过程中分别给老张留言说说调用时无论是 ip 地址找不到,还是 ip 的 动态变化,导致每次都需要重新连接,重新配置。 所以说最简单的方式就是把欧拉玛在你的优班图系统中再次的安装一遍。其实安装非常简单,只需要把第一步的安装指令复制过去,直接在这个位置直接粘贴即可。安装成功的检测方式很简单,你就输入欧拉玛, 如果他不报错,还给我们对应的选项,是咱们是进行对话呀,还是怎么样的证明你的安装就是成功的, ctrl c 直接退出。 所以说欧拉玛安装之后,紧接着就是把我们的模型在当前的优班途中跑起来。老张刚才给大家测试的是 g m 四三十一 b 模型,我们直接输入指令欧拉玛空格 run, 然后你的模型效果直接回车,第一次时他会直接进行对应的模型下载。 如果说你现在只想用 openclo 来调用欧拉玛的这个占四的话,可以在我们的本地电脑上把之前咱们那个桌面端给它删掉,如果说你不,你想两端都使用的话,就可以直接在这个位置进行使用了,然后发一个你好看一下响应速度, 响应速度是非常快的,所以接下来我们把这个家伙欧拉玛的詹姆斯直接部署给我们的 openclo, 在 这怎么中止对话,摁一下 ctrl c, 再摁一下 ctrl d 啊,就可以直接进行中止对话了啊,所以说大家可以直接的把它退出来, 退出来之后我们在这部署一下 openclo。 关于 openclo 的 安装呢,官网推荐是使用 col 这种安装方法,但是老张发现很多兄弟在使用这种安装方式时呢, 出现了这个网络问题,导致下载出现卡顿,如果说 col 的 方法报错的话,直接使用 npm 安装也是完全可以的,安装完之后直接输入 open klo 空格杠 v 来输出最新的 open klo 的 对应版本啊,这就是老张跟大家说的一些建议啊,大家按照这个要求去做就行了。 然后接下来我们进入到配置,直接使直接输入它的配置指令回车,选择 yes, 然后选择快速开始就可以,我们直接配置一下模型, 然后选择更新,这选择谁呢?选择这个欧拉玛啊,然后选择默认的这个 ul, 选择本地模型,让他去给我找一下咱们本地有哪些模型,稍作等待 好,选择当前的这个模型, gm 四三十一 b, 然后配置我们的聊天软件啊,这个老张之前讲过太多太多次了,现在呢,他又支持了很多,包括 qq 之类的,大家有需要的话可以按照之前老张的教程再来一遍,我们先跳过 打开之后啊,就可以直接对话了。但是如果说善于观察的兄弟们也发现了,老张呢,把这个使用模型呢换成了这个一四 b 的 模型,不是那个三十一 b 的, 因为三十一 b 呢,老张在测试的时候也好,或者在一些使用时候也好,他有的时候会出现这个连接超时的问题,也是 open klo 更新到最新版本出现了一个能启动问题, 这个呢,老张现在还没有特别好的解决方案,所以说我先用 e s b 的 给大家进行演示,发一个。你好,我们来测试一下他的响应速度啊,还是比较快的。 然后接下来呢,我们再把之前的那个慢句的提示词发送过来,我们来看一下他能不能更好的帮我们去进行慢句提示词的对应理解,以及对应的相关反馈。 嗯,其实我们看到啊,他反馈的这个结果呢,和三十一 b 相比啊,真的是有一定差距的,但是呢,确实也是另一方面实现了我们所谓的叫偷根自由。 大家呢也可以后续啊,去测试一下怎么让本地如果你的显卡够用的话,把这个大模型给它跑起来,然后老张呢也会及时给大家更新啊,无论是在评论区中还是视频中,教大家如何使用,我是程学老张,定期分享 ai 好 用知识,希望大家多多关注。

谷歌发布了 gemma 四,简单体验了一下,好像不是很适合我,这期分享一下如何接入 opencode 以及初体验。首先我们直接在奥拉玛官网看一下模型,这里主要是看一下你的电脑适合哪个参数版本,如果没有安装奥拉玛的,就先安装一下。 在客户端这里还没有看到 gemma 四模型,所以就在命令行这里输出奥拉玛 run gemma 四,这里可以根据你的电脑配置来选择我的电脑配置二十六 b 是 最适合的,安装需要下载一段时间,所以你挂着可以先做别的事。我已经下载过,所以它就直接在命令行里运行了。 打开奥拉玛,在聊天这里切换模型,就可以直接试一下绘画,问一下它现在是什么模型, 模型下载了之后就可以在 open code 上接入这个模型,我这里用的是 open code 的 客户端,打开 open code, 在 下面这里添加点字定义。在这里主要是有两个点需要注意,一个是 r o, 另外一个就是模型名称要和欧拉玛上的保持一致,不然会连接不上。先填 r o, 注意一定要加上斜杠 v e 后缀,否则客户端可能无法识别路径。填完之后提交, 完成之后就可以在下面选择了。最后说一下这个 jamma 四模型使用体验,就是感觉确实是很聪明的样子,但是好像不大能在本地干活。在 open call 的 这里,我让他整理桌面,还有安装 open call 都不会直接执行, 当我切换千万的模型就可以直接操作,我不知道是什么原因呢?后面在实际用途上再多体验操作一下再说说。这期就分享到这了,拜拜。

最近火爆全网的 jam 四下载教程他来了,开源世界最强模型新版还附带中文设置教程以及部署教程,支持苹果、安卓和鸿蒙。 首先点我视频右下角的分享箭头,再点一下复制链接,然后打开这个蓝色的小鸟没有的应用商店,下一个两秒后会弹出一个资源包,没有弹的话就搜索手电宝藏,打开宝藏应用里面找到需要的文件,点击保存安装就好了。

最近火爆全网的 jam 四下载教程他来了,开源世界最强模型新版还附带中文设置教程以及部署教程,支持苹果、安卓和鸿蒙。 首先点我视频右下角的分享箭头,再点一下复制链接,然后打开这个蓝色的小鸟没有的应用商店,下一个两秒后会弹出一个资源包,没有弹的话就搜索手电宝藏,打开宝藏应用里面找到需要的文件,点击保存安装就好了。

如何把谷歌的 gemini 免费的安装到你的电脑手机上,并且呢,不用联网也可以使用,也不用担心数据泄露,也不用支付会员费用,答案就是安装它们的开源模型 gemma。 那 gemma 又是什么呢?和 gemini 虽然是两个名字,但是它们本质上都是同一个东西。 gemma 是 gemini 的 开源模型,也是 gemini 经过简化之后的模型。这里面要讲一个大模型为什么叫 gemini, gemini 经过简化之后的意思。 二零二三年,谷歌为了应对拆 g p t 带来的生存威胁,谷歌合并了内部两大顶级 ai 实验室, 谷歌 brain 和 deep brain, 那 这个就是谷歌 ai 版图上的双子星。其实在拉丁语里面, gemma 就是 gemini 这颗大宝石切下来的一块儿小明珠。打个最简单的比方,网页上那个无比强大的 gemini, 就 像城市里面的中央供水系统, 水流极其的庞大,但是你必须连上水管,也就是连上互联网,并且用多了,人家是要按流量收你费用的。而 gmail 就是 谷歌免费送给你的一台满级配置的高端净水器, 虽然出水量不如水厂大,但是它完全免费,完全是属于你自己的。在最新发布的 jam 四家族里面,同样支持多模态,也就是它既可以看图,也可以听懂声音,还可以写代码。 点到这里,你肯定会问,谷歌是来做慈善的吗?为什么要把一个模型免费放出来呢?那这样子谁还会去充 jamie 的 会员费呢?这个其实是谷歌一个极其高危的羊毛,想象一下,谷歌现在建了一栋无比豪华的写字楼, 如果他把内部的办公空间完全免费开放,让所有的创业者出创公司全部搬进来,表面上看他亏了租金,但实际上呢?当整个商业生态都用他的标准写代码,他就掌握了 规则制定权。等这些小公司项目做大了,需要更强的算力了,自然就会购买谷歌云服务,或者租用顶楼收费的 vip 会所。 另一方面,谷歌面对试图垄断闭源生态的 openai 和开源大户 meta, 如果不把 jama 拿出来免费送,那整个 ai 时代开发者生态就会被别人拿走。所以免费送模型本质上就是为了抢夺未来十年的技术话语权。 那这个免费开源神器到底适合谁呢?首先,对于做科研、商业分析、金融投资的朋友就特别合适,因为自己手里面有大量未公开的研报和财务数据,根本不敢上传到网上的 ai 里。而像 jam 这样部署在本地电脑的开源模型就是他们最好的选择。 而最新发布 jam 四有四个版本,就像小杯、中杯、大杯、特大杯,那到底选哪个好呢?这条视频就直接告诉你答案,手机就直接选小杯,普通电脑选中杯,高端电脑选大杯, 企业级的就选超大杯。如果你不知道你的电脑是什么型号的,那就选中杯。那如何安装这个开源大模型呢?建议去欧拉玛的官网上下载,注意一定要下载带 it 版本的, 它代表了是能够听懂人话的指令微调版,如果你在安装的过程中出现问题,建议搭配豆包使用。这就是本期的视频啊,关注我,带你了解更多 ai 内容!