听说 ai 软件要被谷歌、 oppo, ai 那 种大模型吃掉。哦, ai 软件真的没前途了吗?有前途啊, ai 软件是小模型啊,你别看那些云记头啊,加古文啊,谷歌那些在做大模型, 其实很多人呢,专注花了钱去做小模型,最终这些小模型呢,它是有壁垒的,你侵占不了他们的地盘,这就是他们的核心部分。 其实我最看好的是为,为什么呢?奇怪了。 ai 医疗是最最有价值的,包括 ai 生物制药,比如说国内有个公司叫金泰, 他就是做做药的。嗯,做药啊,大哥,不是问诊的,你那个谷歌怎么能做药出来了啊?他通过 ai 来研究这个药,对 谷歌的人呢?叫做 it, 做 it 的 量子计算,你可以科学家,但是金泰那些人啊,是做分子学的。 就是分子学,我也不知道是什么。你谷歌想做也不一定做的了。你没有认证嘛,是吧,你做出来没有认证,制药厂还要多个实验。现在 ai 的 就是加速他们制药的过程。原来要三年嘛, 我举个简单例子,为什么那个洛和洛的和你来之前,因为一个药它的专利权在二十年左右, 知道吧?啊?但是研发去了五年,所以它要卖很贵,只有十五年的专专利期, ai 是 加速了它的研发速度。对,如果你一年搞完了,那你后面可以卖十九年。哦,就是它成本降低了。对啊, 因为药在一七二七三七吗?你的一七二七还要临床,还给他吃一下。其实药最重要是引发成本了,后面不用给他吃了,给 ai 吃了一下,看他聪不聪明就可以了。我 ai 做一个人出来吃一下都, 他就用伊维达的这个方法。伊维达一次流片不就五个吗?嗯,你可以加速你一期,你一期要了去吃,做三十克出来,然后给三十个小白兔,总有一个 ok, 然后二期三期可以加速整个过程啊。 呃,现在大部分的 ai, ai 医疗相关的都是 ai 制药,国外的叫 i s s s 嘛, 这是搞那个攻克癌症的?对,他们都基本不怎么赚钱的,我看金泰有没有赚钱。不怎么赚钱,就是还是投入了太大,都是亏损阶段。哎,金泰还好,赚个一两千万, 他还好,他已经他已经开始开始赚钱了。然后呢,国外还有一家,他不做药,他是做那个 ai 中介的,就一边对着患者一边对着那个。嗯,医院。 因为呢你,你看啊,你制药是不是还要拿到患者的那个制药啊?数据。对,那这些呢,需要医药代表就要花很多钱去请医药代表喝茶, ktv 啊,唱歌啊,很多东西, 所以你要攻克主任下来才能拿到病例啊。所以呢,这里有个中间商,国外叫 t e f tempos ai, 他就可以双方面收集东西,然后自己去练大冒险,然后卖给药厂,就是中间商的这个上有。那为什么药厂自己不可以去找医院要数据,自己去练呢?啊诺和那朵那种 你来呢?大的那种,你来洛克洛德可以,因为你有钱吗?对啊,这个是可以的,但是呢,你拿到了数据呢?直接的数据是不行的,因为你多模态了,比如说我们去看病呢,要验尿,验血, 现在验血拍胸片,然后数据要标注医生是手写的嘛,像我一样写的天数一样,你怎么看的见?哎,人家检测结果也有一个标准的文字版出来的,哎,比如说你这个血什么什么浓度多少,什么蛋白浓度多少 他都写清楚的,但是医生的问诊啊,病例啊,他的历史病例啊,这些都要标注的, ai 是 看不懂手写的文字的。嗯,看不懂料的 ai 现在只能读读图片和到和文字读里面的参数吗?对, 你是,你是读不了那种其他模形态的东西的。所以呢,这里需要一个中间商,需要非常多的博士生去做这个数据标注鼻炎的核心构成了,就在这里,就他标注是,他标注的是那个医生本个人的意见吗?对, 而且现在医医院呢,现在全部录入一个系统,大部分是他们家的系统,但是他们这种数据他上传到比如说我的谷歌追美奶 ok 里面,他也可以根据你的那些参数来读,不要他要给出结论。他现在训练自己的模型,自己洗干净了,去掉了饮食之后,洗干净的模型呢?直接卖给用场, 要抢呢?你就专门搞你的生物化学分子去研发就可以了,就不用再派医药代表啊,再去搞那个权权钱关系啊,授钱关系啊,唱歌啊那些,这样成本太高了,你用一套中间商嘛。 哦,这个中间商他他们的销售代表就可以重找好了,而且他们有现有数据,主要是这个。 什么叫现有数据?你再去跑,再去标记标注这些数据,再去整理这些数据,又要一年的时间了,你明白吗?啊? apple c r 有 现有的数据,一份三千万,你直接买那个 r s s 那 个公司他有做这个吗?做生物治疗不做这个 就是他的数据也是跟别人买的。对,小公司就更没有医药代表了。他就觉得制药我只要发明一个攻克癌症的药,我就可以赚大钱了。确实对,花一点点钱跟你买没关系,但是如果他攻克不了呢?他就长期亏损了, 风险很大。超级多生物制药的公司就是低于十亿美元的。这种疫情的时候呢,都涨到一百亿, 想攻克那个变成那个落胎啊什么的,攻克那个新冠,结果一疫情一过全部掉了,家都没了挣,没有交易量了。所以你木头姐投资公司也是非常危险的好吧。 ok, 其他的内部会员群再说吧。
粉丝1.9万获赞3.3万

谷歌终于坐不住了,正式卷开源市场, jm 四的效果到底如何呢? jm 四的发布啊,真的有可能让我们实现头很自由。这期视频呢,老张给大家简要介绍一下 jm 四怎么安装到本地,以及如何搭配到我们的 open klo 大 龙虾上, 附带所有的安装步骤啊,大家可以一起来体验一下。后续呢,老张也会根据测评效果给大家接着发视频,这期是我们完整的部署流程,老张重点给大家简单聊一下,就是为什么 jm 四的发布啊,会让大家感觉谷歌真的开始卷起来了呢? 首先第一点,他和目前谷歌的 jimmy 三用的是相同的技术基座啊,所以说他的能力是毋庸置疑的。第二点就是商业自由,你直接部署下来做什么都是可以的,都是允许的。然后第三个就是支持多模态,无论是文本、图像甚至小规模的视频音频, 他都可以直接支持。第四点就是结合前段时间爆火的 open klo, 他 可以直接在本地对接 open klo 以及对接 klo 的 code, 实现本地的偷根无线化。这是老张给大家总结的四点,为什么詹姆斯的发布会让大家感觉,哎,可能真的要进入到一个新的纪元, 然后呢,他所发布的这四款模型呢?老张给大家做了一张图片啊,大家可以到时候把它截下来。第一个模型一二 b 的, 他本身是用于手机或者边缘设备八 g 显存, 然后最高端的三十一 b, 他 所对应的旗舰版本呢,是对应的是二十四 g 加,所以大家根据你的需求来进行对应的模型选择。老张这次视频呢给大家来看一下三十一 b 的 这款模型的安装, 然后关于本地的安装部署啊,其实非常简单,任何开源模型,其实我们只需要让他和欧拉玛就是那个小羊驼结合到一起就可以了,然后找到你符合要求的版本。安装成功之后啊,欧拉玛现在已经有了一个完整的应用端了,所以大家可以直接在这个位置和他进行对话交流。 那我们想要下载 jm 四到你本地的电脑上,我们可以使用它的官方指令,会告诉我们直接怎么样去进行 jm 四的对应安装,像老张想安这个三十一 b 的 对吧?我们就把它拿过来, 把它直接这有一个 c l i 命令行安装方式,把这个东西直接复制在你的开始菜单中,单机右键选择运行输入 cmd, 直接把刚才指令粘贴过来,这儿的时间会很长,因为它有二十个 g 的 大小,我们直接稍作等待 安装成功之后,我们也可以直接回到它的客户端中,在模型选项上找到我们安装好的詹姆斯冒号三十一币, 然后可以直接进行对话。老张他处理一个较为复杂的提示词,我们让他看一下当前显存的内存消耗, 咱们拿这个 ai 慢距的提示词来测试啊,这个提示词非常的长,我们看一下他读取提示词的能力,以及他的这个显卡的性能消耗,我们看一下啊,这个显存直接拉满的,达到了百分之九十四的占比, 而且这个响应速度还是非常快的,只需十一点七秒啊,就把整体的业务流程给我们直接补齐了,而且呢按照需求给我们进行了对应的提问,要什么样的慢距效果,所以说以目前的测试反应来看呢,他的这个响应速度起码要比之前的很多大模型要好的多, 所以接下来我们自己来尝试一下对话类的工具,可能大家都不是很需要的,我们能不能把它接入到我们的 open clone, 丢到我们的龙虾里,让它们俩来进行联动的。然后这期视频呢,老张顺便给大家提一下,就是最新版的 open clone 的 部署流程 啊,咱们可以快速的去过一下一些重点的细节,因为之前老张发过很多期的部署视频一块的呢,因为它本身啊, wsl 它是相当于在 windows 系统上安装一个 linux 的 独立系统, 这样的话呢,就直接相当于在你电脑上安装了一个独立的存储空间,它所谓叫做沙盒安全,而且运行起来呢是不会有任何的兼容性的对应问题的,因为 windows 中啊,它的权限呐,路径等经常会报错。所以说我们这 期视频重点教大家怎么用 wsl 进行 win opencl 的 部署安装,这样的话, windows 和 wsl 的 安装您都了解之后之后学起来就非常方便了。 然后接下来呢,老张给大家简单的介绍一下在 wsl 中如何安装我们的 openclaw, 因为之前呢,咱们介绍过太多次了,很多兄弟留言说老张就别介绍怎么安装了,然后我们就给大家简单说一下注意事 项。首先第一呢,你想在 wsl 上安装 openclaw 的 话,第一点你得先在你的 windows 系统下把 wsl 安装一下,当然很多电脑老张发现其实都是自带的, 怎么检查是否自带呢?咱们可以直接输入 wsl 空格杠杠威森,如果弹出定的版本号,证明 wsl 电脑已经安装了,如果没有弹出的话,使用安装指令 wsl 空格 insert 直接安装即可。然后紧接着按照老张给你提供的指令复制粘贴就可以了。先安装你的优班图, 安装之后进行一下更新。安装完优班图之后啊,在这选择这个倒三角,找到优班图系统,就可以直接进入到你的优班图系统当中。 在你安装过程中啊,它会让你设置一个用户名和密码,到时候可能需要做一步密码验证。在优班图系统中,注意是优班图系统中运行这些环境指令,分别安装 python 三,安装一个压缩包工具,方便安装一个 node 点 ps, 然后再安装一个 get 工具。 如果说为了检测每一步安装是否成功的话,你可以分别输入,比如 note 杠 v、 npm 杠 v, 包括 get 杠 v, 在 这检测我们对应的这个版本。如果都能弹出版本号,证明你三项安装都是成功的,这是配置 openclo 的 基本的内容要求。 然后紧接着我们把基本环境配置好的兄弟,你还需要在这个位置安装一下这个欧拉玛。 这老张要重点说一下,说老张我不在本地都已经下载好欧拉玛了吗?为什么在优班图里还需要再配置一下?其实我们优班图中是可以调用本地的欧拉玛的,但是很多兄弟在调用过程中分别给老张留言说说调用时无论是 ip 地址找不到,还是 ip 的 动态变化,导致每次都需要重新连接,重新配置。 所以说最简单的方式就是把欧拉玛在你的优班图系统中再次的安装一遍。其实安装非常简单,只需要把第一步的安装指令复制过去,直接在这个位置直接粘贴即可。安装成功的检测方式很简单,你就输入欧拉玛, 如果他不报错还给我们对应的选项,是咱们是进行对话呀,还是怎么样的证明你的安装就是成功的? ctrl c 直接退出。 所以说欧拉玛安装之后,紧接着就是把我们的模型在当前的优班图中跑起来。老张刚才给大家测试的是 jm 四三十一 b 模型,我们直接输入指令欧拉玛空格 run, 然后你的模型效果直接回车,第一次时他会直接进行对应的模型下载。如果说你现在只想用 open klo 来调用欧拉玛的这个占四的话,可以在我们的本地电脑上把之前咱们那个桌面端给他 删掉,如果说你不你想两端都使用的话,就可以直接在这个位置进行使用了,然后发一个你好看一下响应速度, 嗯,响应速度是非常快的,所以接下来我们把这个家伙欧拉玛的詹姆士直接部署给我们的 openclo, 在 这怎么中止对话,摁一下 ctrl c, 再摁一下 ctrl d 啊,就可以直接进行中止对话了啊,所以说大家可以直接的把它退出来, 退出来之后我们在这儿部署一下 openclo。 关于 openclo 的 安装呢,官网推荐是使用 c o r l 这种安装方法,但是老张发现很多兄弟在使用这种安装方式时呢, 出现了这个网络问题,导致下载出现卡顿,如果说 c u i l 的 方法报错的话,直接使用 n p m 安装也是完全可以的,安装完之后直接输入 open klo 空格杠 v 来输出最新的 open klo 的 对应版本啊,这就是老张跟大家说的一些建议啊,大家按照这个要求去做就行了。 然后接下来我们进入到配置,直接是直接输入它的配置指令回车,选择 yes, 然后选择快速开始就可以,我们直接配置一下模型, 然后选择更新,这选择谁呢?选择这个欧拉玛啊,然后选择默认的这个 ul, 选择本地模型,让他去给我找一下咱们本地有哪些模型,稍作等待 好,选择当前的这个模型,咱们四三十一币,然后配置我们的聊天软件啊,这个老张之前讲过太多太多次了,现在呢,他又支持了很多,包括 qq 之类的,大家有需要的话可以按照之前老张的教程再来一遍,我们先跳过 打开之后啊,就可以直接对话。但是如果说善于观察的兄弟们也发现了,老张呢把这个使用模型呢换成了这个一四 b 的 模型,不是那个三十一 b 的, 因为三十一 b 呢,老张在测试的时候也好,或者在一些使用时候也好,他有的时候会出现这个连接超时的问题,也是 oppo klo 更新到最新版本出现了一个能启动问题, 这个呢,老张现在还没有特别好的解决方案,所以说我先用一次必得给大家进行演示,发一个,你好,我们来测试一下他的响应速度啊,还是比较快的。 然后接下来呢,我们再把之前的那个慢句的提示词发送过来,我们来看一下他能不能更好的帮我们去进行慢句提示词的对应理解,以及对应的相关反馈。 嗯,其实我们看到啊,他反馈的这个结果呢,和三十一 b 相比啊,真的是有一定差距的,但是呢,确实也是另一方面实现了我们所谓的叫偷根自由。 大家呢也可以后续啊,去测试一下怎么让本地如果你的显卡够用的话,把这个大模型给它跑起来。然后老张呢也会及时给大家更新,无论是在评论区中还是视频中教大家如何使用。我是程学老张,定期分享 ai 好 用知识,希望大家多多关注。

三十二 g 内存的 mac 跑本地大模型,到底能不能实现偷啃自由?今天我用谷歌刚发布的干马四给大家实测一下。 干马四是谷歌的新上的开源大模型,主打高性能和本地部署,官方说他能在手机上跑,还能流畅运行,但是我始终想不出这个部署在手机上有什么应用场景,于是作为养虾人,每天都在焦虑偷啃的消耗,竟然手机上没有使用场景, 那么本地部署来养我的小龙虾是再合适不过。它的部署其实很简单, windows 用户直接用欧拉玛, mac 用户我推荐用 x m l x, 这是专门为 mac 深度优化的推理框架,相比欧拉玛性能更出色。 打开后进入 admin panel, 在 models 页面搜索 hugen face, 输入伽马四各种参数版就出来了。 我的设备是 m 三 max, 三十二 g 统一内存。今天的重点是两个问题,第一,三十二 g 内存能流畅的跑哪个参数?第二,本地部署的输出质量能不能满足日常要求?我已经把干马仕连入小龙虾工作流,先上硬菜 测试。三十一 b 是 比特量化版,现在是十四点十四分,我们记下时,但是结果比较尴尬,等了一分钟风扇狂转还没有出结果,所以结论是三十一 b 在 三十二 g 内存上是跑不动的, 如果电脑是六十四 g 以上应该就会很合适,那么我们就试一下二十六 b, 现在是十四点二十一分,不到一分钟结果就出来了,透口深深的速度稳定在每秒三十三个,这个速度对于我来说是完全够用, 快速少了一眼回答,质量还是不错的,于是继续追问,重复刚刚的问题,测试下上下文记忆能力。 又追问了模型对比和选择建议,主要考察三点,上下文连贯性并理解能力及问答准确性。 从结果来看,上下文记忆能力没问题,也没有胡编乱造。我们再换一个场景,让他帮我写公众号,推荐一个合适的模型。结论,测试下来,三十二 g 内存跑二十六 b, 响应速度是可以的, 输出效率挺高。当然,回答质量还需要深度测试,看能不能达到商用的标准,但是要彻底说满足,偷啃自由。现在下结论还是太早,因为在测试中发现一个致命的问题, 干马仕标称二百六十五 k 上下文,但我问了七个问题,就报上下文。一出这个问题很头疼,不解决的话基本没有保留历史对话记录,也只能不停的删内容或者开新对话,对于长期使用影响很大。 所以目前我在找解决方案,研究了几种可能的思路,看能不能突破限制,如果能搞定这个问题,本地部署才算真正可用。找到方案后第一时间通知给大家,今天的测试就到这,我是林浩,我们下期见!

这两天可能大家没有注意到,谷歌似乎又干掉了一个百亿美金的市场,这次遭殃的是那些做翻译耳机、翻译眼镜的创业公司。刚刚实时翻译登录全平台,任意耳机都能用, 支持七十家语言,不需要额外硬件,你手里随便一副蓝牙耳机,瞬间就能变成随身同传,主打无感翻译,没有机器人味的激翻,没有尴尬的递手机动作,没有昂贵的专用设备门槛,软件层面的降维打击,直接把硬件创业公司的护城河填平了。 谷歌这一步等于再说,别折腾硬件了,我直接重新定义规则,语言障碍的消除,或许从来不需要一副新耳机,只需要一个 app 更新。 welcome, thank you for coming in today we have a few recommendations, but before that do you have any food allergies。

谷歌最新推出 ai 设计神器,一句话就能生成整套 app 设计稿,一天认识一个携修网站第六期今天讲的是不用学 ui, 不 用找外包,打开网页就能用。把你的需求描述出来,选个模型,几十秒就能生成整套设计稿,哪个元素不满意点一下就能改。 不管是电商、社交还是教育类产品,通通能做。更牛的是在纸上随手画个草稿,它也能给你变成专业设计稿,全程小白式操作,简直不要太离谱。

叮咚,家人们 ai 大 模型正式进入手机部署时代,昨天的视频呢,我跟大家说了,谷歌最新发布的加马斯模型可以直接在手机上面部署,今天我就来带大家实现它。首先咱们先看效果, 首先我先打开我的手机的飞行模式,可以看到我现在这个手机是没有任何的 wifi 和数据连接的,然后这时候我们回到 ai, 然后打开一个聊天窗口,我们问他一个问题,比如说帮我查一下苹果 ceo 库克, 然后他会问我们需要什么,我们选择一他的职业生涯和背景, 可以看到他直接就给了我们答案。按照我们正常逻辑思维来说,这些数据应该是在手机需要联网的情况下才可以给我们的答案,但是这个本地部署的大模型他就不需要联网,他就像一个活生生的人,他的脑子里面已经有这个记忆了,所以当你问他的时候,他可以直接就给你回答。 那么这样一个模型我们究竟要如何安装与使用呢?那我们现在开始首先第一步呢,就是我们要打开我们的应用商店,然后在应用商店里面找到这个软件,叫做 google ai gallery, 这是谷歌专门推出让我们使用扎马四模型的 app, 安卓用户也是可以下载到的,但是安卓的用户需要在谷歌 play 商店里面才可以下载,然后我们这里已经是下载好了这个软件,所以呢我们直接打开就可以了。 打开软件之后呢,你们会看到这个屏幕中显示的全是英文,并且软件的内部它是不支持我们去切换语言的, 很多人看到这里就已经开始头痛了,那我看不懂英文咋办呢?其实不用慌,因为这里面的功能其实非常的简单,完全也不需要用到翻译,而且当我们在跟语言模型对话的时候,它是完全支持我们中文对话的。 这里我们向下滑可以看到官方总共给了我们七个功能,从上向下分别是图像、语音、语言聊天、模型、花园以及手机操作。 我们就先从最基础的开始 ai chat, 也就是我们常用的文字聊天。那我们打开这个 ai chat 之后呢,可以看到它底下有五个模型给我们选择, 其中三个是胶码三,还有两个是胶码四,那我们这一次主要针对是胶码四,所以我们就选择上面两个胶码四,然后这个胶码四它分为 e 二 b 的 模型和 e 四 b 的 模型, 这两个我们要怎么去选?就是主要是看你的手机性能,如果你的手机性能稍微好一点,你就选择这个 e 四 b, 如果你的手机性能稍微弱一点,那我们就选择这个 e 二 b, 那 我现在演示的这个设备是十六 pro max, 那 我们就选择 e 四 b 这个模型。当然你在使用模型之前是需要先去下载的,所以我现在就点开这个 e 四 b, 点出来 it, 然后进入到模型之后给大家做一个演示。首先我们先给他打个招呼,你好吗? 哇,可以看到他这个回复速度真的是超级快,我之前一直认为这种手机跑的模型应该会很慢,没想到他的速度还是很快的。然后我们再问他一个,你是什么模型?你能为我做什么? 看到他这个吐字速度真的是超级快,那这个速度呢?对于我们大部分人来说已经是超越了我们的阅读速度的,所以如果你是日常聊天或者写写论文啥的,这个模型对于我们来说是完全足够用的了, 当然这只是最基础的文本聊天。那我们再去下一项看一下他的图像测试怎么样?那我们现在就已经到了他这个图像测试窗口了, 我先给他一张图片,这张图片呢是一张上海滩的图片,让他看一下他对这个地标啊,还有图片内的内容识别度如何。 ok, 在 经过大概五秒钟左右的思考,他已经给了我们答案,然后他说这是上海的城市景观没错,然后他说这是上海中心大厦, 这一点我不知道哎,他好像把东方明珠论成了上海大厦,虽然这两个地标中间只隔了零点八公里,但是我没有在图片中找到这个这个中心大厦这个东西, 然后他说这是独特的双层球体啊,那看到了是建筑认错了,但是其他的关于黄浦江还有其他的描述倒是正确的,就是单独认错了这个东方明珠和中心大厦这个地标建筑。 ok, 那 我们就再给他一张东方明珠的照片,但是这是我们给他夜景的照片,看下他识别度如何。 可以,他已经给了我们回答,他说这是上海的夜景,然后地标是上海中心大厦,那看来他还是认错了这个地标,他依然把东方明珠认成了中心大厦。 其实我不知道他这后面这个逻辑是什么,有没有一种可能,他是去网络上找了类似的图片,然后类似图片说这个地方是中心大厦,所以他就给我们说这个是中心大厦的,我觉得应该大概率是这样。 嗯,有知道的小伙伴可以打在这个屏幕上,那我们就先不纠结这一点,我们进行下一项测试, 现在我们来试一下他的语言听写能力,然后这次我们依然还是选择这个 e 四 b 模型,我先给他发一段语音,你好,你能听得见我说话吗?现在时间是北京时间四月九日,看他能不能给我们提取出来。 可以看到它已经完美的提取出来了我语音说的内容,并且没有误差,那看来它对中文的这个听写能力支持还是很强的。那我们进入下一项功能, 然后这个功能呢?叫做 agent skill。 相信大家对 skill 这个单词已经是很不陌生了, skill 是 什么意思呢?就是一个技能, 然后谷歌目前官方里面给我们默认是内置了八个 skill, 但是其实它最重要的是什么?最重要的是它这个 skill 是 允许我们自己再去添加的,所以我认为这是这个 app 里面最具有 可玩性的一个功能。就是我还记得前一段时间在网络上很流行一个叫做前任 skill, 就是 把自己的前任变成一个技能,然后放进他们的 open cloud 之中。那现在你不用放进 open cloud 了,也不用打开电脑了,直接在手机之中就可以操作了。嗯, 我相信后面会有很多人去专门为手机的这个开发 skill。 那 这个 skill 我 也就不多说了,因为目前我这里只有官方的八个默认 skill, 然后默认 skill 都是比较基础的啊,说的也没有太大的意义,大家自己后期自己去 自行尝试一下就行。然后我们来到下一个这个红色的按钮叫做模型实验室,这个应该是对于比较极客的玩家用的比较多,那我们大部分的普通玩家呢,是很少也几乎不会用到的一个功能, 所以我们这里就不过多传输。然后下一个绿色的这个是迷你花园,是谷歌官方出了一个专门用来语音玩游戏的一个小功能吧, 也没有什么好说的,因为他是英文交互吗?嗯,大部分人可能也就是藏着新鲜进去看一看,也没 什么好玩的。所以我们来到最后一个,也就是我认为第二可玩性比较高的一个功能,叫做手机操作,那他顾名思义呢,就是可以直接操作我们的手机,那我们现在点进去看一下, 那我们点进来之后可以看到他首页是说他有最基础的五个技能,第一个是开关手电筒,第二个是创建联系人,第三个是发送邮件,第四个是在日历中创建,第五个是 在地图中搜索,那这应该是最基础的,我不知道他有没有其他的功能,但是我们可以先把他的基础功能先试用一下展示一下给大家看。 我这里是让他打开了我的手电筒,然后他确实也打开了我的手电筒,然后我们来试一下,让他关闭手电筒,嘿,然后他也成功的关闭了我的手电筒,然后我们最后来测试一下他能不能在地图中展示, 可以看到他是直接调用了苹果官方的这个地图,然后打开了我要他搜索的地点,但是这个功能怎么如此的似曾相识呢?感觉有点像被前段时间被全网封杀了。豆包手机 太眼熟了,只能说太眼熟了。 ok, 相信大家看完以上的教学视频之后,都已经成功的安装好了手机端的胶码四,也对他的所有的功能呢都有了一个初步的了解, 在手机端部署大模型,不仅仅是拥有极高的隐私安全,还支持在没有联网的情况下使用,真的可以说是开启了一个 ai 的 全新时代。那么本期视频到此结束,咱们下期再见!拜拜!

大家好,今天来给大家实测一下,把 jam 四部署到手机上,到底能实现些什么?视频内容有点多,感兴趣的可以慢慢看完。首先是 ai 聊天,我先把手机切到飞行模式,全程离线使用,可以看到我问他能做什么,他回复的很流畅,反应速度也很快,注意回复这里我全程无加速。 然后是图片识别功能,我随手拍一张照片,问他看到了什么,他能很精准的识别出画面里的细节,解析的特别清楚。还有这个手机指令控制,我直接语音说在地图里找到北京,他立刻就能理解我的意思,自动打开地图应用。虽然现在没网加载不出来, 但整个指令识别和调用应用的过程都是在本地完成的,体验很惊艳。唯一不足的是他听不懂中文,只能英文沟通。还有这个小花园互动游戏, 我说在八号坑种植物,它就能听懂并执行操作说明模型,对自然语言的理解和交互能力都很强。这里依旧听不懂中文,只能英文沟通。最后是提示词工具箱,不管是改写文案、总结文本,还是写代码, 离线状态下都能直接生成,非常方便。整体体验下来, jam 四把 ai 能力真正做到了手机端本地化,不用联网,隐私性更好,功能也足够实用,未来手机端 ai 的 体验真的会越来越强。

继谷歌发布 jim 四后,在 ios 平台又悄悄上架了一款 ai 应用 google ai h gallery, 让 jim 小 模型可以在 iphone 本地离线运行, 不需要联网,飞行模式也能用。而且谷歌这次给的还挺全,多轮对话、图像问答、录音、转写,甚至还有个小游戏 a 阵的模式,能让 ai 帮你操作手机,比如开关手电筒、创建日历事件,关键是免费,无需账号, 不要 a p i 密要。最有意思的是,这款 app 在 苹果芯片上跑本地模型的效率很高, jim 四的一二 b 和一四 b 两个小尺寸版本, 这是为手机端设计的,上下文窗口达到一百二十八 k, 日常用完全够了。当然,目前 app 只有英文界面,而且建议 iphone 有 六 gb 以上运存。不过它已经让人看到了一个趋势,以后手机里就能跑大模型,云端那套按 token 收费的生意怕是要被重新定义了。

谷歌终于坐不住了,正式卷开源市场, jm 四的效果到底如何呢? jm 四的发布啊,真的有可能让我们实现头很自由。这期视频呢,老张给大家简要介绍一下 jm 四怎么安装到本地,以及如何搭配到我们的 open klo 大 龙虾上, 附带所有的安装步骤啊,大家可以一起来体验一下。后续呢,老张也会根据测评效果给大家接着发视频,这期是我们完整的部署流程,老张重点给大家简单聊一下,就是为什么 jm 四的发布啊,会让大家感觉谷歌真的开始卷起来了呢? 首先第一点,他和目前谷歌的 jimmy 三用的是相同的技术基座啊,所以说他的能力是毋庸置疑的。第二点就是商业自由,你直接部署下来做什么都是可以的,都是允许的。然后第三个就是支持多模态,无论是文本、图像甚至小规模的视频音频, 他都可以直接支持。第四点就是结合前段时间爆火的 open klo, 他 可以直接在本地对接 open klo 以及对接 klo 的 code, 实现本地的偷根无线化。这是老张给大家总结的四点,为什么詹姆斯的发布会让大家感觉,哎,可能真的要进入到一个新的纪元, 然后呢,他所发布的这四款模型呢?老张给大家做了一张图片啊,大家可以到时候把它截下来。第一个模型一二 b 的, 他本身是用于手机或者边缘设备八 g 显存, 然后最高端的三十一 b, 他 所对应的旗舰版本呢,是对应的是二十四 g 加,所以大家根据你的需求来进行对应的模型选择。老张这次视频呢给大家来看一下三十一 b 的 这款模型的安装, 然后关于本地的安装部署啊,其实非常简单,任何开源模型,其实我们只需要让他和欧拉玛就是那个小羊驼结合到一起就可以了, 我们可以去一下欧拉玛,之前没有安装欧拉玛的兄弟们也不用担心,直接去他官网安装即可。一个羊驼啊,现在已经开始玩龙虾了,但是这个不,这个是我们,我们首先 现在官方已经开始逐渐的把羊驼和龙虾结合到一起了,我们直接选择对应的登录的,然后找到你符合要求的版本,直接安装到您的电脑上就可以。安装成功之后啊,欧拉玛现在已经有了一个完整的应用端了,所以大家可以直接在这个位置和他进行对话交流。 那我们想要下载詹姆四到你本地的电脑上,我们可以使用它的官方指令找到官网的 model 选项,然后这有一个詹姆四,我们进入,他会告诉我们直接怎么样去进行詹姆四的对应安装,像老张想安这个三十一 b 的 对吧?我们就把它拿过来, 把它直接这有一个 c l i 命令行安装方式,把这个东西直接复制在你的开始菜单中,单机右键选择运行,输入 cmd, 直接把刚才指令粘贴过来,这儿的时间会很长,因为它有二十个 g 的 大小,我们直接稍作等待 安装成功之后,我们也可以直接回到它的客户端中,在模型选项上找到我们安装好的詹姆斯冒号三十一币, 然后可以直接进行对话,老张他处理一个较为复杂的提示词,我们让他看一下当前显存的内存消耗, 咱们拿这个 ai 慢距的提示词来测试啊,这个提示词非常的长,我们看一下他读取提示词的能力,以及他的这个显卡的性能消耗。我们看一下啊,这个显存直接拉满的达到了百分之九十四的占比, 而且这个响应速度还是非常快的,只需十一点七秒啊,就把整体的业务流程给我们直接补齐了,而且呢按照需求给我们进行了对应的提问,要什么样的慢剧效果,所以说以目前的测试反应来看呢,他的这个响应速度起码要比之前的很多大模型要好的多, 所以接下来我们自己来尝试一下对话类的工具,可能大家都不是很需要的,我们能不能把它接入到我们的 open klo, 接入到我们的龙虾里,让他们俩来进行联动的。然后这期视频呢,老张顺便给大家提一下,就是最新版的 open klo 的 部署流程 啊,咱们可以快速的去过一下一些重点的细节,因为之前老张发过很多期的部署视频,咱们可以去到时候去看一下。只不过这期视频呢,我想给大家来讲解一下这个 wsl 的 这个部署优势。 很多兄弟看老张之前视频都是用 note 直接下载安装的,但是为什么老张最后给大家又转回到了 wsl 这一块了呢?因为它本身啊, wsl 它是相当于在 windows 系统上安装一个 linux 的 独立系统, 这样的话呢,就直接相当于在你电脑上安装了一个独立的存储空间,它所谓叫做沙盒安全,而且运行起来呢,是不会有任何的兼容性的对应问题的,因为 windows 中啊,它的权限呐,路径等经常会报错。所以说我们这 期视频重点教大家怎么用 wsl 进行 win opencl 的 部署安装,这样的话, windows 和 wsl 的 安装您都了解之后,之后学起来就非常方便了。 然后接下来呢,老张给大家简单的介绍一下在 wsl 中如何安装我们的 openclaw, 因为之前呢,咱们介绍过太多次了,很多兄弟留言说老张就别介绍怎么安装了,然后我们就给大家简单说一下注意事 项。首先第一呢,你想在 wsl 上安装 openclaw 的 话,第一点,你得先在你的 windows 系统下把 wsl 安装一下。当然很多电脑老张发现其实都是自带的, 怎么检查是否自带呢?咱们可以直接输入 wsl 空格,杠杠威森,如果弹出定的版本号证明 wsl 电脑已经安装了,如果没有弹出的话,使用安装指令, wsl 空格 insert 直接安装即可。然后紧接着按照老张给你提供的指令复制粘贴就可以了。先安装你的优班 图,安装之后啊,在这选择这个倒三角,找到优班图系统,就可以直接进入到你的优班图系统当中。 在你安装过程中啊,它会让你设置一个用户名和密码,到时候可能需要做一步密码验证。在优班图系统中,注意是优班图系统中运行这些环境指令,分别安装 python 三、安装一个压缩包工具,方便安装一个 note 点 gs, 然后再安装一个 get 工具。 如果说为了检测每一步安装是否成功的话,你可以分别输入,比如 note 杠 v、 npm 杠 v, 包括 get 杠 v, 在 这检测我们对应的这个版本,如果都能弹出版本号,证明你三项安装都是成功的,这是配置 openclo 的 基本的内容要求。 然后紧接着我们把基本环境配置好的兄弟,你还需要在这个位置安装一下这个欧拉玛。 这老张要重点说一下,比如说老张我不在本地都已经下载好欧拉玛了吗?为什么在优班图里还需要再配置一下?其实我们优班图中是可以调用本地的欧拉玛的,但是很多兄弟在调用过程中分别给老张留言说说调用时无论是 ip 地址找不到,还是 ip 的 动态变化,导致每次都需要重新连接,重新配置。 所以说最简单的方式就是把欧拉玛在你的优班图系统中再次的安装一遍。其实安装非常简单,只需要把第一步的安装指令复制过去,直接在这个位置直接粘贴即可。安装成功的检测方式很简单,你就输入欧拉玛, 如果他不报错,还给我们对应的选项,是咱们是进行对话呀,还是怎么样的证明你的安装就是成功的, ctrl c 直接退出。 所以说欧拉玛安装之后,紧接着就是把我们的模型在当前的优班途中跑起来。老张刚才给大家测试的是 g m 四三十一 b 模型,我们直接输入指令欧拉玛空格 run, 然后你的模型效果直接回车,第一次时他会直接进行对应的模型下载。 如果说你现在只想用 openclo 来调用欧拉玛的这个占四的话,可以在我们的本地电脑上把之前咱们那个桌面端给它删掉,如果说你不,你想两端都使用的话,就可以直接在这个位置进行使用了,然后发一个你好看一下响应速度, 响应速度是非常快的,所以接下来我们把这个家伙欧拉玛的詹姆斯直接部署给我们的 openclo, 在 这怎么中止对话,摁一下 ctrl c, 再摁一下 ctrl d 啊,就可以直接进行中止对话了啊,所以说大家可以直接的把它退出来, 退出来之后我们在这部署一下 openclo。 关于 openclo 的 安装呢,官网推荐是使用 col 这种安装方法,但是老张发现很多兄弟在使用这种安装方式时呢, 出现了这个网络问题,导致下载出现卡顿,如果说 col 的 方法报错的话,直接使用 npm 安装也是完全可以的,安装完之后直接输入 open klo 空格杠 v 来输出最新的 open klo 的 对应版本啊,这就是老张跟大家说的一些建议啊,大家按照这个要求去做就行了。 然后接下来我们进入到配置,直接使直接输入它的配置指令回车,选择 yes, 然后选择快速开始就可以,我们直接配置一下模型, 然后选择更新,这选择谁呢?选择这个欧拉玛啊,然后选择默认的这个 ul, 选择本地模型,让他去给我找一下咱们本地有哪些模型,稍作等待 好,选择当前的这个模型, gm 四三十一 b, 然后配置我们的聊天软件啊,这个老张之前讲过太多太多次了,现在呢,他又支持了很多,包括 qq 之类的,大家有需要的话可以按照之前老张的教程再来一遍,我们先跳过 打开之后啊,就可以直接对话了。但是如果说善于观察的兄弟们也发现了,老张呢,把这个使用模型呢换成了这个一四 b 的 模型,不是那个三十一 b 的, 因为三十一 b 呢,老张在测试的时候也好,或者在一些使用时候也好,他有的时候会出现这个连接超时的问题,也是 open klo 更新到最新版本出现了一个能启动问题, 这个呢,老张现在还没有特别好的解决方案,所以说我先用 e s b 的 给大家进行演示,发一个。你好,我们来测试一下他的响应速度啊,还是比较快的。 然后接下来呢,我们再把之前的那个慢句的提示词发送过来,我们来看一下他能不能更好的帮我们去进行慢句提示词的对应理解,以及对应的相关反馈。 嗯,其实我们看到啊,他反馈的这个结果呢,和三十一 b 相比啊,真的是有一定差距的,但是呢,确实也是另一方面实现了我们所谓的叫偷根自由。 大家呢也可以后续啊,去测试一下怎么让本地如果你的显卡够用的话,把这个大模型给它跑起来,然后老张呢也会及时给大家更新啊,无论是在评论区中还是视频中,教大家如何使用,我是程学老张,定期分享 ai 好 用知识,希望大家多多关注。

开发者和程序员狂喜!谷歌四月正式发布全新开源 ai 模型杰玛四, 代码生成,逻辑推理能力直接拉满,而且完全免费商用!谷歌发布了杰玛系列的全新开源大模型,杰玛四分为四 b 和八 b 两个版本,不仅在逻辑推理、代码生成、数学计算等核心能力上全面超越上一代版本, 性能对标行业顶级的闭源模型,而且完全免费开源,个人和企业都有免费使用,二次修改,甚至可以商用。 对个人开发者、小公司来说,这相当于直接拿到了谷歌顶级的 ai 技术,不用再花大价钱训练模型,就能做出自己的 ai 产品。 开源和闭源的竞争已经成为 ai 行业的核心主线,以 open ai 为代表的闭源阵营,靠顶级性能收费,而以谷歌美塔为代表的开源阵营,靠免费开放技术抢占市场份额,吸引开发者。 而这场竞争的最大赢家就是我们普通人和中小公司,我们能免费用到越来越强的 ai 模型,彻底打破了巨头的技术垄断。给大家两个建议,第一,如果你是程序员、 个人开发者,立刻去体验吉马仕,用它来提升你的开发效率,甚至基于他开发属于自己的 ai 产品插件,抓住 ai 开源的红利。 第二,如果你是普通职场人,多关注基于杰玛斯开发的各类 ai 办公工具,这些工具大多免费,功能强,能帮助你大幅度提升工作效率。你平时用的最多的开源 ai 模型是哪一个呢?我是 eric, ai 实时资讯与你分享,拜拜!

我训练了一键谷歌翻译二十次和胡言乱语, ai 续写的模型可以在爱发电搜索马克纳下载模型。 模型是基于 rwkv 训练的,所以需要在 github 上搜索 rwkv, 或者直接输入 rwkv 网址。小白可直接点击右侧 releases 下载 rock runner runner windows x 六十四 exe, 跳过本地部署一键安装。 安装完成后,将下载的模型移动到 models 文件夹内。以谷歌翻译模行为例,点击配置 模型,选择 translate 二十 times 三 b c he q 大 需英伟达显卡,没有英伟达显卡可以无脑选择 c p u c p u 推理速度最慢, 内存占用最高,但兼容性最强,不用过多的设置就能跑。其他 strategy 可能需要把 p t h 模型转换成其他格式才能使用。 精度选择 f p 十六,第一次运行会报错,点击安装排放依赖,安装完成后再次点击运行即可读取模型。由于我的训练数据是这种形式的,所以需要把各种语言先机翻成英文, 然后输入 translate this into chinese english 冒号之后进行生成。 以观众朋友们的评论为例,每句话尽量长一些,可以给 ai 足够的发挥空间,比如这位观众朋友的评论字数比较多,很合适。首先击翻成英文,然后输入到 r w k v 里,点击生成, 出现了我用声音模型把马歇尔那个人吃了,希望你能理解,大家也可以多生成几次,可能抽出更有节目效果的句子, 再换一条评论。还是先机翻成英文,然后输入 r w k v 生成了我的下巴,和九十八首歌一起填入您的谷歌谷母、谷客、谷客谷思、谷米里去,有时会生成这种意义不明的句子,可以多生成几次试试看。 接下来展示一下 ai 胡言乱语续写模型,这个是一点五 b 模型,需要的配置更低。读取模型后点击续写,点击写作,就可以直接开始 ai 续写了。 之后每隔一段时间我都会增加训练数据,完善模型。感谢观看。

公主,你现在看到的就是谷歌最强的开源模型加码四,可以看图,能听音频,也有不错的推理机制,最重要的是完全免费,给我几分钟,从零开始,将加码四部署在自己的电脑上。我们直接开始 先花一分钟和大家聊一下贾马四是什么?它是谷歌刚发布的开源 ai 模型,跟商业版的怎么奈同根同源,你可以理解为谷歌把自家最强的 ai 技术浓缩成了一个免费的版本,直接送给你用。 那么它好在哪里呢?三个点。第一,多模态,不只是聊天机器人,你可以发图片让他看,发音频给他听,还能写代码。 我们可以看看这张表格,横轴是模型的参数体量,而纵轴就是性能表现。贾马四以满血版的性能表现和千万的三百九十七 b 的 模型能力基本持平,关键在于它的体量只有千万的十分之一,这真的非常夸张。 第二,完全免费,不用充会员,不按 token 收费,并且可以商用,你可以模改它做成各种有意思的本地模型,拿去做产品也没有任何的问题。第三,隐私安全,因为跑在你自己的电脑上,所有的数据都不会出,你的电脑拿它处理合同,财务,私人物件,不用去担心泄露。 ok, 我 们直接动手。你现在只需要打开一个浏览器,然后把它放到全屏上,直接官网上搜索欧拉玛点 com 啊,然后这个东西就出来了。然后你只要点击整个画面的一个右上角 download, 看到没有?然后你可以选择你是 mac os 系统还是 linux 还是 windows, 我是 mac os, 那 你就直接点击这个 download from mac os, 然后我们就可以看到这个画面上的右上角应该是会有个下载的链接, 然后等它下载好就可以了,因为我这边其实已经安装好了吗?那么我这边的最终的一个输出效果的话,大概是在这里。你们下载完了之后,打开你们的桌面上的欧拉玛,你们看到的应该是现在这样子的一个画面,那就说明你已经安装成功。 佳马仕一共有四个版本,你可以根据你的电脑配置进行模型的选择,模型的能力越强,所需要的配置就越高。对于内存小于三十二 g 的 玩家,我建议大家直接安装一四 b, 三十二 g 及其以上,可以试试看二十六 b 和三十一 b 的 参数量, 其实这两者模型的能力大通小异,如果你是为了极致的精度,可以选择三十一 b, 但是在我看来,二十六 b 呢,其实是一个非常甜点的位置,达到了速度和精度的一个平衡。如果你不知道你的电脑内存是多少,这里针对 mac 用户,你可以选择终端输入这行命令。 而 windows 用户你可以点击 win 加 r, 点击回车,召唤出来你的终端以后,然后再输入这个命令,也可以显示出你的内存。选择好对应的模型,我们只需要打开终端,和刚刚一样的步骤,根据模型输入指令直接回车即可。等待模型下载好,打开你的 oala, 选择模型就可以开始了。 ok, 我 们打开我们欧曼的软件,你点击这里,然后往下滑,你就可以看到你刚刚已经安装好的这个佳马仕。我们来问他一个很有逻,就是说很有那个逻辑陷阱的一个问题,就是我今天要去洗车,但是只有一百米,你觉得我是走路去还是开车去? ok, 我 们来看一下他的一个答复是怎么样子。 这是一个非常有意思的一个逻辑陷阱题,我们可以从不同的维度去分析。逻辑层面上来说,必须开车去, ok, 这一点已经很棒了啊。 那如果说是从脑筋急转弯角度上来说,他说如果你走路去,那么你是在散步,而不是在洗车。哦,也就是说他分为了三个维度,一个是脑筋急转弯,一个是实用主义层面,还有个就是逻辑层面。我们来看一下他这个佳马仕的这个逻辑能力。哎,你还真别说这小参数,但他的表现还是不错的。 那么 jamas 它的一个很大的优点就在于它其实是支持这个多模态的。我们来不妨给他上传张图片,我们来看一下。 ok, 那 么我们上传一张什么图片呢?哎,上传张这个图片,你们看怎么样啊?就是这是一朵花,然后有个太阳,有一本书,我们来让他看看。我说,啊,描述一下, 描述一下这个图片,我们来看看他的多模态识别能力怎么样?说实话,本地具有多模态识别能力的模型,而且是能够你自己去模改的,其实并不是很多。我们来看一下。 ok, 一, jeff 二,然后 jeff 三,给了几个他看到的一些画面。好,我看他现在在思考和输出。这张画面充满了诗意,唯美且带一丝忧伤。 画面主体是一本翻开的书籍。哎,确实是对的,背景与中景是一个画面,然后呢,躺着一只洁白的玫瑰,然后背景是有一个夕阳,散发出这个温暖的金橙色光芒,哎呦,很不错,你们发现没有,是不是很棒?就是说他好像 表达的还是很到位的,但是因为呃,我其实本来还是想测一下这个关于音频识别和这个视频识别的,因为这个佳马仕它也是支持视频识别的, 但是因为欧拉玛官方不太支持,所以大家可以自己去谷歌 as do do 上面去玩一玩。所以总的来说,其实通过这么两个比较简单的测试,它当然不够严谨,而我觉得感受来说的话,这个香奈儿丝还是 真的是能够在本地帮我们处理一些比较复杂的一些任务的,就是在文字层面以及去多模态识别能力上来说,是一个比较抗打的模型。 看到这里相信你一定会明白, olama 本身是一个模型管理器,你当然也可以不用贾马四,你可以选择开源的 deep stick, 千问等等,其他的开源模型还是同样的命令,一键配置就可以了。 本地捕鼠的最大优点就是保护你的隐私,模型的使用不会受到任何的限制,同时也可以支持模型的微调,让它更合你的口味。下期我打算教大家小白如何从零到一,微调自己的本地模型,感兴趣的可以点个关注,我们下期再见。

兄弟们,我把我这个白嫖呃,这个谷歌 ai 一 年的方法给大家分享开源了啊,这是我的这个套餐 还送了五个 t 的 什么空间总容量五个 t, 别人的好像都是两个 t, 还有什么信用分,还有这什么乱七八糟的一堆福利东西啊,这就是我的一个账号, 可以生成视频,也可以生成一些呃,图片以图生文,图生文什么的乱七八糟的,然后在这上的右上角有个专业的东西,看到没有?专业还有说明你是一个会员账号, 他可以在你的会员里面进行管理,看嘛到期日期非常 nice。 然后我这个方法非常的简单,知不知道直接三分钟搞定,不像别的博主乱七八糟的啊,要认证要啦啦啦啦。哎呀, 真的不适合新手,我这个就比较简单了,需要的话你直接私信找我,我免费分享给你。

bingo, 家人们准备好实现 tiktok 自由了吗?相信大家这几天都听说了谷歌发布了最强的本地开源模型揭幕四,那么有人就要问了,这跟 tiktok 自由有啥关系呢?反正我的电脑又跑不动,那我来告诉你,这款模型它甚至可以在手机上入手,而且重点是它的三十二 b 版本,甚至 几乎堆平一千一百个模型,但它的大小才增加了三十分之一,这是什么概念?相当于你十年前的老电脑都能跑,因为这家伙才六个亿。那么话不多说,现在我就来教大家如何在电脑上部署这款谷歌最强开源本地模型,均码式实现偷啃自由 开始,首先第一步呢就是我们要打开我们的浏览器,在这里面我们需要先下载一个欧拉玛平台,因为我们的模型是需要有一个平台才能跑的,然后目前市面上主流的就是欧拉玛这个平台,然后我们点一下进入它的官网, 进入官网之后呢,可以看到右上角有一个黑色的按钮,登录的就是下载,我们直接点一下登录, 进入之后他会有三个选项给我们选择,也就是说你是哪个系统的版本,然后我这边是 windows 系统,所以我就直接选择 windows, 然后下面有两个安装的方式,分别是在 power show 里面安装,还有一个是直接在浏览器下载安装,这边为了我方便演示,我就直接选择 download 或 windows, 直接在浏览器里面下载, 点击之后可以看到这个浏览器已经在下载我们的欧拉玛了,然后这个时候我们就等待它下载完就可以了,但是我这边在演示教学之前已经下过这个文件了,所以我就再下一遍,我直接点开这个,然后我们双击它开始安装, 当我们双击运行这个 r 码之后,他会给我们两个选项,我们直接点这个 install 开始下载就可以了,然后我们静静等他下载完,下载完之后我们就可以进入到下一步选择模型。 放完之后,我们这一步来到模型市场上去选择我们的加码模型,模型在这个页面,在这个链接我们点进去, 点进来之后就可以看到这个是詹姆斯的下载地址,但是我们不要着急去下载,我们第一步要先看我们的电脑适合哪一种模型,那怎么去判断自己的电脑能带动哪个模型呢?我们需要用到就是查看自己的电脑显存, 因为每个人的电脑型号都不一样,所以这一步呢,我建议大家直接去问 ai 怎么查一下自己的显存, 然后我这个电脑是六千一百四十四,也就是六千一百四十四除以一千零二十四,我这个电脑就是六 g 的 显存,那么六 g 的 显存呢?我们来到这个模型市场,我们可以选这个 e 四 b 这个模型,因为再大的 模型我们这个电脑就吃不下了。当然如果你的电脑有三十二 g 以上的显存,我是比较推荐二十六 b 或者三十一 b 的 这个模型的。嗯,但是在三十二 g 以下的电脑我都是比较推荐,就是不要上那么大的模型,用一次 b 就 足够了。 然后我们进入这个页面之后,可以看到欧拉玛的官方是给了我们一条终端指令,然后我们复制下来,回到我们的终端, 然后滑到最下面,我们右键粘贴点回车,然后这时候就开始下载这个模型了,我们等待这个模型下载完之后,就可以进入到下一步测试模型。 ok, 那 这样这个终端界面出现是 size 的 标识的时候,就代表我们已经安装成功了。然后我们打开我们的 rama, 进入之后呢,我们滑到这个最底下,就可以看到这是我们刚下载的模型 e 四 b, 我 们点他, 点完之后,我们开始试着跟他对话一下,给他发一个你好吗?然后进入这个思考,基本上就可以确定文本对话是没有问题的了。好,他已经给了我们回答,然后我们现在开始做一下图像测试,给他一张图片,然后帮我看看这张图片有什么, 在左边是一个男的坐在车上,然后呢后面是海,看他会不会准确识别出这个回答, 他现在已经给了我们回答,他说这是一辆白色的大众,然后人物的描写和文字的标识 以及地点,沙滩,海水,山体,甚至天空的色彩以及光线都给我们描述出来了。 那看得出来他这个扎马四对于图形的形容还是非常的细致的,大部分我们能看得见的,看不见的他都能识别,而且也很准确。 ok, 相信大家是经过上面的教学步骤后,都已经成功安装好了扎马四模型。之后呢,大家不仅可以把这个欧拉玛接入你们的龙虾或各个支持本地模型的软件中,实现真正的 token 自由,而且这个模型是典型 通用模型,不仅仅可以做到语言聊天,还能做到识别图像,提取语音。最重要的是它是全本地运行的模型, 可以真正的做到离线用的,同时还不用担心任何的隐私泄露等安全问题,你可以放心的交给他处理你的一切文件,例如知识产权、医疗记录、诉讼材料、商业计划书等等,因为他只是属于你的本地模型,他不会泄露你的任何文件。 好的,那么咱们这期视频就到此结束,希望大家看到我的视频有所收获,咱们下期再见!拜拜!

假如你能像使用叉 g b t 那 样却完全免费,毫无限制,并且在电脑或手机上离线运行,会怎样? 这正是谷歌刚刚实现的。他们发布了名为 jam 四的产品。这是一个你可以自行下载并运行的人工智能模型, 无需订阅,无需注册数据,决不离开您的设备。在这段视频中,我将向您展示如何在 mac 手机上搭建它,与叉 gpt 进行侧面对比,甚至演示它在飞行模式零网络环境下如何在手机上运行。咱们开始吧。 好的,那么首先,为什么 jam 现在这么火?它是谷歌最新的人工智能运行,咱们开始吧。好的,那么首先,为什么 jam 现在这么火?它是谷歌最新的不同,你无需订阅, 你甚至不需要联网。你下载它,在你的机器上运行,它就完美工作了。它采用 apache 二点零发布,这是目前最宽松的开源许可证之一, 用它做任何事,个人商业无限制。市面上还有其他开源人工智能模型,但 jam 四之所以备受关注,是因为其性能和品质相当出色,尤其是对于一款在本地运行的模型而言。 这款产品源自与 jimmy 三相同的研发成果,后者是谷歌最顶尖的闭源模型,他们基本上把自己最好的东西拿出来,然后说这里大家都能免费拥有。而且它不只是处理文本,它能理解图像较小的模型,也能理解音频。 它能调用函数和使用工具。而在更大的模型上,上下文窗口可达二五六零零零零 token。 而且在大模型上拥有二五六零零零的上下文窗口,你可以喂给他一整本书。在 irina 人工智能排行榜上,这个拥有三百一十亿参数的模型在所有开源模型中位列第三。两百六十亿参数版排在第六, 其中一些甚至能击败比他们大二十倍的模型。这不只是另一个开源模型,而是一场真正的改革。 jam 四有四种尺寸,一二 b 有 效餐数量。二十亿是最小的版本,专为手机和边缘设备设计, 快的离谱,几乎不占内存。最疯狂的是社区机准测试显示,他在多项任务上的表现堪比 jam 三的两百七十亿参数模型,那是他的十二倍大。 接下来是一四 b, 有 效参数量为四十亿,依然能在手机上运行,但推理能力更强了。原声支持图像和音频。然后是二十六 b 混合专家模型 m o e。 他拥有两百六十亿总餐数量,但在任意时刻仅有约四十亿,处于激活状态。聪明,像二十六 b 模型一样,运行起来却像四 b 模型,这才是最佳点。这就是我在麦克上安装的那个。 最后是三百一十一参数的稠密全量旗舰版,每个参数都时刻处于激活状态。最强大但需要强大的硬件。全部四种都支持文本和图片输入, edge 模型也支持音频。 现在让我展示一下我是如何搭建这个的。我正在使用 lm studio, 这是一款免费应用,允许你在本地下载并运行人工智能模型,无需编辑代码。看起来和叉七 b t 应用差不多。 我刚安装了 l m studio, 打开它后,在这里搜索了 jam 四有多个版本。 我下载了二十六 b m o e 版本,大概十八 g b, 所以 得花点时间。完成后,你可以打开新聊天窗口,选择我们刚下载的两百六十亿参数模型,然后开始像和 chat p t 那 样聊天,只不过全部是本地运行, 这就是我最喜欢的地方。没有令牌限制,你不用盯着用量表看。你不必担心达到上限后被锁定四个小时。 你可以整天随心所欲的尽情使用它。现在这个模型属于你了。 gm 四,还支持原声工具调用和功能调用。现在是我承诺的对比环节。 我让两个模型创建一个 html 文件,以信息图风格介绍 jama 四,并添加动画效果。流畅的动画,整洁的设计统计数据动态呈现,这就是代码设计与创意的完美结合。 看看 jamf 给了我什么?完美运行的动画。 html 页面布局整洁,动画流畅,排版考究。我在浏览器中打开了它,只有 cloud opus 能为我生成可用的版本。 一个在设备端运行的模型,在不消耗任何 token 且不联网的情况下完成这个任务简直疯狂。事实上,我认为用 lm studio 运行的 jam 四生成 html 的 速度比叉 gpt 稍快一些,叉 gpt 的 版本更好,但我看到了很多幻觉。 舅妈的版本更干净,更接近我的要求,更重要的是它免费且安全。叉 gpd 需要付费订阅并将所有内容发送到云端。 它在所有方面都比叉 gpd 好 吗?不,叉 gpd 在 某些复杂推理上仍有显著优势,但对于日常任务代码和创意深沉,这个免费的本地模型绝对能独挡一面。你还可以教它按你的方式来工作。 我用一种非常特定的风格赚写平台脚本。我给 james 一个详细系统提示,说明我的风格。它适应的非常完美。你可以用它来处理邮件、格式化文档,项目管理等等一切。 而且因为没有令牌限制,你的系统提示不会降低回复质量。当模型属于你时,你就能将其塑造成任何你想要的样子。接着,我给他一张带有文字的照片,让他完全离线提取所有文字。 他做到了快速且精准,无需 ocr 应用,无需云服务,仅靠模型本地提取图像并提取文字。 我尝试翻译了一段其他语言的内容,并给了一张图让他理解其中的文字。一切运作方式都和 chat gpt 一 样,但全都在本地,且再次免费。想想这意味着什么? 航班上、偏远地区、隐私敏感场景,它就这么好用。现在这个演示让我最兴奋。 在断网状态下用手机运行人工智能让我展示给你看。我正在使用谷歌的 h gallery 应用,这就像谷歌搭建的一个测试游乐场。这里我下载了较小的以色列模型,因为手机硬件跑不动。拥有两百六十亿参数的超大模型。 好的模型已下载,飞行模式开启没有丢掉剪发,也没有蜂窝网络彻底离线。我会问类似这样的话。我想起草一封邮件给我的老板,告知他由于遇到意外阻碍,项目交付将推迟二十天。 jamaf 在 本地为我起草了这封邮件。数据未共享,速度还比慢速网络下的叉 gpt 更快。 那么谁该关心?让我说点实在的。 jamie 四不是那种打开浏览器就能用的 chatpt 代品。 有个设置步骤,你下载一个应用,选择一个模型,或许调整一下设置。如果你喜欢折腾并想要完全掌控一切,这就是你新的最爱。如果你用过类似 opencloud 的 东西,可以把这个看作同样的精神,但拥有更强的能力和安全性。 您的数据永远留在您的设备上。开发者,创作者,注重隐私的人,以及受够了订阅疲劳的任何人,这都是为你准备的。谷歌用 jam 四做了一件大事,他们将其最强大模型背后的研究成果开放给所有人,无任何附加条件。 真正能用的人工智能。现在能在你的笔记本手机上完全离线运行,完全私密,完全免费。一年前,这还不可能。如果你觉得这个视频对你有帮助,请在评论区告诉我哪部分最让你惊讶。订阅,以防错过更多内容,我们下期见。这边是散着呢,拜拜。

谷歌出的这个 app 确实有点东西,它能让 ai 完全在手机本地运行,不联网、不上传数据,免费无限量使用。尤其是搭配最新推出的谷歌 jam 四开源模型,用来给孩子学习使用特别好。手机断网使用 ai, 并且没有花里胡哨的功能,使用起来感觉很放心。比如娃学英语的时候,把英语学习截图发过去,让 ai 讲解语法知识, 只要几秒钟,他就把语法知识讲得清清楚楚,从知识点讲解到例句延伸,一个都不少。手机全程都是断网模式使用,可以有效防止孩子分心。我还把带有个人信息的化验单拍给他,让他帮我分析解读, 就算单子上有名字和医院信息也不慌,因为隐私数据根本没有离开过我的手机。还有这个内置的用自然语言驱动操作的 ai 小 游戏,用说话的方式种虚拟花园。比如你说在第一排种三朵向日葵,然后等一秒就会看到第一排的格子里种好了向日葵,没有任何按钮操作。虽然游戏很简单,但是用来启蒙孩子什么是 ai 还是挺不 错的。除了识图能力,其他它还可以文字对话、语音识别,甚至使用 agent 技能。除了谷歌这个,如果你也想折腾一下本地模型,还有两个选择,一个是 pocket pal, 它主要供对话场景支持的模型种类很多。另一个是 locally ai, 界面简洁,上手快。

重磅来袭,就在刚刚,谷歌趁所有人没防备,往 ai 圈扔了一颗真正的开源核弹。当其他科技巨头死死捂着核心代码收订阅费的时候, 谷歌直接掀了桌子,推出全新 jam 四模型,首次采用最自由的 app 二点零完全开源协议,免费送给全人类。别以为开源就是残次品, jam 四直接继承了谷歌亲儿子 jammy 三的底层技术,旗舰版支持一百二十八 k 超长上下文窗口, 能把整个公司的代码库一股脑塞进去让他分析。最恐怖的是,他天生自带自主调用工具的能力,已经不是只会聊天的机器人了。 网大了说,十二 b 和二十七 b 的 旗舰模型,直接让你在个人电脑上跑出前沿级别的逻辑推理和代码生成,机密数据再也不用上传云端。网小了说,专为手机和互联网打造的一二 b 和一四 b 模型,可以完全离线运行,几乎零延迟, 而且原声支持视觉和音频处理,是历代 jamah 首次加入这项能力。未来的 ai 就 长在你手机里,有眼睛有耳朵,不需要联网。谷歌这波操作不是在发布模型,是把大模型的图纸直接扔上了大街。 坦白说,工具免费只是第一步,真正的问题是你会不会用,不会用的人和没有这个工具没什么区别。想知道普通人怎么应用最新的 ai 技术?评论区留言,我一定帮到你!

有没有那种时候,你对着手机录了一段超重要的内容,回头整理文字的时候,一句一句手动打字,听到崩溃。尤其是采访录音、课堂笔记、开会记要 录了一个小时,整理却要花三小时。关键有些内容还涉及隐私,你敢上传到云端吗?就在本周一,谷歌在 ios 平台悄悄发布了一款神器,酷狗 ai h eloquent, 提现 ai 听写,专治各种隐私焦虑和整理焦虑。去哪找? 直接去 app store 搜 google ai h lwind, 完全免费下载,安装完之后需要下载一个 jama 语音模型,大概几十兆,下完就能离线用了。它的核心卖点就是所有音频处理全部在手机本地完成,不用上传到任何云端服务器。 你的会议录音、私人访谈、采访素材,谁也别想偷看,这才是真正的隐私保护。用法极其简单,打开 app 点录音,你一边说它,一边实时转成文字。 你看这个波形显示,全程不用等录完之后点暂停,好戏才刚刚开始。以前那些语音转文字工具,把你说的每个二啊那个全都原封不动记下来,念出来,像智障 laguuntlet, 会自动识别并过滤掉这些语气词,输出干净顺畅的文本。 你看,转录完成之后,下面有四个选项,要点,正视、剪短长版。开会记记要选要点,写邮件选正视,发微信选剪短,写详细报告选长版,一键切换,不用二次修改。几个真实场景,比如你对着手机说,呃,下周那个 周三上午的会议,我觉得,嗯,还是改到下午吧,因为上午有个客户要来,他直接输出。陈建议将周三上午的会议调整至下午,因上午有客户到访, 看到没,口语变,书面话都不用自己改。记者朋友、文案工作者,这不就是你们一直想要的神器吗?还有一个很多人不知道的功能,自定义词汇。如果你是医生、律师、程序员,有大量专业术语, 可以在设置里手动添加,以后每次听写那些生僻词,识别率直接起飞。更绝的是,它还可以从你的低没有账户导入关键词、人名和专业术语。 开会前把参会人员的名字、项目代号全部导进去,转录准确度大幅提升。转完的文字,它会自动保存历史记录,以后想找某次会议的某句话,直接搜索关键词就能定位,比你自己翻录音快一百倍, 还能看到你的语速统计每分钟说了多少字,累计总字数。谁最需要这个 app? 第一,学生党,上课专心听讲,录音交给 airquent 整理笔记, 不用边听边记,学习效率翻倍。第二,打工人开会不用带笔记本了,录完直接深沉会议纪要。 第三,记者、自媒体人采访录音,再也不用逐字听写了,导出文本就能直接当素材用。第四,所有在意隐私的人、律师、医生、创业者, 涉及敏感信息的录音,本地处理最安全。隐私党一定要记住,在设置里把银模式关掉,这样全程离线,所有数据一步都不离开你的手机。开启银模式的话,会调用银端,这么耐模型做更高级润色。 但如果你追求极致隐私,关掉它就对了。目前这个 app 只有 ios 版本,苹果用户现在就能去 apple store 下载, 安卓用户也别急,官方已经明确说了,安卓版正在路上,到时候还能设成默认键盘,在任何 app 里直接语音输入。最后分享一下,你想自己做同款科普视频,或者体验类似的免费文字转语音 画面,用剪映图纹成片,全程不花一分钱。详细步骤,我放评论区了,你现在最想让 ai 帮你整理什么内容?是课堂笔记、会议纪要?还是采访素材?评论区敲出来,我挑几个帮你分析怎么用最顺手。 对了,别忘了点关注,下期我要拆解一个超实用组合,用 luke 深沉会议文字稿,再配合剪映自动加字幕,一键深沉带字幕的会议视频。 这个玩法全网绝对没人讲过!我是陪你死磕效率的小 x, 觉得有用,别只收藏,转发给那个还在手动打字的同事朋友,咱们下期见,拜拜!