超简单的 token 中转搭建,喝水一样轻松。我们来到语音服务器,登录进来之后大家可以看到这个页面,我们点云产品,发现这里有个云应用,我们点立即购买。搜索应用我们直接搜 api, 这里有个 app, 我 们点击安装,那这里有一些简单的说明文档,我们点立即安装。 c p u 信寄吻可以把这个调大一点, c p u 建议是一 飞跃限制,二或者一也可以。以后到这里,我之前已经捡了一个创建中啊,运行了就可以看到这里共 ip 端口映像了,新区内网址 这个项目一会我会退掉它,因为我没有用这个衣服,我自己有服务器吗? 哦,我们来到服务这里,公网 ip 地址端口映设,我们的网址就是公网 ip 地址冒号 外部端口就可以。然后我们来到网站这里,这里一个加号,我们点击加创建网站。呃名网站名称, 这里顺便输一个域言,提供域名,域名可以自己买,但是就他自己提供的就可以了,我们单独买的话需要花钱, 这些不用管。应用 new api 到这里就可以了,这设置都很简单,创建网站 就是看到它有域名了,就是 a 七 t p ps 协议,如果我们直接是我们的 i 七, 它像端口的话,就是 a t t p a 协议,它会在浏览器里面报错,显示不安全,像我显得不是那么专业。好,我们就来到系统抽象这一步,非常重要,我们跟着走就可以了, 这里简单,大家过一下 对外运营模式,抽象系统。 好,这里就来到他的小艺友们,在文档里面可以看到一些秀说明 秀,秀文档操作演练,谢谢大家看。我们来到控制台, 我们要拿货的话,就是在渠道管理里面添加渠道,渠道的名字,这个叫 apikey, 这个就需要到同行或者上那里去拿,这里建议大家多买几个 apikey, 就是 上游的,一般就是上游的那个网址。呃, 模型名字一定要选对,只要提交就可以了,添加好之后呢?至于不能急用的吗?需要到分组和模型定价这里, 模型定价完得给模型定价之后才能够正常使用,这里输入价格,补全价格, 根据相关设置,这里有使用说明,它非常详细。 使用案例四,分组特殊倍率,可用分组代码处理与限制,它这个设置非常非常的丰富, 我们自己用的话千万不要把密码搞忘了,找回非常麻烦。 主包最近找实习面试考试回复消息很慢,大家可以在抖音群里面讨论讨论,非常欢迎大家的加入。
粉丝399获赞3352

当你一不小心打开 google cloud, 发现别人都在白嫖 google a p i 用工作流调用 nana banana gemini 的 模型,一套图八分钟直出,而你还在官网一张图哭哭等八分钟。今天三十秒教会大家如何获取 google 三百刀的 a p i 额度!首先搜索 google cloud, 进入 谷歌云盘,然后点击同意并继续,随后填写信息并绑定,然后再回到 google cloud 创建一个项目。创建好了以后呢?进入 google a s 丢丢,点击左下角的获取 a p m。 密钥,然后创建一个 a p m。 密钥,最后导入项目就可以使用啦!黄母鸡的教程我已经整理好放在星球里啦!

哈喽,大家好,我是菲菲蓉蓉,今天我们来推荐一个大模型 a p i 的 网站,也就是 open router, 在 这个网站中呢,可以通过一个 a p i 使用任何大模型, 包括像谷歌的 jimmy g b t 的, 包括像阿里的千文,还有这小米的 mimo, 都可以在这里面去使用哈,这个网站呢还是一个比相对来说比较权威的模型网站,它还能去和一些其他模型进行对比,比如说我们可以点击这个 explore models, 只要在右边 登录之后呢,你就可以看到这里了,因为我们这个网站它是可以用这个邮箱,中文邮箱也是我们 qq 邮箱之类的登录的哈。我们可以点进任何的一个大模型,比如说我们看下小米星巴这个模型,我们可以看这里面啊,可以看到它一个和其他模型的一个对比啊,还有它相对应的这款的一个价格 啊,你甚至还能在这里看到一个相应的评分啊。你看它这个 agent index 比较高,但它 coding index 就 比较低,说明它在代码的制作上可能稍微的没有那么强,是吧?可以再看一下一个随便的比,比如说我们看下这个 mini max, 那 我们再看一下它这边,哎,这个数据相对比较多啊,用的人可能比较多一点,它这个价格也差不多,感觉整体来说比较平均啊,这个效果 agent tick 它就可能更好一点,我们还能在这里看到一些公共的一些公共应用啊,用使用它的这个行的这个数量啊,在这个我们也可以给它直接翻译一下当前页面是可以的哈,可以呢,可以看到它这个东西是很多的,我们要是想用它 a p i 呢,很简单啊,点击这个 quickstar, 点击创建 a p i 密钥就可以了。创建之后呢,我们需要先登录一下啊,登录完成了我们再看,进入这后台页面就可以了啊,登录完成之后,我们再点击 create a p i k 就 可以这里在我们的后台里找到 quit 了。然后我们这个关于这个东西都写上之后呢,就可以用复制这个 a p i 到我们的任何需要的地方了, 所有模型都是这样,当然它不只是这个文本的模型,它还有很多的一些别的,比如说这个视频,我们可以先把它来勾选看一下视频的模型,直接的 c 的 二点零 light 啊,像素三点五九 b, 还有像这个图片大模型,比如说这个谷歌的 banana banana two, 那 这些都是可以去使用的哈。推荐一个无形 a p i 寻找的网站吧,国内可以直连哈,相对网速还是可以的哈。

谷歌终于坐不住了,正式卷开源市场, jm 四的效果到底如何呢? jm 四的发布啊,真的有可能让我们实现头很自由。这期视频呢,老张给大家简要介绍一下 jm 四怎么安装到本地,以及如何搭配到我们的 open klo 大 龙虾上, 附带所有的安装步骤啊,大家可以一起来体验一下。后续呢,老张也会根据测评效果给大家接着发视频,这期是我们完整的部署流程,老张重点给大家简单聊一下,就是为什么 jm 四的发布啊,会让大家感觉谷歌真的开始卷起来了呢? 首先第一点,他和目前谷歌的 jimmy 三用的是相同的技术基座啊,所以说他的能力是毋庸置疑的。第二点就是商业自由,你直接部署下来做什么都是可以的,都是允许的。然后第三个就是支持多模态,无论是文本、图像甚至小规模的视频音频, 他都可以直接支持。第四点就是结合前段时间爆火的 open klo, 他 可以直接在本地对接 open klo 以及对接 klo 的 code, 实现本地的偷根无线化。这是老张给大家总结的四点,为什么詹姆斯的发布会让大家感觉,哎,可能真的要进入到一个新的纪元, 然后呢,他所发布的这四款模型呢?老张给大家做了一张图片啊,大家可以到时候把它截下来。第一个模型一二 b 的, 他本身是用于手机或者边缘设备八 g 显存, 然后最高端的三十一 b, 他 所对应的旗舰版本呢,是对应的是二十四 g 加,所以大家根据你的需求来进行对应的模型选择。老张这次视频呢给大家来看一下三十一 b 的 这款模型的安装, 然后关于本地的安装部署啊,其实非常简单,任何开源模型,其实我们只需要让他和欧拉玛就是那个小羊驼结合到一起就可以了,然后找到你符合要求的版本。安装成功之后啊,欧拉玛现在已经有了一个完整的应用端了,所以大家可以直接在这个位置和他进行对话交流。 那我们想要下载 jm 四到你本地的电脑上,我们可以使用它的官方指令,会告诉我们直接怎么样去进行 jm 四的对应安装,像老张想安这个三十一 b 的 对吧?我们就把它拿过来, 把它直接这有一个 c l i 命令行安装方式,把这个东西直接复制在你的开始菜单中,单机右键选择运行输入 cmd, 直接把刚才指令粘贴过来,这儿的时间会很长,因为它有二十个 g 的 大小,我们直接稍作等待 安装成功之后,我们也可以直接回到它的客户端中,在模型选项上找到我们安装好的詹姆斯冒号三十一币, 然后可以直接进行对话。老张他处理一个较为复杂的提示词,我们让他看一下当前显存的内存消耗, 咱们拿这个 ai 慢距的提示词来测试啊,这个提示词非常的长,我们看一下他读取提示词的能力,以及他的这个显卡的性能消耗,我们看一下啊,这个显存直接拉满的,达到了百分之九十四的占比, 而且这个响应速度还是非常快的,只需十一点七秒啊,就把整体的业务流程给我们直接补齐了,而且呢按照需求给我们进行了对应的提问,要什么样的慢距效果,所以说以目前的测试反应来看呢,他的这个响应速度起码要比之前的很多大模型要好的多, 所以接下来我们自己来尝试一下对话类的工具,可能大家都不是很需要的,我们能不能把它接入到我们的 open clone, 丢到我们的龙虾里,让它们俩来进行联动的。然后这期视频呢,老张顺便给大家提一下,就是最新版的 open clone 的 部署流程 啊,咱们可以快速的去过一下一些重点的细节,因为之前老张发过很多期的部署视频一块的呢,因为它本身啊, wsl 它是相当于在 windows 系统上安装一个 linux 的 独立系统, 这样的话呢,就直接相当于在你电脑上安装了一个独立的存储空间,它所谓叫做沙盒安全,而且运行起来呢是不会有任何的兼容性的对应问题的,因为 windows 中啊,它的权限呐,路径等经常会报错。所以说我们这 期视频重点教大家怎么用 wsl 进行 win opencl 的 部署安装,这样的话, windows 和 wsl 的 安装您都了解之后之后学起来就非常方便了。 然后接下来呢,老张给大家简单的介绍一下在 wsl 中如何安装我们的 openclaw, 因为之前呢,咱们介绍过太多次了,很多兄弟留言说老张就别介绍怎么安装了,然后我们就给大家简单说一下注意事 项。首先第一呢,你想在 wsl 上安装 openclaw 的 话,第一点你得先在你的 windows 系统下把 wsl 安装一下,当然很多电脑老张发现其实都是自带的, 怎么检查是否自带呢?咱们可以直接输入 wsl 空格杠杠威森,如果弹出定的版本号,证明 wsl 电脑已经安装了,如果没有弹出的话,使用安装指令 wsl 空格 insert 直接安装即可。然后紧接着按照老张给你提供的指令复制粘贴就可以了。先安装你的优班图, 安装之后进行一下更新。安装完优班图之后啊,在这选择这个倒三角,找到优班图系统,就可以直接进入到你的优班图系统当中。 在你安装过程中啊,它会让你设置一个用户名和密码,到时候可能需要做一步密码验证。在优班图系统中,注意是优班图系统中运行这些环境指令,分别安装 python 三,安装一个压缩包工具,方便安装一个 node 点 ps, 然后再安装一个 get 工具。 如果说为了检测每一步安装是否成功的话,你可以分别输入,比如 note 杠 v、 npm 杠 v, 包括 get 杠 v, 在 这检测我们对应的这个版本。如果都能弹出版本号,证明你三项安装都是成功的,这是配置 openclo 的 基本的内容要求。 然后紧接着我们把基本环境配置好的兄弟,你还需要在这个位置安装一下这个欧拉玛。 这老张要重点说一下,说老张我不在本地都已经下载好欧拉玛了吗?为什么在优班图里还需要再配置一下?其实我们优班图中是可以调用本地的欧拉玛的,但是很多兄弟在调用过程中分别给老张留言说说调用时无论是 ip 地址找不到,还是 ip 的 动态变化,导致每次都需要重新连接,重新配置。 所以说最简单的方式就是把欧拉玛在你的优班图系统中再次的安装一遍。其实安装非常简单,只需要把第一步的安装指令复制过去,直接在这个位置直接粘贴即可。安装成功的检测方式很简单,你就输入欧拉玛, 如果他不报错还给我们对应的选项,是咱们是进行对话呀,还是怎么样的证明你的安装就是成功的? ctrl c 直接退出。 所以说欧拉玛安装之后,紧接着就是把我们的模型在当前的优班图中跑起来。老张刚才给大家测试的是 jm 四三十一 b 模型,我们直接输入指令欧拉玛空格 run, 然后你的模型效果直接回车,第一次时他会直接进行对应的模型下载。如果说你现在只想用 open klo 来调用欧拉玛的这个占四的话,可以在我们的本地电脑上把之前咱们那个桌面端给他 删掉,如果说你不你想两端都使用的话,就可以直接在这个位置进行使用了,然后发一个你好看一下响应速度, 嗯,响应速度是非常快的,所以接下来我们把这个家伙欧拉玛的詹姆士直接部署给我们的 openclo, 在 这怎么中止对话,摁一下 ctrl c, 再摁一下 ctrl d 啊,就可以直接进行中止对话了啊,所以说大家可以直接的把它退出来, 退出来之后我们在这儿部署一下 openclo。 关于 openclo 的 安装呢,官网推荐是使用 c o r l 这种安装方法,但是老张发现很多兄弟在使用这种安装方式时呢, 出现了这个网络问题,导致下载出现卡顿,如果说 c u i l 的 方法报错的话,直接使用 n p m 安装也是完全可以的,安装完之后直接输入 open klo 空格杠 v 来输出最新的 open klo 的 对应版本啊,这就是老张跟大家说的一些建议啊,大家按照这个要求去做就行了。 然后接下来我们进入到配置,直接是直接输入它的配置指令回车,选择 yes, 然后选择快速开始就可以,我们直接配置一下模型, 然后选择更新,这选择谁呢?选择这个欧拉玛啊,然后选择默认的这个 ul, 选择本地模型,让他去给我找一下咱们本地有哪些模型,稍作等待 好,选择当前的这个模型,咱们四三十一币,然后配置我们的聊天软件啊,这个老张之前讲过太多太多次了,现在呢,他又支持了很多,包括 qq 之类的,大家有需要的话可以按照之前老张的教程再来一遍,我们先跳过 打开之后啊,就可以直接对话。但是如果说善于观察的兄弟们也发现了,老张呢把这个使用模型呢换成了这个一四 b 的 模型,不是那个三十一 b 的, 因为三十一 b 呢,老张在测试的时候也好,或者在一些使用时候也好,他有的时候会出现这个连接超时的问题,也是 oppo klo 更新到最新版本出现了一个能启动问题, 这个呢,老张现在还没有特别好的解决方案,所以说我先用一次必得给大家进行演示,发一个,你好,我们来测试一下他的响应速度啊,还是比较快的。 然后接下来呢,我们再把之前的那个慢句的提示词发送过来,我们来看一下他能不能更好的帮我们去进行慢句提示词的对应理解,以及对应的相关反馈。 嗯,其实我们看到啊,他反馈的这个结果呢,和三十一 b 相比啊,真的是有一定差距的,但是呢,确实也是另一方面实现了我们所谓的叫偷根自由。 大家呢也可以后续啊,去测试一下怎么让本地如果你的显卡够用的话,把这个大模型给它跑起来。然后老张呢也会及时给大家更新,无论是在评论区中还是视频中教大家如何使用。我是程学老张,定期分享 ai 好 用知识,希望大家多多关注。


兄弟们,你们猜我发现了什么?谷歌的 jamie 脸 ai pro 会员竟然又可以白嫖一年了,而且可以赠送你三百美金的 api 调用额度哦!注意,这不是学生优惠,不是之前的学生优惠,是三月份的最新方法, 趁着现在知道的人不多,咱们赶紧去薅起来吧!你不用怀疑啊,经过我的亲测,不管是你的老账号还是你的新账号,甚至说你之前购买过杰米尼的学生优惠的账号 被搬掉的,咱们现在都可以去薅这个羊毛。我已经把这个方法整理成了文档,有需要的 滴滴一下,我免费的分享给你。最后呢,老规矩啊,咱们就是测试用的一个账号,我们随机抽取一位有缘人免费的赠送给他。好吧, 呃,最后说一句啊,我会持续给大家带来关于如何挣钱 ai 相关的这些信息,有喜欢的朋友,咱们欢迎持续关注。

一分钟带你白嫖谷歌的最新大模型啊,顺便带你接入 hermes 体验一下。首先呢,我们打开这个网站,登录进去,进入这个页面, 创建一个 api 密钥,然后呢我们,然后我们复制一下它的 api 密钥啊,回到这个终端,打开 hermes, 设置一下模型, 在这里选择更多啊,选择更多,后面有一个谷歌供应商。然后呢,第一步把这个 api 密奥复制进去,第二步呢,在这个 url 里面直接选回车。下一步呢,选择这个 jama, 四 三十一币或者二十六币都可以啊。然后这里我选的选择的是三十一币。然后呢,直接就登录,直接就用免费的,不用充值啊,用就完事了。

美国严透政策,开户准备一部分,身份证、手机邮箱和境外居住证明。第二部分,境外网络环境最好是美国节点 ip 的, 用于访问官网, 如果没有境外居住证明,可以到某宝买一个,如果没有境外网络,一样可以在某宝或者某鱼购买,搜索下面这双文字就可以了。 准备好的话就可以登录美区官网注册了,但是一定要注意,如果第一次没有注册成功,后面就很难再注册了,所以资料一定要做的漂亮。如果觉得太麻烦,下期我们可以讲讲简单的香港证券开户。

哈喽,大家好,我是宁教授,一个致力于通过 ai 帮你解决问题的教授。今天我来讲一下如何在教授这里购买 jimmy 会员的使用一个教程。首先呢我们来到了 jimmy 它的一个官网,我们看到这个右上角就是一个登录的一个方式, 然后右上角我们这边的话可以点这个添加,添加的话我们就可以添加这个谷歌的账号,那么我们回到这个主页来,我给大家翻译成中文, 这样的话大家就能看得清楚。然后我们 pro 版本的会员的话就点这个使用专业版本 ultra 的 话,那么它就是比 pro 版本更加高级,它的限制没有那么多意思,就是一般我们没有会员的要低于 pro 版本的,然后 pro 版本呢要低于 ultra 版本的,所以说它的应用场景就是这个样子和应用的使用频率。 下面呢我们就可以点击这个创建图像,这个就是它的 nano banana 的 一个玩法,这里聂教授有社群,这里面有一 些玩法。然后我们用 pro 版本的话,我们用几次的话,它就会进行一个限制,它会给你一个时间的一个使用的一个频率, 用 out 版本的话,那么他就没有这个限制。所以说大家如果要有需要,想要如何学习 gmail 以及 gmail 如何开通会员,这个都可以来联系聂教授,聂教授可以手把手的教你们,欢迎大家一三年多多支持聂教授。

谷歌终于坐不住了,正式卷开源市场, jm 四的效果到底如何呢? jm 四的发布啊,真的有可能让我们实现头很自由。这期视频呢,老张给大家简要介绍一下 jm 四怎么安装到本地,以及如何搭配到我们的 open klo 大 龙虾上, 附带所有的安装步骤啊,大家可以一起来体验一下。后续呢,老张也会根据测评效果给大家接着发视频,这期是我们完整的部署流程,老张重点给大家简单聊一下,就是为什么 jm 四的发布啊,会让大家感觉谷歌真的开始卷起来了呢? 首先第一点,他和目前谷歌的 jimmy 三用的是相同的技术基座啊,所以说他的能力是毋庸置疑的。第二点就是商业自由,你直接部署下来做什么都是可以的,都是允许的。然后第三个就是支持多模态,无论是文本、图像甚至小规模的视频音频, 他都可以直接支持。第四点就是结合前段时间爆火的 open klo, 他 可以直接在本地对接 open klo 以及对接 klo 的 code, 实现本地的偷根无线化。这是老张给大家总结的四点,为什么詹姆斯的发布会让大家感觉,哎,可能真的要进入到一个新的纪元, 然后呢,他所发布的这四款模型呢?老张给大家做了一张图片啊,大家可以到时候把它截下来。第一个模型一二 b 的, 他本身是用于手机或者边缘设备八 g 显存, 然后最高端的三十一 b, 他 所对应的旗舰版本呢,是对应的是二十四 g 加,所以大家根据你的需求来进行对应的模型选择。老张这次视频呢给大家来看一下三十一 b 的 这款模型的安装, 然后关于本地的安装部署啊,其实非常简单,任何开源模型,其实我们只需要让他和欧拉玛就是那个小羊驼结合到一起就可以了, 我们可以去一下欧拉玛,之前没有安装欧拉玛的兄弟们也不用担心,直接去他官网安装即可。一个羊驼啊,现在已经开始玩龙虾了,但是这个不,这个是我们,我们首先 现在官方已经开始逐渐的把羊驼和龙虾结合到一起了,我们直接选择对应的登录的,然后找到你符合要求的版本,直接安装到您的电脑上就可以。安装成功之后啊,欧拉玛现在已经有了一个完整的应用端了,所以大家可以直接在这个位置和他进行对话交流。 那我们想要下载詹姆四到你本地的电脑上,我们可以使用它的官方指令找到官网的 model 选项,然后这有一个詹姆四,我们进入,他会告诉我们直接怎么样去进行詹姆四的对应安装,像老张想安这个三十一 b 的 对吧?我们就把它拿过来, 把它直接这有一个 c l i 命令行安装方式,把这个东西直接复制在你的开始菜单中,单机右键选择运行,输入 cmd, 直接把刚才指令粘贴过来,这儿的时间会很长,因为它有二十个 g 的 大小,我们直接稍作等待 安装成功之后,我们也可以直接回到它的客户端中,在模型选项上找到我们安装好的詹姆斯冒号三十一币, 然后可以直接进行对话,老张他处理一个较为复杂的提示词,我们让他看一下当前显存的内存消耗, 咱们拿这个 ai 慢距的提示词来测试啊,这个提示词非常的长,我们看一下他读取提示词的能力,以及他的这个显卡的性能消耗。我们看一下啊,这个显存直接拉满的达到了百分之九十四的占比, 而且这个响应速度还是非常快的,只需十一点七秒啊,就把整体的业务流程给我们直接补齐了,而且呢按照需求给我们进行了对应的提问,要什么样的慢剧效果,所以说以目前的测试反应来看呢,他的这个响应速度起码要比之前的很多大模型要好的多, 所以接下来我们自己来尝试一下对话类的工具,可能大家都不是很需要的,我们能不能把它接入到我们的 open klo, 接入到我们的龙虾里,让他们俩来进行联动的。然后这期视频呢,老张顺便给大家提一下,就是最新版的 open klo 的 部署流程 啊,咱们可以快速的去过一下一些重点的细节,因为之前老张发过很多期的部署视频,咱们可以去到时候去看一下。只不过这期视频呢,我想给大家来讲解一下这个 wsl 的 这个部署优势。 很多兄弟看老张之前视频都是用 note 直接下载安装的,但是为什么老张最后给大家又转回到了 wsl 这一块了呢?因为它本身啊, wsl 它是相当于在 windows 系统上安装一个 linux 的 独立系统, 这样的话呢,就直接相当于在你电脑上安装了一个独立的存储空间,它所谓叫做沙盒安全,而且运行起来呢,是不会有任何的兼容性的对应问题的,因为 windows 中啊,它的权限呐,路径等经常会报错。所以说我们这 期视频重点教大家怎么用 wsl 进行 win opencl 的 部署安装,这样的话, windows 和 wsl 的 安装您都了解之后,之后学起来就非常方便了。 然后接下来呢,老张给大家简单的介绍一下在 wsl 中如何安装我们的 openclaw, 因为之前呢,咱们介绍过太多次了,很多兄弟留言说老张就别介绍怎么安装了,然后我们就给大家简单说一下注意事 项。首先第一呢,你想在 wsl 上安装 openclaw 的 话,第一点,你得先在你的 windows 系统下把 wsl 安装一下。当然很多电脑老张发现其实都是自带的, 怎么检查是否自带呢?咱们可以直接输入 wsl 空格,杠杠威森,如果弹出定的版本号证明 wsl 电脑已经安装了,如果没有弹出的话,使用安装指令, wsl 空格 insert 直接安装即可。然后紧接着按照老张给你提供的指令复制粘贴就可以了。先安装你的优班 图,安装之后啊,在这选择这个倒三角,找到优班图系统,就可以直接进入到你的优班图系统当中。 在你安装过程中啊,它会让你设置一个用户名和密码,到时候可能需要做一步密码验证。在优班图系统中,注意是优班图系统中运行这些环境指令,分别安装 python 三、安装一个压缩包工具,方便安装一个 note 点 gs, 然后再安装一个 get 工具。 如果说为了检测每一步安装是否成功的话,你可以分别输入,比如 note 杠 v、 npm 杠 v, 包括 get 杠 v, 在 这检测我们对应的这个版本,如果都能弹出版本号,证明你三项安装都是成功的,这是配置 openclo 的 基本的内容要求。 然后紧接着我们把基本环境配置好的兄弟,你还需要在这个位置安装一下这个欧拉玛。 这老张要重点说一下,比如说老张我不在本地都已经下载好欧拉玛了吗?为什么在优班图里还需要再配置一下?其实我们优班图中是可以调用本地的欧拉玛的,但是很多兄弟在调用过程中分别给老张留言说说调用时无论是 ip 地址找不到,还是 ip 的 动态变化,导致每次都需要重新连接,重新配置。 所以说最简单的方式就是把欧拉玛在你的优班图系统中再次的安装一遍。其实安装非常简单,只需要把第一步的安装指令复制过去,直接在这个位置直接粘贴即可。安装成功的检测方式很简单,你就输入欧拉玛, 如果他不报错,还给我们对应的选项,是咱们是进行对话呀,还是怎么样的证明你的安装就是成功的, ctrl c 直接退出。 所以说欧拉玛安装之后,紧接着就是把我们的模型在当前的优班途中跑起来。老张刚才给大家测试的是 g m 四三十一 b 模型,我们直接输入指令欧拉玛空格 run, 然后你的模型效果直接回车,第一次时他会直接进行对应的模型下载。 如果说你现在只想用 openclo 来调用欧拉玛的这个占四的话,可以在我们的本地电脑上把之前咱们那个桌面端给它删掉,如果说你不,你想两端都使用的话,就可以直接在这个位置进行使用了,然后发一个你好看一下响应速度, 响应速度是非常快的,所以接下来我们把这个家伙欧拉玛的詹姆斯直接部署给我们的 openclo, 在 这怎么中止对话,摁一下 ctrl c, 再摁一下 ctrl d 啊,就可以直接进行中止对话了啊,所以说大家可以直接的把它退出来, 退出来之后我们在这部署一下 openclo。 关于 openclo 的 安装呢,官网推荐是使用 col 这种安装方法,但是老张发现很多兄弟在使用这种安装方式时呢, 出现了这个网络问题,导致下载出现卡顿,如果说 col 的 方法报错的话,直接使用 npm 安装也是完全可以的,安装完之后直接输入 open klo 空格杠 v 来输出最新的 open klo 的 对应版本啊,这就是老张跟大家说的一些建议啊,大家按照这个要求去做就行了。 然后接下来我们进入到配置,直接使直接输入它的配置指令回车,选择 yes, 然后选择快速开始就可以,我们直接配置一下模型, 然后选择更新,这选择谁呢?选择这个欧拉玛啊,然后选择默认的这个 ul, 选择本地模型,让他去给我找一下咱们本地有哪些模型,稍作等待 好,选择当前的这个模型, gm 四三十一 b, 然后配置我们的聊天软件啊,这个老张之前讲过太多太多次了,现在呢,他又支持了很多,包括 qq 之类的,大家有需要的话可以按照之前老张的教程再来一遍,我们先跳过 打开之后啊,就可以直接对话了。但是如果说善于观察的兄弟们也发现了,老张呢,把这个使用模型呢换成了这个一四 b 的 模型,不是那个三十一 b 的, 因为三十一 b 呢,老张在测试的时候也好,或者在一些使用时候也好,他有的时候会出现这个连接超时的问题,也是 open klo 更新到最新版本出现了一个能启动问题, 这个呢,老张现在还没有特别好的解决方案,所以说我先用 e s b 的 给大家进行演示,发一个。你好,我们来测试一下他的响应速度啊,还是比较快的。 然后接下来呢,我们再把之前的那个慢句的提示词发送过来,我们来看一下他能不能更好的帮我们去进行慢句提示词的对应理解,以及对应的相关反馈。 嗯,其实我们看到啊,他反馈的这个结果呢,和三十一 b 相比啊,真的是有一定差距的,但是呢,确实也是另一方面实现了我们所谓的叫偷根自由。 大家呢也可以后续啊,去测试一下怎么让本地如果你的显卡够用的话,把这个大模型给它跑起来,然后老张呢也会及时给大家更新啊,无论是在评论区中还是视频中,教大家如何使用,我是程学老张,定期分享 ai 好 用知识,希望大家多多关注。

所有盯着 openai 和那些创业神话的人,这次可能都看错了方向,真正的游戏规则已经变了。就在昨天,谷歌的财报数据证实, jamaican ai 的 api 掉用量在五个月内从三百五十亿次爆炸到八百五十亿次,企业用户突破八百万。大家都在为颠覆性创新欢呼,我却要告诉你一个残酷的事实, ai 行业的巨头收割期已经到来,一场由资本、数据和生态发起的存量碾压正在上演。如果你以为科技行业的竞争还停留在那个凭借一个天才点子就能改变世界的浪漫故事里,那么你可能会错过未来五年最重要的趋势。这场游戏的本质已经从从零到一的灵感冒险,变成了从一到 n 的 资源和效率绞杀战。 谷歌这个手握搜索、安卓云服务数十亿用户的庞大帝国,并没有在最初的冲锋中抢到先机,但它只是安静的等待,技术路径变得清晰, 一旦方向明确,它启动的不是一个产品,而是整个生态系统的战争机器。这就像一场现代战争,当游击队的七夕结束后,真正的决胜因素是大兵团的后勤、工业、能源和制空权。谷歌正在展示的就是这种国家级的科技动员能力, 让我们看看它是怎么出牌的。第一张牌是赤裸裸的资本碾压。当其他公司还在为融资和万张 gpu 卡发愁时,谷歌在二零二五年的资本支出预算已经喊到了让人酡目结舌的七百五十亿美元。这笔钱是干什么的? 就是去全球扫货最先进的 ai 芯片,扩建数据中心,这不是烧钱,这是在修筑一道纯粹的用金钱堆砌的护城河。首席财务官的话很直白,需求远超过供应。 这意味着谷歌在用真金白银锁定未来几年全球最稀缺的算力资源。对于后来者而言,这堵墙的高度已经不是靠技术能翻过去的了。然而,如果只有钱,那不过是个土财神的型号,是这一策略的极大成者。 他在一个被称为博士级难度的专业测试中拿了超过九十份,性能强悍,但关键不在这里,关键在于他在做到这一切的同时,把成本和响应速度优化到了极致, 成本降到行业标杆的五分之一,速度提升数倍。这好比别人刚造出一辆能跑赢 f 一 的赛车。谷歌立刻推出了同等性能但油耗只有五分之一还能量产的民用轿跑。这背后的稀疏混合专家网络架构是深度的攻城攻力,目标明确,不是为了炫技拿奖,而是为了大规模、低成本的商用。 更致命的一招是它的屏幕理解能力,让 ai 能像人一样看懂电脑屏幕并操作软件。这直接为未来替代大量白领重复性工作的数字员工铺平了道路。 它正在定义下一场生产力革命的操作系统标准。有了顶级的武器和弹药,最后一步就是把它们投送到每一个战场。这就是谷歌的第三张牌,生态碾压,也是它最可怕的地方。它把 j m i 三 flash 这个性能怪兽免费塞进了全球数十亿用户每天都在用的搜索和 j m i 应用里。 对普通用户免费。这看似是做慈善,实则是最高明的市场策略。一方面,海量的真实使用数据是喂养 ai 让他变得更聪明的终极养料。另一方面,这是在培养全世界的使用习惯,把流量牢牢锁死在自己的花园里。 当用户习惯了他的存在,商业化的路径就水到渠成了。于是,我们看到企业版服务轻松斩获了一千五百家公司。 企业选择它,不仅仅是因为模型强,更是因为它能和谷歌的全套办公软件、云服务无缝集成。从消费者到开发者,再到企业客户,谷歌用一个庞大的、彼此咬合的生态齿轮组,完成了从技术优势到市场统治的瞬间转化。但是,任何一场豪赌,都伴随着巨大的阴影。 五哥这幅碾压图景的背后,站着两个沉默的巨人,他们既是驱动力,也可能是终结者。第一个巨人是资本效率,每年近千亿美元的投入是一场与时间的赛跑。如果全球经济的自动化转型速度跟不上,如果 ai 应用创造价值的速度低于预期, 那么这笔天文数字的开支所产生的巨额折旧,就会从增长引擎变成财务黑洞。市场每一个季度都在盯着它的云业务利润,那不仅是数字,更是这场史诗级投入能否产生健康回报的生命体征。第二个巨人则是垄断凝视。 谷哥正在做的,是用其在搜索、移动操作系统等领域的绝对统治地位,为他的 ai 业务输送弹药。这种利用既有垄断地位在新市场建立优势的做法,正被全球的监管机构紧紧盯住。反垄断的大锤何时落下?会以何种形式落下,构成了这个商业故事中最大的政策变数。 此外,过度依赖过去的成功路径,也可能在真正的下一次范式革命到来时,成为他无法转身的枷锁。所以,这场由 gemini 三引爆的增长,给我们最大的启示是什么? 他宣告了一个时代的转折,对于科技趋势的观察,必须从仰望星空的技术趋势回归到脚踏实地的商业逻辑。我们关注的焦点应该从哪个模型又拿了奖的新闻,转移到每单位算力成本下降了多少、生态系统产生了多少新增收入这样的硬核指标上。当巨头启动它的存量碾压时, 纯粹的单一的基础模型创造窗口正在关闭,而围绕着特定行业深度改造提供极致的工具,或是为这场军备竞赛供应武器的参与者,他们的故事或许才刚刚开始, 五哥的巨轮已经全速前进,他碾过的地方,是旧竞争模式的终结,也是新价值挖地的诞生。看懂这场碾压,你才能看懂下一张科技版图会在哪里被重新绘制。

很多看我分享的朋友或者是刚接触 webcointing 的 朋友都会问我, webcointing 是 不是要花很多钱?那我直接说结论啊,从一月开始到现在总共三个月的时间,我 webcointing 的 一个整体花费不到两千块。接下去我跟大家来讲讲这两千元到底是花在什么地方?然后是不是有必要? 第一块就是 ai 工具订购费用了,这个是我整个花费里面的一个大头,分为几个工具,第一个是 cloud code, 我 定的是 pro 那 一档二十美金,然后我又定了 open ai 的, 就是 gpt 的 那个月费也是二十美元。 另外的话是一个 id 工具科特,那这里的话呢,总共就是六十美元一个月,总共三个月一百八十美元,折合人民币的话大概是在一千四百左右。是不是必须要使用这么多的工具呢? 那其实是不是的,比如说像科四,我仅仅是作为在 cloud code 和 codex 的 一个整体月费使用完成之后的一个补充而已,所以这里其实大家是可以有的选择的。我自己可能有计划会把科四停掉,对, 因为我现在其实对于科四的依赖相对会更少。那第二笔费用呢?就是很多人可能就会忽略的一个云浪, 很多人就会问啦,你之前一直有跟我们讲 ai studio 啊,或者是 gemini 啊,那这里你没有把这个钱算进去?对,因为,呃, google 这边如果是用 ai studio 或者是 google a p i 的, 它是按照次数或者是按照就是即用即付的这种方式,那么我就把它加到了这个云这里来。 像 google 的, 我在十一月份刚好是注册了一个新的账号,拿到了一个三百美金的赠额,那这个三百美金的赠额在一月底刚好也都被我花完了, 接下去可能就会产生一些 api 调用的费用,除了 google 云以外,我之前的一个整体使用是在腾讯云上面,主要是来开发小程序,使用费用是十九块九一个月,对,相对也还是便宜的。 对,所以在云的这个上面,可以预见的就是在未来的这几个月,我的一个整体费用可能会高啊。第三个费用就是在看起来一些不起眼的小钱上面, 比如说我会用到 deepsea 的 一个 a p i 充值个十块钱,像 kimi 现在有一个优惠,在首月开通的话,它四十九元的那一档,它会变成四块九毛九。 你可能会用到国内的这个 tree, 现在的国际版它有一个免费的额度,那么现在我也是免费的。对,那这里所有的这样算下来,如果不算这个 google 三百美金的话,整体的一个花费是在 大概是在一千五。所以我给新手一句实话啊,如果大家只是想试试,包括做一些小项目,我觉得一个月几百块钱打底啊就可以了。所以真正决定你能不能走下去的其实不是钱,而是你会不会真的去做一些东西。那今天就分享到这里吧,记得一键三连哦,拜拜。

来问一下大家,有多少个人每个月会在固定的软件上充会员?今天我教大家掌握一个词,一个核心的概念,就可以帮我们省掉百分之八十的钱,还能帮我们用上最好的 ai。 这次我之前已经说过很多次了,其实它就是 a p i, 听起来很高端,或者听起来人很摸不着头脑。如果我们把大模型比成发电厂,各种 ai 工具呢?是电器, a p i 呢,就是那个充电线, 它可以让我们的每个 ai 工具都动起来,让我们直接从厂里接电,就不用去购买那些整套的昂贵的设备。一旦连接到数据库或者 a p i, 我 们的应用就不是那种简简单单的小玩具,而是真实的可以连接用户,储存数据 些网关的工作、产品原型。像我之前尝试练手一些学习工具,搜索工具,其实也是连接了不同的 a p p, 帮我进行了一些任务的转换。我为什么建议大家一定要去了解一下 a p p 的 知识?第一个呢,就是省钱,因为有很多好用的开源工具,比如说翻译软件啊,翻译插件等等,这些会员费其实每个月还不要。但是如果我们自己接入了 a p p, 做了一些自己可以用的工具,按量付费。 api 它是按量去购买的,其他成本可能只有一个月下来,它成本可能就几块钱或者十几块钱,就是它的成本非常低。第二个呢就是非常的自由,比如说像现在的小龙虾,还有那些 a 阵的工具,它们的背后其实也都是靠 api 去驱动的,那懂了它呢?我们也不用去期待那些软件去更新,我们直接就能把这些非常强大的好用的大冒险工具塞到我们自己的工具库里。如果我们普通人或者新手小白,我不想在这时代被割韭菜,或者说 处于这个时代的下风,我们也可以尝试一下 kimi 或者 dipic 这些网站界面,我们可以先领取一个免费额度去试一试。那大家如果有任何问题,欢迎在评论区或者进群和我交流,拜拜。