最近大模型这么火,那跑 ai 大 模型要什么硬件?今天来介绍一下一整个全家福。首先是大家最熟悉的办公电脑, 那么这个电脑它的缺点是拓展性比较低,只能插一张卡,然后只内存条两到四条,一个 cpu。 但是呢,如果你选用一个好的显卡,比如说像三零九零、四零九零,或者说专业卡的 a 四千, a 五千, 把它放上去跑一个七 b 三十二 b 的 模型还是轻轻松松的,但是当这个小模型没有办法满足你的需求之后,可能就要上了这种工作站了,工作站可扩展性更强,比如说显卡,它可以上四张, cpu 呢也升级到了两个,然后内存条插槽也升级到了十六根,可以跑中等大小的所有主流的模型。那显卡一般我们会搭配,像 a 三零、 a 四零,甚至说你有预算充足可以搭配 h 一 百、 a 一 百这种战略巨无霸。 另外的话呢,我们把它扩展成了夜冷的一个结构,这样的结构噪音非常低,而且使用寿命非常长,也不用占用你额外的机房空间, 而且在这里也是可以使用 mvink 的。 这个我们的方案是 h 一 版,这样的配置,跑二百三十五 b 的 千万,或者说三百四百 b 的 大模型都是非常轻松的。再往这边就要上升到服务器水平了,服务器它的扩展性更高,可以插八张显卡, 然后它的内存条扩展来到了三十二条内存条,而且这个 cpu 也是双路的。像这种服务器呢,一般搭配的是也是三零九零四零九零五零九零,当然预算充足也可以上到这种 a 一 百那么八卡, a 一 百会有六百四十 g 的 显存,这样的话跑满血版的 dsp 六百七十一币都可以带动的。 然后这个也是一个服务器,但是它是一个四卡的一个结构,也是可以跑很多大模型,可以上专业卡,也可以上这种算力卡。 再到最后就是目前最主流也是最烧钱的,也是大厂最多的方案。就像这种 我们看到它的卡都跟普通的卡不一样,我们普通的卡叫 p c i e 插槽,就拿这张 a 一 百来举例子,它是用这种 p c i e 插槽,然后插到这个服务器里面,但是当我们的卡需要很多,比如说我要需要一千张,一万张卡的时候, p c i e 的 传输效率是不够的,所以说 已经单独定制为了这种叫 sm 的 整机的模组,那么我们会把这个整机模组插到这个非常大的机箱里面,最后才能组成一个像 h 一 百, h 两百, b 两百, b 三百等等 我们大家非常熟悉的这样的机器了。所以说具体你的需求需要配什么样的机器呢?不能盲目的决定,要根据你的项目还有预算,如果说你有具体的需求,可以在评论区私信我。
粉丝1.3万获赞13.7万

本教程分为三个部分,第一个是使用 qq 开放平台构建 qq 机器人,第二个是使用火山引擎购买大模型的 ipad, 第三个是使用云云电脑 的部署 cloud bot。 呃,下面是第一个部分,然后如果你没有注册的话,需要点击这个立即注册来完成一个, 按照他的步骤完成一个一步一步的注册。然后我建议你是使用这样的一个呃 qq 邮箱进行注册,然后注注册完成之后,其实你就可以通过这样的一个呃 qq 扫码来完成登录,登录之后的话就点击机器人,然后创建你自己想要的一个 机器人,创建完成之后,返回刚才的这样的一个机器人列表,找到你刚才创建的一个机器人,点击他的呃沙箱配置啊,在这个消息列表配置中添加成员,将你自己的这样的一个 qq 添加到这个成员当中 之后再回到这样的一个呃开发管理部部分,把你的这样的一个 app id 复制下来,和你的这样的一个集成密钥复制下来。呃,备用 在下面的这个 ip 白名单,等一会会配置好我们的一个云服务器之后再把它加上去,这一部分的配置目前就是已经配置好了。然后第二个部分就是通过火山引擎来定义你的这样的一个大模型,然后我使用的是他的一个方舟的固定片, 他这个其实非常便宜,也就呃第一个也就是八块九,基本上也是足够使用的。然后有一个好处就是你不用晚上布置一个任务,发现第二天起来房子没了的一个情况,然后你订阅之后,通过他的这样的一个快速开始, 快速开始来找到他的这边的一个呃配置编程工具中的一个其他工具, 然后找到它的一个接口协议,把接口协议复制下来,并且我们使用的模型我推荐使用这样的 g m 四点七, 然后的话就是通过这个获取 api key, 来就是来就是构建你自己的一个 api key, 但是这个 key 你 要记住一定要保存好,然后也把这个复制过去,然后这部分的配置也就完成了。 最后就来到了我们的微云电脑配置的一个环节,首先你登录进来之后可以找到活动专区,然后这有一个新人专属的免费试用活动,大概是两天的一个云电脑的试用时间, 你也可以先尝试一下这个,当然你后续继续想,你可以选择自己去订阅,完成之后回到刚才的界面就会发现这边多了一个云电脑,但是他现在的镜像还不是我们所需要的镜像,通过管理 呃镜像和变更镜像的方式来选择我们需要的这样的一个 mailbox 这样镜像,然后确认关机并变更 之后,就等待它变更成功。等系统镜像变更完成之后,就可以连接云电脑进入它的一个桌面, 点击这个 mailbox config 来完成一个配置。首先是切换到这样的一个通文达模型,然后把刚才的这样的一个相关的呃 u r l 你 自己的 api, 还有就是模型的名称全部复制到这里。呃,首先你可以测试一下连接连接,测试成功说明这个是可以用,然后保存配置。呃,虽然他这边也有一个通道设置中有 qq 的 这样的一个通道, 但是他不是很好用,所以我们需要自己的配置一个 qq 通道的插件,打开他的这样的一个 term, 通过通过 get 下载它的一个插件,下载完成之后,将刚才的机器人的 id 和这样的一个密钥好了,现在就配置完成了。配置完成之后,需要先重启一下网关好了,现在网关也设置好了 之后的话,需要用命令找到爱云电脑的一个 ip 地址,将这个 ip 地址拷贝下来之后,再去 qq 服务平台完成整个的一个机群的配置,同时回到 qq 机群平台,然后在 开发管理中把你的 ip 白名单填入之后,来到使用范围和成员这个地方,扫 右边这个码,将你的集成添加到你的这样一个聊天界面,然后就可以进进行这样的一个呃连接和测试了。嗯,好的,扫码,扫码完成之后,你就发现你添加了这样的一个集成到列表,现在你就可以给他发送消息后,再回到我们的桌面上,就可以看到刚才已经下载的 照片,然后整个教程就已经完成了。可以看到本教程的话,其实只花了十块钱不到十块钱就能够体验到整体的一个完整的一个呃,体验。最后我也将所有的这样的一个教程整理成了 pdf, 有 需要的可以后台滴滴。

大龙虾这波热度呢,让所有云厂商都卷了起来,基本上都出了自己的云端部署方案,今天我就用阿里云带你跑一遍,十分钟拎包入住云端版的贾维斯 open club。 说实话,本地装不是不行,但你得折腾环境配依赖,还得自己对接模型 a p p。 对 普通人来说呢,直接劝退 好。首先,我们打开阿里云的清凉应用服务器页面,在镜像这里呢,直接选择 multi boot, 他 已经把运行环境打包好了,你不用自己装任何东西。 配置的话,镜像要求最低是两盒两 gb。 地域呢,随便选,国内国外都行,国内因为有网络 bgp 优化会贵的,这里我选择国际型。确认好我们的地域, 这里我选择新加坡,因为我不是新用户啊,新户价格首次还会更便宜,最低九块九,一个月六十八块钱呢,就能直接包一年, 或者像我这样直接想尝尝鲜啊,先购买一个月,确认这些都没问题之后,点击立即付款。付款后呢,等服务器启动,服务器起来之后,进控制台,你就可以看到我们买的服务器了。点击进入我们的服务器详情页,你可以看到这里面一共需要三步,我们挨个执行就可以。第一步啊,放通端口,页面上有个一键放通,点一下就可以。 这要是你自己部署啊,这一步我估计会卡住很多人。第二步,配置我们的 api key, 还有生成 token, 这里需要跳转到阿里云百联平台,在密钥管理里创建一个 openclaw 专用的 key, 复制过来粘贴执行。 第三步,获取专属链接,点执行命令,它就会给你分配一个专属的链接,记住这个链接啊,后面点进去就能直接进入 opencloud 控制台了。到这一步啊,整个部署呢,就算完成了。看到了吗?就这么简单,一共三步,除了等服务器创建的那几分钟啊,实际动手操作呢,用不了五分钟, 完全不用碰触任何的命令。行,你就可以拥有一个自己专属的大龙虾,而且只花了一顿饭钱,这比你去买 mac mini 简直省太多了,也不用担心关机断电这些问题。那怎么验证跑起来了?你可以直接在控制台里跟他对话, 也可以像我这样呢,接入钉钉,做一个钉钉的机器人,直接在手机上艾特他,因为模型默认是帮你接入了千问三 max 的 最新版本,推理更强,都是对话呢,你的 ai 助理呢,依然会在后台帮你联网查找资料, 整理信息。那怎么能玩一些更复杂的自动化任务呢?网上其实已经有不少博主做了详细的教程,阿里云官方呢,也写了教程文档,想要的呢,我可以发给你,感兴趣的可以自己去研究。 成本上还要说一下,模型调用呢,是单独计费的,轻度玩玩呢,基本是可以忽略的。但如果你想做一些复杂的任务呢,还是建议去百炼平台购买这种扣丁 plan, 也就是固定月费可用的 token 额度呢,会更多,也更划算。所以以后这种拎包入住的云端化,才是未来 ai 普及的正确姿势,你们觉得呢?快去试试吧!

终于把我的个人 ai 助理 openclaw 搞定了,考虑到安全性,我的安装方法是把它装在了我的 mac 电脑的刀口里面,通过刀口去隔离一下安全性,又考虑它跑起来比较吃头坑,所以我选择的是 kimi 的 k 二点五 a p i 接口。那具体是怎么安装呢?第一步,需要你自己在 mac 电脑上下载一个 dawg。 第二步,你要在 dawg 里面去安装这个 openclaw。 第三步呢,会启动一个 quickslot 的 向导, 在向导里面选 kimi 模型,把你申请的 kimi 的 api 接口输入进去,一定要手动修改一下 kimi 的 api 的 地址, 未默认的地址是点 ai 的 地址,这是国外的 kimi 的 地址,我们一般在国内申请到的都是国内的 kimi 的 api 地址,在配置文件里面要把点 ai 变成点 c n, 这样 kimi 就 配置好了。第四步呢,要启动这个 open call, 启动的时候一定要给它挂在一个具体的文件目录, 因为现在的 open class 是 装在 doc 里面的,如果没有具体的文件目录,你一关闭它就所有东西都消失了。第五步,通过 mac 的 终端 就可以去连接这个 open class 了,连好之后呢,你就可以通过命令行去给他下一些命令,让他去帮你做一些操作了。如果你是程序员的话,其实到这一步就可以了, 主人呢,其实还是想在有界面的浏览器里面去操作。所以呢,第六步,你需要先把 doc 电脑能访问的这个地址, 然后呢,再通过 cloudfire 的 隧道机制,建立一个你手机和你 mac 电脑的一个隧道,这样在你手机上就可以直接访问到这个 opencloud 了,当然在电脑上也可以访问到,这样整个安装环境就搞定了。接下来就安装一些你常用的 skills, 比如让 kimi 能够联网搜索,让 opencloud 能够查找 skills, 这个非常重要,要让他遇到错误的时候去纠错,去试错,去自己解决问题的这个 skills。 这样呢,一个个人的 ai 助理就这样搭建完成了。我把整个过程用到的这些安装指令都放在了评论区需要的支取。

如果把一台一万美金的顶配电脑逼到显卡全线飘红,那他正在跑的这坨代码,可能是现在最败家的吞金兽。二百七十个 g 的 内存占用,光模型权重就比别人的硬盘还大。我们要用这个大家伙去单挑月租十块钱的云端算力。 今天这笔账就算的明明白白,到底是买铲子划算,还是雇人划算?这回题目有点变态。做一个未来风的豪华旅游网站,不光要脸好看,还要有 css 特效、表单逻辑,甚至后端本地。这台 max studio 已经把 gpu 拉满风扇开始消胶。 与此同时,云端的 deep agent 反手甩过来三个问题,要不要详情页?邮件发给谁?他在做需求分析,这哪是写代码的,这分明是个懂行的老产品经理。更离谱的是,他顺手把网站需要的图片都给画好了, 还在自动写 tailwind 的 配置文件,完全不用人插手。再看一眼本地的大个子,还在那纠结文件夹结构。最尴尬的是他连你电脑装没装 no 的 环境。最尴尬的是他连你电脑装 no 的 环境。 写出来的这份文件,格式乱的像被猫踩过键盘。任务清单里密密麻麻列了七十一个子任务,云端全在自动跑,这是最终交付的页面。这审美确实有点东西。 顶部的磨砂玻璃特效随着滚动还能自动吸顶手机端的汉堡菜单,点开私班顺滑。这种自动滚动的轮播图,以前手写至少得调半天。 c s s, 以前你得是个全站工程师,现在你只要会打字就行。表单填进去,居然真的触发了后端逻辑, 甚至连确认邮件都给你发到了邮箱里,闭环了,回头看一眼,本地那边,跑了快三十分钟才勉强交卷, 还得你亲自上手修 bug 装依赖当保姆。更狠的是,云端还能一键部署,连域名都给你配好,甚至连数据库密要管理,这些脏活累活全包圆了,甚至还能直接生成这种带图标的商业 ppt, 就 很离谱。 这一万美金的硬件确实猛,但在云端生态面前,他就像个互联网的战神,能打但有点孤单。一边是烧电费的本地怪兽,一边是包月十块的云端大脑。对于想快速出活的人来说,这选择题其实只有一个选项。毕竟在这个时代,拼的不是谁的铲子更贵,而是谁挖矿挖的更快。

刚刚,阿里云正式上线 motbot 全套云服务,全面提供 agent 所需的算力模型和消息应用等。如果你关注近期 a r 圈的热门工具,一定听过 motbot, 也就是 cloud bot。 今天给大家做一个保姆级使用教程视频。 第一步,购买轻量云服务器并安装 molybost 镜像,需要选择海外地区,我这里选择美国弗尼利亚镜像,选择 molybost 套餐配置选择通用型,两盒两 g, 立即购买,等会开通后使用。 第二步,配置 molybost, 前往百联大模型控制台,找到密钥,管理单机创建密钥。 第三步,前往轻量应用服务器控制台,找到安装好 mollibot 的 实体,进入应用详情,放行幺八七八九,端口 配置摆列密钥,执行命令,生成访问 mollibot 的 token。 好 了,今天的教程就到这了,欢迎小伙伴们评论区讨论。

入门显卡本地部署视频大模型测试完毕,我又来了,你好,我是 ai ltx 二,这个月可以说是相当火,纹身视频,独身视频, 当然呢,模型本身要求的硬件条件并不低,这里呢,也要感谢各位网络大神带来的蒸馏版模型,完美解决家用电脑的三大痛点,本地部署完全免费八 gb 显存入门甜品卡, 废话不多说,我们马上开始康复 u i 的 本地部署测试。配置依然是一块四零六零的八 g b 显存,这里啊,还是从安装开始说起,已经安装过康复 u i 的 同学呢,可以直接跳过往后拉。 安装之前先提醒两个事,首先虽然说四零六零八 gb 显存可以跑通,但是这里还有个坑,别紧张,等一会我会收到。然后就是大模型资源的下载呢,可能需要一些魔法,如果没办法下载的同学呢,也没事,我全部都整理好了找我拿就好,可以放心使用。好,那就直接开始,先到康复 ui 官网下载, 找到跟你电脑系统对应的即可。打开康复 u i 开始安装啊,这里他可能会有一些安装路径的提示,如果提示的话就老实装在听盘, 如果安装时跳出提示,缺少环境跟着提示下载就 ok。 如果遇到下载失败的同学,没事,我在文档里也给你们留好了。 好,安装完之后呢,我们来到这个主界面,这里有一个模板功能,可以直接搜索 ltx 二,选这个纹身视频的模板,图上视频也行,我们导入工作流,如果呢是入门硬件配置的同学就选这个真流版模型。 导入工作流之后会跳出,缺少模型,根据下载就 ok, 下载呢,需要一点时间,大家耐心等待,如果下载太慢呢,也可以直接复制链接下载, 想省事的同学呢,我在文档里也把模型文件也都留好了,直接用就可以好。下载完毕到这里呢,基本上就已经成功了。按理来说呢,你已经可以直接输入提示词来生成视频了,但是呢,前面我说到这里有一个陷阱,注意听讲啊,非常非常非常关键, 经过几次的失败呢,很多同学会认为呢,是自己的显卡配置太低,所以呢,跑不了这个工作流。但实际呢,内存也是非常重要的,油管上的一些博主啊,实际他们的物理内存呢,都是九十六 g 的, 再搭配八 g 显存的显卡,那自然就可以跑通了。 但我们平时用的电脑呢,一般也就十六 g 或者三十二 g 的 内存,在这里,如果内存不达标,就非常容易爆破了。那我的解决方案是把虚拟内存设置到一百 g, 注意看我操作, 如果你的 c 盘炸了,那就是设置成功了。全部搞定之后呢,就进入我们的案例展示。首先打开 comu, 找到模板选项,找到 ltx 二纹身视频,输入提示词,点击运行,这里需要耐心等待一会, 昨天儿子很晚才到家。 ok, 生成出来的质量还是不错的,而且呢,中文说的还挺溜,我们再来试一下其他的风格。输入提示词,点击运行, 来者何人?呃,画面有点分,但是台词和情绪呢是对的。这里呢,可能就需要通过优化一下提示词来做改进了。呃,我就不演示了, 我们同样的提示词,给到之前同样很火的万二点二大模型来试一下,正好两个模型做一下对比,在模板里找到万二点二的工作流,使用前同样会提示下载模型。我这里呢,已经提前下载好了,所以就可以直接用同样的提示词输入,点击运行。 好,这里万奥典案已经帮我们跑出来了。呃,它是一个无声的模型,画面上来看呢,也就那样,但是呢,对比 ltx 二来说呢,略好一点。 哈哈哈,总结下来呢,这两个模型呢,其实各有千秋,对于部署在本地的模型,大家如果是新手都可以来试一试,玩一玩。输出内容的质量和时间,就要看大家的硬件条件以及你的脑洞了, 毕竟能跑通才是最重要的。然后上面提到的所有的材料我都已经给你们整理好了,大家直接按照步骤用就可以,工作流和大模型的更多细节就留给大家自己去研究了。 ok, 本期视频就到这里,希望对你有所帮助,让你更了解 ai。 我是 阿月,我们下期再见!

兄弟们,终于,飞书不仅是条通了,而且他已经给我设成了定时任务了,我跟他说让他去给我阅读 get up 的 热榜 top 三十,找到那种非技术的,普通人也可以用那种宝藏仓库给我一个简报文字版本 哈,这是他给我的一个简报,效果还可以每天北京时间八点给我发一个简报,他这里就跟我说这个简报已经创建完成,他这里是自动运行,每天给我发飞书,我的手机版本也是同步的,所以这个非常方便。 nice, 那 我每一次跑这种任务大概会消耗多少头等呢?跟我说,大概成本算下来的话,每个月竟然才一块钱两块钱啊! 我现在用的是 kimi, 所以 非常便宜,如果是用 cloud 或者叉 gt 的 话,可能就会稍微贵一点点,但其实因为这种任务其实也没太多必要,它只是一个简单的搜索汇总,就这种性价比非常高的 a p i 就 很好。我自己用的是 kimi code 的 a p i 就 还挺划算的,它可以直接用 k 二点五。 如果你也需要用飞书去设置这么一个定时任务,让你的大龙虾帮你跑非常多的任务的话,欢迎告诉我,我抽空给大家出一个教程。

作为一名玩客,赢整我爱推主,必须整点不一样的系列。上次只是简单介绍了一下玩客云跑网星云 p c d m 这次来个详细教程,欢迎收看。玩客云废物利用系列之刷派通 云视频中用到的所有文件以及文字版教程都在我的博克里。 w y j m e w 点 e m 首先是准备工作,依旧一台王克云,依旧一根 usb 双光头线,依旧一个镊子,依旧一个 u 盘。好了,前期准备工作已经完成了,接下来让我们把镜头转到电脑,打开杀机软件, 点击开始。接下来我们转到网课员视角,首先将 usb 双端插在 usb 口上,另一端插在电脑上,如果你的网课员转接过,直接长按 com 键, 刷新完之后点击停止按钮,拔掉网课员电源,合 体打开 u 盘,并选择上刷机包,点击开始 将 u 盘插在 usb 二口,充电开机。我的采集卡出了点问题,显示会闪屏,凑合看吧,反正就是等它安装完就会自动关机, 把降速盘插上网线,然后充电。 本期视频到此结束,咱们下期再见!

哈哈,好快呀, cloud bot 又改名叫 mot bot 了,这个爪子机器人又改名叫蜕壳机器人。刚好我有一台空闲的云服务器,试着在云服务器上部署了这个 cloud code, 在 安装了很多包之后,终于进入了 cloud code 的 安装界面,现在在进行一些配置。前面我已经配置好了使用的大模型,我选择的大模型是蒙索, 也就是 kimi 的 a p i。 进入的社交媒体软件是 telegram, 现在正在配置 telegram 的 步骤,需要配置 telegram 机器人的 a p i 和 token。 好, 如果感兴趣的小伙伴可以点赞关注下一个视频,我会介绍怎么在云服务器上安装好 cloud code, 并且接入 telegram 的 聊天,让他帮我们执行一些简单的任务。

大家可能知道我们阿里云无影团队是做云电脑起家的,那 a 帧背其实简单理解就是我们给大模型装上了一台云电脑,大模型通过 a 帧背可以进行浏览器操作,还有编辑代码,控制手机 app, 还有那个桌面软件的操作,那样子可能有人会问 这些工作我们我们也可以让大模型直接操作我们本地的电脑就可,也都可以完成。那这里还要用 a 帧背, 这里我们给大家讲讲我们的医生被解决的一些核心的痛点。首先是一个安全性的问题,大家可能之前有看到过一些文章,就是讲 ai 写了一个删除的操作,删除了一些比较敏感的资料,甚至把整个目录都给干掉了, 那这种事情发生在别人身上可能比较搞笑,那发生在我们自己身上那就比较痛苦。其实是一个环境的复杂度的事情,像 python、 javascript 这种环境的安装本身就有一定的复杂度,并且你可能不同的任务需要不同的 python 版本,在本地部署的话就比较麻烦。 我们 a 针被天然的就支持这种开箱即用的能力,这样子的话就会很好的解决这样的环境的问题。最后是一个资源限制,当业务发展到一定阶段,像高并发还有弹性伸缩这种都是很基本的要求,我们 a 针被天然的就支持这样的能力。

hello, 大家好啊,今天咱们来聊一个 open code 特别厉害的功能,可以说是它的一个杀手锏了,就是它怎么能连接上几乎所有你能想到的大语言模型? 对,你没听错,这个数字超过七十五个,你想想看,这都包括什么呢?从那些大的云平台,像是 a w s azure, 一 直到就在你自个儿电脑上跑的本地模型, open code 都能搞定, 那这到底意味着什么呢?简单说,就是给你了极大的灵活性和控制权,最关键的是,你干所有这些事,压根就不用离开 open code 这个环境好,废话不多说,咱们直接来看看这到底是怎么做到的。 而且啊,最绝的是什么呢?不管你要连的是这七十五个里面的哪一个方法,基本上都是一样的,你只要记住一个特别特别简单的两步法就行了, 你看,就这么两步,第一步,用 connect 这个命令把你的 a p i 密钥加进去,很安全。 第二步呢,要是有需要,就在那个 open code day sun 配置文件里稍微改一下设置,就这么简单。而且我跟你说,这个模式是通用的,不管你是连 open ai 还是自己电脑上的模型,都是这个套路。 这时候你可能心里会嘀咕了,哎,我的密钥放哪安全吗?放心,这个 opencode 早就替你想到了,他会把你的 api 密钥单独存起来,跟你项目的配置文件是分开的,这样就非常安全了。 行,咱们知道啊,一下子冒出七十五多个选择,确实有点让人头大,对吧?那到底应该从哪上手呢?别急,对刚开始用的朋友来说,答案其实特别简单, 我们官方的建议是,从 open code zen 开始,你就把它当成是一个官方帮你打包好的新手大礼包。这里面的模型呢,都是我们团队亲自测试验证过的,保证你开箱即用,体验绝对顺滑。 你看,用 open code 的 验,正好能让你体验一下我们刚才说的那个两步法有多简单。敲个 c o n x t 命令, 选 opencode 的 浏览器里点一下,确认,把密钥黏进回来,然后用 c o m u d o l s 看一下推荐模型搞定,整个过程可能也就半分钟的事儿,你马上就能开工了。 好,等你把这个最基础的玩明白了,那接下来就有意思了,咱们来看看怎么从这儿出发,去连接一个更广阔的,可以说是模型宇宙。 比方说你的项目要求比较高,需要企业级的那种性能和稳定性,那也没问题。像阿马逊的 a w s, 微软的 i 硕,还有谷歌的 vertex ai 这些大厂的云平台, open code 都能无缝对接。 咱们就拿 a w s beta rock 来举个例子啊,你看你有两种玩法,一种是图省事儿,快速测试一下,那你直接用环境变量就行。 但如果说你这是个正定项目,要长期用的,那我们还是建议你老老实实地写在 opencode 点 js 这个配置文件里, 这样一来配置更清晰,以后管理起来也方便。接下来说一个我个人特别喜欢的功能,就是在本地跑模型。这有什么好处呢?最大的好处就是你的所有数据从头到尾都没离开过你自己的电脑, 这对于那些对隐私特别看重,或者需要完全控制的场景来说,简直是完美的解决方案。你再来看这个表,是不是一下就看明白了?不管你用的是拉玛 cpp 还是 lm studio, 或者是现在很火的欧拉玛, 你会发现它们的配置方法几乎一模一样,唯一的区别说白了就是那个 base url, 也就是你本地服务的地址不一样而已。 这就是 open code 设计上非常聪明的地方。好,那肯定有朋友会问了,万一我想用的那个模型不在你那七十五个的官方列表里,那怎么办?哎,别担心,只要它符合一个通用的行业标准,你就能自己动手把它给加上。 这个标准就是所谓的 open ai 兼容 api, 这个概念特别重要,你就把它想成是 ai 界的 usb 接口。 有了这个标准接口,不管是什么奇奇怪怪的模型,都能用同一种方式来跟它对话。而 open code 的 就是那个能插所有 usb 设备的万能插座。所以重点来了, 真要自己加一个的话,你只需要在那个 open code 点 json 文件里加上一小段配置,告诉它四个事儿就行。 第一,用哪个工具包去连。第二,给它起个什么名,方便你自己看。第三,它的 api 地址是啥?最后,它下面有哪些模型可以用,就这四项填进去,一个全新的模型提供商就让你给揭如了,是不是很简单?好了,说了这么多,咱们来总结一下, 搞懂了 open code 这个提供商系统对你来说到底意味着什么?还记得我们最开始说的那个连接加配置的两步法吗?没错,它就是一把万能钥匙,有了它,你就打开了通往整个 ai 模型生态的大门,想去哪儿就去哪儿, 从现在开始,选择权才真正回到了你的手里。我觉得这才是 open code 的 这个工具最核心的价值所在, 你再也不会被某一个平台或者某一个公司给绑死了。你可以根据你手头的工作,自由地去挑选到底用哪个模型效果最好,最划算。所以现在轮到你了,你第一个想连的模型会是哪个?

兄弟们好消息,今天我调取的这个地方是一个二万,这个速度你们看是不是快到飞起,直接发出去秒回复啊,免费的,哪个平台的?腾讯云赞助的?我给大家已经整理好一个完整的教程了, 在那个公共群里面,我给他录一个完整的操作视频,随便打开个浏览器,你搜索腾讯云,点开腾讯云, 然后在右上角先登录,用你的绿泡泡去扫码登录,这个大家肯定都懂,对吧?登录完以后,右上角这里会有你的 id, 然后我们接下来选择菜单栏这个产品,往下拉,人工智能与机器学习,往右边找腾讯运营 pi 平台,点击 到了这个页面,这个页面以后点击立即使用,立即使用,会进入一个大模型广场,在大模型广场里面有 seek, 有会员,那我们今天就是第一个 seek, 直接点击,点击完第一个 seek, 上面这些都不用管,你要现场体验你就体验一下,如果不体验直接往下拉,这里有个 api 调用指引,打开用心创口,查看 这些域名地址名称都是要用的,等一下,这些名称就是我们调的模型 id, 域名请求地址都有,然后往下看,重要消息在这里免费,然后到北京时间二零二五年二月二十五日啊,二十四点之前,总之就是二月二十六日开始收费,你没有在里面存钱,你不 不用担心他扣你钱,你就大胆的用,到时间不能用了,你再决定,然后他就算收费以后价格也是跟官方是一样的,那既然官方是一样的,我们就看哪个反应更快,你说对吧?然后再往下走,我们要申请个 apa, 这里面有一个 基础地址,然后这里面有个 api 管理,点击往下拉,往下拉,因为我们刚才已经登录过了,所以直接拉到,你可以在立即接入这里点击,或者在 apik 管理这里面点击 啊,总共就能设置两个 apa, 我刚刚已经设置完了,所以不能再创建了,然后你直接查看和复制就好了。好,这 apa 申请就到这里,接下来我们来看怎么设置。你去下载一个 checkbox, 这个软件我用的还是比较简单,相对傻瓜坏一点。然后在缺 box 的左下角设置,然后 点击右左上角这里,这里有个添加自定义提供方,点击添加自定义,输入什么呢?输入,我刚给你们看一下,我输入做好的那个页面,输入第一个名称,你自己命根,你记得住的,我就叫做 腾讯第二十二万啊,二月二十六日。对,第二个 api 域名就是这一个,你把它复制过去,粘贴到这里。第三 api 路径,不用管它。第四 apik 就是刚才最后的这个 apik, 查看复制,然后粘贴到这里面。 最后一个就是你要调用的模型,有两个模型可以调用,阿万就是那个推理模型,现在别的地方很卡,但腾讯员真的是很顺畅,然后你把它保存就完事了, 就可以使用了。还不清楚的话,你直接去群里面呃,去看一下那个链接的详细教程,或者私信我,我给你再次发一个链接好吗?

你知道 oppo 可乐很好、很强大、很牛,但是你就是装不上,本地跑不起来怎么办?这也是我们社区很多用户和学员的问题,哪怕是你跟着官方的安装手册,或者某些社群里的所谓的便利安装手册,都会遇到各种各样的问题,这些不是文档本身的问题,而是你机器配置、环境部署方面的问题,这些都是需要一对一排查和解决的。 所以为什么我们在工具小组里面开讲了一系列关于 openclaw 的 课程,第一节课就教大家怎么在 windows 和 mac 上部署,而且很多学员在课上了一半的时候已经成功部署了。如果你感兴趣也想加入 openclaw 一 系列的课程的话,可以看主页介绍第一行专人给你提供更多详细的信息和介绍。