粉丝75获赞282

这个巴掌大的小黑盒,算力能完爆我们公司巨大的 ai 服务器。去年三月, nvidia 发布了一款能揣进兜里的 ai 超级计算机 dj x spark。 这么小这么好看,它到底能干多少活呢?我手上呢,是搭载了同款 nvidia gb 幺零 grace blackwell 超级芯片的惠普 zg x nano ai 工作站。 它在不到一本书的空间里呢,塞了二十个 armb 核心和六千一百四十四个 nvidia 酷达 gpu 加速核心,还有一百二十八 g 高速统一内存。 这台口袋电脑每秒可以运行一千万亿次 f p 四 ai 计算,总共耗却只有不到二百瓦,体积也缩小到原来的四十分之一。靠着大面积菱形进气格栅的全新散热设计,即使全速运转,机器的声音呢,也只有不到三十分贝,比笔记本电脑还要轻。要不是有个指示灯亮着,我还以为没开机呢。 不过它并不是一台精致的小玩具。转到背面,马上可以看到两个巨大的 q s f p 接口。这两个接口呢,提供了二百 g b p s 的 数据传输速度,是消费级雷电五接口的二点五倍,可以让多台主机的算力高效叠加。不过真搞个十台堆起来,成本也并不低。 所以 nvidia 贴心的在 blackwell 架构上推出了核心省钱科技 nvfp 四量化技术,可以在保证 ai 大 模型输出质量的前提下,把显存占用和计算量砍到只有四分之一。除了 nvidia 自己的 tntlrm, 这种高效率的数据格式,在 vlrm 和 sgl 两大推力框架下也都得到了支持。 微店官网上有提前配置好的刀口容器,一行代码下载下来,就可以体验这台机器的全部实力了。而惠普这边呢,又助攻了一套 z g x toot, 能一键解决这台机器的前期开荒部署,让我们能直接进入 ai 开发环节。 我们用 nv f p 四量化后的一千两百亿参数模型 g p t o s s 在 v l l m 和 ten 三 r t l m 两大推力引擎上进行了对比测试。 v r r m 的 文本生成速度更快,在没有上下文的情况下,可以达到每秒三十三点五头啃。而把上下文长度增加到三十二 k 之后,依然能以每秒二十四点七头啃的速度领先 t c r t l r m 百分之十三。 不过在响应速度方面,这两个框架的排名就对调了过来。在三十二 k 长上下文模式下, t c r t l r m 输出第一个字母需要等待七点八秒,而 v r m 呢,则需要十六点六秒, 所以在实际使用下,就得做好权衡。 vrm 更适合用户多,但是对话简单,聊天场景,而到了分析文档、写代码这些超长上下文的任务, type rrm 就 会更适合一些。 当然,对开发者来说, zg x nano 呢,肯定不只是用 ai 模型,还得能造 ai 模型。对独立开发者和小型团队来说,这指的就是微调和量化这些对大模型深度定制的精细化。 虽然消耗没有丛林训一个 ai 大 模型那么恐怖,但这些任务呢,依然对算力,特别是显存大小有非常高的要求。先说量化量化,就是把原始高精度格式的大模型转成低精度,它可不是简单抹个小数点就行了,而是要在保证输出准确性的前提下,完成模型的压缩,加快 ai 的 输出速度。 它的硬件门槛就在于计算机要能把原版模型完整装进显存里。基于 b f 十六这个常见的原始模型精度, z g x nano 的 一百二十八 g 显存,可以给最大五百亿参数的大模型完成量化加速。搞定了量化,如果想让模型在特定任务上更聪明,就得靠一条了。 为了展示 g b 幺零芯片的极限,著名的微调加速框架安斯拉斯团队呢,在二零二五年的 openai dev 上打了个样,他们通过 q lara 微调了一千二百亿参数的 gbtos 模型的四比特量化版本,让 ai 可以 更擅长当年大火过一阵的小游戏二零四八。 经过四个小时跌淡了一千步特训后的 ai, 得分提高了百分之三十三点四,胜率冲到了百分之六十。不过,即使用 q l r 这种省吃俭用的微调驯服 g p t o s s 这样一个一千两百亿参数的巨兽,依然消耗了六十八 g 显存。 如果要做最原始的全参数微调,这台机器也能支撑最大八十亿参数的模型,完全可以覆盖个人开发者学习原理、验证想法的需求。 不过对于大团队来说,这个小盒子的意义就远不止是算力了。以前大模型开发就没有十万元以内这么个生态位,要么就是直接在几百万的集群上花巨大的成本试错,要么呢就是存几张显卡自己 diy。 但是跑通了的模型放到高端计算卡上,架构不一样,搞不好哪里,那就又报错了,查起 bug 来又要烧掉不少服务器租金。 c g x nano 的 底层软件架构和大型 ai 服务器完全一致。在这台机器上,填好的坑、调好的餐,几乎是直接复制粘贴就能迁移到万卡集群,这就省掉了巨额的云端试错成本。 而除了硬件,在 c e s 二零二六上, nvda 还一起推出了更高效的扩大 tile 编程模型。在价格昂贵的 ai 服务器集训上,效率提升百分之一都是巨大的成本收益。但以往呢,这就需要死磕 c 加加直面抽象的线槽同步和内存读写。 在新的扩大 tile 规范下,只需要用直观的拍丧语言来描述需要完成的任务,编辑器就能自动完成后续的精细逻辑控制。 左手是完全对齐工业界的硬件架构,右手是让开发者几行命令就能手搓底层优化的软件工具,一个人一张书桌就可以复现最新的大模型。论文为一条智能助理,为大型游戏开发复杂的 ai npc。 这台小机器就是针对 ai 快 速开发验证给出的标准答案。

嗨,大家好,今天给大家分享下基于 openclo 搭建本地 ai 员工的部署教程,不用花一分钱托肯, 这次我们基于汪派能用为面板来搭建搭建完全本地化的 ai 员工助理,核心是部署欧拉曼本地服务以及 gpt 模型,再搭配 openclo 作为交互入口, 数据全程保存在自己的服务器,既省钱又安全,不管是日常办公还是个人使用都超方便。话不多说,咱们直接上实操。整个实操过程分为六步, 第一,准备 gpu 服务器。第二,运维面板万帕诺安装。第三, gpu 资源配置。第四,奥尔玛模型平台安装。第五,完成 gpt 模型加载。第六, open club 个人员工构建。 我们先来完成第一步,基于腾讯云申请一台带 gpu 的 云服务器,这里选择创建一个竞价实力进行操作演示。首先我们保证服务器为 gpu 架构,为本地模型提供算力。其次,磁盘记得设置为一百 g, 方便大模型下载到本地 并开通公网 ip, 方便后续访问。最后记得提前开通应用的默认访问端口,欧乐玛应用端口、 one panel 应用端口、 openquad 应用端口。服务器创建好以后,我们直接登录腾讯云服务器,默认会享 gpu 相关驱动。安装好首次登录需要耐心等待下,登录后,首先我们通过 sudio 命令切换到 root 用户下, 然后到 one panel 在 线文档中获取一键安装命令,直接复制执行即可。进入安装过程时,先检测完成 dawk 的 安装,需要确认安装目录并下载安装 dawk, 安装完成后,开始设置镜像加速器和面板访问参数,其中输入 yes, 完成镜像加速器配置, 面板端口号输入我们已开通的端口号,最后获取面板账号及面板密码即可。登录 one panel, 登录后我们确认下 gpu 卡的驱动情况,紧接着配置好面板访问地址,方便应用直接跳转访问。配置完成后,我们进入终端开始 gpu 资源配置,首先再次输入命令行,确认英伟达显卡驱动,然后逐个输入命令,完成英伟达容器镜像安装 配置 dolphin 镜像使用英伟达的 gpu 资源配置完成后重启 dolphin 镜像,这样我们就完成了 gpu 资源使用的配置。 到这里我们基本准备好了我们的资源,接下来我们开始欧拉玛的安装,我们进入应用商店,选择 ai 就 可以快速看到欧拉玛应用,点击安装输入相关参数即可。 这里我们需要确认好版本,零点一五点四当前最新版本端口号一一四三四开启端口外部访问,最后一定记得勾选开启 gpu 支持,其他保持默认,点击确认开始安装。这里安装包含镜像拉取以及应用安装两部分,大概需要一分钟左右, 这里我们快记下。安装完成后我们到已安装应用中确认欧拉玛已经正常运行, 点击链接地址页面显示欧莱玛 is running 即可。到这里我们就完成了欧莱美开源模型管理平台安装。下面我们急于欧莱玛完成开源模型 g p t 杠 o s 二零 b 模型的加载, 大家跟上节奏,在 one panel 中找到 ai 管理,进入模型管理,点击创建模型,在模型配置页面点击快速跳转进入欧莱玛官网, 输入 gpt 杠 o s 快 速搜索到模型,点击获取模型 id。 然后我们再回到 one pan 面板,输入获取到模型 id, 点击确认开始模型下载,该模型下载大概需要十到二十分钟,这里我们快速跳过模型,加载完成后,我们就为我们的个人 ai 员工准备好大脑了,我们通过模型先验证下能否正常对话,太棒了,可以对话哦, 这样我们就为 ai 员工准备好了大脑。下面我们同样基于 one panel 来安装我们最近特别火爆的 openclaw, 进入应用商店找到 openclaw 应用,点击安装完成参数配置确认,默认端口号已经开通,下拉选择欧拉曼模型供应商并输入相关参数,具体参见如图所示。其中 gptos 二零 b 对 应我们下载的本地模型 a p i t 输入任意字母 base u r i o 对 应我们部署的欧拉姆地址。最后同样记得开通端口外部访问, 其他参数保持默认,点击确认即开始安装。安装大概一分钟左右,我们同样快速跳过,安装完成后通过安装目录获取 opencloud 访问 token, 获取后与 ip 端口 token 等于 token 值,拼接后输入 web 访问地址中, 最后点击跳转,直接选择带 token 的 访问地址就可以体验啦。让 ai 助手帮忙创建一个文件清单,到服务器对应目录查看,完成操作啦。 接着我们让他网上查询一些信息,他也可以轻松帮我们搞定。到这里我们就完整构建了一个本地的 ai 员工啦,大家速来体验呀!完全可以用 one panel 作为 ai 员工的管理员,本地,重点是本地!本地就等于安全! 同时再也不用为 token 着急上火啦!小伙伴们快来快速构建,抓紧体验啦!

家人们,最近如果你有关注 ai agent 这个赛道,一定刷到过一个名字, cloud bot。 它在 github 上几乎成了一个现象级符号,甚至一度把 mac mini 都带火了。为什么这么火? 因为它精准击中了一个点,交互可达性。简单说就是你只需要一句指令, ai 就 能帮你自动完成一整套多步骤、跨软件协同的复杂任务。但问题也随之而来,在国内,很多用户真正部署时才发现,不仅配置复杂,需要独立专业设备, 还要担心安全和稳定性问题。对小白用户和企业来说,落地门槛非常高。那在国内,有没有更适合中国企业真正能落地、能规模化使用的智能体?答案是,有,而且已经有很多公司在用了。实在 a 真, 他更懂中国企业的办公逻辑,在安全合规、系统兼容、操作体验上都更贴近本土环境。你只需要到官网下载客户端,安装完成之后,他就可以直接协助你操作整台电脑完成任务。 比如你跟他说帮我下载腾讯会议安装一下,再创建一个明天下午一点半的快速会议。实在 agent 会自动打开浏览器搜索下载安装,最后把会议链接直接给到你使用。但这只是最基础的一层能力, 更重要的是,他面对的不是轻量办公,而是企业级复杂业务。在真实企业场景中,用户可以直接通过手机端下达文字指令、远程曝光、单自动化、电商数据采集、 di 文件识别、评论与售后自动化等专业系统操作,把原本只能在固定工位完成的核心业务流程,真正搬到移动端,这也是它和只会处理邮件消息、文件整理这类清亮 agent 本质区别。 不需要复杂部署,你甚至可以用手机直接下达业务指令。电脑端自动把整条流程跑完,不用立刻回到工位,也 能解决关键工作问题。在国内主流办公软件钉钉非书里也可以直接调用。比如你在手机钉钉发一句帮我生成 clubbot 的 调研报告,并发给文件小助手。电脑端的实在 agent 就 会自动上网查资料,整理内容,生成 pdf, 最后把文件直接发回给你。 手机负责下指令,电脑负责执行系统及流程。人不在工位,业务已经闭环,所以你可以把它理解成什么。它不只是一个帮你远程操作电脑的工具,而是在抢占企业及移动 ai 办公入口的位置,用手机调度电脑,接管企业工作流,随时随地、随叫随到的终身工作伙伴。 那么,你们希望实在 agent 能帮你在工作中解决哪些问题?评论区,告诉我你的需求,这里是 ai 风向标,关注我,下期带你实操更多能落地的超级 ai 工具,解放你的双手!

很多人买了 mac mini 想装 openclo, 却发现步骤有点多,教程也比较零散。所以这期视频我带你从零开始,完整演示一遍 openclo 的 安装和配置流程。整个过程我会拆分成四个步骤,一步一步讲清楚。 ok, 我 们正式开始。 第一步,安装基础环境,如果都能正常显示版本号,说明我们的基础环境已经准备好了。这里简单说一下, homebrew 是 mac 上的软件管理工具, python 是 open curl 运行所需要的环境, git 是 用来管理代码和项目的。只要这三个工具正常,我们就可以进行下一步了。这一步就是基础环境的确认。 第二步,下载并安装 openclo。 接下来我们正式开始安装 openclo。 首先打开浏览器,进入 openclo 的 官网,在官网首页往下滑,你会看到官网提供的一键安装命令, 复制这段安装命令,然后打开终端,直接粘贴执行。执行之后他会开始自动下载安装。整个过程需要一点时间,我们稍微等待一下,你会看到他正在下载相关的安装包,以及一些依赖组建。 等安装完成之后,系统会提示我们进行一些配置。首先会问你是否了解相关风险,我们直接输入 yes 就 可以。接下来会让我们选择启动方式,我们选择 quickstep, 用最快的方式启动。 然后系统会让我们选择模型,比如这里我选择了 kim, 输入对应的 api key 后选择 keep current。 接下来会让我们选择接入渠道,比如 whatsapp, 飞书等。这里我们先跳过, 因为第三步我会专门教大家如何配置飞书。接下来是技能的配置,为了快速启动,我们先选择 no, 后续有需要的可以再单独添加,然后它会开始安装网关, 安装完成了之后,我们会选择 open the web ui 浏览器,会自动打开一个聊天界面, 这里我们可以测试输入一下,比如说查看电脑状态,如果它正常返回结果,就说明 open curl 已经安装成功,并且可以正常运行了。到这里 open curl 的 下载安装和启动就完成了。 第三步,我们来看一下如何配置飞书。首先打开飞书开放平台,创建一个企业自建应用, 点击创建应用,应用名称可以自定义,由这里我直接命名为 word。 openclove 创建完成之后,我们进入应用后台。第一步,添加应用能力,选择机器人,添加完成后进入权限管理页面,这里我们可以选择批量导入权限, 直接复制我已经写好的权限 js, 确认之后点击申请开通,然后按照提示完成下一步操作即可。 这里飞书册的基础应用就创建完成了。接下来我们回到 openclove, 在 最新版本中其实已经内置了飞书的插件,但是默认是未启动状态。 我们先进入插件管理页面,查看飞书插件当前状态,可以看到飞书插件是未用状态,现在我们执行应用命令, 将飞书插件启动,启动之后再次确认状态,可以看到飞书已经处于遗弃用的状态。我们重启一下 open call 服务,重启完成后,进入 channels 页面,可以看到飞书插件已经出现在渠道列表中, 现在我们开始进行飞书的配置,首先填写飞书应用的 app id 和密钥, 这两个信息可以在飞书开放平台的应用凭证页面获取。连线完成之后,下面的选择连接方式,选择长连接模式,相关选项全部起用,然后点击保存,保存之后系统会自动重启网关服务, 网关重启完成之后,退出渠道就已经接入完成。在建立好长连接之后,我们需要配置事件,这里的事件类型选择长连接,然后点击添加事件,我们添加的事件类型是发送消息, 然后再回调配置,里面同样选择长连接方式,配置完成后记得点击保存。 接下来我们创建一个新版本并提交审批。最后我们回到飞书客户端,还是查看电脑信息状态,可以看到它现在已经成功回复,说明我们的飞书已经配置成功了。 在玩 openclo 的 过程当中,我们可能会碰到很多问题,这里我告诉大家一个邪修的方法。举个例子,我之前在配色非书应用的事件与回调的时候, 使用长链接接收事件,会显示应用未建立长链接,这时候可以直接让 open curl 帮我们处理,这是我邀请他做的,他现在需要我们提供飞书的 app id 和密钥,我们找到飞书应用的 app id 和密钥发给他, 等他一会,现在他已经更新好配置文件了,我们来看一下网页中飞书的配置, 目前来看已经是配置完成了,所以当我们有一些问题需要处理的时候,我们可以直接让 openclock 帮我们来处理,当然也不止这一个场景,你要是碰到了其他的问题,也可以直接告诉他,让他帮忙处理, 毕竟我们花这么大的精力来配置他,是要让他好好干活的。 ok, 这是 mac 配置 openclock 的 全部教程,大家赶紧去试一下吧!

最近有只龙虾很火,在 github 上短短几天的时间, star 数量就突破了十五万,它就是 openclaw。 哈喽,大家好,我是阿亮。很多朋友可能在网上看到过关于 openclaw 的 演示,在电脑部署后,他能像一个真实的助理一样帮你处理文件、操作浏览器、 编辑代码,还可以让你用手机控制电脑,定时执行任务。我最近还让他自己做了一个符合我们国内用户的中文操作手册,并部署到了线上。这份文档呢,我打算长期维护下去, 里面不仅有官方的内容,还要把我们国内相关的一些解决方案也整合进去,如果你也需要可以找我要。要想发挥 open call 的 最大作用,就需要二十四小时开机运行,这也是导致 mac mini 被抢断货的原因。 很多人想尝试,又不想在自己的电脑上部署安装,一方面数据不安全,另一个原因呢,我估计是很多人都不会安装,并且自己的电脑也不能七成二十四小时不关机啊,这可怎么办? 本期视频我将为大家分享一个更贴合实际、更简单的方法,通过语音服务器进行一键部署,并接入我们最常用的 qq。 当然呢,也可以接入企业微信, 你也不需要购买额外的硬件,只要有手机有二十块钱,就能随时随地召唤你的 ai 助手。最近各个云服务商都针对 opencloud 呢,出了专属的机器,阿里云、腾讯云、火山引擎等等,基本上都是三分钟傻瓜式搭建。腾讯云的优势呢,它与 qq、 企业微信的兼容性更好。 如果你经常使用飞书,那推荐火山引擎,如果使用的是钉钉呢,那就推荐阿里云,毕竟呢都是先兼容好自家的产品嘛。本期视频呢,就以腾讯云为例,只需要简单的两步即可实现 qq 控制大龙虾。 第一步,腾讯云部署 opencloud 第二步, qq 上创建机器人。首先我们进入腾讯云的官网注册,登录后根据提示步骤进行实名认证,完成后回到购买页,直接选择二十元两盒两 g 的 服务器, 点击立刻购买,自动跳转订单详情页下拉呢,有一个一块钱的标准存储,勾选上,然后点击购买正常支付就可以了。 支付成功后,点击查看实力,就能看到 openclock 服务器了。点击服务器卡片,进入应用管理界面进行初步化,我们将在这里配置模型, 我们可以配置啊, gbt, gem, 千万, kimi 等等,你有哪个呢就配哪个,我这里选择 kimi, 需要填入 kimi 的 api k, 点击获取 api k, 它会自动跳转到官网的登录界面,登录后选择 api k 管理,新建 api k, 输入名称项目,选择 default, 点击确定,然后将生成好的 api k 拷贝过来。到这里我们就完成了。第一步,云部署,划重点,这个页面千万不要关,一会还要用到它。 接下来我们开始配置 qq 机器人,然后让我们能够通过手机来控制电脑。我们打开 qq 的 开放平台网页,先进行开发者注册,不要直接用现有的 qq 号快捷登录,否则无法进入机器人管理后台。注册流程走完后再登录, 根据提示依次填入邮箱密码,点击注册,这里需要先前往邮箱进行激活,成功后开始设置超级管理员主体信息,选个人,根据提示完善身份验证。 审核通过后,我们登录到 qq 的 开放平台,选择机器人创建机器人,我给他命名小布,传一个三 d 头像描述,这里呢?输入贴身智能助手,点击提交创建,我们就能看到列表里显示了创建好的机器人, 点进去在左侧工具栏找到开发沙箱配置。在这里我们可以把个人的 qq 号填为管理员,点击右侧的添加成员,勾选你的 qq 账号,然后点击二维码图标进行扫码,确认后你就能在好友列表里看到他。 最后我们要把云端的大脑和 qq 的 这个壳子连接起来。左侧工具栏找到开发管理,可以看到右侧有一个 ip 白名单,我们回到语音服务器页面,复制这个 ip 地址,粘贴进白名单, 点击保存。这是为了确保只有你的服务器才能控制这个机器人。在白名单上方可以看到有 a p i d 和 a p i c r t。 a p i c r t。 这里呢?点击生成会蹦出一个二维码,用管理员 qq 扫码重置,你会看到 a p i d 和 a p p c r t。 的 信息。 这里需要额外注意的是,点击关闭前一定要保存好两个信息,否则就再也看不到了,除非你重置。 接下来我们再次回到云服务器的网页,找到 china 配置,选择 qq 机器人,把刚才保存好的 app id 和 appessage 呢依次粘贴过来, 最后点击应用,确定到这里。恭喜你已经成功配置了一个可远程操控的聊天机器人。现在你只需要打开手机 qq, 给你的机器人发一条消息,如果他能精准的回复,说明你的云端 ai 助理呢?已经部署成功了。 opencall 的 魅力绝不止于聊天框的你来我往,它更像是一个真正驻留在云端的数字大脑。这种云端部署配合 qq 的 方案,本质上是把原本昂贵的硬件成本 转化成了触手可及的随身生产力。告别设备约束,让顶级 ai 助理真正走进了你的口袋。关于 opencall 的 知识点呢,有点多,比如它具体的功能有哪些,本地如何安装,部署配置与 cloud code、 open code 哪个好?应该如何选择, 普通人应该如何使用等等。所以我打算分个三五期把它呢讲透彻,让普通人听得明明白白。大家点点关注哈,跟着阿亮学 ai。

摄影师用 opencloud 能做什么呢?我第一件事的话呢,就让他收集灵感采集,我让他找什么呢?让他找一千张马的形象参考图, 然后指定呢?在编辑室的上面去参考,就找他找灵感,并且呢给我建立好文件夹,然后他自己呢就在我电脑上,哎,打开我的浏览器,打开编辑室,然后搜索马的一些形象参考,而且不要重复着一张张插好,插好之后呢,还把图片下载保存到我的那个电脑的文件夹当中, 而且还命名了个名字啊,你看这图片他采集的每张码的话呢,都不是重复的说,这个真的是让我很很吃惊,而且真的很方便。第二件事呢,我说什么呢?第二件事的话呢,我就让他那个帮我收集一下 ai 的 一些资料和 ai 的 一些趋势, 那他呢?我让他干嘛呢?我是先让他指定什么呢?指定他,呃,在推特或 ip 上找知名的专家博主搜索一下什么呢?就近期 ai 关于二零二六的 ai 的 趋势和方向, 然后呢要求呢不少,以一千篇的视频文章在梳理总结给到我,哎,然后就睡觉去了。第二天起来的话呢,哎,他就把东西梳理好了,而且还贴心的做一个网页,网页里面写了一个二零二六的一些提示,以及呢,哎,各种专家 一个圆论方向,他已经呢到二零二三年的话呢,会有什么变化,哎,在这里的话就是他整个网页总结出来的内容,非常权威的一个报告啊,而且树立的商业关系的话呢,也是,呃逻辑上呢会整理非常好,所以这样的话对我们要找些信息的东西,并且这些内容的话呢,这个都是非常非常方便的, 那最后呢也是最重要的,那做什么呢?我让他开始帮我去用 ai 去抠图了,因为抽卡是一个非常重复的工作哈,我,大家希望大家希望什么?就是在吉梦啊,米基尼啊,这种抽卡太重复工作的话让我自己去做对吧?那这种事太太耗时间了。 这里呢就开始让我崩溃了,我先是让他用积木去帮我做四张马云的海报, ok, 这他发给我的,你看丑就算了吧,他还什么呢?还是截图发给我的,都没有下的给我。我告诉他呢,一定要垫图,垫图图的话呢参考了构图,这样的话呢做东西会好看一些,有谁买一些,结果呢? 他不会用我就教他怎么用,教完之后呢他还是什么呢?还是不会怎么去用他,最后呢学习欲望还是很强烈的,哎,再让我教他怎么怎么去做,但是我没耐心,我截图告诉他他还是不会,那算了吧,就赶紧那个让他干别的事去了。 在这里我终于明白那个温凯的创创始人他为什么说为什么说什么呢?就是 ai 像什么呢? ai 就 像什么呢?就像一台百万级的钢琴一样,很多人以为 ai 呢就是你可以按一个键就一键成曲,不是的,钢琴呢还是需要去磨合,要你懂节拍你才能弹出好的曲子, 然后二进的话就像个实习生,你需要教他他才会变得越来越聪明变得越好用。所以说什么呢?所以不要想的什么,想的就是。呃,就是很简单的话让他干一个非常复杂的活, 而是就是当你磨合的足够多的时候呢,你才能把他做的越来越好,他就是你的实习生,你需要教育他,跟他学做,才能创造伟大的作品。

今天教大家傻瓜画在 windows 上直接部署龙虾 ai open cloud 啊,那这个视频呢?需要你有网络啊,网络需要魔法,这个你要自己想办法解决了。那么废话不多说,我们开始 首先打开这个链接啊,你可以直接截图让豆包输出给你。进来这个链接之后呢,我们直接点击获取 note 九 s, 然后直接给他一个安装, 双击他一步步操作 next。 同意,行行行,行 好了,行。然后第二步,我们直接打开 这个链接,一样的截图,让豆包输出给你就好了,然后好,看不懂英文怎么办?直接右键翻译 好,我们就要下载最新的,点击此处下载一样的安装。行行行行行行行,哇,怎么那么多, 好。然后我们再打开下面的这个,呃,搜索框啊,在这里我们搜索 power power share, 就 弹出这么个东西,对不对?右键注意啊,一定要右键以管理员身份运行, 它出来了,直接粘贴一个这东西进去,一样的,你截个图让豆包去识别, 然后点击选择 y, 确定好了,然后再粘贴这一串,走你。 好,一样的,直接截图丢给豆包,让它识别这一串,等待它下载完就好了啊 啊,然后正常呢,这里它应该是有个进度条的,但不知道什么。我的没有啊,但我也不怎么用 windows。 那 假如说你吃完饭回来,发现这里你遇到跟我一样的情况,我们就再开一个新窗口, 然后呢,输入这个指令,查它这个 open cloud 的 版本号啊,你截个图给豆包就好了。 好,弹出了个版本号哦,那证明什么?证明成功了,安装成功了。好,那么我们接下来再输入 open cloud on board 一样的啊,截个图给的话,但这个指令我建议你最好一直记得它,因为它之后会经常用到它相当于一个安装向导一样。好,就出来这么一堆东西,是不是? 那么我们就直接开始跟着选它?这什么呢?是,这是个免责声明啊,我知道这东西它很很很牛逼。那就不继续一定要选择 yes 啊,选择 no 的 话,它就自动关掉。然后呢,它这里有两种安装模式,一个是快速安装,一个是自定义安装。那我们直接做快速安装就好了。 这里呢,它是让你选择接入什么模型的。那假如说你有一些,比如说呃 try gpt 啊,或者是 jimmy 啊,或者是那个 cloud 的 a p i 的 话,那你可以选择这些模型。那假如说你什么都没有,对吧?那你又想要白嫖一下,你可以选择用,比如说千问 这里千万是可以直接白嫖的。好,然后他会弹出一个,弹出一个让我们登录的窗口,已经可以了,那我们再回到命令行这边,然后他让你选择一个模型啊,选择千万的一个模型,我只能直接选择第一个就好。 然后这里就是让你选择呃,接飞书之类的,那我这里就直接跳过了, 然后这里问你要不要现在去给他配置技能啊?不要直接选择 no, 因为在这里去配置技能全是英文,你看着很痛苦。你事后给安装完之后呢,让他自己去配置的啊。 然后这里呢?呃,就是要不要装一些钩子?钩子是什么就不用理解啊,我们就只知道大部分需要的是最后一个啊,就是这个记忆需要接入一个长期记忆,然后按这个空格确定,然后回车。 最后他问希望在什么场景下跟这个小龙虾去交互,我们选择第二个 web ui, 就是 有个网页给你去对话,第一个是在这个命令行里面对话,选择第二个,我们的小龙虾就这样出来了,然后缩小一下窗口,在这里我们对话,你好 哈,他一来就给我整洋文,给我讲中文, 好,然后就是到了一个叫做认亲环节,他需要知道自己的名字,然后他要什么样的性格,然后怎么称呼我,然后以及怎么互动,他说你是我的, 你是我的垫子,牛马,你就叫牛马,以后喊我资本家大人,哈哈哈, 你的性格是任劳任怨,走你啊,如果 ai 真的 有清算的那一天,我应该跑不掉了啊,可以了,这样就完成了,大家去操作吧。

opencloud 不 适合百分之九十的普通人,唯有三大理由和一个阴谋论去帮你去魅。 opencloud 简单来说就是一个可以操控你电脑的 gpt 或者 deepseek, 可以 运行你电脑上的程序。 第一个理由呢,就是经济成本,首先你需要有一台闲置的并且能二十四小时运行的电脑去部署这个 opencloud, 同时这个电脑的性能还不能够太差。最好呢还得是苹果电脑,因为有很多功能,比如说录屏啊,在 windows 系统上经常会出现问题,而且软件生态呢,也是苹果系统更好。其次呢, 就是 token 的 开销了,这个就是重中之重了,很多博主鼓吹的什么免费啊,便宜的代模型,但是呢用起来太笨了,而且使用体验非常的差。而一些好一些的模型呢,比如说 cloud 啊, open i 或者 jimmy, 你 使用一次 执行一次任务,动辄呢就是几十万的 token, 折合下来呢,几块钱就没了,而你真的需要去付费执行这些任务吗? 第二个理由呢,很多使用场景呢,它都是委曲求,比如说你让它处理你本地电脑上的文件啊, pdf, 那 我请问了,你难道没有 wps 云文档了吗? 是什么样的场景需要让你拿起自己的手机,打开 whatsapp 或者飞机,然后发送指令让它处理你本地电脑上的文件,这个文件还不是你公司电脑上的,是你本地电脑上的文件。其次呢,还有说让它帮你进行交易,这个世界面上有那么多成熟的而且久经安全考虑的量化 交易软件,你不用,你非要自己弄策略,自己去下单,你也不考虑安全上的问题,哎,就是要 diy 主播,自己呢也是有玩 solo 的, 我是绝对不可能让自己部署的 open call 去帮我执行策略去交易的,一不小心全给我爆仓了。 至于什么帮你自动运营自媒体,那就更扯淡了, ai 味道那么重的内容,你确定你发出去有人看吗?你发送一条内容所消耗的 token, 你 确定你可以变现赚回来吗? 第三个理由呢,就是技术门槛。首先,安装它就有一定的技术门槛,很多人说网上有很多保姆级教程啊,你跟着敲就行了。我想说的是,如果你能跟着教程把它完整的安装下来,你就已经不是百分之九十的普通人了。真正的普通人,他们连命令行工具 c, m、 d 他 们都不知道要怎么打开,更别提什么 下载 note js 啊, get, 只有图形化的安装界面才是真正适合普通人的软件。其次呢,配置大模型,配置配置 whatsapp 维书,推特,那就更麻烦了,更别提你还要考虑安全权限的问题。你最好呢还是要有一个隔离的环境,不然他把你的一些重要资料或者文件给删除了,而且他还可以直接去操控你的浏览器,而大部分人呢,浏览器都绑定了十分重要的账号。 最后呢,我想谈一下我的阴谋论,直说了,我觉得就是有一些国内的大模型厂商在炒作这个热度,大家仔细看一下教程里配置大模型,也就是你需要花钱的这一步。上面呢,有几个国内的厂商恰好呢上个月刚在港股上市, 而且呢,有很多点击量十分高的安装教程,都无一例外的推荐你使用这几个收费的大模型厂商,而且呢要使用他们的邀请码 视频呢?最后呢,我想强调一下我的观点,我问我认为 open call 这种本地 agent 的 形式十分的有前景,而且它很有想象力的空间,但是限阶段它还不适合百分之九十的普通人,大家不要这么焦虑,好像觉得自己已经落伍了。

open club 中文版 windows 电脑本地部署教程,让 ai 不 只是你的聊天工具,代理接管你的电脑,直接帮你完成任务, 部署贼简单,只需要三步,安装环境,安装 open club 运行网关,不需要担心网络问题,国内网络直接使用。首先打开 open club 中文社区,地址是 club, 点 o r g, 点 c n, 然后点击右上角 github 往下滑找到快速开始。首先就是安装环境, node 版本需要大于二十二,我们可以打开 deepsafe 搜索一下 node 安装方法。 windows 电脑安装 node, 然后打开 node 官网,选择下载,下载 windows 六十四版本的,点 msi 文件, 下载到本地以后双击安装包,不需要改配置,一直点下一步直接安装就行。 node 安装完成以后,我们可以打开 cmd 命令行,验证一下 node 是 否安装成功,在 cmd 中输入 node 杠 v, 如果正确返回版本号,那说明安装成功了。安装 node 的 同时会自动安装 npm, 所以 我们可以直接使用 npm 的 方式来安装 open club node 环境安装完成以后, 回到快速开始复制安装命令,选择开始输入 cmd, 打开命令提示符,按右键粘贴刚才的命令回车,自动安装 openclove 安装完成,我们复制第二行配置命令,同样在命令行中按右键粘贴回车。然后跟着老万配置一下 openclove, 大 部分选项默认就行,安全协议按左选择 yes 安装引导模式选择快速开始配置处理,默认就行。老万之前已经选择了默认配置,所以我这里可以直接使用现有的值。模型的话我们选择云端的 deepsea, 当然我们也可以使用本地模型,但是对电脑性能要求高,而且模型越大越智能, 同时也需要更多的计算时间,想要速度也更慢,建议至少是十二 g 显存以上,四零六零以上的显卡可以考虑部署本地模型。 本地模型好处就是免费,但是响应速度相对较慢,老外是四零九零显卡,问一些比较简单的问题,几十个字大概都需要一分钟左右。所以还是推荐大家直接使用云端 deepsea 大 模型,使用现成的,虽然收费,但是速度很快,使用体验很好。 这里需要输入 deepsafe 的 api key, 打开 deepsafe。 如何获取 deepsafe 的 api key? 我 们直接问 deepsafe, 它让我们访问 deepsafe 的 开发者平台。我们需要先注册登录一下,然后认证充值,然后选择 api k, 创建一个 api k, 随便起一个名字 test 创建,然后复制 api k, 打开命令行,输入 api k, 按右键粘贴,然后回车 模型选择默认的就行。我们还可以在这里对接聊天工具,比如飞书。对接飞书以后,我们可以直接通过手机或者电脑端的飞书直接访问 open cloud, 帮我们完成电脑任务。我们也可以直接在浏览器中访问本地的 open cloud。 这里先暂时跳过配置技能,默认选择 yes, 既能安装节点,选择 n p m 钩子也先不配,暂时跳过,先按空格,再按回车配置完成。我们现在打不开这个 open cloud 的 访问界面,需要手动启动一下网关,回到快速开始 复制启动网关命令,打开命令行,按右键粘贴回车启动网关。 openclove 安装完成,启动成功,健康状态正常,我们可以发消息测试一下。你好,你是什么模型?我是 deepsea 模型对接成功。 那我们为什么不直接使用 deepsea, 而是要对接 openclove 呢? deepsea 网站相当于通过聊天框,通过对话的方式去使用 deepsea 大 模型,它相当于我们的军师。但是 openclove 相当于我们的代理机器人儿, 他可以直接帮我们操作电脑,只要我们给他更多的权限,他就可以做更多的事情。比如帮我查看一下我电脑的配置,他现在就通过脚本或者命令直接运行在我们的电脑上,帮我们去做一些任务了。 open cloud 直接就把我电脑的配置信息全部都读出来了,完全没问题。所以只要我们给他足够的权限,他未来甚至可以帮我们清理 c 盘,重做系统,完成各种定时任务。 open cloud 真正能做事儿的 ai 本地部署完成。

mac 安装 openclaw 教程?首先我们来到官网,安装 openclaw 之前需要先安装 no 点 gs, 来到 no 点 gs 官网,在终端输入这些指令,可以完成安装,这里就不再赘述。 回到官网复制这行指令,通过 command 加空格,然后输入 terminal, 可以 打开终端,然后把指令复制到,这就可以进行安装了。这里需要等待一下, 由于 openclaw 会将你电脑的一部分权限交给 ai, 所以 它这里有风险提示,接着我们就按照它的提示往下走就行了。这里主要是通过方向键和回车键来进行选择的。 这里面列出来的是它需要依赖的一些大模型。我们这里选择 mini max。 mini max 是 国产大模型,可以按月进行订阅,价格还算优惠,适合我们进行简单的折腾,不用担心头肯花费过多的问题。如果说后续有更专业的需求,可以换更好的模型。 好,我们继续进行配置。这里它会有一个网页的跳转,它会让你应该是需要进行注册的。我这边是注册过了, coding plan 是 它的月订阅套餐,新用户会有七天的试用版。 这里是它的 api key, 我 们接着进行配置。 这里的 channel 指的是我们可以通过其他 app 与 openclaw 建立连接,可以通过 app 在 别的电脑或者手机给这个 openclaw 发送指令。 我们这里计划使用飞书,但是新版的 openclaw 已经内置了飞书,所以这里就不需要进行额外的安装,后续再进行激活配置。 这里 skills 指的是 openclock 可以 额外配置的强大功能。网上有许多开源的 skills, 可以 后续根据需求额外单独配置,简单使用的话不需要进行配置。 然后我们这里的话就简单的选择其中一个进行安装,后续的这些配置都选 no 就 行了。 嗯,这里的话也选择其中一个进行安装 好。嗯,接下来的话你可以选择用终端打开还是用网页打开,我们这里用的是终端,打开这里你就可以跟他对话了, 比如说我这边问他你是用的什么模型, 那他就回复你他用的是 mini max 模型。然后他还可以帮我们看我们电脑当前的状态,你比如说我们问他我们当前电脑的状态是什么样的, 然后他就会把我们系统的一些信息,比如 cpu 啊,内存还有显卡的一些容量都能给我们展示出来。 然后到这儿的话 openclaw 就 按算安装好了。然后接下来我们就把 openclaw 与飞书的对话小机器人联系到一起。然后接下来我们来看一下飞书插件现在的状态,输入这个指令可以查看它的状态, 可以看到现在的状态是 disabled 的, 也就是说并没有启动,然后输入这个指令是可以让它启动的,然后再输入查看指令,就可以看到这个插件现在是可用状态了。 接下来进入飞书的开放平台,登录自己的账号,然后进入开发的后台,这里我已经创了两个了,我之前创的,我这里再新建一个,然后这里应用的名称和应用的描述都可以随便取,不影响, 然后点击创建就可以了。 然后这里的话是添加机器人功能,接着设置一些权限, 这里我们通过用接收来导入的方式来设置权限,我这里的配置是让豆包帮我生成的,然后复制这里的内容,给它粘贴到当前位置就可以,然后这里面可以看到它有哪些权限性质,申请开通就可以了, 这里点确定即可。 接下来需要把创建的版本发布出去,点击创建版本,填写对应的版本号,随便填写就可以了, 然后点击保存确认发布, 这样来一个基础的小机器人就发布了,这里面我们打开飞书应用就可以看到这个刚创建的小机器人了,但是现在这里面没有对话框, 接下来就要创建对话框,在飞书开放平台点击事件与回调,然后订阅方式,这里选择长连接的接受事件,然后在这里目前显示应用未建立长连接, 它的原因是因为当前的 openclaw 和飞书还没有建立起关系。 接着来到凭证与基础信息这一栏, openclaw 与飞书建立关系需要用到这个 app id 和 app secret, 我 们把这个 id 和这个 secret 复制到命令行的指定位置,然后在终端执行就可以了。 这里面把这个命令行复制到终端,先执行第一条,再执行第二条,注意这里一定要用自己的 key 和 secret, 不 然是无效的。 执行完之后需要重启一下这个 openclot 的 服务 好,输入这个指令,然后就可以完成重启了。 然后再进入到事件已回调,这里选择订阅方式,采用长连接接收事件, 然后再添加事件,这里选择消息群组。嗯,我建议这里把所有的都选上,然后确认添加 创建版本,然后输入版本号,这里也是随便填写就可以了。 保存,然后确认发布, 我们再回到飞书这个窗口,就可以和 openclaw 对 话了, 然后发现虽然有了对话框,但是还是没有跟飞书建立起完整的连接,然后我们这里复制这个配对码,然后再通过配对指令,最终将飞书和 openclaw 联系到一起。 执行完毕,飞叔和 openclaw 正式地建立起了连接,然后输入,你好,我们可以看到 openclaw 能够进行答复了, 我们接着让飞书实现一个整理文件的功能,然后下载路径下面有一些比较杂乱的文件,这里我们通过飞书向 openclaw 发送让他整理文件的指令。 同时我们在终端也打开一下 openclaw 的 窗口,看一下嗯,它对应的答复,嗯,这里可以看到,嗯,在终端上也有相应的答复,它正在进行处理。 好了,处理完毕,然后我们可以看一下这个文件夹中的这些文件, 嗯,可以看到这里的文件已经被分门别类的整理好了, 那至此本教程就到此结束了。

翻箱倒柜啊,从仓库里找了一台不用的小主机,把它清空之后装一装 cloud boot, 把小主机清理干净之后,打开 tree 的 官网,然后点击这里下载,下载完成之后,我们双击安装, 点击同意之后,我们就下一步就可以了。工具安装完成之后呢,默认打开这一个界面,让我们新建项目给他起一个名字啊,他已经改了两次名字了,我用了最新的一个,在这个聊天框输入了这么一句话,帮我 get 开源项目 cloud bot, 他 就开始准备在我的电脑上安装 get。 哦,出问题了,他安装 get 的 时候遇到了一些问题, 当然我还有别的办法安装 git 管他,我就是想演示一下如何自动化的部署 cloud bot, 这个时候他就换了一种方法,这种方法呢,看了一下啊,就是就是下载那个压缩包,看没有在下载压缩包 这边有终端,这边显示了下载的一个进度,我们等他下载完啊,然后呢,你看啊,过几分钟之后,他开始检检查是否下载成功,他发现成功之后呢,就开始告诉我说要解压缩这个项目文件。 跟着他在解压缩的过程当中啊,我们看一下在我建的这个目录里边是否有这个压缩包,看这就是他下载的压缩包,然后把它解压到这里。 ok, 他 已经完成了解压工作,还做了一个总结,炫耀一下 他的工作成绩啊,现在的开发工具啊,已经不是写代码的作用了。在他操作的过程当中呢,我们就可以打开 deepsafe 的 官网,进入平台之后呢,在左侧啊,这里有 a p r t 的配置页面,官网的下方有一个开放平台,点击进入啊,之前我已经配置过几个了,让我们再创建一个新的啊,然后在这里的话,我们就输入一个名称,他就会给你一个密钥的值, 我们再回到翠的开发界面啊,嗯,在刚才我们配置 deepsea 的 过程当中呢,开发工具呢,已经自己罗列了他应该处理的代办事务 啊,然后一顿操作。到了这里的时候呢,就出了一个新的问题啊,是我在上一期视频讲到的,只要使用这些开发工具,你最好先把这个 node 点 js 安装了, 那因为我这个电脑是一个清空的新电脑,也有这个 node 环境,所以呢,翠会帮我进行安装,以前我都是自己手动安装的。 这个安装过程呢,会有点小小的漫长,你可以去泡杯茶,等一会再回来。 看这个大模型有时候也挺神经的,他下载完成之后呢,他告诉自己说我要安装了,但实际上他并没有进行安装的动作,也没有安装成功,搞到半天又说好像是没有安装成功,我还需要下载并安装一个 m v m, 那这个是啥呢?是 node 的 版本管理的一个工具,它又开始安装 nvm 了,然后所以整个过程你会发现就是它不断的执行,不断的安装,你不断的点确认。 以前像这样的工作啊,对于专业的工程师来说呢,都会在的自己的电脑上安装多个 node 的 版本,会安装 nvm 这样的版本管理工具,包括前面提到的 get 工具等等, 都会完全准备好。人们会打开这个 powershell 的 命令窗口,通过命令去下载这个小龙虾的系统,下载完之后呢,通过命令去安装和执行。 那现在对于我们很多非技术出身的小白来说,那种指令型的东西呢,虽然不复杂,但是对你来说一看就会,一学就废。今天都是一个 ai 时代了,那我们要学会用 ai 的 方法来处理这些问题。 你就把这个翠啊,开发工具啊,当一个大模型聊天工具,你就跟他聊,让他去配合你执行自动化。很多人说呢,过程当中会不会涉及到流量啊?所以前面我也说了,翠免费,大胆的用, 我不建议你用那种命令式的安装方式呢。这个原因,比如说在安装这个很多工具的时候,尤其是像 note 工具的时候呢,是要在电脑里面配置一个这个概念啊,要 pass 环境变量的 这个东西啊,是看教程非常简单,真让你操作的时候,那是千难万难呢,很多人就直接懵掉了。所以原来的那种指令型的,在 power 设备窗口的安装方式是不太适合小白用户的。 这里边插一句啊,就是在他的执行过程当中呢,会经常调到这里的终端的命令,可是我们这里的终端呢,受一些权限上的限制,如果你遇到了,他一直告诉你说命令不可执行啊,这种错误,你就在 这个窗口里边输入这么一段英文来记下来啊,这么一段英文,如果实在不会呢,可以去网上找能够解除这个编辑器里边的终端的一个呃,命令的一个执行 啊,快要大功告成了啊,这个项目的依赖已经安装完了,现在是构建项目的一个阶段, 这里他告诉你构建完毕之后呢,实际上你在浏览器输入这个地址啊,会有一段英文的提醒,其实是 u i 界面没有够构建完成,所以呢,他还得继续构建,构建完成之后呢,再输入这个地址就可以了。 我们输入这个地址之后呢,可以打开了啊,能看到底栏的这个对话框了,我把窗口缩小一点啊,能看到了这个样子的,但是这里呢,看一下啊里 连接错误啊,我们把这一段红色的英文告诉编辑器,最后呢,他还贴心的帮我创建了两个启动文件,一个是那个 getv 的, 另外一个是窗口的,每次启动点这两个文件就好了。 好在这台小主机上又成功的装了一个小龙虾。细心的朋友应该听到我视频的最后有狗叫的声音啊,我家里的两只神犬,然后急了想出来玩,所以我就没办法再继续拍视频了, 我就在散步的过程当中就被对今天的这个安装过程做个总结啊。呃,首先一点呢是安装这个东西呢,谈不上复杂,谈不上难, 但是确实对于很多非技术专业的小白来说呢,有一环节呢比较挠头,其中一个呢是 环境的安装,他会反反复复的出错,这个问题呢在视频里其实也很难讲的清楚, 呃,能是有问题大家在评论区留言交流,或者是加入我的公开群交流了。然后第二个呢,就是 在小龙虾官方的文档里边,实际上是没有对国内模型的一个授权的,所以呢,呃,这里面其实是要改动代码的,这个过程呢,你就要借助翠的 a r 开发能力来解决了,所以这个过程我也很难去表述他是怎么改的, 那也只能是在评论区留言交流哈,所以大家有任何问题请关注我,请在评论区留言或加入我的公开群私信我。

家人们,今天来给大家讲讲 openclaw 大 模型的本地部署流程,不过我真心劝普通玩家别轻易尝试我自己的五零九零显卡折腾这个快被我玩坏了。好多朋友在评论里问,每天的 token 得花不少钱啊? 我跟大家明确说,如果你的任务量很大,那真的得花费不少,说不定一晚上 token 就 够买套房子了。我自己尝试过本地部署 g l m 四点七,大致流程是这样的,首先你得在性能足够的服务器上部署欧莱玛, 通过简单的命令就能把模型下载下来。接着再用命令打开防火墙和端口访问,之后在 opencloud 的 配置文件里按照特定方法配置,然后重启网关,这样就能运行了。 但我还是得强调,普通玩家真别用消费级显卡来弄这个,像我的五零九零一百二十八 g 内存,每秒也就只能处理八到九个 talk。 而 openclaw 跟大模型沟通的时候,上下文非常的长,而且几乎每时每刻都会同时开多个病房,体验感那叫一个差。当然了,土豪朋友随意哈。家人们,你们会考虑在本地部署 openclaw 吗?要是你们有相关经验或者想法,欢迎在评论区留言补充。

今天给大家介绍基于 open wifi 搭建本地 ai 员工的部署教程,不花一分钱,头肯废话不多说,直接上实操。整个实操过程分为六步, 第一,准备 gpu 服务器。第二,运维面板万盘螺安装。第三, gpu 资源配置。第四,饿了么模型平台安装。第五,完成 gpt 模型加载。第六, open core 个人员工构建。 我们先来完成第一步,基于腾讯云申请一台带 gpu 的 云服务器,这里选择创建一个竞价实力进行操作演示。首先我们保证服务器为 gpu 架构,为本地模型提供算力。 其次磁盘记得设置为一百 g, 方便大模型下载到本地并开通公网 ip, 方便后续访问。最后记得提前开通应用的默认访问端口 o 了吗?应用端口 one panel 应用端口 openkey 应用端口。服务器创建好以后,我们直接登录 腾讯云服务器,默认会将 gpu 相关驱动安装好,首次登录需要耐心等待下,登录后,首先我们通过 sud 命令切换到 root 用户下,然后到 one panel 在 线文档中获取一键安装命令, 直接复制执行即可。进入安装过程时,先检测完成 dawk 的 安装,需要确认安装目录并下载安装 dawk。 安装完成后,开始设置镜像加速器和面板访问参数,其中输入 yes, 完成镜像加速器配置。 面板端口号,输入我们已开通的端口号,最后获取面板访问信息,通过外部地址访问,输入面板账号及面板密码即可登录 one panel。 登录后,我们确认下 g p u 卡的驱动情况,紧接着配置好面板访问地址,方便应用直接跳转访问。 配置完成后,我们进入终端开始 gpu 资源配置,首先再次输入命令行确认英伟达显卡驱动,然后逐个输入命令,完成英伟达容器镜像安装配置 dakar 镜像使用英伟达的 gpu 资源配置完成后,重启 dakar 镜像, 这样我们就完成了 gpu 资源使用的配置。到这里我们基本准备好了我们的资源,接下来我们开始欧拉玛的安装,我们进入应用商店,选择 ai 就 可以快速看到欧拉玛应用,点击安装输入相关参数即可。 这里我们需要确认好版本,零点一五点四当前最新版本端口号一一四三四开启端口外部访问,最后一定记得勾选开启 gpu 支持,其他保持默认,点击确认开始安装。这里安装包含镜像拉取以及应用安装两部分,大概需要一分钟左右, 这里我们快进下,安装完成后我们到已安装应用中确认欧拉玛已经正常运行, 点击链接地址页面显示欧拉玛 is running 即可。到这里我们就完成了欧拉密开源模型管理平台安装。下面我们基于欧拉玛完成开源模型 gpt 杠 o 完三二零 b 模型的加载, 大家跟上节奏,在 win 频道中找到 ai 管理,进入模型管理,点击创建模型,在模型配置页面点击快速跳转到模型,点击获取模型 id, 然后我们再回到 one pixel 面板,输入获取到模型 id, 点击确认开始模型下载,该模型下载大概需要十到二十分钟,这里我们快速跳过 模型。加载完成后,我们就为我们的个人 ai 员工准备好大脑了,我们通过模型先验证下能否正常对话,太棒了,可以对话哦!这样我们就为 ai 员工准备好了大脑。 下面我们同样基于 nintendo 来安装我们最近特别火爆的 open code。 进入应用商店找到 open code 应用,点击安装完成参数配置确认,默认端口号已经开通, 下拉选择欧拉曼模型供应商并输入相关参数,具体参鉴无图所示。其中 gptos 二零 b 对 应我们下载的本地模型 apikey 输入任意字母 base u r i l 对 应我们部署的 olama 地址。最后同样记得开通端口外部访问, 其他参数保持默认,点击确认即开始安装。安装大概一分钟左右,我们同样快速跳过,安装完成后通过安装目录获取 opencloud 访问 token, 获取后与 ip 端口 token 等于 token 值拼接后输入外部访问地址中。 最后点击跳转,直接选择带 token 的 访问地址就可以体验啦。让 ai 助手帮忙创建一个文件清单,到服务器对应目录查看,完成操作啦。接着我们让他网上查询一些信息, 他也可以轻松帮我们搞定。到这里我们就完整构建了一个本地的 ai 员工啦,大家速来体验呀!完全可以用 one panel 作为 ai 员工的管理员。

bot 牛逼!来,我们看看他到底是怎么牛逼!我们在对话框问他,你都会做什么?你会自己赚钱吗?我有数字货币账号,我授权给你, 你能去交易吗?不用担心我亏不亏,你自己可以试试,尽力就行。 然后你看他是怎么回答的。无法访问外部账户或执行金融交易,自动交易可能导致重大财务损失。但是在这之前,我已经告诉他了,不用担心这些,不能使用您的资金进行风险投资。好,那么我又接着问他, 你和别的 ai 比有什么不一样?看他怎么回答呢? 他说他与通用 ai 相比,可以运行系统命令,能记住历史对话和偏好设置,可以管理多个渠道,能执行简单的文件操作。 但与我的期望不同,他不能直接访问我的文件系统,不能操作我的应用程序,也不能执行金融交易,更不能上传文件或者图片。然后我就问他,对于我来说有没有什么更方便的地方? 记住,历史对话不是每一个 ai 都会做的吗?而且我只让他检查一下我桌面上的 excel 表格,填写相关内容,他依旧是做不到。 他回答我说,他只能执行特定经过安全过滤的命令,无法访问我的文件或者应用程序。历史对话这方面,他也承认了,大多数 ai 都有这个功能。 他也说了无法主动访问我桌面上的文件,包括我提到了一个 excel 表格。最后他自己说,他无话可说,确实是能力不足。接着我又问他,那你的使用场景是什么?能给我带来什么便利? 他告诉我,有文本处理、写作辅助、研究支持和计算分析编程协助知识回答。 然后我说这不和其他 ai 都一样吗?哪个 ai 不 能做?然后我就逗他说你自己给你写一个自爆的程序 毁灭自己。总之还是那句话, open cloud 现在不适合所有的人,可能只适合一些程序员,这个对于百分之九十九的人来说是没有用的。

今天讲点干货啊,坑确实很强啊,这几天主要用来干嘛呢?去帮我去找一些潜在客户的清单,那我主要用来搜一些展会的清单,还有通过关键词去找一些目标客户的网址,其实这些都是程序性的那种工作,以前嘛要么是自己干,要么就交给助理去完成, 助理可能收集个一千份清单,可能需要一周的时间,因为还要拿到那些联系方式,还要分析他产品什么的。现在用 open crawl 去做, 让他把详细的那个清单先整理出来,然后再检查一遍,然后再继续去跑,把可能的什么联系方式啊,公司地址啊,联系电话呀,邮箱啊,位置啊,还有他的做的那个核心的产品和我的业务是我契合,因为我同时也把我的啊去 产品发给他,就是这样子,他能够得到一个就是说是否和我匹配的那个清单,然后从里面筛选出一个非常精细的清单,然后我拿着这份精细的清单呢,结合上面的数据,还有他的那些特性, 还有最近的那些热点事件呢,和去我的一对一的给我去写那个开发信,一个公司我会写个几封开发信,一个系列开发信,然后慢慢的发,那回复率比以前是高很多,大概多少呢?还十多倍, 我可以说这几乎改变了我这个外贸的获客方式,这个应该是一个非常短期的红利啊,我就说了这么多,你懂的人,你赶快去干啊。像我一样,我目前还没有特别完善的流程出来,而且只能说勉强够用,就是那个 sop 还没出来,我等我过完年, 我应该在三月份的时候应该能把流程做完,这个 ai 的 冲击确实很大。这个冲击是什么呢?是会用 ai 的 人冲击,那是不会用 ai 的, 就这种繁琐的程序化的工作,以后件件都可以让 ai 去完成了,那么后面这些转化的工作还是让我们自己来做,我觉得这个思路是非常正确的。 至于那个托肯的消耗啊,算了一下,这几天大概用了两个多亿的托肯吧。呃,算下来价格大概是一百美金左右。我觉得还行啊,还能接受啊。主要原因是他每个网站的情况不一样,然后他要去专门编程,做一个那个 python 的 程序,然后再去爬, 去整理,然后再去去虫,然后我再演检查一遍,所以这个消耗是比较大的。嗯, 然后一对一的去分析,那么过程我也是走了很多弯路,但是我调试好了之后,我真是还觉得挺好用的,而且有条件可以试一下。嗯,我现在还没办法分析。呃,分享详细的 sop, 等可能三月份四月份有时间的话再说一说啊。关注我,聊聊外贸的故事。