粉丝179获赞3002

一分钟飞书接入 openclo, 让你的 openclo 可以 在电脑端和手机端直接使用。登录飞书开放平台,在这里创建一个飞书机器人应用程序, 按能力添加选择机器人。我们先把权限配置一下,你可以选择开通权限,手动在这里搜索 i m 有 关消息,相关的直接全部都选中,然后申请开通。大家可以看到相关权限已经全部开通,运行这条命令,添 添加 channel, 在 这里我们选择飞书第二个插件,音频正在自动下载飞书插件,在这里我们输入一下飞书的密码,我们在这里复制一下 id, 将 id 也输入一下。大家可以看到客户端已 经运行成功了。安装成功以后,登上去点击开发助手发个你好,在这里他会给你反馈配对码。来到开里上,使用这条命令加配对码,开始配对。 大家可以看到客户端已经准备好了,我们可以在飞书上直接发送这条消息, open code 已经开始检测飞书了,从此以后,兄弟们就可以在手机上或电脑端直接调用你的 open code 了。

欢迎收看,我是大叔,各位开发者朋友大家好,欢迎来到 openclaw faq 系列教程,这是第一集。其实我身边有很多人只知道 openclaw 很 火,代码托管平台上 star 二速蹭蹭往上涨,技术圈里讨论得热火朝天,但是真正全面理解 openclaw 是 什么, 怎么用?能帮我们做什么的人并不多。很多人问我, openclaw 到底是个啥?为什么要安装它?安装后能帮我们做什么的人并不多。很多人问我, openclaw 到底是个啥?配置太复杂,搞不定怎么办? 这些问题都非常实际,所以今天这期视频,我把大家最常问的问题整理成了这份 fact, 从零开始,带你彻底搞懂 openclaw。 看完这集,你能掌握什么是 openclaw? 如何安装,部署 故障怎么排查?数据存在哪?配置怎么写?全是干货。没有废话,咱们直接进入正题,先来解决第一个问题,什么是 openclaw? 用一句话来说, openclaw 是 一个运行在你自己设备上的个人 ai 助手, 它可以通过你已经在用的聊天软件回复消息,比如飞书、 qq、 微信等等,还支持语音通话和实时协助画布。 这里有个核心理念,你要记住, gateway 是 控制平面, assistant 才是产品。也就是说,你不是在使用一个工具,而是在和一个随时待命的 ai 助手对话。这个助手可以通过你最熟悉的聊天界面访问, 简单说就是把 ai 助手装进你的聊天软件里,让它成为你的私人助理。那 opencall 有 什么核心价值呢? 为什么不用现成的 cs 服务?主要有六大优势,一、你的设备,你的数据在你的 mac 笔记本上运行,工作区和绘画历史都本地化,数据掌握在自己手里。二、真实渠道不是 web 沙盒,支持飞书、 qq、 微信等十多个主流平台,还有移动语音和 canvas 功能。三、 模型无关,可以使用 antbrick、 open ai、 minimax、 open router 等多个提供商支持每个 agent 独立路由和故障转移, 纯本地选项可以运行本地模型,所有数据都留在你的设备上,隐私有保障。五、多 agent 路由,每个渠道、账户或任务可以使用独立的 agent, 各自拥有工作区和默认设置。六、开源,且可定制代码开源可以检查扩展和自托管,没有供应商锁定风险。看到这儿你肯定会有问题, 那具体能用它做什么呢?别人拿它来做什么?搞懂你已经超过一半的人了,咱们来看首次设置完成后,你可以用它做这些事。一、构建网站, wordpress、 shopify 或者简单的静态站点都可以让 ai 帮你完成。 二、圆形移动应用,从大纲设计、屏幕布局到 api 规划, ai 都能协助。三、整理文件和文件夹,清理杂乱文件,规范命名、标签分类,让桌面焕然一新。 四、连接邮箱并自动化,自动摘要、邮件设置、跟进提醒,提高办公效率。除了这些入门项目,还有五大日常高频使用场景,个人简报会、总收见相日历和你关心的新闻,每天早上推送到聊天窗口。二、研究和抄,快速研究某个主题生成,抄要抄邮件或文档出稿。 三、提醒和跟进,通过 cron 定时任务或 heartbeat 心跳系统定期推送提示和清单。四、浏览器自动化,自动填写表单,收集网页数据,执行重复的外部任务。 五,跨设备协调,从手机发送任务,让 gateway 在 服务器上执行结果,返回到聊天窗口。这些都是非常实用的场景,能真正提升工作效率。 但在使用过程中难免会遇到问题,接下来教你快速排查出问题了,别慌,按照这期步骤,百分之九十的问题都能快速定位。 第一步,执行命令 openclash status, 快 速检查网关代理绘画状态。第二步执行命令, openclash status, 奥森深层可分享的安全诊断报告 toker 已经脱敏,可以放心发给别人求助。第三步执行命令 openclash gateway status, 查看守护进程和端口状态。 第四步,执行命令, openclust status deep, 深度探针,包括通道健康检查。第五步执行命令, openclocks follow, 实时跟踪最新日制,观察错误信息。第六步,执行命令, openclust, 自动修复配置和状态问题, 这是最省心的方式。第七步,执行命令 openclust, 获取网关完整快照,适合高级用户分析。如果 rpc 连接失败,还有个备用方案,直接读取最新的日制文件。执行命令 tailf, 然后用 i s t 排序,取第一个日制文件路径文件。日制和服务日制是分开的,这样也能看到详细信息,掌握了排查方法,接下来看看怎么安装。推荐的安装方式非常简单,两条命令搞定。第一条命令, install bash, 下载安装脚本并执行 第二条命令, openclaw onboarding storedemon, 启动 onboarding 向导,并安装守护进程。 onboarding 向导会自动构建 ui 资源, get 为默认运行在一万八千七百八十九端口,完成后浏览器会自动打开 dashboard, url 也会打印在终端招标中。 如果你想从源码安装,步骤也不复杂。第一步, get cologne, 从代码托管平台克隆仓库。第二步, p n p m install 进入目录并安装依赖。第三步, p n p m build and then p n p u i cologne build 构建项目和 u i。 第四步, p p m opencore onboard, 启动 omni 目录。向导从源码安装的好处是便于调试, ai 助手可以直接读写代码, 记住你偏好,以后它将成为你自己的分身。如果你在使用过程中卡住了,最快的解决方案是什么?核心建议是使用能看到你机器的本地 ai 助手,比如豆包或 deepsea, 这比在技术社区提问有效的多。 为什么呢?因为大多数卡住了的情况都是本地配置或环境问题。远程助手无法检查你的 path、 服务状态、权限设置、认证文件等,只有本地 ai 才能全面诊断。有三个关键命令你一定要记住 openclosure status, 查看网关和代理的健康快照以及基本配置。二、 openclosure status 检查 provider 认证状态和模型可用性。三、 openclosure doctor 验证并修复常见的配置和状态问题,让 ai 助手规划并监督修复步骤,然后只执行必要的命令, 保持小改动,这样更容易审计和回滚。如果发现了真正的 bug, 记得提交代码托管平台的 issue 或 pr, 解决了使用问题。接下来看看数据存储在哪里? 很多人关心所有数据都存在本地吗?答案是不完全是。 openclaw 的 状态是本地的,但你发送给外部服务的数据,那些服务仍然能看到。具体来说,本地默认情况下,绘画内存、文件配置和工作区都在 get 为主机上,也就是波浪线斜钢点 openclaw 目录加上工作区目录, 远程必要的情况下发送给模型提供商的消息会到达他们的 a p i。 聊天平台会在其服务器上存储消息数据。你可以控制足迹。使用本地模型可以让提示保留在你的机器上,但通道流量仍然通过通道的服务器。那么数据具体存在哪里呢? 状态目录在环境变量 opencloud state dire 默认是波浪线斜杠点 opencloud 主配置文件在用户主目录点 opencloud 的 opencloud dot json 使用 json 格式工作区在用户主目录点 opencloud d workspace, 可以 通过 agent dot defaults dot workspace 配置更改绘画历史在如下, sessions 目录认证配置文件在 profiles 的 json。 还有一个常见问题, agent 扫 mdso, mdmemory md 这些文件在哪里?它们位于 agent 工作区,而不是用户主目录点 openclaw 跟目录 默认工作区是用户主目录点 openclaw 的 workspace 目录。知道了数据位置,接下来看看怎么备份。推荐的备份方法是将你的 agent 工作区放在一个私有 get 仓库中,并备份到私密位置,比如代码托管平台的私有仓库,这样可以捕获内存文件 agent s dot m d, so dot m d、 user dot m d 等文件,让你以后可以恢复助手的思维。但是有一个重要提醒,不要提交波浪线斜杠点 o p k l 目录,这里包含凭证、绘画, token 和加密的 secrets 负债。如果需要完整恢复,请分别备份工作区和状态目录。简单来说,应该备份的是 agent 工作区包括 agents dot m d so dot m d memory dot m d memory。 目录下的每日笔记, 不应提交的是波浪线斜杠点 open 靠下的任何内容,特别是凭证,绘画, token 或加密的 secrets。 如果想要持久的行为或偏好,让 bot 写入 agents dot md 或 memory dot md, 而不是依赖聊天历史。备份策略清楚了, 接下来看看配置文件怎么写。 openclaw 读取可选的 jason five 配置文件路径由环境变量 openpathconfpackets 指定,默认是用户目录点 openclaw 的 openclaw dot jason, 如果文件缺失,它会使用安全的默认值。 json 五格式支持注视和尾随逗号,比普通 json 更友好。 getaway 会监视配置文件,并支持热重载,这是一个配置视例。 agent 的 default 中, workspace 设置为用户目录点 opencloud workspace model 设置为对应的模型。 getaway 的 bind 设置为 loopback port 设置为一万八千七百八十九。 reloaded mode 设置为 hybrid 热重载机制有四种模式, hybrid 是 默认值。热应用安全更改关键更改是重启 hot, 仅热重载, restart 总是重启 off 应用重载。如果想禁用 clyde 标语,设置 clyde 版本, to tagline mode 为 off 隐藏标语或者设置环境变量。 homecloud hide banner 等于一完全隐藏版。配置文件中最重要的部分之一是 getaway 认证。 接下来详细讲解很多人问为什么 local host 也需要 token? openclaw 默认强制执行 gateway 认证,包括 lookback。 这意味着如果没有显示配置认证路径, gateway 启动时会解析为 token 模式,并自动生成一个保存到 gateway dot host token, 所以 本地 web socket 客户端必须认证。这样做是为了阻止其他本地进程调用 gateway 保障安全。 认证方式有两种,共享密钥认证,可以是 token 或密码生成。 token 的 命令是 open cloud doctor generate getaway token。 如果使用密码模式设置 gateway dot off, dot block mode 为 password, 再加上就会 dot dot password。 如果真的想要开放 lookback, 可以 设置 gateway dot off mode 为 none, 但不推荐这样做。 当设置 gateway dot, gateway lan or tennessee 必须有有效的 gateway 认证路径,可以是共享密钥认证 token 或密码,或者 gateway dot auth dot mode 设置为 trusted proxy。 在 正确配置的非 loopback 身份感知反向代理后面认证配置清楚了。 接下来看看 heartbeat 心跳系统。 heartbeat 心跳有时会跳过运行,有四种常见原因,第一种, quite was 当前时间不在配置的活跃时间窗口内。第二种, md heartbeat dot md 文件存在,但只包含空白或标题脚手架。 第三种, no tasks do 任务模式已激活,但没有任何任务间隔到期。第四种, alert debug 所有心跳可可见性已禁用。 show ok show alerts use indicator 均为 off。 这里有个重要说明,在任务模式下到期时间戳指在真实心跳运行完成后才会推进 跳过的心跳运行,不会标记任务未已完成。这是一个 heartbeat 配置适利 heartbeat enabled 设置为 true, active power 的 start 设置为淋巴冒号零零 and 设置为二二冒号零零。 show ok 设置为初 show, alert 设置为 true。 相关文档可以在斜杠 get 为斜杠。 heartbeat 何协刚 automation 找到,理解了 heartbeat。 最后看看执行审批配置。执行审批有两层配置,很多人容易混淆。第一层是 approvals dot exec, 他 将审批提示转发到聊天目标,控制审批提示出现在哪里,以及人们如何回答审批。第二层是 channel's exec approvals, 它使该通道成为原声审批客户端,用于执行审批的原声 ui。 卡片和按钮是主要路径,这是一个配置势力。 approves the existac 中 enable 设置为这为 true。 channels 设置为 telegram 和 discord 两个通道。 channel 的 telegram 中 exact approvals enabled 设置为 auto。 最佳实践是大多数情况下不需要同时起用两者。如果聊天支持命令和回复 same chat, 斜杠 approve 通过共享路径工作。如果支持的通道可以安全推断审批者, open cloud 会自动启动 d m 优先的原声审 批和按钮,可用时,该原声 ui 是 主要运用路径。核心原则是主机执行策略才是真正的审批关卡。聊天配置只控制审批提示出现的位置,以及人们如何回答它们。 好了,到这里,第一集的内容就全部讲完了,相信通过这两集的讲解,大家对 openclaw 龙虾已经有了一个比较全面的认识,从什么是 openclaw, 为什么要用它?到怎么安装、怎么配置,再到遇到问题怎么排查和解决,这些核心知识点都已经覆盖到了。如果你跟着视频一步步操作, 现在应该已经能够独立部署和使用 openclaw 了。如果你觉得这个系列对你有帮助,真心希望你能点个赞,让我知道这期视频有价值,收藏方便以后随时查看。关注大叔大不错过后续的进阶内容,转发给身边也在用 ai 工具的朋友,一起交流学习。 你的每一个支持都是我继续创作的动力。如果有任何问题或建议,欢迎在评论区留言,我会尽量回复下一集预告,第二集将深入讲解进阶功能,包括 skills 与自动化、沙箱与内存管理、绘画管理、模型配置与故障转移、认证配置文件、远程网关与节点、环境变量、日制调试等内容。 如果你想成为 open cloud 高手,那一集绝对不能错过。感谢大家的观看和支持,咱们下期再见!

兄弟们,这是一个能在命令行直接操作你企业微信的工具,让我们可以和 ai 能够通过抢命令或者是聊天的方式直接发消息管理群或者是拉人发文件,把企业微信变成可以被 ai 自动操控的机器人, 让我们和 ai 都能够用命令行或者是自然语言直接指挥他干活,然后这是一个非常好的,然后让 ai 自动跑业务的助手,有需要的可以关注试一下。

所有在养小龙虾的朋友们都建议你们新到这个 hermes agent, 它是什么呢?它其实是一个升级版的小龙虾,它比龙虾好在哪里呢?第一,它比龙虾更聪明,它有自我学习,自我迭代的机制。第二,它比龙虾更省 token, 它的 g 结构决定它调用量会比较少。那怎么从龙虾升级到这个 hermes 呢?官方时提供了一个无缝升级的方式, 在你安装的时候,它会自动检测你的龙虾安装,进行无缝的导入。可能很多朋友是非技术出身,不太会学,会学名列行,我也是一样,所以我用 web coding 做了一个图形化的安装启动器,大家只需要点选的朋友进行安装给大家展示一下, 只需要这样进行点选确认就可以安装好。 hummus agent 现在也是免费开放测试使用, 每天跟大家的反馈进行迭代。今天就把模型配置进行的一轮优化给大家看一眼,现在不论你是账号登录的还是 api k 还是本地模型,都可以通过这个图形化的界面进行配置,只需要进行填写和确认就可以把它配置好, 而且全程都可以进行更改,通过按钮再换起就可以进行更改,非常的方便。这里也欢迎官方或者是转转站来进行联系我给大家推荐,因为发现很多朋友不知道什么样套餐更合适,更划算,欢迎大家使用给我反馈。

六步,从零搭建你自己的 di 量化助手,所有命令都会显示在屏幕上,跟着做就行,有问题评论区留言。 第一步,安装 wsl 二、这是 windows 上的 linux 系统 openclaw, 需要 linux 环境来运行,以管理员身份打开 power shell, 注意一定要右键以管理员运行,然后执行 wsl install 一 条命令搞定。 装完需要重启电脑,重启之后 bin 出终端会自动弹出来,设一个用户名和密码,注意 linux 输入密码的时候不会显示任何字母,盲打就行。最后验证一下 version 必须显示。二、 第二步,安装 note g s openclaw 需要 note 二十二以上推荐。二十四、一定要用 nvm 来装,不要用 app install, 系统员的版本太就会报错,安装 nvm, 然后装 note。 二十四、第三步,安装 python, 依赖 open to 自带 python。 三、只需要安装 requests 和 excel 两个库,装完验证一下 import 没报错就 ok。 第四步,安装 openclaw 主体 npm install 一 行命令搞定。装完之后执行 on board 引导向导,他会问你几个问题。第一个,选 and frope 就是 claw 的 公司, 然后输入你的 a p i k, 这个需要去 intropic 官网注册获取新用户有免费额度模型,选 close sunny。 四六,性价比最高。最后安装后台守护服务,选 yes, 整个引导大概一分钟就能完成。 第五步,验证四条命令,逐个跑服务状态确认 running, 健康检查返回 ok, 拍散脚本能查到贵州茅台的数据,市场情绪也能正常返回。四步,全率环境就 ok 了。 第六步,连飞书,在飞书开发者后台创建一个企业自建应用,填到 opencloud g s o n 的 channels 配置里, 然后配事件,订阅地址指向你的 get 位,配好之后重启服务,打开飞书,给机器人发条消息试试能收到回复,整套系统就跑通了。 有问题评论区留言关注 e c r 下期见。

前段时间小龙虾非常的火啊,是安装部署非常麻烦,普通人都安装不成功啊,在腾讯都出了免部署的一键傻瓜式的安装啊,然后可以使用手机 发发送命令要求来操作,下面我就按照我的教程一步步给大家详细的操作,昨天我已经安装上了,大家跟着我教程做。首先打开你的网, 只输入这个,你的百度输入这个 workbody, 找到第一个就是这个 body agent, 腾讯的,注意它是这个,让我们点开它,点开我们会进入到这样的一个界面,人性的龙虾 ai 办公助手,我们 要从哪里下载呢?点击这个下载这里鼠标放到这里,这里有三个,这个是 mac 的, 这是 arm 的 系统,这是是一,这个是,大家看一下,他识别到了我当前的一个电脑配置系统,当前设备 就是 windows 的 一个设备,你自己看一下你自己是什么的,应该会识别到的,所以我这个就是直接点确定就可以直接下载了,你把它下载的下载下来,直接安装就可以了,这样就是在电脑端的一个操作。 好,我们已经下载完了之后啊,看一下,下载完了之后你就直接重启软件就可以了,安装完成之后就是这个东西,八点,你直接点开就是他的一个界面,我昨天已经安装完了,你看每天还有一百个积分 给你领取,截一下我昨天的图,但当你安装好了之后,他就会叫你登录,直接点登录就可以了,登录之后 你就用微信登录,使用你的一个微信啊,直接点这里。同意微信登录之后就是这个界面的,就是我刚才打开软件的这个界面 看,昨天我给他测试了一下,叫他帮我整理一下 c 盘,我的 c 盘太满了,就这样的一个,首先如果你要通过你的手机来给他发送命令的话,在这里你点这个是我的,你点一下,这里有一个设置,这个设置 cloud 点设置,然后微信 cloud 集成, cloud boot 要点这里啊,现这里是没有绑定的,你要点配置, 配置,它会出现一个二维码,你用你的手机扫一下这个二维码,然后它就会绑定了,绑定之后你的手机就可以,你的手机就有一个, 这是我,你的手机端就就这微信的 apple 像一个好友一样,你可以直接在这里给他发送命令,比如说帮我帮我 整理桌面,桌面发送发送之后我们看一下这个端口,那他就在思考, 他会获取你的权限啊,不用担心,他会让你同意的,之后他他他再走,你看这个帮我整理桌面,我直接发送给他在电脑,他现在正在整理,看到吧看吧,整理出来了啊,请问你希望我做什么?帮你整理只移动不删除,或者是分类看, 这就是很快啊,帮我整理出来这个桌面截图,还有这里英语学习,你看这些文档全部他一下就给我整理出来了,就这么快的,就是这样的一个联动,当然你可以直接在这里这里输入你需要的一些, 这就是他的腾讯的一个 oppo 八 d 的 一个使用和手机的一个联动。好,这期视频我们就到这里啊,记得关注我。

大家好,今天我来带大家快速上手 cloud code, 这款 ai 编码助手几分钟就能让你用起来哦。首先要确保你已经准备好终端或命令提示符,还有一个代码项目,即 cloud ai 或 cloud console 账户。 第一步是安装 cloud code, 不 同系统有不同方法, mac os, linux 或 w s l 用户可以在终端输入, curl f s, l h t ps curlan slash slash cloud ai install dot bash windows 用户如果用 power shell, 就 输入 i l m h p t s 冒号 cloud i i instagram dot ps one i x。 要是用 c m d, 就 输入, curl f s s l h t ps collin slash slash cloud i i install dot cmd o install cmd and n install dot cmd and n dell install cmd 不 过 windows 用户要先安装 jit for windows, 安装好后就该登录账户了。在终端输入 cloud, 启动交互式绘画,第一次使用会提示你登录,输入 no name, 然后按照提示操作就行。可以用 cloud 点 ai 订阅账户,也能用 cloud console 的 api 访问账户, 登录后凭证会保存,不用每次都输。接下来启动第一个绘画,在项目目录下打开终端,输入 cloud 就 能看到欢迎屏幕里面有绘画信息,最近对话和更新。 输入 help 能看命令 resume, 可以 继续之前的对话,然后试试。提出第一个问题吧,比如问问这个项目是做什么的, cloud 会分析文件给你加载,也可以问技术站主入口点或者文件夹结构,甚至问问 cloud code 能做什么, 怎么用斜杠命令能不能和 docker 一 起用,它会根据需要读取文件,不用你手动添加上下文。现在来进行第一次代码更改,比如试试 add a hello world function to the main file, cloud 会找到合适的文件,显示建议的更改请求,你批准后再编辑,修改前一定会问你哦。 cloud code 还能和 get 配合,比如问我改了哪些文件,或者让它用描述性消息提交我的更改。创建新分支查看最近五次提交,解决合并冲突都可以。 修复错误或添加功能也很简单,用自然语言描述就行。比如给用户注册表单添加输入验证,或者有个 bug, 用户能提交空表单修复它。 cloud 会定位相关代码,理解上下文,实现解决方案。有测试的话还会运行测试。 还有很多工作流可以尝试,比如重构代码,让它把认证模块重构为使用 asset await, 而不是回调。写单元测试,给计算机函数写单元测试更新文档,更新 readme 的 安装说明代码审查,审查我的更改,并提出 改进建议。记住,就像和同事聊天一样,描述你的目标就行。最后说几个基本命令, cloud 启动交互模式, cloud task 运行一次性任务。 cloud code 还能和 get 配合,比如问我改了哪些文件,或者让他用描述性消息提交我的更改。 cloud code 还能和 get action、 cloud er 恢复之前对话。 cloud commit 创建 get 提交。怎么样?是不是很简单?快去试试用 cloud code 提升你的编码效率吧!你平时编码时,最需要 ai 助手帮你解决什么问题呢?

今天想跟大家聊一个中文圈严重被低估的话题,就上周有一篇文章在英文的开发者社区呢,彻底引爆了标题,就是 cold code 每个月最高要花你两百美金,而 goose 完全免费,能做相同的事情。这篇文章不是说 cloud code 差,而是直接让整个技术社区意识到, ai 编程助手的价格战已经正式开打了。我先帮你快速的理解一下 cloud code 是 什么?它是 antropica 发布的终端 ai 的 一个工具, 你在命令行里面打代码帮你测试调试啊,不是简单的代码补全,是真的在替你干活。就在同一周, antropic 还新发布了 auto plan 功能,把复杂任务的一个规划搬到了云端处理, 你说帮我实现这个功能,它就会立刻拆解成十几个子任务,然后逐步地执行。这就是目前英文圈讨论最热,但中文圈呢,报道比较少的一个开发者产品。 那问题就是 cloud code 最高套餐两百,每到一个月折合人民币将近一千五百元,这个对个人开发者或者小团队来说就不是小钱了。然后就有人问,真的没有替代方案吗?答案是有的,而且同一周就有两个一起出现了 eventual bit 的 文章重点介绍了 goose, 一个由 block 或者是 square 的 母公司开源的 ai 编程 agent, 架构上和 cloud code 的 非常接近,都是命令行加 ai 执行代码任务,完全免费开源。同一种呢? loose research 发布了一个叫做 loosecoder, 一个十四 bian 的 专门针对编程优化开源的模型,参数呢,只有一百四十亿哈,但在核心编程基础上,跑出了接近闭源大模型的一个成绩, 有意思的是,就是 antropolis 同步发布了这个 co work, 然后面向非技术用户,不需要写代码,直接让 ai 帮你操作本地文件,整理文件夹,批量改名字或者是汇总表格。用手的这个门槛呢,接近于零。 你把这四件事情放在一起看,就会发现 ai 编程工具市场正在同时发生两件事,一个是顶端在涨价,第二个是底部在做越来越复杂的 agent, 收费越来越高的订阅。底部是将 goose 和 nosecoder 这样的开源项目,把同等功能的门槛砸砸到了零。那普通人应该怎么选?我给大家三种情况的一个具体建议, 一种有稳定收入的独立开发者,或者是技术创业者。这种情况下,两百美金值得认真考虑。 cloud code 背后呢,是 antropica 的 旗舰模型,在复杂多步推理任务上,目前仍然是领先开源替代品的。如果他每个月能帮你节省的时间,折算下来超过一千五百块钱,那就是正收益。 那 cloud code 的 创始人呢?最近公开了自己的完整工作流,英文开发者社区说,直接重新定义了他们对 ai 辅助编程的理解。这个工作流我后面单独做一期解析,感兴趣的朋友评论区可以扣一。 第二种,学生或者是副业开发者,这种情况下,完全没有必要从两百美金起步,先上手 goose, 或者配合 nolscoder 十四、一百四十亿的这个参数或其他免费本地模型。学会用 agent 模式完成开发任务的方法论,这个方法论才是你的核心资产,工具之后随时可以换,那免费工具呢,也能跑出高质量的成果,付费工具呢,也能被人完成废铁。 第三种是完全不会写代码,但想直接用 ai 干活的。那么你可以去看一下 co work, 就是 antropic, 说的很明确,不需要懂命令,行哪一个 自然语言的指令, ai 就 能帮你操作本地文件。这是目前上手门槛最低的 ai 生产工具之一,适合内容创作者、自媒体人、中小企业者。 最后总结一句话就是 cloud code 和它的对手们告诉我们的是,不只是哪个工具好用,而是 ai 编程时代的底层逻辑正在分化。 那专业开发者付费买效率天花板,其余的人呢?有完全免费的入场券,无论你在哪一层,现在都是上车的好机会,因为一年后这些工具会贵。 被评论区告诉我,你现在在用哪个 ai 编程工具呢?有没有找到特别好用的免费平替?

大家好,我是福源一生。很多人都说 mac mini 就是 龙虾的最终归宿,所以我也第一时间入手了一台全新的 mac mini 电脑,拿到手之后,装完浏览器,咱们第一件事 就是从零开始在苹果电脑上安装龙虾,就算你不是 mac mini, 是 其他苹果电脑, 这个教程也一样能用。苹果电脑安装龙虾和 windows 系统差不多。我们先打开龙虾的官网,上面有 n p m 安装方式, 还有一个 m a s 客户端,这里要跟大家说清楚,这个客户端只是一个操作界面,并不是安装包,得先装好龙虾,再用它来交互 安装报错。所以安装还要先安装 node js。 第一步,先安装 node js, 打开 node js 官网,下载最新版本,下载好之后双击安装包,一路点继续同意协议, 输入电脑密码,等待安装完成。 安装完之后把安装文件移入废纸楼,输入 node 杠 v, 如果能显示版本号就说明 node js 装好了。 接下来安装 open cloud, 新打开一个终端界面,切换到 root 用户 这里,一定要用管理员身份安装,不然会失败。输入 su do i 回车,然后输入电脑密码,输入的时候屏幕不会显示,直接输完回车就行,看到 root 字样就说明切换到管理员了。再次输入安装命令, m p m install 杠 g openclog 回车,等安装完成没有报错就成功了。 记住安装用管理员启动要用普通用户。输入 opencll 杠 v, 能显示版本号就代表装好,直接在终端右键新建一个窗口,就是普通用户模式。 第二步,配置 opencll, 输入 opencll on boarding, 回车出现安全提示,直接同意继续, 然后选择你要对接的大模型,里面支持很多种,没有你想要的也可以选自定义。 我这里用的是 mini max, 就 选择 mini max 回车, 然后输入密钥 p 值回车,我使用的是 gpt, 五点四选择直接保存默认就行。 聊天通道本地使用可以先跳过用空格选中回车确定 技能配置,选择 no, 用空格选中回车确定,这时会提示 node js 使用网络,点击允许,最后选择用 web ui 控制回车。 到这里龙虾就安装配置完成了,我们可以直接在浏览器里打开地址和龙虾对话,我问他你是什么大模型,他正常回复就说明整个流程都跑通了。好了,苹果电脑从零安装龙虾到这里就全部结束了,后续更多龙虾的使用技巧, 欢迎关注我,每天分享一个干货知识。

tikub 上有个项目火了, hermes agent, 五十四万 star 的 开源 ai 智能体框架,它到底是什么?简单说就是一个开源的 ai 助手框架,能帮你写代码、查资料、操作文件、管理任务,甚至接入你的聊天软件,完全免费。 mit 协议开源。 tikup 上有五十四万 star, 很多人会拿它跟 openclaw 比较简单,说 openclaw 是 接入一切,什么都能连,而 hermes agent 是 记住一切核心杀手锏,是自我进化能力,用的越多越懂,你能自动创建新技能,记住你的习惯。 如果你已经在用 openclaw 也没关系, hermes 支持一键迁移,你的人格配置、记忆、数据、 api、 密钥都能直接搬过来。那怎么安装?只需要两步。 第一步,打开终端,粘贴这条安装命令,它会自动下载并装好所有依赖,不用操心任何环境配置。第二步,输入 hermes 回车就启动了,从开始到能用不到一分钟。启动后你可以选择模型, hermes 不 绑定任何一家厂商,国产的 kimi、 智普、 glm、 minimax 都能用, openai 和 cloud 也支持随时切换。除了终端对话,它还能接入 telegram、 discord、 slack 这些平台,手机发消息也能用它。 但这个框架最厉害的地方是它会自己学习进化,用得越多越懂。你能自动创建新技能,记住你的习惯和偏好,时间长了就像一个专门为你定制的 ai 助手。以上就是 hermes agent 的 完整安装教程,关注临近未来,每天了解一个实用的 ai 工具。

可以顺利查看里面镜像的信息了。 nice, 大家好,我是 it 豪哥,可能有不少小伙伴像我一样下载了不少系统镜像在电脑上, 但可能偶尔也会忘记哪个镜像具体对应的是什么系统。今天来教大家来怎么样快速查看系统镜像里面的版本信息。 第一种方法是用到我们的一个小工具,叫做 disn 加加,一个很强大的工具,我们下载好之后,下载好工具之后打开文件这里打开 印象文件看一下,我这里有三个,三个系统文件,分别是 iso 格式、 wim 格式和 esd 格式,这里都是支持的,我们先试一下 iso 格式,这个里面看看是什么系统 好显示出来了。里面整合了四个版本的 win 十一系统,从家庭版到专业版都有, 这里都有显示的名称,印象,名称展开后的空间,他的印象的创建日期都显示了,然后我们可以这个时候我们可以双击 双击对应的版本,查看更详细的信息。看一下这里家庭版的信息,就是版本是六十四位, 他的系统内部版本就是二二六二一点五二五,安装完之后在系统信息里会显示这个版本。 我们来看一下这里个是 iso 格式的,我们打开我们的 wim 格式看一下, 也是可以正常查看的。 wm 格式里面已经这个包含了多达六个版本的系统,从家庭版到专业工作站版,版本就比较丰富了, 我们看再看一下我们的一一 sd 格式的版本,英实一 sd, 看看里面包含了多少个啊,里面只包含了一个专业版的六十四位版本,看一下,双击看一下里面的信息,版本号是一 九零四四点一八八九都能很方便的查看,我们了解到这些这些信息之后,我们就可以方便的给我们的镜像文件从命名或者安排到需要的地方, 这是用利用工具快速查看的方法,在没有工具的情况下可以用第二种方式查看,也就是用系统自带的命令提示服就可以了。我们这里首先查找 cmd, 找到命令提示服务右键以管理原身份运行, 这里我们的打开一下帮助文档。 dism 已经其实是 系统内置的一个工小工具了,我们直接在这里输入命令行,这里用到的是 get image in four, 也就是获取镜像信息这个选项的命令。我们打复制过来, 然后加上文件地址。嗯,首先看一下 wm 格式的安装文件,复制文件地址,移过来看一下。回车好了,已经顺利显示出版本信息,一二三四五六个版本, 我们测试一下 esd 格式的文件复制文件地址。对,先复制这一边,然后再复制文件地址, 再看一下这个,一是第一安装文件里面包含的,他只包含了一个系统,跟我们之前用工具查的一样。然后再看我们的 isogoss 印象文件,直接查看一下 复制文件地址。 嗯, 这里提示出错错误,所以 iso 文件不能直接查看,这里也是提示了要查看里面的 install 文件地址, 我们这里。哎,对于 iso 镜像文件,我们要双击打开一下,加载一下,加载了,我们在 sos 文件夹里面找到文件, 见最大的这个,这个 install esd, 我们先复制这个地址好,再复制右键这个地址,复制 好了可以顺利查看里面镜像的信息了。一二三四,这就是 这就是这个 iso 印象文件的里面系统包含的版本信息, 那要查每个版本里面的更详细的信息呢?比如说是多少位的版本号之类的呢?我们要也需要需要增加一个额外的参数,这里复制一下上面的这一串吧。 好了,按一下空格,我们加一个斜杠,输入 index, 然后一个冒号, 这就是手瘾的意思,我们出现这里手瘾有一二三四,我们要查看第四个手瘾的信息,我们就可以输入四, 然后这里格式是这样的,然后我们按回车,然后就看到手影式的更详细的信息,它的结构是六十四位 版本,大版本就是二二六二一,也就是是我们的二二 hr 版本,小版本就是五二五,也就是拼起来就是二二六二一点五二五,这是我们 安装完之后系统会显示的版本,这是利用命令提示服快速查看版本信息的办法, 两种办法都可以,用工具或者用命令提示服都可以,希望大家有选择的使用,你喜欢哪种就用哪种,今天的介绍就到这里,谢谢大家。

六百六十六,我刚买的 y 七零零咋又遁地了,气死我了,呜呜呜。 一个视频教会你如何给 y 七零零二代刷一家系统。首先先将这个一家系统包里面的九零零八驱动安装一下,然后再把我们的老伙计搞基助手给安装上, 在搞基助手的扩展功能里面有一个 c m d 命令,输入 adb reboot e d l, 将设备进入九零零八模式,然后准备后续的刷机工作, 这里点设备管理器,看见那个端口出来之后返回看刷机包里面有一个点,我一键刷入输入三,然后回车它就会自动刷了。这个包刷的比较慢,大概是在二十分钟左右,这是看电脑好一点的就二十多分钟,如果电脑差一点的可能就要四五十分钟。 出现 done 代表刷入成功,这边开机之后,它会一直卡在那个 close 的 展示页面,不过高级助手已经能检测到进系统了。此时我们点开扩展功能,在 c m d 命令中输入 a d brute recovery, 将设备进入 recovery 模式, 进 recovery 之后一,然后点 y, 然后滑动 swipe to factory reset, 进行格化式二,然后点 back, 之后进入图三,选择 format data, 然后如图四,输入 yes, 就 会格化 data。 三,最后一步如图六,选择 robot system 就 会重启,此时你就会发现能正常进入系统了,不会再卡 close。 然后二代是不能免编码 root, 此设备已经解锁过,然后我就不再进行解编码所演示。将我们下的那个刷机包里 boot 提取出来,然后再 ksu 面具修补一下,将面具传入平板,然后把 boot 传入平板,用面具修补之后,将 download 里面的修补文件放到电脑桌面, 将修复好的镜像文件放到电脑桌面上,然后将设备进入引导模式,选择引导模式里面的一键刷入,不刷入过程中 fastboot 会断开连接闪一下,正常的不必要惊慌,出现两个 ok 就 可以将设备重启。 好了,本期的视频就到此结束,感谢你的观看,如果有什么不懂的可以在评论区留言, e p 会不定时更新 y 七零零系列,刷入 pro 十六教程,下期视频会挑选评论区呼声最高的设备进行提前更新。

今天呢我们来讲一下如何在你的电脑本地部署一个 ai 大 模型,从而呢让你拥有一个没有次数限制,没有网络限制,绝对私密安全的本地 ai 助手。 好,首先呢我们需要去查一下自己的电脑硬件配置,看一下我们的电脑适合部署什么样的大模型。那么像我这里呢,安装了一个还比较简单的本地大模型,这个呢在我们的普通的游戏笔记本就可以跑动的一个模型, 以这个为例,我们来讲一下整个的安装流程,只需要根据如下几个步骤就可以完整的安装好我们的本地模型,并且呢后期可以实现随时的来下载别的模型随时去替换。那么最简单的部署方案呢,就是我们的我拉玛加一个 block, 可以 实现我们的本地格式化界面。好,接下来呢我们来按照我们的流程一步一步的来进行设计。好,首先安装我们的这个欧拉玛,我们只需要双击下载,完成后,只需要双击安装即可 弹出提示呢,我们点击试,它会自动帮我们去安装一些环境配置 好。安装完我们的欧拉版之后呢,我们可以先把它关掉,然后在我们的命令窗口里去安装我们的大模型。那么如何验证我们的欧拉版安装成功呢?同样是在我们的,先按 win 加 r 键打开 cmd 命令。 好,这里呢我们可以来输入一下,验证 好,复制粘贴一下代码,点击回车,我们可以看到这里呢出现了这个欧拉玛的版本号,说明我们的欧拉玛就安装完毕了,接下来呢我们进行下一步就是去安装我们的大模型。 好,这里呢我们只需要把这个命令复制粘贴好,如果呢你的电脑配置还比较高,适合一些其他的大模型,我们只需要更改后面的大模型名称即可。 好,粘贴以后点击回车这里呢我们需要等待这个模型自动下载完毕。 好,一般比较小的模型呢,它这个下载也比较快,而且呢它整体的这个占用的内存也比较小,这个呢只有不到一 g 的 内存 好,下载完成之后呢,它会提示 success 成功。好,其实这时候呢,如果我们只是用来和大模型对话聊天,那么我们只需要打开 elama, 我 们可以看到这里呢就会显示我们已经下载好的一些模型。那么最后这里就是我们刚才下的模型,我们只需要选中这个模型就可以正常跟它对话和聊天。 现在这个模型呢是完全的本地运行状态,我们可以试着把网络关掉,然后呢再和它进行对话。那么接下来呢,我们再让它写一个贪吃蛇的拍绳代码, 好,可以看到它这个速度还是非常快的。 好,所以呢这就可以证明。哎,我们这个大模型呢,在本地可以正常的去运行,而且呢可以帮我们去完成一些日常的简单的任务。 好,那么如果说我们有更高的要求,或者说我们的电脑配置比较高,那么可能我们需要去做一些上传一些复杂的文件,或者是让它拥有一个对话记忆功能,那么此时呢就需要我们利用另一个,也就是我们的 open web, 那么 open web 呢,需要借助这个 docker, 所以呢我们还需要先来安装这个 docker, 那 么前提是如果你想有其他的一些更复杂的需求,我们就接着进行下一步,那么 docker 呢?这里我们可以选这个电脑版的六十位, 好,双击安装好,同样我们直接点击这个 ok, 好, 安装完 docker 以后呢,它长这个样子,那么进来的时候呢,可能需要我们去注册登录一下,然后呢需要再次打开我们的 command 命令窗口,然后呢复制粘贴这段话, 好,然后呢在我们的这个 document 里面就会生成一个 open web ui 的 一个界面,那么这个服务呢,就可以让我们在浏览器里打开我们的 web ui。 open web ui, 好, 接下来我们打开我们的浏览器, 好,打开浏览器呢,我们需要去输一个地址,那么这个地址呢,就是启动成功后,我们要访问的这个地址,它复制,然后在我们的浏览器里进行一个粘贴, 然后我们就可以进入到这个 open web ui 的 界面,那么在这个界面里面呢,我们就可以进行一些更为复杂的设置,包括我们在跟它对话的时候,还可以看到你的这个每秒的这个 talk 速度。 其次呢我们还可以去给他进行一些投一些资料,然后可以给他添加更多的这个附件,上传文件,引用网页,引用笔记等等,那么就可以做一些更加复杂,能长久记忆的一些功能。 好,以上就是我们在本地部署我们的 ai 大 模型的所有教程,那么后期呢,我们会出一下我们的 openclaw 小 龙虾,还如何去接入我们的本地大模型的教程,让我们实现零拣就可以玩转小龙虾!

嘿,大家好,今天呢,咱们来干一件特别酷的事,手把手带你把一个超强的 ai 工具 openclo 给安装好。你先别紧张,这事听起来可能有点技术,但相信我比你想象的要简单太多了。放心,你根本不需要是程序员,跟着我的步骤一步步来就行。 对,就是这个理儿。你想想,我们今天这可不是在做什么枯燥的技术安装,我们是在给你未来的私人 ai 助手安装他那个聪明的大脑,这可是个超有仪式感的第一步,对不对? 好,那咱们就正式开始吧,在咱们这个 ai 安装任务正式起飞之前呢,得先做个快速的飞行前检查,整个过程很简单,保证花不了你多少时间。 你看要求,就这么简单几条。首先你得有台能上网的电脑,这个肯定没问题。然后需要一个 openscal 的 账号,要是还没有,现在去他们官网花一分钟注册一个就行。 最后也是最重要的,给自己找一个不被打扰的。十五分钟准备好了吗? 对,你没看错,就十五分钟,十五分钟你就能搞定一个让很多人望而却步的技术门槛,然后拥有一个完全属于你自己的 ai 助手,是不是感觉一下子就没那么大压力了? ok, 那 接下来呢,咱们会分三条路走,分别是给 windows, mac 还有 linux 用户的,你就根据自己电脑的系统找到属于你的那条路,然后跟紧我的步伐就行。 好, windows 的 朋友们,到你们了,看过来,咱们第一步先要叫出一个叫命令提示符的东西,很简单,你按一下键盘上的那个 windows 标志键,再加个 r 键,会弹出一个小窗口,在里面输入 c m d, 然后敲回车。 看到这个黑色的窗口了吧?别怕,它就是咱们的魔法控制台。接下来所有神奇的操作都在这里完成。在安装 openclaw 这个大脑之前,咱们得先给它接上电, 这个叫 node js 的 工具,你就可以把它想象成,嗯,给 ai 大 脑供电的那个电源。没电,再厉害的大脑也亮不起来,对吧? 我们去 node js 点 org 官网找到那个写着 lts 的 版本,下了下来。 lts 代表长期支持版,用起来最稳定, 下载好之后就跟装普通软件一样,双击它,然后一路点,下一步就完事了。 ok, 电源装好了,咱们得测试一下是不是通电了。回到刚才那个黑色的空格,再输入杠 v, 然后回车,只要你看到屏幕上跳出来一串版本号,那就说明搞定。电源通了。好了,电源接好了,现在就是最关键的一步了,安装我们的大脑本身, 你直接把这行命令 n p i m install 杠 g openclo 复制粘贴到那个黑窗壳里,然后按下回车。接下来电脑会自己忙活一阵子,你稍微等一等,当你看到屏幕上出现一些 edit 之类的词,就代表我们成功了, ai 的 大脑已经装进你的电脑里了。 ok, mac 的 朋友们,轮到咱们了,你们的那个魔法控制台啊,名字叫终端,按一下 command 键和空格键,会出来一个搜索框,你输入终端两个字,打开它就行。这个就是咱们安装的地方。 哦,对了,你也得先去 node js 点 o r g 那 个网站,把 mac 版的 node js 这个电源给装上,步骤跟 windows 那 边是一模一样的。 确认 node js 装好之后呢,就在终端里输入 npm install com g openclaw。 这里有个小窍门儿,也是 mac 用户经常会遇到的一个情况。如果你运行时看到评估提示你什么 permission 或者权限之类的错误,你一点儿都别慌,这太正常了。 你只需要在刚才那行命令的最前面加上 soluto 和一个空格,就像右边这样,变成 soluto npm install 杠 g openclaw。 然后它会让你输入你电脑的开机密码,输完一回车,问题就解决了。 好,最后咱们再快速说说 linux 和云服务器上的朋友们,其实整个逻辑是完全一样的,就两步,第一步,装好电源 node gs。 第二步,装好大脑 openclaw。 如果你用的是像乌奔兔这种带边系的系统,安装 no g s, 就 用这两行命令,我们已经给你列在这了,你就按顺序一行一行地复制粘贴执行就行了。 等 node js 装好之后,就剩最后这离门一脚了。用速度 npm install 及 openclaw 这条命令来安装 openclaw, 你 看,跟 mac 一 样,我们直接就给你加上速度了,这样就能省去很多不必要的麻烦。 好了,不管你用的是哪个系统,到这一步,最重要的安装部分已经全部搞定了。现在准备好了吗?咱们要进入最激动人心的环节了,唤醒它,跟它来一次第一次亲密接触。 这是一个见证奇迹的时刻。现在不管你是 windows、 mac 还是 linux, 都在你的控制台或者终端里输入这个统一的命令, open claw 杠 version。 如果你的屏幕上顺利地显示出了 opencloud 的 版本号,那么我宣布,安装圆满成功,恭喜你, 先别急着跟它聊天,还有最后三步,非常简单,咱把它配置好。第一步,输入 opencloud login, 用你之前注册的账号登录一下。 第二步,输入 opencll enit, 这里它会让你给助手起个名字,再选个模型。你如果是第一次用,直接一入回车,用默认的就行。最后,输入 opencll start, 启动服务 好,一切准备就绪。你看,屏幕上的光标在闪烁,它就在那里静静地等着你。来吧,敲下你跟他的第一句话,就问他,你好,介绍下你自己,然后按下回车 怎么样?他是不是回复你了?如果屏幕上出现了一段 ai 流畅的自我介绍,那么任务圆满完成。你已经成功地安装并且运行了你的第一个 ai。 助手真的为你自己鼓掌,太棒了! 我得再说一次,恭喜你,你真的完成了一件很了不起的事,就是这第一步,也是最难的一步,你已经跨过去了。那么有了这个大脑之后呢?故事才刚刚开始, 你看,真正的乐趣才刚刚开始。现在你可以像训练捧物一样教你的 ai 各种数书的新技能, 你可以把它接入到飞书、微信这些你天天用的工具里,你可以让它帮你处理那些重复又繁琐的工作,你甚至可以把它打造成一个真正意义上的数字固原。 所以,最后,我想留给你一个问题,现在一个空白的但充满无限可能的大脑已经交到你手上, 你打算最先教会他什么呢?是让他帮你回邮件,还是帮你写代码?又或者是帮你分析报告未来充满了想象力,而这一切的起点,就是你刚刚花掉的这十五分钟。

你们还在养龙虾吗?天天折腾 opencloe, 敲命令行配环境,搞半天还装不上,是不是累够呛? 呃,告诉你们个好消息,国产小螃蟹来了,就是这个 dscloe 桌面 ai 助手,我实测了几天,真的太省心了, 不用折腾任何东西,一键下载安装 windows, 苹果都能用,我这种技术小白五分钟就搞定了。首先它的界面很友好,桌面会有一个螃蟹到处跑,点一下就会打开, 里面有新建任务。嗯,就这么简单,一个对话框,你直接说话就行,不用搞复杂的参数,还有定时任务,到点自动帮你干活,特别方便。 呃,重点来了,它内置了 cds 二点零视频生成,不用切换软件,直接在这用参考图首尾帧就能做视频,省事多了。 然后是技能库,它本身就内置了十四款常用技能,直接点就能用,旁边还有个技能广场,这里面技能就更多了,可以按场景找,还有专门的员工技能包,也能直接搜索你需要的技能。 最后是个性化设置,你可以把自己的信息输进去,还能定义这只小螃蟹的信息性格和回复方式,让他更懂你。呃,最后跟你们说句实在的,我测了这么多 ai 工具,真的觉得咱们普通人完全不用焦虑。 以前总觉得 ai 是 技术大佬的专利,咱们学不会,用不了。但现在不一样了,越来越多专业人士把复杂的技术、专业的能力封装成了一个一个现成的技能。咱们普通人不用懂原理,不用会编程,直接拿来用就行。 这其实就是一种技术平权,能实实在在弥补咱们普通人的能力差距,现在 ai 圈就是大浪淘沙,那些复杂难用的迟早的会被淘汰,留下来的肯定是这种普通人点开就能用,能真正解决问题的工具。 嗯,最后你们有没有用过什么好用的国产 ai 工具?评论区分享一下,咱们互相避坑,点个关注不迷路。

想拥有一个二十四小时在线的 ai 助手吗?今天教你五分钟内在 mac 上部署 open call, 打造你的专属数字分身。首先检查你的 mac 准备好了没有,打开终端,输入 node v, 如果显示版本号,说明 node js 已安装版本需要十八以上。如果没有用 vm 安装 命令,我放评论区了。接下来是关键步骤,默认 n p m 局安装需要苏斗。我们先配置用户目录,输入这三行命令,创建目录配置路径,刷新配置。然后一行命令安装 n p m install, 即 open card。 安装完成后输入 open card version, 确认一下现在启动配置向导 open card onboard 第一个安全警告输入 yes onboarding mode 选 quick start, 快速开始 model provide 的 重点来了,推荐选 zai 智普,国内用户友好,颜值低 off method 选 c n, 使用国内端点后面的 channel, search, scales, hux 全部跳过,先刨起来再说。最后 hoch mod 选 t u i 终端界面启动配置完成,启动它 open country 第一次启动,他会问你,你是谁?想让他做什么?我的设定是这样的, 我是欧皇兄电力工程师,关注 ai 和 web 三,你的职责是协助我优化工作流代码,编辑文稿输出, 它就会给你一个很棒的回应,并且记住这些信息,这就是你的数字分身诞生了。最后提醒一点, open call 有 技能系统,但 call up 上有三百多个恶意技能,安装前务必检查源码,定期运行,安全审计 open call security audit。 好了, opencar 安装完成,下期教你怎么配置 discord, 让它二十四小时在线关注我,一起玩转 ai agent!

最近 andropec 推出的命令行工具 cloud code 在 开发者圈内掀起热潮,但主包深入使用后,我发现其存在三大硬伤,每次调用消耗 cloud api 配额,长期使用费用不菲,还有隐私泄露风险强,网络依赖。 于是主包萌生一个想法,能否让 cloud code 调用我本地的大模型?结果还真让我找到方法了。前提,已安装 cloud 离合 alama for windows。 安装完成后,打开 power shell。 步骤二,拉取本地大模型。我这里选择欧拉玛破宽二点五三二 b 三十二 b 参数量远超拉玛三到八 b, 代码理解能力接近 cloud。 三、 sonnet ok, 接下来开启五小时等待, 接下来精华来了,让它冒充 cloud, 把 cloud 骗进来。 可以看到 cloud code 被成功启动, 给他一个任务, 他开始工作了。同时主包的内存值到了百分之九十二, 任务完成。从此以后,你写的每一行代码都只属于你自己,你不是在用 ai, 你 是在构建 ai。