ai 圈新风口,别瞎追,一个项目吃透 harness 核心是不是天天背 agent? harness engineer 这些新名词杂毛想搞懂又找不到系统门路。其实早在二零一九年 openai 翻译横扫读大二的时候 就把 agent 的 本质讲透了。没有系统瓶颈,不靠固定决策树,能从经验里自主学习的模型就是真正的 agent。 而 harness 就是让 agent 能在特定领域落地干活的全套能力。从文件读写、 shell 操作、 api 调用到沙乡隔离、审批流程、信任边界全维度覆盖。今天给你们扒的 learnclock code 开源项目, 就是 harness engineer 的 顶级实战案例。开源刚满三十天,直接狂揽三十八点七 k star。 它用十二个渐进式教学模块,从最基础的 agent 循环工具调用到任务系统上下文压缩, 甚至刚火起来的 agent team 自主 agent, 实现全链路。给你讲透 ai 圈三个月就换一波新名词,与其追着热点跑,不如沉下心吃透底层逻辑。觉得有用的点赞收藏,关注我,带你解锁更多 ai 硬核干货!
粉丝60获赞1071

兄弟们,到底什么是哈尼斯?很多兄弟都云里雾里哈,龙哥今天就给兄弟们具体的讲一下 a 境特的哈尼斯呢,也就是 a 境特执行的配套设施啊, 在推理时啊,主要包括六个方面,一呢就是题词相关啊,包括得有这个 sky 优化呀,上下文构建呐等等之类的。 第二个呢就是记忆相关了,如何提取知识啊,长期记忆啊,短期记忆,临时记忆啊,记忆持续一致性啊等等。第三呢就是工具相关啊, aint 需要通过大量的工具执行来反馈结果。这些工具呢,有些是大模型自动生成的代码呀,有些是这个直接 api 调用啊, 当然也有这个 mcp 啊, c l i 啊这些的支持哈,当然还使用这个 computer use 啊, browser use 啊, mobile use 等等之类的支持哈。 第四个呢就是流程与工具编排呀,主要通过大模型完成哈,使用一些算法增强,或者是流程约束啊,工作流啊等等之类的哈。第五呢就是沙箱安全相关哈,代码执行呢,命令执行呢,都需要在安全的沙箱环境呢。 第六个呢就是结果评估啊,包括的有大模型打分啊,反思啊,判断任务是否完成啊等等之类的。这些组建呢,就通过一个 a 镜的控制循环哈,不断的改进执行结果。如果说要做这个 a 镜的哈尼斯工程师啊,基本上就是这六大部分的改进优化呀。

今天的话我们来详细讲解 cloud code 它底层的源代码,然后这节课的话,我们会通过详细的讲解 cloud code 它源代码是怎么被开发出来的, 普通人怎么样去二次开发 cloud code, 以及 cloud code 所有的底层技术原理是怎么样规划开发出来的,那么以及教会大家用 ai 编程怎么样去一步一步开发出自己想要的 cloud code, 或者是呃基于这个 cloud 去做其他的一些事情。 那么我们继续讲解这一个怎么样用 cloud code 去发挥 cloud code 的 最强的这个编程能力和它的系统格式的这个结构。 那它的编程功能的话, cloud code 的 确作为编程能力里面最强的这一个模型, 它有这个,比如说它有很多的这一个相关的这个功能,那么 code code 它内置了强大的这个编程辅助功能,覆盖了这个软件开发的全生命周期。它有这个文件的操作功能,有这个 read write, 还有这个代码的编辑 edit, notebook 以及代码的搜索,有 grab globe, 另外的话也有这个命令的执行,有这个 bash, 还有 git 操作和这个 work key 代码的审查 agent, 还有这一个呃网络的搜索, web search 网,网页的这个抓取,有这一个呃 web fetch 以及任务的管理,有这个 task。 那么核心的这一个编程的工具的讲解是有这个 read 工具多格式的这个文件的这个读取,有这个读取这个文件的内容,多种的这个格式,还有支持的这个格式,有这个文本,纯文本文件纯文本和这个自动的这个语法高量图图片文件,这一个 b s 六十四编码返回,然后支持这一个 j p e, g 和 p n, g 以及 g i g, i f 和这个 web 这一个相关的图片文件以及 pdf 的 文件,支持这个 base 六十四,编码返回,还有这个 jasper notebook json 的 格式来进行解析,还有这一个,呃, pdf 这个分析的这个图片,将这个 pdf 转化为这个图片来进行分析, 那么输入的这个参数的话,它就是这个 type script, type script interface file, read input file, path screen 文件的这个路径,这是必填的,还有 limit number 函数的限制,还有 offset number 起始的这一个行的偏移。 另外就是返回的类型的话,有这一个,嗯, type script 有 这一个文本的返回,还有这个 type text, fire fire path content number, lines, start, line 以及 total total lines 图片的返回,以及这个 type type 的 话, image image fire base 六十四,还有这个 type original original size 以及 dimensions dimensions pdf 返回,还有这一个 type pdf fire fire pass base 六十四和这个 original size, 以及这个 notebook 返回,还有这个 type notebook fire, 还有这一个 fire ties sales unknown, 还有 parts parts 返回,以及这一个 pdf 分 页 type parts 的 这一个 fire firepath original size, 还有这个 count output 变无变化的这个返回,以及这个 type of fire 这一个 unchanged unchanged fire firepath。 文件大小的这个限制的话就是 n p six 有 这个一百兆,超过此大小的话自动进行截断, a s seven 就是 三十二兆普通编辑操作的这个工具, 那么同时它有 write 的 这个工具,原子性的这个文件读写,它可以创建覆盖文件的这个内容,输入的这个参数,这些。


不是吧,都二零二六年了,你还在捣鼓你那破提示词呢?如果你还不会 harness engineering, 那 你就落伍了。 我问你,为什么同样调 cloud 的 api, 有 人做出来的 ai agent 能独立干活?有人的一直出错,一直返工?答案就是今天要讲的这个词, harness。 记住这个公式, agent 等于 model 加 harness, 模型只是一半,另一半是你给他搭的整套运行环境规则、工具、测试反馈机制,这些加在一起就是 harness。 打个比方,大模型就是一匹悍马,可以跑得飞快,但是没有一个合适的马鞍的话,它的方向路线就无法精准操控。 这就是为什么我们需要哈密斯的原因。来看一个真实案例,安斯基公司曾经发过一个博克,里面提到同一个项目,没有哈密斯的情况下,克拉德花了九美金,用时二十分钟,做出了一个完全不能运行的游戏。 而加入 hans 以后, cloud 用了六个小时,花费两百美金做出了一个完美运行的游戏,这就是 hans 的 作用,能够完美发挥模型的全部能力。所以现在业界有一句话, 模型是商品, harness 是 护城河,任何人都可以花钱调 api, 但你怎么约束他,纠正他,让他不犯同样的错,这才是真正的壁垒。那小白该如何开始呢?最简单的入门方式,建一个 agent, 点 md 文件,每次 ai 出错就往里加一条规则,就这么简单, 哈士靠不住的,创始人就是靠这个,把 agent 的 坏行为几乎全解决了。关注我,下期我们直接上手,从零搭一个真正能用的 harness。

朋友们,最新的 hermes 已经支持接入到个人微信了,我刚才看了下这个教程,这个接入的流程非常的简单,现在我们就实际的来接入了一把。好,我们首先打开一个终端,然后按照这个里面,我们需要安装这个依赖,直接复制, 这里有复制,把这个命令复制下来,粘贴到这个终端里面,直接执行。好,稍等一会儿。好,现在我们安装完成了,完成之后呢,我们输入下一个命令,这里有一个 hermes get v set up, 同样的把它复制下来,然后粘贴到这个终端里面。 好,这里我们需要选,我们找到微信啊,这个微信微 q 的 这个就是选择这个微信,然后按 y yes, 我 们先打开这个这个二维码的链接,然后我们用一个微信去用你的微信去扫扫描这个二维码,然后点连接, 下一步我们直接启动网关,复制这个命令 hermes getaway, 然后在终端里面粘贴, 稍微等待一下,它正在启动。好,这就表示它已经启动成功了。接下来我们拿刚才扫码的手机,然后测试一下到底有没有连接成功。你好,你是谁?稍微等待一下 啊,他显示对方正在输入,应该是连接成功了,他已经回复了啊,现在就表示成功地连接上微信了,大家赶快连接试一试吧。

大家好,今天我们来聊一个正在改变软件开发的领域, ai harness engineering。 什么是 ai harness? 它和传统的软件开发有什么不同?让我们一探究竟。 ai harness engineering 翻译过来就是 ai 驾驭工程,它不是训练模型,也不是调用 a p i 那 么简单。它是一套系统化的方法论,用来构建监控和迭代 ai 驱动的应用。 你可以把它理解为给 ai 系统装上浆绳和方向盘的工程实践。核心目标是让 ai 的 输出可控、可预测、可信赖。 ai harness 有 四大核心支柱,第一是 prompt engineering, 精心设计提示词。第二是 rack 解锁增强生成,让 ai 基于真实数据回答。 第三是 evaluation, 建立评估体系,量化 ai 的 表现。第四是 guardrails, 安全护栏,防止 ai 输出有害内容。 在全站项目中, prompt 不 应该散落在代码各处。推荐的做法是建立一个 prompt registry, 把所有提示词集中管理版本控制,像对待数据库 schema 一 样对待你的 prompt。 使用模板引擎,支持变量注入,这样你可以 a b 测试不同的 prompt, 追踪每次变更的效果。 rag 是 全站 ai 应用的核心技术,你需要一个文档切片服务、一个向量化服务、一个向量数据库和一个剪辑排序模块。在 note js 技术站中,你可以用 land chain js 或 versa ais dk 来搭建这个管道, 关键点是把 embedding 和剪辑做成独立微服务,方便独立扩展和调试。 没有评估就没有改进,建立自动化评估流水线,每次修改 prompt 或 rap 配置后自动跑评测级,同时部署 guardrails, 在 ai 输出到达用户之前做安全检查, 比如检测幻觉,过滤敏感信息,限制输出格式,这些护栏应该是可插拔的中间件。 推荐几个关键工具, versa a i s d k 用于流式 ai 交互, langsmith 用于追综合调试 ai 调用链, prompt fu 用于自动化 prompt 测试。未来 ai harness engineering 会成为全站开发者的标配技能, 就像我们今天不会把 sequo 直接拼接在代码里一样, ai 调用也需要工程化的包装。谢谢观看。

一分钟一个大模型面试题, a、 n、 t 有 上千个 api, 怎么处理?面试报,其大模型塞得下一千个 api 吗?面试官问你,如果我没有一千个内部接口,直接把这些工具说明书全塞给 a、 n、 t, 会发生什么? 千万别说可以塞得下,只要工具超过几十个,大模型的 part 就 会瞬间爆炸,不仅 api 账单费用原地起飞,还会导致大模型失忆,参数经常写错。第一步,工具说明书向量化 q o r g 工具动态解锁 第一步,在离线状态下,我们把所有一千个工具的 g、 s、 o n 说明书描述参数提取出来,转换为向量,全部存进一个独立的向量数据库中备用。第二步,以图解锁作为 tivo 第二步,最关键运行时动态解锁。当用户提问查一下北京天气时, 我们先不请求大模型,而是拿用户的意图先去向量数据库里搜一下,精准捞出相关度最高的它。这三个工具,比如天气、 api、 定位 api。 第三步,按需注入语调,用 data-make parameter 第三步,按需注入我们把刚才捞出来的极少数三个工具,结合用户问题, 一起发送给大模型。大模型的上下文瞬间变得极其清爽,毫无压力,瞬间就能准确无误地输出你要的 g、 s、 o n 调用代码面试总结,用魔法打败魔法最后总结,拔高。面对无限膨胀的 api 列表,我们的核心架构思想是,用前所过于降低召回范围,用大模型都得提升推理精度。这就是企业级动态工具路由。

很多人一提 harness, 就 默认地做成一个很重的平台。其实不是最小 harness 的 关键不是功能堆多全,而是先把一个可控闭环跑通。 第一步,先收窄接一个模型,给少量工具,只做一类任务,比如只让它读仓库,改文件、跑测试。你先证明这条链路能稳定跑,再谈扩展。 一个最小 harness 至少要把四层管住,工具怎么接,权限怎么卡,任务按什么顺序跑,最后结果拿什么验?这四层不完整,系统就很难稳, 具体流程也不用想复杂,先读上下文,再给执行动作,最后做验收判断。说白了就是输入执行,叫验三段式。很多能用的系统最早都是这么起步的。 这里最容易漏掉的往往不是模型,也不是工具,而是失败后怎么办,命令失败了怎么收,结果不对怎么退,能不能保留上下文继续修,这些才决定它能不能连续工作。 我的建议很直接,先做单任务闭环,再补日制和回放,最后再谈多工具、多 agent、 多模型,别一上来就搭大平台,不然你会先被复杂度拖死。 一句话记住,最小 harness 的 目标不是大而全,而是先把可控闭环跑通。你只要把这件事做对,后面所有扩展才有意义。下条我接着讲,为什么很多 ai coding demo 一 上线就翻车?

昨天我用 hacksmithingelin 发了一个记账系统,大家反响都还可以,然后弹幕里面有人问我有哪些代码是涉及到 hacksmithingelin 的, 我在这里给大家整理了一下相关的 hacksmithingelinelin 代码已经传到 github 上面了,大家可以看一下, 比如说有 agentmd 文件,然后它是是用用来做代理使用规则的,我可以把源码打开给你们看一下,叫 agentmd, 就它的一些代理规则就配到这个 a j m d 里面,这是哈根斯坦丁尔相关规范之一的文件。然后的话还有可以看一下, 比如说有这个 m d, 它是用来做架构模式的,同样的也是写到了我的那个相应的原版里面有,比如说这个 extra 是 在 cloud 这个里面, 对,它是用来做相关项目,用 hackathon 生成的那个系统架构概念, 一个相当于系统架构设计文档吧。同样的你包括我们还可以看到有相应的多门 model 这些要领域建模,还有编码标准,测试模式, 安全协议,包括钩子配置、失败管理权限配置地图工作流等等,包括还有一些 skill 的 一些技能库, 这些全部都是在原版里面有,大家可以看一下这编码风格,编码规范, 还有这个领域模型,相应的对这些大家可以去我的 github 上面把代码下载下来看一下,可以用来做一下参考, 大家如果还有什么需求可以在评论区里面留言,后面我也会不断地去用 hack nius hack 那 个去做相应的一些项目。

大家好啊,现在市面上企业接入国内大模型 a p i 的 渠道特别多,那我今天就和大家汇报总结一下不同渠道的特点。首先呢是火山引擎的豆包系列和 deepsea 系列产品, 那他们的特点是限流的额度最高,基本上不会打满他们的 tpm 和 rpm。 原因是因为火山之前囤了很多英伟达的卡, 所以它背后的推理集群资源特别充足。那价格上呢,它的折扣力度相对比较小,如果不是特别大的客户的话,官方渠道最多是给七折,火山销售的业绩压力也很大,基本上每个人单单大模型都要背至少一千万的业绩。 其次呢是阿里云的千位系列和 deepsea 系列产品,那它的优点是单价最低,而且阿里云内部最近在打大模型战役, 千万系列模型的折扣根据用量呢,从五折到三折不等。但是缺点呢是背后的集群资源相对来说没有那么充足,如果遇到大客户重保的话,比如说 b 站跨年晚会,那资源就会更紧俏一些。 百度的大模型呢,目前基本上是卖三方的 deepsea 和其他模型为主,他们自己家的文心妍用的客户相对少一些,但是百度的折扣政策一般来说是还不错的。然后就是各种各样的大模型中转站了,比如说三零二点、 ai 云雾、 api 等等的平台, 这些平台的价格浮动会比较大,而且折扣普遍会比原厂高一些。但是有些厂商的模型可以做到特别低的价格,这种情况下呢,一般是做了逆向账号之类的方式,他们能够保证低价,但是不保证可用性。最后呢,如果您希望低价进入国内主流的大模型 api, 可以 后台私信我,我有靠谱的渠道。

c 单四二的 api 终于可用了,在这个 api 站中可以直接上传真人,管理真人素材,并可直接调用。当前最强的是视频生活型来用, 这是视频生成页面,这个生成的四秒四秒摄视视频,我们是视频开开就看看了,现在看看到的是 api 返回数数据部分。好,我们现在来看看如何生成,如何使用。 可以看到生成有多模态,手针及手尾针等几类。先从手示范如何使用真人人生视频开始,点击素材栏,我们来看一下之前上传的真人素材。第一步步,我们先上上传一张真人图片, 等待其上传完成后提交,这会有个审核流程,但很快的,一二十秒的样子,我们刷新一下,可以看到状态由处理中变成了 active, 这样就可以使用这个素材作为参考图了。这里面的素材你可以一直重复使用,即管理的非常方便。 我们复制一下这个素材 id 之后来到创建任务页面,在参考图片中按这个格式来使用素材 id 就 可以。 之后我们再上传一张产品图,就是这个 cds 美丽霜,之后填写好提示词及设置好其他参数之后就可以提交了,提交前会冻结积分,生成之后再按实际消耗的 token 来处理积分的。 生成之后可以任务页面中查看相关的产物及相关信息,具体视频我们就不看了,看一下这次生成四秒的四八零 p 的 视频,用了一点五元左右。好的,本次示范结束。 在左边 api 秘要中生成 apikey, 就 可以调用系单四二的 api 来接入 coscomfyui 各种 skills 及自己的应用网站中来生成视频限时特惠,可电商,可做剧。我是爱来事,我们下期视频再见。

anthropic 最近推出了 cloud managed agents, 把整个 agent harness 包括长期记忆全部锁进了 api。 lion king 创始人 harrison chase 看完说,这很危险,他可能正在剥夺你 agent 的 记忆主权。 很多人做 agent 的 时候, memory 是 留到后面再说的事儿,或者觉得接个插件就行,不影响框架,怎么选? harrison 和 leta cto sarah wooders 同一周发文说,等你想以后再说的时候,记忆主权可能已经不在你手里了。 本期我们精读这两篇文章,看它们的论证是否成立。三年前,做 agent 的 标准姿势是 r a g 链,把文档向量化剪辑背给模型。后来模型变强,开始支持更复杂的流程编排, land graph 这类工具出现了。再后来,模型更强,出现了一种新的脚手架, agent harness。 harness 是 什么?就是 l l m 加工具加数据之间的协调层,管理上下文,调用工具处理状态,编排流程全在这一层。 现在主流的 harness 包括 cloud code codex、 led code de agents 等等。有人说模型越来越强, harness 迟早会被吸收进去消失。 harrison 说这个判断是错的, 证据很直接, cloud code 源码泄露,五百一十二 k 行代码全是 harness。 连做出最强模型的团队都在重度投资 harness。 而且旧的脚手架消失了,是被新的脚手架替代,不是被模型吸收。 harness 不 会消失,所以选哪个 harness 是 一个长期决策。那 harness 和 memory 是 什么关系?很多人以为是两件独立的事。 cyrus 说这个认知是错的, 他做 m g p t。 这几年被问得最多的是怎么把你的 memory 系统插进我的 agent? 他 说这个问题本身就问错了。 有意思的是, mempt 从来就不是 memory 插件,它是一个有状态的 agent。 harness。 只是那时候 harness 这个词还不存在。 mempt 的 记忆是从 harness 暴露给 agent 的 工具里自然长出来的。改写 prompt 的 工具,管理外部状态的工具。记忆是这些能力的产物,不是外挂进去的。 把 memory 插进 harness, 就 像把驾驶插进汽车,驾驶不是汽车的一个配件,它是汽车运作的核心。为什么?因为 harness 在 做大量你看不见的 memory 决策 agents 点 md 或 cloud 点 md 怎么进?上下文压缩的时候保留什么?丢掉什么?历史交互有没有存下来?能不能查询 agent 能不能改自己的 system prompt 这些决策,外部插件插不进去?不同的 harness 对 这些问题的答案完全不同。你现在用的框架,正在通过 system message 往你的 context 里塞各种记忆相关的信息,只是你看不见。 colto 的 源码分析印证了这一点。它的多层记忆体系直接内嵌在 harness 里,不是外挂模块。 r a g 可以 是插件,但 r a g 只是 memory 的 一小部分。真正的 memory 是 harness 的 内核。那 memory 到底有多重要? harrison 讲了一个故事,他们内部有一个邮件助手,用了几个月,积累了大量个性化记忆,有一次被误删了,重新从模板创建,体验立刻变差,不得不重新教他所有的偏好,语气、习惯 这件事,让他意识到一件事,没有记忆,你的 agent, 谁都能复制。只要有同样的工具,有了记忆,你积累的是一个专有数据集, 而且这个数据集有复利效应,用的越多,记忆越丰富, agent 越好用,用户越不想走,这就是 dataflywheel。 记忆才是 agent 真正的护城河。正因为记忆这么值钱, model provider 有 很强的动机把它锁住。 现在各家模型 api 涨得差不多,切换成本很低,因为这些 api 都是无状态的,每次对话从零开始。无状态意味着没有切换成本。 model provider 很 难靠模型本身把你锁住, 但记忆不一样,你的 agent 用了半年,积累了你的偏好、语气、工作习惯,这些记忆存在平台上,你想走,记忆带不走,等于从头开始,这就是 lucky, 记忆才是真正的绑定。 harrison 把这个风险分成三级。 第一集,你用的是 stateful api, 比如 open ai responses api, 这类 api 会帮你保存对话状态,用起来很方便,但状态存在对方服务器上,格式是他们定的,哪天你想换模型或者续接之前的历史现成做不到,因为那些状态你拿不走。 第二级,你用的是封闭 harness, 比如 cloud agent sdk, cloud agent sdk 底层是 cloud code, 但 cloud code 不 开源,这意味着 harness 怎么存?记忆用什么格式,存在哪里你完全不知道,你只能用,不能看,也不能改。哪天你想换一个框架,那些记忆文件根本读不了,格式是黑盒。 第三集也是最严重的,整个 harness 加上长期记忆,全部在 api 后面,你看不见 harness 怎么运作,也看不见记忆存了什么,平台决定给你暴露什么,你就只有什么,你对自己 agent 的 记忆零可见性,零所有权, 这不是假设已经在发生了, antropic 推出 cloud managed agents, 把一切锁进 api, codex 开源,但 compaction summary 加密只能在 open ai 生态里用。开源和记忆主权是两件事, 这是商业决策,技术只是手段。 harrison 是 lancain 创始人,在做 deep agents 开源 harness, sarah 是 lata 联合创始人,在做 lata code 也是开源 harness, 两个人都在卖开源 harness。 然后写文章说,你应该用开放 harness 屁股决定脑袋。这个利益关系是真实存在的,但利益相关不等于论点错误。五一二 k 行代码是事实, codex 加密, compaction 是 事实, anthropic managed agents 是 事实, 它们的商业动机不能否定这些事实。真正值得你自己判断的是选行时问自己三个问题, 第一,我的记忆存在哪里?是自己的服务器还是平台的?第二,记忆的格式是否开放,换一个框架能不能读?第三,如果我想迁移,记忆能带走吗? 这三个问题的答案决定你的记忆主权在哪里。不是说封闭就一定错,开源就一定对,但你得知道自己在做什么。选择 回到开头那件事儿, antropic 把记忆锁进 api, 这不是个例,这是 model provider 的 共同方向。你现在的框架选型,决定的不只是工程架构,是你将来还能不能拿回自己的 agent。 这里是慢学 ai, 我 们下期再见。

兄弟们啊啊,已经清澈了,这款软件 就是 gdp, 他 们的 codex 也是一款 ai 编程软件,这款软件现在已经可以实现,就是我们可以跟它打配合, 把一款工具从线下前端页到后端,到路由到程序到服务器都能去实现。 那这款工具已经让我上线了,已经上线了,然后功能也在测试,基本上都可以去使用,已经接通 vpi 了,就是 ai 功能也可以实现了,只要这儿输入需求,然后走 ai 流程就可以实现了啊。茶杯看 包装的一个示意,包括两款分案方案,非常牛逼, 彻底平权了,现在基基本上可以说是 ai 把开发 彻底平权所有人,任何人。你有这款工具,你就跟他说话就得,你不需要很复杂,你就告诉他,我要干,我要干什么,他来完成,他就像你的员工一样,你只需要说可以继续,或者说哪不对你改 啊。完事以后呢,他这个服务器需要的本地文件呢,他会打包放在你的电脑上,然后呢你呢打开你的服务器,然后把那个网页文件前后端所有的程序文件全部上传到服务器, 这款工具就可以真正上线了。当然很很多东西还是需要专业的人去调教,但是如果你有耐心,让他来帮你调教是完全没问题的。前端和服务器,后端和服务器所有的内容的对应程度,完全可以让 ai 来完成。 那这里面呢,有一点啊,就是你要做一款 ai 工具,它呢只能是给你实现编程,但你这款工具如果想实现 ai 功能, 那你需要接 api, 就是 接入一个大模型,你说你生文字呢? 你需要有这个文字大模型,像我们常知的这个豆包啊, deepsea 啊,这些国产的大模型也可以接入,然后让他们帮我们来输出这个文案图片呢。我们也可以用这个豆包啊,火山 还有等等什么百度的都可以,还有国外的,这我这个接的是 nano banana, 非常牛逼的一款,可以看一下这个包装这方案图。

不用 api, 不 用花钱,本地跑大模型,微信 qq 直接用极简的配置,你的专属 ai 大 龙虾来了!首先登录 qq 开放平台,根据页面上的步骤扫码登录,创建 qq 机器人。然后可看到配置,接入密钥, 保存好 id 与密钥,或直接复制 token。 微信机器人只需手机端升级到最新版本,即可。登录 liked cc 网站 light cccloud 进入控制台。 再应用中心官方镜像键创建应用,等待几秒,点击进入应用。首先选择模型, 可简单根据当前使用的显存大小来选择模型,比如当前显存三十二 g, 若兼顾效果与速度,可选择接近两分之三十二等于十六的参数模型, 点击切换模型,等待一两分钟。加载模型,如果要添加 qq 机器人,则在输入框中直接输入 id 与密钥,或直接在第一个输入框中输入 id 密钥,点击添加 qq 账号。 微信则是直接点击登录微信,等待几分后,扫描二维码登录即可,如果二维码不出现,可等待一两分。再次点击登录微信,然后我们就可以登录 qq 与微信与 open cool 聊天了,你有什么想法或有什么好玩的,欢迎一起探索交流!

打开连接单片机,蓝牙 连接成功,查询温湿度, 继续输入指令,查询温湿度,大薄型识别为温湿度指令。单片机查询温湿度模块,大薄型处理温湿度数据,返回给用户 输入,天黑了,大模型识别,开灯指令 输入天亮了,大模型识别为关灯指令。 冒问他叫什么名字, 他的名字是我给他取的, 再问问他能干什么。 哼,把指令也告诉我了,还得改下提示符。 app 和单片机由 ppt 二点五和 gmp 开发完成。

怎么对接线上支付通道 api 接口呢?其实只要你掌握对了,方法就很简单,比如说游戏充值、短距盲盒这一类的行业, 是可以通过官方服务商,他们知道不同的行业要点,不需要你反复试错。一次对接之后呢,可以接入三十家的主流通道,还能够帮你适配不同的终端,从接入到维护,专属的客服跟进。遇到问题啊,不需要你到处做攻略。本来做生意就够难的了, 支付这种基础环节就找对服务商,把专业的事情交给专业的人,才有精力把生意做大。还有其他想要了解更多支付这一块的知识的,可以看看我的主页,或者说在评论区去找到一个车牌去沟通一下就可以了。

ai 对 话助手终于上线了啊,终于上线了。然后我们来先说一下这个 ai 助手有什么功能?首先它可以进行一个聊天对话,然后可以进行一个图片生成,下面我说一下它该如何去使用啊? 呃,我们这里面呢,可以选择我们的一些 api 的 一个接口,比如说 gemini 啊,然后 gpt, 当然这个 gpt 的 这个 api 我 在网上没有找到啊。 然后这个还有 dsp 管,咱们就以这个 dsp 为例啊,你这边需要配置什么?你只需要得到一个 api 啊,你去他那官网啊,去这个 dsp 的 官网去获得他这个这个 api, 然后你把这个 api 粘贴到这个地方之后呢,把这个模式改成这个,选成这个聊天模式之后呢,我们只需要点击这个启用调节, 它会蹦出这么一个窗口,这个窗口的作用是什么呢?就是说让我们的对话呢,能以这个流的形式,就是呃进行一个反馈,如果我们不开启这个东西呢, 它给我们的对话呢,就是会把你的对话返回这个对话所有的内容都已经返回完之后,它会统一发你。如果你开启了这个东西啊,开启了这个本地调节服务,它会以那个,就像咱们用那个正常网页版的 delete 的 时候,它会生成多少,它就往上反应多少啊,然后我们这边试验一下啊,我这边已经添起了这个呃, 这个 api k 了,然后我们跟它比如说打个招呼,你好,哎,它这边就开始说话了。之后呢,这个东西呢,还可以记录一个上下文功能啊, 这个记录上下文功能呢,其实就是为了节省 token, 正常像我们使用那个 deepsafe 的 话,它会默认开启这个上下上下文记忆的,然后呢它就会比较浪费 token。 那 么我们这里边呢,就是说你需要几轮的话,你就勾几轮,比如现在我们跟他说话说了一轮,然后我们只需要打了打了个一轮,然后问他,我们说,呃,刚才我问了你什么, 然后他他就返回了这些东西,对吧?然后下面呢我们再试一下这个千问的啊,千问的一个 api, 他 这里边千问呢,我这里边设置了一个千问实图跟千问生图的,然后我们可以先试下这个实图啊,我们给他发一张图片, 比如说我发这个,我问问他图片里有什么,然后把这个上下文关掉,关掉啊, 它这边呢就会详细的给你列出来。那么像 deepsafe 的 话,它为什么我不用它不用 deepsafe 去识图,因为 deepsafe 只能识别图片中的文字。之后我们再看一下它还有什么功能啊?比如说我这边调用一下这个 gemini, 这个 gemini 呢是我自己找的那个 api, 然后接的个接口啊, 然后我们把一张图片传给他,比如说这个图片我们打开看一下,他有一定的尺寸,然后呢我们就对他说装成图片中的架子的模型,呃, 根据图片中的啊,根据图片中的尺寸生成图片中的架子模型,未标注的未标注的尺寸自行推演啊推导。 然后呢我们这边开启一下这个 i c u 专用回答啊,它会给我们直接返回那个生成这个模型的。呃,一个命令,我们试一下啊, 因为我们接的是这个国外的这个 api, 所以 它这个速度呢,相对来说可能会慢一些。 ok, 它这边已经开始返回这个命令了啊。 ok, 然后我们这边呢只需要把它提取至控制台,然后执行一下,看一下啊,有可能会报错啊,哎,没有报错。好,这个架子升成了之后呢,我们去验证一下它的一个尺寸啊,它的一个长是一千啊,一米八,宽是四百。 对于这种普通的模型啊,它升起来会比较,呃准确一点,快一点,但是那种复杂的异形的他们来说就比较麻烦一点。然后呢我们再来看一下还能干什么啊?比如说我给他发一个 一个方案啊,然后呢把这个先取消掉,告诉他这是一个景观设计的方案。嗯,我想对其进行更深化, 你有什么意见?呃,建议,然后后续我会根据你的建议 发给图升图 ai 模型,所以将你的建议改成 ai 提示词。呃,像这个 jimmy 呢,它就可以,它也可以识图,而且它的识图的一个效果呢,可能会好一点啊。发送一下。 好,他这边已经说完了,我看看啊。嗯, 我们一会随便选一个吧,然后正好我们试一下它的一个图声图的一个功能,那么我们现在呢就把它切换成 nasa banana, 这个 nasa banana 呢是我在别的那个,呃,一个小的供应商那找的这个 api, 所以 它这个网站之类的会有一些问题,这个我们后续再讲啊,然后还有这些参数啊,我只是现在给大家先举个例子啊,后面我们讲下它这个这个东西如何配啊? 首先我们这肯定是要选择一个图片生成这个功能,对吧?然后呢我们把这个模板选成这个,这个是我给大家配的啊,给大家配置的。之后呢,我们先复制一个吧,把这个,把这个 ctrl c 复制一下,然后把我们的图片给它上传一下, 之后呢我们在这里边要进行一个设置啊,你,你上传了几张几张这个参考图呢?你就要开启几个对应的参考图的这个这个勾选啊,像我这边只有一个参考图,那么我们这边就只勾选一个,然后呢你们这个地方啊, 呃,我给你们默认的他应该是,呃,叫这个首章这个,你们给他调成所选的所选图片的这个 b 贝斯六十四,然后下面这个对应的也要给他改成所选图片的 m i m e 啊这个东西,然后呢他就会就可以了,然后我们下一步看一下啊,给他发送一下, 先保存下配置吧,然后我们发送看一下啊, 我们点一下这个放大看一下这个效果,对比一下, 还可以吧?它这篇直接出了一个效果图啊,也还可以啊,然后我们下面呢说什么呢?就要说一下它的一个像我们之前这个 deepsea 这种, 呃,它这边这个接口适配器只需要点这个自动兼容标准逻辑就可以了。但是像我们这种 banana 以及这种千问生图的话,你这边除了要改成图片生成状态之后呢,还要选择对应的这个一个参数, 然后我为什么要把这个弄出这么多这个参数来给大家弄呢?是因为啊,这个不是我的原因,是因为每个啊,每个服务商呢,他们可能有自己的 api 以及这个 api 地址啊,都是不一样的,所以这个相对来说是麻烦一点。你就比如说像我这个,呃,拿拿拿拿,这个 我这里边呢就直接把它的所有的链接啊,它的一个 api 地址的链接,我跟它要过来之后呢,设置好了之后,我就要把这个,因为我这个链接里边它包含了这个什么所谓的这个 none of none 的 这个模型名称,所以我这里边就不能勾选这个生图模型这个名称了啊,如果勾选的话就会报错啊。 然后呢你们最好啊像我在那个使用说明里边给大家提了一些那个建议,就是你跟那个服务商那边要一些我们需要的东西去进行一个配置。但是如果你只使用这个 none of none 啊,我这里边基本上的一个配置就够用了啊,基本上的配置就够用了。当然你那边有什么报错的话,你们可以啊, 在这个,呃,本地桥接服务这个运行日期里边,如果报错这边会有报错的,然后你们把这个报错可以发给我,我帮你们去想办法解决一下啊。还有什么东西要讲呢?嗯, 基本上就没什么东西要讲了,这些比如说图片比例之类的,大家都应该能够看到啊。你看我这边,我这边虽然设置的是十六比九的横版模式,但是他给我生成的是这样的模式,是为什么?是因为我上传了我们的这个附件了,所以他会按照我们这个附件的一个比例去进行一个调整。那么如果我们不用这个参考图,把参考图关掉,然后呢 把这个十六比九,你看这个,我这个不太确定,我把这个复制一下,我看他能得到什么东西啊?哎, 复制一下,然后呢图片生成,这些东西生成配置两 k, ok, 我 看一下啊, 好看,这回就是十六比九了,对吧?没有毛病。然后还有一些什么呢?我们再试一下我们千问的这个生图啊,然后我们可以看到这个 api 地址,这个地方呢,我这边勾选了一个完使用完整的 api 地址,为什么这样做啊?因为像我们比如说 deepsafe, 它呢会给你一个短的一个 链接地址,然后他内植的这些都不用配置的,然后内植你就是他已经已经设置好了,但是像我这个千问生图,这个我没有设置,就是,呃, 把它写到这个插件里面,然后呢我们就需要根据他给的一个完整地址啊,直接粘贴过来,然后使用它好了。然后我们下面呢要选择我们对应的一个动态啊参数列表,我们比如说最开始的时候它是这个自动啊,兼容标准,这个不太好使,然后呢我们就要选这个自定义动态参数构建,然后我们选择这个千问图生图这个你如果你是 想要纹身图,那你就把这个纹身图这个勾选上,比如说我这边啊,输入海边沙滩啊,然后你看我这里边这个生成数量写的是二,那么他就会给你生成两张,生成两张, 你看,嗯,这是一张,这是一张,总共两张,对吧?然后呢我们把它再调回一啊, 如果你想要用参考图的形式,那么我们就把纹身图给它关掉,然后呢比如说我上传一张参考图一,然后呢我们上传一下我们这个图片, 然后看看啊,所选图片。之后呢,我们跟他说啊,给我 get 生成图中做一个正视图,我发下试下啊 啊,它生成的理解能力我我觉得不太行啊。然后我们再换一下,试一下它这个两张参考图。如果我们需要使用两张参考图,那么我们就把这个一张参考图的题词给它关掉,然后选择这个啊,两张参考图,当然你这边可以新增啊,比如说增加第三个参考图,然后这个地方呢,你就把它选择这个,呃,所选图片的 dl, 然后这边你可以选择上传第三张的时候,你就选择第三张啊,这个我就可以擦掉它,然后同样的你还得配置一下三张啊,三张提示词,就比如说你得把这个地方改成三啊,给大家对比一下啊,如果是一张参考图的话,这块就是一,然后两张参考图呢?这块就是二啊,相对来说比较麻烦啊。 剩下两张相册,把它第一张再上传第二张,然后我看看啊,这边第二张,第一张,然后呢我跟他说扔,扔成一张图片, 包含图,上传图片一一二 中的座椅发送。好,我们看一下,哎,看它就包含了这两张座椅了,对吧?然后我们还可以干什么?比如说,嗯,我把它切换回我那个 nano banana, 然后 nano banana 我 看看啊,这边我选择参考图,把这两张参考图给它选上啊,这是一张参考图,然后呢我们这边对这个场景, 对这个场景进行一个截图, 截图,然后我们就可以看到这个图片啊,然后呢我跟他说什么呢?嗯, 将图片中的点影点影人物转换成 真人效果,并边加户外空间环境, 让他动作保持一致,看一下啊,放松一下, 哎,卡住了,别崩啊兄弟。 理论上来说啊,你们配备足够多的这个 api 的 话,你就能呃在这个里边实现很多功能,比如说让他给你出方案呢,呃,方案设计,然后比如说是呃方案介绍,然后模型空间的一些布局之类的都可以实现啊, 我觉得还是比较好用的。然后看到这的小伙伴给学长点点关注,点点赞,好吧,然后你们还有什么不懂的地方,可以随时跟学长进行一个交流,好吧, 生成完了我们看下效果,哎,可以吧。好,那么以上呢,就是关于这个插件的一个所有内容吧,然后大家要注意一点啊,这插件它的一个功能的强弱完全取决于你们接入的 api, 这个 这个大模型的一个 api 啊,最后强调一点啊,这个插件没办法白调啊, 如果真的觉得特别有用的话,并且感兴趣,你们可以跟我说啊,我们再谈其他的,好吧,那么这期内容呢,我们就到这,我们下期再见,拜了个拜。

hello, 大家好,今天给大家分享的是如何用 dart 语言编程实现远程控制语音音箱,这是一台智能语音壁挂音箱五 w, 它支持公网和局域网私有化,支持 http 接口 对接的时候,只需构造一个简单的 http 请求就可以实现对设备的远程控制,所以它几乎支持所有的编程语言。 在公网可以直接请求开放平台提供的接口,在局域网也可以直接请求设备自己开放的接口,非常灵活。 核心代码就是用 dot 语言构造一个设备接口的 h t p 请求是不是很简单,需要完整代码的小伙伴可以联系我。最后这是设备支持的功能说明,这是设备的外观图片, 这是设备支持的命令列表,今天就给大家分享到这里,祝大家代码向星辰,照亮未来。

打着球还得给你们发这个 c 档子接口如何?普通的个人消费者调用接入,你看现在公测了,面向企业实名认证, 没有预付门槛,就不用一个月消耗一百万,一年一千万,按实际调用量付费,默认并发症十个, 单个企业最高十个生成任务,你要充了钱,一次能生成一百五十个,但是一个提示词生成十个,我觉得也够高阶生产权限,现在的条件是保底合作需要支付百分之十预付款 一百万保证金。官方的流程是这样,这个文档我可以发给大家访问火山官网,海外可以注册实名认证之后,现在已经开放了渠道了,官方的申请页面地址给你们。在火山风中里面获取。 api 怎么调用?这个你不会让你的程序员看一下 agent 接入是什么意思?就是你在自己的任何 agent 里面有一个链接可以接入 agent 接入 在 agent 里面就相当于你,比如说你有个智能体说我说你,比如说你的智能体叫瑞雪,我就跟瑞雪说,瑞雪帮我调用吉梦的 agent 做一条视频,这叫 agent 调用,这个很简单,这个只需要给一条命令就可以, agent 里面的更简单,但是它的功能有限,所以我们现在有三种结构方式,三种,一种充钱一百万的,一开始大家以为就这一个,第一种就是百分之十一付款加一百万保证金, 第二种就是你认成人企业基础,公测一次十个,第三种就是 a 证他接入,这三种方式大家理解了吗?这个接入文档是我总结的,肯定 ai 帮我写的,但是我把我们总结的要点都准备好了,这可以发给大家。