粉丝466获赞811

raw vegan 这个名字最早来源于 simon 一 家里面的角色,他的剧中虽然因为笨拙而经常失败,但总是表现出一种我是来帮忙的,百折不挠的顽强精神。最近呢,我们发现很多 coding agent 代码智能体正在飞速引入这个 raw vegan 模式,也就是指的一种死磕到底的循环机制。 普通模式下,你让大模型写一个复杂的程序, agent 在 写完代码之后呢,他觉得完成了任务就结束了,但是之后你需要手动报错,然后再次要求他修改 raw 模式下呢,你给 agent 的 一个任务,并设定一个成功的标准,比如运行测试,呃,必须全部通过,那 agent 就 开始写代码,然后进行测试。他发现报错之后呢,脚本会自动拦截他的退出请求,并且把报错信息和原始任务再次甩回给 agent, 那 agent 再次进行修改代码,再次进行运行测试, 如果发现错误呢,再一次进行迭代,就这样直到测试通过。简单来说就是不达目的绝不罢休。你可以理解为,有了 rap 这个模式之后呢,可以让 ai 给你没日没夜的进行打工, 而你则可以享受生活。我们来快速看一下代码核心的原理。首先,这里的 wow 就是 rap 模式的发动机,你不准休息,必须给我在这个循环里无限干活。 每次干活会有个单独的裁判或者工头来进行检验,也就是说,在 rough 模式,他不相信 a l m, 你 说,哎,我修好了,他只相信这个 verify completion 的 函数的返回结果。 那只有当测试结果显示成功,你才可以休息,执行这个 break, 跳出循环,如果失败了,就把裁判给的 reason, 比如说,呃,这个爆错日制,再会到对话历史 current message 里面,那根据我们一开始看到那个 while true 循环,他会带着这个爆错进入下一轮的迭代。 所以总结起来呢,三点,首先是无限的决心,就是我们最开始看到那个 while true, 他 默认的态度就是一直尝试,直到做对。第二个呢,是客观的真理,我们刚才说的 verify completion, ai 说了不算,代码跑通了才算, 我把它称为痛苦的记忆。这边的这个 current message 代码的精华,它会把这个测试报错加回到上下文,那下一轮的 ai 推理的过程中就会明白哦,上次报了语法错误,这次我要修正它,如果没有这一段, ai 就 有可能在这个死循环里面一直重复犯同样的错误。好了,看完了原理,我们跑一个简单的 rock weinberg 的 例 子,我们这次任务是猜数字,在没猜对之前不准走。这个 complete 就是 退出循环的一个钥匙,如果猜错了,就会把错误的提示告诉 am, 让 am 继续。 rough 维克模式其实在半年前就已经被这位 jeffrey huntley 的 大佬提出来,他当时已经用这个 rough 模式做了一个 五万美元的合同,那 token 花费不到三百美金。那最后有小伙伴可能会好奇,这个 rough 模式这么厉害,为什么直到最近二零二六年这一两周才火热起来呢?那我觉得其背后原因可能是一,目前的模型智慧确实到达了一定程度。第二,有超能力的用户变多了。

大家好,欢迎来到本期教程,在今天的视频中,我将带大家从零开始构建一个真正工程级的 ai 数据分析系统。 这个系统基于 deep seek v 三点二 spectrum 模型,你只需要上传一个 c s v 文件,然后像和人对话一样提出问题,比如去年哪个地区销售额最高,不同产品的平均价格是多少,系统就会自动帮你一个答案。还会先思考分析步骤, 把自然语言问题转化成结构化的分析计划,再由程序安全执行真实的数据计算,最后输出图表和业务及洞察总结。这意味着他不是一个简单的问答机器人,而是一个真正会规划、会调用工具、会解释结果的 ai agent。 在实际工作中,很多人都会遇到这样的问题,数据在那,但不会写 s q l, 会写 s q l, 但不会做可视化,做完图表又不知道如何总结给老板。而我们今天要做的这个系统,正是为了解决这些真实痛点。 他把分析思路交给大模型,把数据执行交给程序,把结果展示交给前端,让每个人都可以像分析师一样 使用数据。如果你正在学习 ai agent 工具,增强推理,或者想把大模型真正落地到业务场景中,那么这个项目会对你非常有价值。接下来我会带你完整走一遍代码结构和设计思路,让你不仅会用,还能真正理解它背后的工程逻辑。 现在我们进入控制台, 在开发机任务当中,这里有我之前创建的一个任务,我们直接进入主界面环境来看一下代码, 这是我的代码文件。在正式看代码之前,我们先快速理解一下整体的架构。 首先整个系统分为三个核心阶段,第一步是规划阶段,由大模型负责把用户的问题转化成为结构化的分析计划。 第二步是执行阶段,由拍丧程序按照计划对真实数据进行计算和格式化。第三步是解释阶段,模型会再次介入,把冰冷的结果转化为业务洞察。 所以你可以把这个系统理解成模型,负责想,程序负责算,而前端负责展示。这是目前最主流、最安全也最可控的 agent 架构,也叫 too augmented agent。 后面所有代码其实都是围绕这个核心思想展开的。 那在开始写代码之前,我们先准备运行环境,我们需要在终端中执行这几行命令。 首先是创建一个独立的拍丧虚拟环境,可以避免不同项目之间的依赖冲突。随后我们要激活这个环境, 让后续所有的操作都在这个隔离的空间中完成。最后我们需要安装这个项目所需要的核心依赖,包括前端展示用的 streamlight, 数据处理用的 pandas 等等,以及用于加载环境变量和调用模型的库。 需要注意的是,这些命令都应该在终端中去执行,而不是在这个 notebook 的 python 单元里。那这些准备完成后,我们就拥有了一套干净可控的工程运行环境,可以正式进入代码的实线部分。我们首先需要获取 deepsea 的 api 秘钥,我们进入 deepsea 的 官网, 我们需要创建一个 api 的 秘钥,点击创建成功之后, 系统会生成一个以 sk 为开头的密钥字符串,需要注意的是,这个密钥只会在创建时显示一次,我们需要将这个密钥复制并保存到安全的地方。那我们获得密钥之后就可以回到我们刚刚创建的虚拟环境当中, 按照这个步骤去把你的密钥进行配置。 可以看到我已经把我的密钥写入到了这个文件当中。 接下来我们正式的进入到我们的代码部分。 首先做的是基础的配置,包括设置图标的风格,解决中文的乱码问题,以及出示化模型的客户端等。在这里 我统一设置了 c 本和 mate plotly 的 样式,让生成的图标更美观,同时指定中文字体,防止在标题坐标轴当中出现乱码,这是中文数据场景中非常重要的一步。 然后通过 python dot 提取 and 文件中的 apikey, 这样可以避免把密钥写死在代码里,更安全,也更符合工程的规范。 最后我们促使化 deep seek 的 客户端,后面所有模型调用都会通过这个 class 来完成。到这里我们已经具备了调用大模型的基础能力。 那接下来就是整个项目的核心部分,规划代理,这个代理只负责一件事,那就是决定对数据做什么分析。这里我们采用了一个非常重要的设计原则,我们决不让模型直接进行数据的处理,而是强制他输出结构化的算计划。 原因很简单,如果让模型直接写代码,不仅不可控,还会存在一个安全的风险。而用 stem 去描述分析意图,我们就可以用程序严格执行,保证结果的可复现性。在代码中, 我们给模型设计了一个非常严格的系统提示词,明确规定它必须输出固定结构的 stem, 比如包含分组字段、 目标列、统计方式、是否生成图表等信息。当用户提问时,规划器会同时看到数据级的结构描述,以及用户的自然语言问题。模型不会直接给答案,而是先思考怎么分析,然后返回一个完整的分析计划。 这本质上是在做一件事,就是把人类的语言翻译成机器可以执行的分析指令。 当我们拿到孙计划后,模型的工作就暂时结束了。真正的计算会由 python 的 文件来完成。这里我们实现了一套通用的数据执行引擎,它会先自动识别日期字段, 然后转换成时间类型,并派生出年份和月份字段,方便后续按时间分析。接着根据整数中的过滤条件对数据进行筛选,然后根据计划中的分组字段和统计方式,动态执行 group 比聚合计算,并对结果进行排序输出。 这一层完全由程序控制,没有任何模型参与,保证了计算过程的安全性和可复现性。这正是 agent 架构中模型想程序算的核心思想。如果算计划中指定需要图表,系统会自动进入可适化的模块。这里根据 chart type 参数 动态选择柱状图、折线图或者丙图,并自动限制展示调目地数量,防止类别过多导致图标不可读。生成的图标不会保存成文件,而是写入内存缓冲区,直接交给 streamlight 进行展示, 这样性能更好,也更适合 web 应用的部署。当表格和图标都生成之后,我们进入到最后一个智能环节,也就是解释代理。 此时模型不再负责规划,而是扮演一位资深的数据分析师。我们把用户问题、执行计划以及真实计算结果一并传给模型,并要求他用业务语言进行解读。他会先直接回答问题,然后总结关键的趋势,给出具体的数值,最后给出一个可以执行的行动建议。 所以最终的输出不再是技术报告,而是老板听得懂的结论。这一步让整个系统从算得对升级为说得清。最后是 streamlight 的 前端界面,我们把所有的代码打包成一个可以执行的 python 文件, 然后进入到刚刚激活的环境去执行这个文件。 最后我们需要回到控制台复制完整的地址,并且到浏览器中打开。 在这个前端界面当中,我们可以上传一个 csv 文件,比如在这里我上传一个大型超市的销售数据集,我们可以在这里进行数据的结构预览, 然后输入一个自然语言问题,随后点击开始分析。系统会自动串联完整的流程,从规划执行到可视化,以及最后的洞察总结, 这里可以看到它的分析结果。 同时我们还额外展示模型的推理过程,让整个系统变得可解释可教学,也非常方便调试。 这是最后的深度洞察部分,以及它的洞察生成逻辑。到这里,我们就完整构建了一个基于 deep c v 三点二 special 的 ai 数据分析代理系统, 你已经看到它不仅能回答问题,更重要的是它会先规划再执行,最后解释,这才是真正的智能系统形态。 如果你想进一步深入 ai agent 体系化建设,可以持续关注比特哈平台,这里会不断更新前沿模型、实战教程和真实工程案例,帮助你更高效地落地 ai 项目。

停止向 ai 疯狂投喂上下文,这实际上是一种工程上的战略懒惰。随着模型推理能力变强,预先填充海量信息,不仅浪费有限的上下文窗口,更会引入噪音干扰判断。 cursor 提出的动态上下文发现模式给出了当前最佳的解法。核心逻辑只有一句话,别急着把信息硬塞给模型,而是赋予模型在需要时自己去找的能力。而实现这一能力的底层架构,就是回归最朴素的计算机元语,一切皆文件。 curser 实际落地的五个优化手段,每一个都值得所有 agent 的 开发者借鉴。第一是长输出处理。当 ai 运行任务产生超长日制时,传统做法是截断,但这会丢失关键信息。 curser 的 做法是把日制直接写入文件, ai 可以 通过 tail 命令按需读取结尾或者 grab 搜索关键词,既不占窗口又不少信息。 第二是解决长对话遗忘。通常我们会把历史记录压缩成摘要,但这是有损的。 cursor 的 策略是将完整对话存档为文件,上下文中只保留摘要作为缩影。一旦 ai 觉得摘要信息不足,它可以像翻阅档案一样,去文件里查找原始的那记对话。 第三是技能按需加载,不要把所有 agent skills 的 说明书一次性加载。 cursor 只在系统提示里放一个目录,告诉 ai 有 哪些技能。 ai 真正决定要用某个技能时,再通过剪辑工具去读取那份具体的说明书,就像你只带借书卡去图书馆,而不是把书全背在身上。 第四是 m c p 工具的瘦身术。这是一个极其惊人的数据, cursor 通过只保留工具名称,将详细文档同步到文件夹,让 ai 查阅,直接减少了百分之四十六点九的 token 消耗,这几乎把一半的成本省下来了。第五是终端级文件, ai 经常不知道你手动运行了什么命令。 cursor 将终端绘画实时同步为本地文件, ai 能直接读取你的操作历史和爆串信息,不再需要你复制粘贴。 这套打法并非孤立,无论是 entropic 提倡的代码执行模式,还是 menace 将文件系统视为终极上下文,都在证明一个趋势。 真正的上下文工程不是拼命做加法,而是构建一套基于文件系统的按需加载机制,把主动权交还给模型,让 ai 从被动的信息接受者进化为主动的信息探索者。在模型足够聪明的今天, less is more 才是最高级的工程美学。

大家好,欢迎来到本期教程,在今天的视频中,我将带大家从零开始构建一个真正工程级的 ai 数据分析系统。 这个系统基于 deep seek v 三点二 spectrum 模型,你只需要上传一个 c s v 文件,然后像和人对话一样提出问题,比如去年哪个地区销售额最高,不同产品的平均价格是多少,系统就会自动帮你一个答案。还会先思考分析步骤, 把自然语言问题转化成结构化的分析计划,再由程序安全执行真实的数据计算,最后输出图表和业务及洞察总结。这意味着他不是一个简单的问答机器人,而是一个真正会规划、会调用工具、会解释结果的 ai agent。 在实际工作中,很多人都会遇到这样的问题,数据在那,但不会写 s q l, 会写 s q l, 但不会做可视化,做完图表又不知道如何总结给老板。而我们今天要做的这个系统,正是为了解决这些真实痛点。 他把分析思路交给大模型,把数据执行交给程序,把结果展示交给前端,让每个人都可以像分析师一样 使用数据。如果你正在学习 ai agent 工具,增强推理,或者想把大模型真正落地到业务场景中,那么这个项目会对你非常有价值。接下来我会带你完整走一遍代码结构和设计思路,让你不仅会用,还能真正理解它背后的工程逻辑。 现在我们进入控制台, 在开发机任务当中,这里有我之前创建的一个任务,我们直接进入主界面环境来看一下代码, 这是我的代码文件。在正式看代码之前,我们先快速理解一下整体的架构。 首先整个系统分为三个核心阶段,第一步是规划阶段,由大模型负责把用户的问题转化成为结构化的分析计划。 第二步是执行阶段,由拍丧程序按照计划对真实数据进行计算和格式化。第三步是解释阶段,模型会再次介入,把冰冷的结果转化为业务洞察。 所以你可以把这个系统理解成模型,负责想,程序负责算,而前端负责展示。这是目前最主流、最安全也最可控的 agent 架构,也叫 too augmented agent。 后面所有代码其实都是围绕这个核心思想展开的。 那在开始写代码之前,我们先准备运行环境,我们需要在终端中执行这几行命令。 首先是创建一个独立的拍丧虚拟环境,可以避免不同项目之间的依赖冲突。随后我们要激活这个环境, 让后续所有的操作都在这个隔离的空间中完成。最后我们需要安装这个项目所需要的核心依赖,包括前端展示用的 streamlight, 数据处理用的 pandas 等等,以及用于加载环境变量和调用模型的库。 需要注意的是,这些命令都应该在终端中去执行,而不是在这个 notebook 的 python 单元里。那这些准备完成后,我们就拥有了一套干净可控的工程运行环境,可以正式进入代码的实线部分。我们首先需要获取 deepsea 的 api 秘钥,我们进入 deepsea 的 官网, 我们需要创建一个 api 的 秘钥,点击创建成功之后, 系统会生成一个以 sk 为开头的密钥字符串,需要注意的是,这个密钥只会在创建时显示一次,我们需要将这个密钥复制并保存到安全的地方。那我们获得密钥之后就可以回到我们刚刚创建的虚拟环境当中, 按照这个步骤去把你的密钥进行配置。 可以看到我已经把我的密钥写入到了这个文件当中。 接下来我们正式的进入到我们的代码部分。 首先做的是基础的配置,包括设置图标的风格,解决中文的乱码问题,以及出示化模型的客户端等。在这里 我统一设置了 c 本和 mate plotly 的 样式,让生成的图标更美观,同时指定中文字体,防止在标题坐标轴当中出现乱码,这是中文数据场景中非常重要的一步。 然后通过 python dot 提取 and 文件中的 apikey, 这样可以避免把密钥写死在代码里,更安全,也更符合工程的规范。 最后我们促使化 deep seek 的 客户端,后面所有模型调用都会通过这个 class 来完成。到这里我们已经具备了调用大模型的基础能力。 那接下来就是整个项目的核心部分,规划代理,这个代理只负责一件事,那就是决定对数据做什么分析。这里我们采用了一个非常重要的设计原则,我们决不让模型直接进行数据的处理,而是强制他输出结构化的算计划。 原因很简单,如果让模型直接写代码,不仅不可控,还会存在一个安全的风险。而用 stem 去描述分析意图,我们就可以用程序严格执行,保证结果的可复现性。在代码中, 我们给模型设计了一个非常严格的系统提示词,明确规定它必须输出固定结构的 stem, 比如包含分组字段、 目标列、统计方式、是否生成图表等信息。当用户提问时,规划器会同时看到数据级的结构描述,以及用户的自然语言问题。模型不会直接给答案,而是先思考怎么分析,然后返回一个完整的分析计划。 这本质上是在做一件事,就是把人类的语言翻译成机器可以执行的分析指令。 当我们拿到孙计划后,模型的工作就暂时结束了。真正的计算会由 python 的 文件来完成。这里我们实现了一套通用的数据执行引擎,它会先自动识别日期字段, 然后转换成时间类型,并派生出年份和月份字段,方便后续按时间分析。接着根据整数中的过滤条件对数据进行筛选,然后根据计划中的分组字段和统计方式,动态执行 group 比聚合计算,并对结果进行排序输出。 这一层完全由程序控制,没有任何模型参与,保证了计算过程的安全性和可复现性。这正是 agent 架构中模型想程序算的核心思想。如果算计划中指定需要图表,系统会自动进入可适化的模块。这里根据 chart type 参数 动态选择柱状图、折线图或者丙图,并自动限制展示调目地数量,防止类别过多导致图标不可读。生成的图标不会保存成文件,而是写入内存缓冲区,直接交给 streamlight 进行展示, 这样性能更好,也更适合 web 应用的部署。当表格和图标都生成之后,我们进入到最后一个智能环节,也就是解释代理。 此时模型不再负责规划,而是扮演一位资深的数据分析师。我们把用户问题、执行计划以及真实计算结果一并传给模型,并要求他用业务语言进行解读。他会先直接回答问题,然后总结关键的趋势,给出具体的数值,最后给出一个可以执行的行动建议。 所以最终的输出不再是技术报告,而是老板听得懂的结论。这一步让整个系统从算得对升级为说得清。最后是 streamlight 的 前端界面,我们把所有的代码打包成一个可以执行的 python 文件, 然后进入到刚刚激活的环境去执行这个文件。 最后我们需要回到控制台复制完整的地址,并且到浏览器中打开。 在这个前端界面当中,我们可以上传一个 csv 文件,比如在这里我上传一个大型超市的销售数据集,我们可以在这里进行数据的结构预览, 然后输入一个自然语言问题,随后点击开始分析。系统会自动串联完整的流程,从规划执行到可视化,以及最后的洞察总结, 这里可以看到它的分析结果。 同时我们还额外展示模型的推理过程,让整个系统变得可解释可教学,也非常方便调试。 这是最后的深度洞察部分,以及它的洞察生成逻辑。到这里,我们就完整构建了一个基于 deep c v 三点二 special 的 ai 数据分析代理系统, 你已经看到它不仅能回答问题,更重要的是它会先规划再执行,最后解释,这才是真正的智能系统形态。 如果你想进一步深入 ai agent 体系化建设,可以持续关注比特哈平台,这里会不断更新前沿模型、实战教程和真实工程案例,帮助你更高效地落地 ai 项目。

大家好,我是 kate。 最近呢 skills 比较火,我呢,早在 ossopek 正式推出 cloud skills 之前,就在官网上发现他当时已经用到 skills 来做报告表格, ppt。 后来我还专门出了一期视频,详细介绍了 crowd skills, 我 呢,当时找到了啊 episodic 官网上所有关于啊 skills 的 文档,然后做了一期详细的视频,其中最重要的一篇呢,就是 skill 的 编写最佳实践, 待会我会再带大家回顾一下这篇最佳实践。我们看现在很多 ai 编程工具呢,都有用到 skills, 大家可以在这里截下图。 crowd 的 skill 呢,最先推出来的它的项目级还有它的用户级配置呢,是非常好记。 而呃 curser 也是比较好记的,因为它前面呢都是 curser 的 这样一个目录。而 open code 呢,我们看到这里会稍微有点区别。 在用户级别的话,这里有一个点 configure。 谷歌呢,它既有 demo c o i, 还有谷歌的 anti gravity 啊,这两者稍微有点区别,大家可以了解一下。今天我将介绍一些呃 skill 好 用的工具和一些好用的 skill。 首先介绍的是 versa 最近开源的 adskill, 它呢非常好用, 支持多个平台,我们看这些主流的平台它都支持了,现在呢,我来演示一下。在中端里输入命令, 它会呃克隆一下仓库,可以通过空格来进行选择。那我先安装一个 web design 呃 guidelines, 再接着它呢,是有多个 ai 编程工具默认选择, 那我假设我这里只要安装啊 open code, 那 我就可以将其他的通过空格呢都取消, 接着选择 enter, 接下来还可以选择是项目级别的还是局,那我选择局,让它进行一个安装,最后安装好呢,它会告诉我安装到哪里了,点开之后就会看到左侧这样的一个 scale 文档,它支持多种方式安装, 你可以直接呃给到这样的一个仓库名称,或者是完整的 gitlab url, 那 你也可以给它非常详细的直接的目录,而且呢,它支持多个快捷参数。有一个 skill 的 市场,它呢是收入了六万多的 skill, 大家有兴趣的话可以在里面看一下, 我个人比较推荐在 gitlab 里面呃,搜索你想要的关键词加 skill, 会有一系列的仓库, 你呢就可以啊,仔细观察看看有哪些比较适合你。再来推荐几个最近非常好用的 skill。 第一个是 versa 最近推出来的 agent skills, 它将 react 的 最佳实践,多年的一个经验 都放在这个 skill 里面了。第二个呢,是啊, expo 最近官方开源的 skill, 可以 帮助你去构建调试 expo 应用。第三个呢是上下文工程管理的 agent skill, 这些都是值得大家花时间去探索的。还要推荐一下 hackin face 的 skills, 它呢是针对啊 ai 还有机器学习的任务,可以帮助你下载模型数据集, 模型评估,可以帮助你训练微调模型,构建脚本等等。 obsidian 的 ceo 呢?最近推出来的 obsidian skill 也非常好用, 它推出来的三个 skill 里面呢,有一个是呃,是关于 jason canvas skills 的, 可以帮你生成非常好看的画板内容,如果你是做苹果相关的开发的话,一定不要错过这样的一个 skill, 它呢,这里内容特别多,基本覆盖了苹果开发的方方面面, 非常详细,绝对是让你事半功倍的。再来看一个非常特别的 skill 工具,它呢,可以将文档网站 get, 把仓库还有 pdf 转化成呃, crowd skills, 它可以自动抓取多个来源,然后深度分析, 检测冲突,最终组织文档。即使是简单的 skill, 我 也是非常推荐大家下载下来。呃,让 ai 运行之后,要盯着看它的 skill 运行中出现了什么问题, 要根据你电脑的一些实际情况,或者你自己的一个实际需求,让让 ai 帮你去啊更新 skill。 比如说我从网上下了一个 youtube 登录的 skill, 它的 skill 里文档里呢,写明的保存路径呢是 mnt。 虽然说每次 ai 它跑到这里呢,它识别出这个路径只能只读不能保存,它会想办法将下载后的文件呢改放到别的路径里去。但是这样的话,对 ai 来说的话,第一浪费它的 token, 第二的话,嗯,处理时间也会增长了。 所以的话,呃,需要你去观察一下这个 skill, 然后你就可以提示它让它去修改。呃,你你喜欢的一个路径,修改后的 skill 的 话,是会更匹配你的需求。再看一下官方 skill 啊编辑最佳实践 会,可以让我们的 skill 写得更好。第一个原则呢是简洁是关键。我们在做一个新的 skill 之前, 默认假设呢是 cloud 已经非常聪明,关于 pdf 的, 那 cloud 肯定知道 pdf 是 做什么的,它有哪些工具,就不需要再跟它解释一下用哪个库来处理。第二原则是设置适当的自由度, 我们可以使用一致的命名模式,让 skills 更容易引用和讨论。缩缩略官方建议是将 skills markdown 文件正文保持在五百行以下。缩缩略是建议避免深层嵌套的参考, 保持参考一级深度。所有的参考文件呢,直接从 skills markdown 链接,以确保 crowd 在 需要的时候读取完整文件。对于超过一百行的参考文件呢,在顶部包含目录。对复杂任务呢,使用工作流, 先是指示它复制,然后这里有个任务清单,给到代班事项之后。步骤一,什么步骤二三四五最好最有效的 skill 开发流程呢?就是和 cloud 一 起迭代开发。 先要求 cloud a 创建一个 skill, 审查它是否简洁,还可以让它改进信息架构,之后使用 cloud b 在 相关用力上使用这个 skill, 然后观察 cloud b 是 遇到困难或者遗漏了什么,再返回让 cloud a 进行一个迭代。我们可以观察 cloud 如何导航 skills, 它是否以你没有预料到的顺序读取文件,错过一些重要的参考,还有对某些部分的过度依赖,或者是忽略一些内容。即使是在 windows 上面的话,也是要改成 这种正斜杠,除非必要,不要给他太多方法让他选择这下方呢,有一些有效 skills 的 检查清单, 对于不需要代码的 skills 呢,我们可以提供一个清单 code, 可以 将它复制到响应中,并且进行检查, 让他研究。还有一个原则非常重要,就是让他创建可验证的中间输出,这是一个示意,先是给他了一个脚本,让他去做一个提取,然后呢提示他这样的一个输出。 还有一些小细节非常重要,你对确定性操作呢?优先使用脚本,如果你的 skill 使用 mcp, 那 就要在 skill 里面去设置一下,让他要找到工具。 我们看这两个例子呢,左边它其实都是 m c p 服务器的名称,右边是这个 m c p 对 应的工具,将它们这样连接起来,这样它就不会出现找不到工具的错误。还有个细节是避免假设工具已安装。

真正能用自然语言画流程图的 ai 工具来了!只需一句话,就能生成专业的流程图!这个开源项目已经在电话上狂揽一万多颗星标,而且每天还在暴涨!它是全球首个 ai 宇 宙 i o 深度整合的绘图神器,支持一键生成流程图、架构图,甚至能实现动态连线。效果 最强的是,它支持十多个主流的 ai 模型, open i curl 的 jimmy 随便切换,还能上传截图,上 ai, 帮你复刻现有的架构图。更绝的是,刚刚发布了 m c p 插件, 直接在科室和 core 里面对话,就能画图,实时预览。关键是完全开源,免费支持,多可一键部署,赶紧去试一下,这可能就是下一个 ai 画流程图的新标准!

怎么把自己做好的网页程序打包成手机 app? 直接在手机上用这期视频,我就手把手教会你怎么操作这个网页程序有多实用,它能帮你分析选择题,分析账号数据,还能精准刻画用户画像, 不仅能自动抓取评论区内容,帮你判断账号的内容走向、粉丝最关心的问题,甚至能给你后续的内容创作方向提建议。他不是凭空捏造信息,而是会调用针对性的工具获取真实资源,辅助你做出更靠谱的决策。 这么好用的工具,怎么才能变成手机 app 随时随地用呢?这时候我们就要用到一个 getop 上超热门的开源打包项目, 操作步骤很简单,第一步,打开你的网页程序,把地址栏里的网址复制下来。第二步,打开这个开源项目,选择新建项目。第三步,进入软件配置页面,先给你的 app 起个名字,再把刚才复制的网址粘贴进去,下面的大部分参数都不用改。重点找到那个打包为移动端的按钮, 这个项目支持电脑端和移动端两种打包,咱们选移动端就对了。第四步,除了名称和网址,还可以给 app 设置一个专属头像,其他配置保持默认就行。第五步,设置完之后,可以先预览一下手机端的效果,确认功能没问题,界面也满意。第六步,点 机发布按钮。这里要注意,安卓手机选安卓版本,苹果手机选对应版本,打包方式默认即可,如果不是开发者的话,记得把调试模式关掉,然后点击确定。第七步,接下来就是等待打包了,整个过程大概五到十分钟。第八步打包完成后,把安装包下载到本地,再发送到你的手机上。

在家无聊搭建了一个 agent 智能体,直接硬控我一小时。大家都知道 agent 是 个风口,但都不知道从何下手,本着学习的目的, 抽空动手做了一个实践,验证了一下,效果还是不错,所有步骤都整理成文字版教程了,从原理到应用技术解析,智能体设计模式,案例解析, agent 智能客服等,感兴趣的小伙伴留学习就可以抱回家慢慢消化,期待你的成果!

这是一个非常典型的宁信人特补结构,一共有三个区域,一是外网的扣端访问区域,二是宁信人安全访问平台。第三个就是我们后端提供服务器的数据中心了。这张图就很能看出来 sdp 的作用了, 三个组建一目了然。 sdp 发起客户端, sdp 认证网关 sdb 控制器 sdp 客户端 就是我们这些外网的客户端,说白了就是你的电脑、手机、 pad 等等要访问这些内网应用资源的设备或者用户。 sdp 网关 在这里就由防火墙来充当了,它的作用是收集来自设备和用户的身份验证请求,将这些请求转发给 sdb 控制器,通过后再下发访问权限。 而身份验证访问策略权限的下发以及流量的管控,就是 sdp 控制器的工作了。一旦全部通过, sdp 控制器就会建立起一条用户到应用的隧道,访问就此建立。可能此时有小伙伴要思考了,哎, 这不就是微拼隧道连接吗?很像,但不同。首先,微拼建立的是长链接,需要持续保持连接,会一直消耗复习资源,而 sdp 是短连接模式,不用的时候是断开的,最直观的感受就是比微拼快。 第二,他是通过 spa 技术进行认证保护的,不是你们想的那样,身高 packet 的 auto recitation 单包授权认证技术 进行认证保护,单项链接的未认证之前,只能接收来自扣单发出的请求。你拼这个网关,包括后单的应用都是拼不通的,并且就算 身份认证通过了,你也只能访问特定的业务系统,内部网络仍然是隔离的,有点像我们之前提到的堡垒机的机制,所以他不会暴露内网的应用,像常见的单口扫描抵到死攻击,在这种架构体系下都不好使, 他压根都不回应你,你唯一能干的事就是走流程,通过身份认证再说通过隐藏企业安全边界的出口,基本上 可以消除所有基于网络的黑客攻击风险。那这个 im 统一身份认证平台又是干什么的呢?字面意思就是 解决身份认证的问题,其次就是调配用户要访问的网络和服务器应用资源,像企业内部的 sso 单点登录,你们访问外网应用的时候, 支持多种的认证方式,手机号、微信、微博、支付宝之类,包括你的银行卡,某些游戏支持的令牌多音值登录,其实就是靠这么一套 im 来实现的,然后 再跟 sdb 控制器做策略以及用户身份的同步来联合验证。下面这个安全大数据平台是什么呢?说白了就是 态势感知,其实主要是两个能力,安全能力和安全运为两块。安全能力就是跟我们传统的安全设备或者安全软件协同工作,比如杀毒软件,比如 idsips、 靠墙袜子之类的安全设备,通过持续检测设备的运行状态和收集日制判断网络中的风险来源,以及给出对应的风险控制策略。 安全运维就很简单了,持续的检测用户身份和设备运行状态,动态实时的对风险进行安全评估,并调整安全策略。回到前面写字楼的比喻呢,就相当于你要进到里面,首先要证明你是你, 然后才能进入到你的权限允许进入的楼层或房间。不仅如此,你进去后 始终会有一个保安一对一贴身紧逼,防止你做任何出格的事情。 ok, 碍于时长,本期节目就探讨到这里。实际上我们花费一个多月时间已经搭建好一套零信任网络,下期节目我们再去零距离体验。感谢收看,再见!

各位同学大家好,欢迎来到我们的 agent 入门课程,我们首先开始阶段一阶段一的话是学习相关的一些拍摄基础知识,然后我们会分成多个模块,有模块零,模块一,模块二,模块三,然后每个模块的话我都会带大家完全手把手的教学。首先是第零个模块,那么要安装环境配置,然后并且运行你的第一个拍摄的程序。 首先我们来理解一下我们为什么要有一个环境,你的 python 是 一段的代码,就我可以打开一个东西,那么你可能是一段,比如说 print hello agent 算法的代码,你要怎么样去执行它们,那么你就需要有一个 python 的 执行器, 然后你得要有一个写代码的地方,你当然可以用文本编辑器去写啊,你也可以用其他的,那么我们这里推荐你还是用 vs code 去写。然 然后我们要怎么样去安装拍摄环境呢?既然已经到了二零二六年了,那么就不要去教那种非常古老的,让别人去下载拍摄,然后再去安装,而是我们用最新的工具就是 uv, 这也是绝对的未来的主流,因此我教给大家的都是现在最新的一个技术, 一共有四个步骤,带大家依次演示一下。我们先来过一遍 ppt, 第一个的话就是安装 uv, 安装 uv install, 然后再安装 windows 和 mac 的 话都有不同的安装方式,到时候这个 ppt 会发给大家,然后大家可以按照这个里面的命令去运行一下,就可以安装了,待会我也会带大家演示。然后 安装完了 uv 之后,第二个步骤的话就是我们要去安装拍摄,拍摄的话那么你就只也是一样的,你运行这样一个命令,然后接下来就安装 vs code, 待会会大家依次演示,加入社区,提取更多课程内容呦!