大家好,今天为大家介绍一下 zmax 中的一个重要模块 star。 初出茅庐的 star 一举成名,获得了 202r spe 软件类冷静奖。 star 可以与非有限元分析软件一起,让用户可以在 gmax 中采用全部的 analyze 功能进行结构应力热对光学性能影响的分析。 大二模块的优势在于能够完成被数据与光学表面准确匹配,并让其精确的反应到光学模型上。 锦上添花的是,我们可以利用 star 模块包含的 star api program 功能实现工作流自动化。欢迎大家咨询各种光学软件,请扫一扫上面的二维码,填写需求后可获得咨询和答疑机会。
粉丝2869获赞5671

大家好,今天我们来认识一下 zmax 中一个好用但有可能被遗忘的绘图小工具, universal plot。 universal plot 是存在于专业版和旗舰版的通用绘图工具, 他是可以应用在序列或者非序列模式下,以任意表面参数、系统参数、多重结构或者非序列参数为变量横轴,以优化操作数作为应变量纵轴的绘图工具。 关于音电量 dependent variable 的选择可以分为两种方式,方式一,直接采用操作术,然后设置对应参数。下图左,方式二,选择 mared, 然后选择 married function addictor 中你想使用的对应行下图右, universal plot 有一维和二维可供选择,二维可以由两个变 xy, 一个音变量 z。 希望这个工具可以在大家日常的设计、输出或者评估中发挥作用。扫一扫二维码可咨询更多光学软件。

今天我要给大家分享一个 cloud code 的 使用的小技巧,它能大大提升你的开发效率。在开始之前,我先说说我们在开发中遇到的实际困境。我问你一个问题,如果你在用 cloud code 跑一个超长时间任务的过程中,你又想起了什么? 又或者你看到他执行任务的过程中的输出,想更进一步问他具体的内容,你会怎么做呢?是不是新建一个终端,然后再启动一个 cloud code 的 绘画去问呢?这样做虽然可以提问,然后因为它是一个全新的绘画,它丢失了之前主任务的对话历史, 所以 cloud code 只能靠项目文件,比如说 cloud d m d 文件和代码文件重新加载来获取项目知识,它需要重新构建上下文,这会额外消耗大量的 talking。 有 人可能会说,那我等这个主任务跑完了再问不行吗?但是等的时间太长, 不仅心态容易崩,而且有可能在跑完之后呢?你都已经忘记了要问什么了。这便是我们在开发中遇到的实际困境。那如何优雅地解决这个问题呢?新版本的 cloud code 加入了 b t w 指令, 他能在不打单主任务,不污染主对话历史的情况下,快速问一个旁置的问题,求证一个细节,要一个解释。例如在我们的视频中,正在执行一个长时间的任务, 他已经耗时二十六分钟了。在这个任务执行过程中,我看到他说添加一个 select phrase 变量来存储选中的常用语,这时候我就想知道这个 select phrase 是 什么。 那现在假如我们新开一个绘画去问,大家可以看到,由于没有上下文,它需要重新构建上下文,再搜索整个项目的代码,来了解关于 slack freeze 变量的作用。可以看到它需要反复的搜索大量的代码才能掌握足够的信息。 那现在我们改用 btw 来问,看看会怎么样呢?我们在这里输入斜杠, btw select freeze 有 什么作用?稍等一下,这次给出结果的时间明显就快了很多。我们看到他现在给出的回复说,根据代码上下文, select freeze 作用是存储用于常用于面板中选中的文本内容。 具体的工作机制如下,下边是一些其他的信息,你看他不会中断当前任务的完整上下文来回答你。 如果你对它给你的信息已经了解清楚了,你就可以按空格或者是回车又或者是 esc 键来返回。我们现在按空格键可以看到现在 btw 回复的信息不见了,就如同什么也没有发生过。 之前的主任务还在继续执行,最重要的是这次对话不会进入主现成的历史记录,所以它不会污染主绘画的上下文。 而且它是直接利用当前绘画的上下文信息来执行任务,这样能节省非常多的 talking, 也能让整个 call 点的体验顺畅很多。强烈建议你在写复杂任务时多用起来。怎么样?你学会了吗?


以为代码只要能跑就是胜利?小心复审时被喷成筛子!别慌,寄出这款代码除魔神器,轻松掌握代码审查快按 date 实战指南哎呀, c 加加项目越写越乱, bug 满天飞。小宝,写代码可不能只追求能跑就行哦! 可是规范太多记不住,每次 review 都被说写的是意大利面条。别怕,老爸教你用个神器,既能查规范,还能自动改错!这神器叫 cryin teddy, 是 个静态代码分析工具。静态分析和编易器报错有啥区别?编易器管能不能跑,它管写的好不好,不运行也能找出逻辑漏洞和风格问题。 哇,就像个不知疲倦的业余老师在帮我看代码,还可以自己定规矩哦。比如常用的 google 代码规范, 原来是纯文本配置,那怎么写呢?用加减号起进,用检查组,比如加 ma 的 nice 碱性,就能把老语法升级到现代。 c 加加风格跑起来了!天呐,居然查出这么多警告!连循环都能优化!别慌,查出问题是好事,说明他在帮你找代码里的坏味道。 原来写 c 加加这么多讲究,他不仅挑毛病,连怎么改都告诉我了。既然知道怎么改,加上 fck 参数,让他自己动手。 哇,它居然自己把代码重构了!是的,它的自动修复功能可以一键搞定,繁琐的机械性修改,超省时间。太棒了,有了它,再也不怕代码复审被挑刺了! 如果是几百个文件的大型 snake 项目,总不能挨个敲命令?行吧,这时候需要构建工具配合,让 snake 生成 compile commands 帮帮你。原来还能无缝集成到 id 里,边写代码边在后台默默检查, 这里我故意写的底层未操作被警告了怎么办?工具难免误判,作为开发者,你是代码真正的主人,查到了加 node 注示就能告诉他我知道在干嘛,请闭嘴。压制警告很有效,但记得加上具体原因让团队看懂哦。搞定现在代码不仅没 bug 风格,连强迫症看了都说好 工具只是辅助,真正意义是潜移默化帮你养成写高质量代码的好习惯。对呀,良好的代码规范是对团队最大的温柔。学会代码审查,走向编程大师之路。谢谢老爸老妈。

大家好,今天我们给大家介绍一下 z max 中斯达尔模块中的亮点功能。 大二模块无缝集成到 zmax 中,允许在一个平台中轻松可视化和分析结构与热效应的影响,其中强大的可视化设计更是让用户满意。下面举几个简单的例子。导入进来的非原地变化数据对应到折射率的变化。 非软件的坐标系跟 os 内光学系统的坐标系有差异吗?三二模块跟我们提供了友好的调整界面。导入进来的非数据的可视化。当应用了形变数据后,可查看形变数据在每个方向的分布。 可通过开启或关闭单个数据文件,查看单一因素对于系统性能的影响,或者单一面对于系 统性能的影响,自由度比较高。欢迎大家咨询光学软件的各种功能,还有更多精彩内容在等着你。

大家好,今天我们讨论一下关于 d max 软件应用中的相关问题。 今天的问题是斯达尔涉及的基本工作流程有哪些。初出茅庐的斯达尔在今年一举成名,可谓是涌现的黑马。他的应用很广泛,涉及的工作流程请参考本图。 订购可靠的 gmax 等光学软件,请扫一扫上面的二维码填写需求,会有人为您解答功能以及价格等问题。

super a g i 这个开源项目可比 auto g p g 更强大,真正实现了一句话,开发应用。它能够辅助你快速生成和部署各种 a i 应用。只需简单的配置,你就能拥有一个可以运行的 super a g i 环境,实现全自动调用 g p g 分析目标,执行目标任务。尤其是他们提供的这个模板,太实用了, 只需要给他一个目标,人人都能零代码生成可玩的应用。比如让他实现一个快乐小鸟的应用,明确使用的编程语言。接着神奇的一幕发生了,他会根据你的要求自动完成开发文档撰写和编码,最后自动部署上线应用,真正实现了人人都是开发者。如果你对 i 感兴趣,我推荐你去试一下。

大家好, z max 二十二点一有一个新的实验功能,他称为光线瞄准向导。此工具可以提供必要的数据,以便使用者确定系统。比较合适的光线瞄准设置,包括新的增强型光线瞄准方法。 用新的光线瞄准向导可以知道何时以及如何使用光线瞄准来获得准确的系统分析和建模。您可在训练模式的系统选项里光线瞄准选项卡中找到该工具。 若要启用此实验功能,请在菜单栏中依次选择帮助实验功能。光线瞄准向导 欢迎大家点赞支持。扫一扫上面的二维码,可以获得咨询各种光学软件的机会。

上期视频评论区全在扣一,今天来了 openclaw agents 到 md 完整配置教程。先说清楚 agents 到 md 是 什么?它是 openclaw 的 行为配置文件,你在里面写什么, ai 就 按什么规格干活。 很多人不知道这个文件全靠 skill 解决问题,但 skill 每次调用都要消耗大量 token。 agents 到 md 不 一样,它只在对话开始时加载一次,之后不重复消耗。 同样的任务用 agent 打 md 比用 skill token 消耗能少百分之六十以上。配置方法很简单,打开 open class 项目文件夹,找到 agent, 打 md, md 用任何文本编辑器打开,里面写三类内容,第一,你是谁, 告诉 ai 你 的身份和工作场景。第二,你的习惯,比如回复,用中文,简洁不废话,重要事项先说结论。第三,常用任务规则,比如每天早上八点发日报,文件整理,按日期分类,写完保存,下次启动 opencll 自动生效。 就这么简单,不需要装任何 skill token 消耗直接降一半。想要我的 agent 模板评论区扣二,下期我把完整模板公开,点赞关注,下期见!


那这个呢,就是我们在 ar 呃现实眼镜中我们用到的一个简易的一个流程吧,那这些个呢,在我们官网上也可以呃相应的查到。我们先来看第一步呢,我们主要是可以通过我们的 z max 来进行一个投影镜头的一个设计, 也就是我们刚才讲到的一个图像源,我们要通过一个投影系统,然后垂直地打入到我们的这个光波导中。那这部分的设计呢?我们就用到我们的 z max, 然后接下来就是我们的那个光山的设计。光山的设计我们最常见的可能就是通过我们的 roomacol 来进行相应的设计,那如果要涉及到优化呢?我们这个时候呢,我们可以把我们的这个,嗯, zmax 以及 roomacol 联合起来,然后通过这个 optron 来进行一个联合的一个优化,进而能达到我们想要的一个真实的一个效果。 然后最后一步呢,就是我们可以把我们的整个环境给他集成出来,然后给他输入相应的一些图像,然后他就会返回我们一个结果,然后我们通过一个人眼视觉的一个效果来看他是否是满足我们相应的一个需求。那这个呢,就是呃简单的一个流程, 大家可以搜索摩尔新创小程序或联系我们工作人员获得完整视频内容。


去年十一月, ansorepic 发布了一系列新的测试版功能,只在解决我们在构建 ai 智能体时遇到的一些实际问题。 工具定义在你发送第一条消息之前就已经占用了大量的上下文。当智能体连续执行多个工具调用时,这些工具调用的中间结果会进一步膨胀上下文。 而且随着你在系统中增加工具的数量,智能体在为任务选择合适工具时会变得非常吃力。因此,这些测试版功能帮助解决了这些问题。而且随着两周前 sony 四点六的发布,这些功能已经在云 api 上全面开放。 在他们的原始帖子中,他们展示了这些功能如何帮助实现了八十五百分之的 token 使用量减少。 这也导致一些网友宣称 entropic 已经终结了工具调用,或者至少是传统的工具调用方式。虽然这种说法有些夸张而且确实不准确,但这两个功能编程是工具调用和工具搜索工具 确实是非常巧妙的解决方案,在集成到任何 ai 智能体中时都能发挥极高的效用。而且关键在于这些功能并不是云 api 独有的,也并非最初就是 entropic 的 创意。 这些是智能体构建的核心模式,适用于任何框架或模型。我会解释这两种高级工具调用如何运作,并演示如何集成到你的定制智能体中。 这正是我在这里所做的事情。我已经把它集成进了我的系统,这个系统是我用 python 和 react 定制开发的应用,这是我在本频道过去四期视频中逐步搭建出来的。 我还用全新的困三点五,拥有二百七十亿参数的模型来测试这些高级工具调用方法。所以与其直接跳进理论部分,不如我们在应用里演示一下。 而最简单的切入点大概就是先演示一下工具搜索工具。所以即使只是打个招呼,我们也能收到一个简短的回复。但在底部,你可以看到我们正在追踪本次绘画的上下文窗口。 我们已经用了一万三千个 token, 为了弄清楚发生了什么,如果我们切换到 langfuse, 如果我们看一下这个生成追踪,你会发现已经有六十个不同的工具被加载到上下文中了。 虽然听起来很多,但实际上只有两个 mcp, 就是 playrite mcp 和 github mcp, 再加上一些我在前几期节目中开发的工具。 所以工具搜索工具的关键点在于你不会一开始就加载所有内容。你会延迟加载让代理去搜索他,所以他会多出一个额外的步骤。现在我会把这些 m c p 服务器标记为延迟加载,然后让我重启一下服务器。 如果我再次问同样的问题,比如我们打开一个新的聊天窗口,输入 hello, 然后得到一个回复,你可以看到我们现在只用了六千三百个 tokens。 如果我们看一下这个追踪,你会发现现在只有十二个工具被加载到上下文中。第十二个就是这个工具搜索工具。 这个工具允许代理在工具注册表中搜索,通过名称或关键词来发现并加载工具。为了演示工具搜索的实际效果,我们让他获取这个项目的最新提交。这是一个私有项目,所以他需要使用 m c p。 你 可以看到他现在正在触发工具搜索。他找到了一个工具, 就是 list commits 工具,然后他用仓库的信息触发了这个工具。好了,我们得到了提交 id 以及提交内容的信息。 如果我们查看这次工具搜索的响应,你会发现 listcommits 是 一个延迟加载的 mcp 工具,它会把这个工具的完整模式加载到上下文中。 现在这个工具已经被加载到接下来对话的上下文中了。所以如果我再问任何后续问题,就不需要再去搜索这个工具了。比如说给我最后一个提交,我就可以直接使用 listcommits 工具。 如果我们切换到 langfuse, 在 我发送的第一条消息中,你可以看到只有十二个可用工具。然后在它触发工具注册表搜索后, 在下一次调用中,我们有了十三个工具,包括 list commits, 并且它能够对此作出响应。而在我后续的问题中,我们同样有十三个可用工具。 简而言之,这就是工具搜索实际的工作方式。虽然这已经非常有用,但我认为以编程方式调用工具更加令人印象深刻。如果我们开启一个新的聊天,现在我们在 opodder 上使用的是 cloud hikou, 我 一会会切换到 queen 三点五。但我想先给大家展示一下云端模型和开源模型在这里是如何工作的。为此,我们将使用 anthropic 在 其文章中发布的官方示意。 这里他给出了一个预算合规检查的例子。然后问题是哪些团队成员超出了他们第三季度的差旅预算? 这里有三个可用工具,分别是获取团队成员,获取支出和按级别获取预算。他在这里展示了传统的方法,也就是需要大量的工具调用和许多中间响应,这会导致上下文窗口被迅速填满, 所以我已经写好了云端代码来生成这个场景的虚拟数据。首先我们来看一下传统的做法,我已经关闭了沙河,现在我来提问哪些团队成员超出了他们第三季度的差旅预算。 正如我之前提到的,我们现在用的是嗨酷模型,所以他正在执行工具搜索,获取报销数据,获取团队成员。现在他正按照这种传统方式操作,需要为每一位成员逐一获取报销信息, 让我们看看会得到什么答案。所以第三季度差旅预算分析显示,有三个人超出了他们的差旅预算,这是他给出的结果。 根据测试数据,这个答案是正确的,但实际上应该有四个人,所以他似乎漏掉了一个。 marcus johnson 超出了预算一千七百, 所以这种传统方法实际上消耗了大量的工具调用。实际上有五十六次工具调用。正如你在这里看到的, 它处理了七万六千个 tokens, 但实际上并没有给出一个准确或者说全面的答案。这正是程序化工具调用能够解决的问题,因为所有这些其实都可以通过脚本自动完成。 因为一旦你知道了团队成员和预算水平,你就可以用一个负循环来获取每个用户的开销,并计算实际的超支情况。 那么现在让我们起用沙盒,并尝试用程序化工具调用来实现。好的沙盒已经开启,让我们重启后端,打开一个新的聊天窗口。好的哪些团队成员超出了他们第三季度的差旅预算?现在正在进行工具搜索。他找到了所需的三个工具。 现在他进入了编程模式,并创建了一个即将被执行的脚本。他抛出了一个错误。这其实并不奇怪,因为他并不知道这些工具的输出结构。所以本质上,如果没有所有信息,他就无法一次性完成。 现在他正在不断迭代自己的代码,实际上是在尝试得到一个结果。你可以看到他不断抛出错误,并且正在逐步解决。 与 anthropomorphic 的 论文相比,这可能是更贴近现实的程序化工具调用方式。因为我相信在 anthropomorphic 的 论文中,它是一次性完成的,而实际上并不会这样。经过多次迭代后,我们得到了一个准确的答案, 所以二千二百, sarah, chen, marcus, alex, emily。 所以 我们得到了所有正确的答案。 这很好,但这才是程序化工具调用的现实。它的方法相当迭代,就像 cloud code 或 open code 一 样。出于兴趣,我们再运行一次,看看能不能得到正确的答案。它会不会走一条不同的路径。我们假设是的, 很有趣。这一次它实际上是在预算层面获取团队成员的信息,所以它实际上是先获取所需的数据,然后再生成代码。所以这次它可能一次性就能完成。 但实际上他并没有做到,他仍然在自我迭代。不过我们确实得到了正确的答案,所以结果是对的,每一次都是如此,只是到达结果的路径不同。所以我们来看看这两条追踪记录。在我刚才运行的那一次中,总共进行了六轮调用, 总共调用了十二次工具,总提示词数为五万八千。现在如果我继续这个对话,目前只用了一万三千,但这是在与大语言模型进行了六轮来回交互的情况下。而之前那一次是在十一轮中用了十一万六千个 prof tokens, 都是为了得到正确的答案, 所以我确实没有看到 anthrax 所报告的八十五百分之的 token 节省。但这其实非常依赖具体的用力。 比如说这里我是在和二十个团队成员一起工作的,如果你有两千个团队成员,那情况就完全不同了,因为大圆模型需要运行两千次单独的调用,这根本行不通, 所以在那种情况下,就需要程序化的工具调用。或者你就需要一个真正的端点,让实际的数据处理在服务器端完成,而你只是获取信息并将其展示给用户。所以这其实切中了这个话题的核心。 也就是说,你的大圆模型到底应该像这样临时进行数据处理,还是应该仅仅从一个预先创建的脚本中传递信息? 比如说这个脚本可以放在一个技能文件夹里,因为这是我们在上一个视频中搭建的一个完整的技能部分。你可以有一个 python 文件,一旦创建测试并验证后,它就能真正完成这项工作,或者你也可以把它放在工具调用的 m c p 端,这样它就只是简单地传递接收到的信息。 那么我们把 cloud haiku 换成 queen 三点五二十七亿参数,来看看它的实际表现如何。我现在是在网络上运行这个模型,这里用的是欧拉玛,我有一个十万个上下文窗口长度,这里用的是 rtx 五零九零,显卡有三十二 gb 的 显存。 那么我们保存一下,重启服务器,然后问同样的问题,哪些团队成员超出了他们第三季度的差旅预算?现在加载需要一点时间,因为他需要把模型加载到内存中。好了,他已经触发了工具搜索,然后直接开始生成代码。 他实际上在工具调用之间没有输出文本,但你可以看到他正在生成代码本身,而且他正在经历和嗨酷一样的迭代过程,他正在从错误中学习, 并且在不断完善。看看,这就是我们的答案。让我看看二二百十五十七,还有三百,看起来很准确,我觉得这比嗨酷用的 tokens 更少,这很酷,我们来深入看看追踪记录吧。 是的,这次用了四万五千个 tokens 就 得到了准确的回应,这真的很棒,只用了四次工具调用,这已经相当不错了。这是我们 ai builder 系列的第五个视频。在这个系列中,我们正在用云端代码构建一个功能完善的 ai 系统。 本模块的 prd 可以 在我们的公共 github 仓库中获取完整的课程和代码库则在我们的社区中提供 相关链接在下方描述中。那么好吧,这一切到底是如何运作的呢?因为你可以看到我们正在这里的沙箱中触发代码执行,但这实际上意味着什么呢?所以这是一个完全本地化的系统。 我之前用的是嗨酷配合 open router, 但现在用的是 queen 三点五,这里内置了一些文档和 r a g 功能,使用的是 queen 三的嵌入模型。所以你看到的这个代码执行其实是在 docker 中触发了一个沙箱。你可以看到 现在所有这些容器都已经启动了。这里有一些孤立的容器是因为我一直在重启后端。但总体来说,代码执行都是在这里的一个隔离沙箱中进行的。 而这个架构安全性的一个关键部分就是工具桥的概念。所以从头到尾,当用户提出问题时,他会先到 fast api, 然后到 python, 接着再转发到 ai 模型。无论是远程还是本地的, 我们会收到一个工具调用,也就是你需要去执行这段 python 代码,这时后端就会启动一个沙箱容器。 我在上一个视频里已经介绍过这个的设置过程,但本质上我们用的是这个 github 仓库,也就是 llm sandbox。 这是一个非常清亮即可移植的沙箱环境,你可以配合 docker 这样的工具使用。或者如果你不用 docker, 也可以用 portman。 但本质上,这大大简化了启动这些环境的复杂性。 它们支持多种语言,还有许多不同的高级功能。你可以预先启动容器,而不是按需启动。 你也可以使用自定义镜像。这个项目里有很多很棒的功能,所以我会在描述区留下相关链接。我在上一个视频里已经非常详细的讲解过了,所以基本上我们就触发了那个容器的创建, 然后我们会把代码和一个绘画 id 一 起传递进去。所以现在在这个容器里,我们有一个 python 运行器,它会执行那段代码。在我们之前的例子中,有很多不同的工具需要被触发,比如获取预算水平、获取部门、获取团队成员, 而所有这些都可以存在于比如说一个外部系统中,但我们并不希望让沙乡访问外部服务。 相反,我们创建了一个安全的工具桥梁连接回 python 应用程序,然后每当工具或函数在 python 脚本中被触发时,都必须通过这个桥梁。正如你之前看到的,单个脚本中可能会有五十次不同的 api 调用或工具调用, 所以对于每一次工具调用都需要通过这个桥梁,它会使用绘画 id 来进行身份验证, 然后 python 应用程序会将该调用路由到外部系统获取响应后再将其发送回沙乡。因此,除了访问这个 python 应用程序中的 fast api 之外,沙乡没有任何互联网访问权限。从安全角度来看,你可以对这个 fast api 进行严格限制, 这些限制是基于工具本身的精确模式,所以所有这些工具片段、工具定义都是在创建时作为存根发送到沙箱中的。因此,多个工具调用会在 python 代码中,比如说在一个 for 循环内进行, 而且这样做速度非常快,因为此时你完全忽略了 l l m 没有任何中间代码堵塞上下纹。在这里, l l m 完全不参与这个过程,直到 l l m 完成脚本并生成响应。你在之前的演示中已经看到了, 然后这个响应看起来大致是这样的,这就是我们的脚本结果,然后这个结果会被反馈给 l l m。 l l m 接着可以决定下一步该做什么。 如果它已经获得了所有需要的信息,就可以生成综合响应并返回给用户。或者正如你在演示中看到的,它需要对代码本身进行迭代。在很多情况下,它会生成更多的代码,并再次触发沙盒环境。 这就是端到端的流程。我在这里提到了 gviser, 因为 docker 容器并不是你能拥有的最安全的隔离沙盒,因为它们与整个系统共享内核。 所以为了真正保障像 ram, sandbox 这样的安全性,我建议你搭配 gviser 一 起使用。 cloudflair 曾经做过一些有趣的研究,探讨了 ram 在 生成 python 代码或 type script 以及触发工具和 mcp 方面的有效性。他们发现,当工具以 type script api 的 形式呈现,而不是标准的 mcp 时,智能体能够处理更复杂的工具。 我认为这是有道理的,因为他们在训练时接触了大量原生的 python 和 javascript, 所以 在 cloudflared code mode 版本中,也就是我们所做的类似,他们会把 mcp 的 schema 转换成 type script, 因此 l l m 只是生成 type script 代码来触发 m c p。 这和我们正在做的事情非常相似。所以我刚才提到,工具存根被发送到沙盒中。因此,我们在智能体层面定义的 m c p 和工具会被转换成 python 存根 自动生成的 python 函数。这样,当 ai 为沙盒生成代码时,它实际上只是触发 python 函数, 而且因为这是原声 python, 所以 它在这方面会非常擅长。而且重要的是,沙盒永远不会接触到 api 凭证,它永远不会接触到任何机密信息或类似的内容。 我之前提到过需要高效的工具设计,因为在早期,有太多的 mcp 服务器完全塞满了你的上下文窗口,让你根本无法完成任何实际工作。 即使在 anspec 自己的文章中,他们试图解决的挑战也是关于臃肿的 mcp。 在 这里,他们提到 github 的 mcp 有 三十五个工具和两万六千个 tokens。 但即使是在这篇文章发布之后, github 也发布了他们 mcp 的 新版,现在这个数字大约是四千个 tokens。 所以 在 mcp 和工具调用端其实可以做很多工作来确保不会无谓的给你的上下文窗口增加负担。 最后, entropy 在 他们的高级工具调用工具包中还加入了另一个功能,就是关于工具使用视力的这个概念。因为虽然 jason schema 非常擅长定义结构,但它无法表达使用模式。 他们举了一个例子,比如说截止日期,它的数据类型是自复串。日期格式有很多种传递方式, 那么他们到底希望用哪种日期格式呢?除非你真的引导他,否则大圆模型是不会知道的。所以,通过工具使用势力,你可以为每个字段提供一个势力,以便让大圆模型朝着正确的方向前进。比如在这里,日期格式就是年月 日。在他们的测试中,他们发现这能将复杂参数处理的准确率从七十二百分之提升到九十百分之,这很合理,因为本质上这就是多轮提示。你只是给了一个你想要的视力,这绝对会引导模型朝着正确的方向。 实际上,我不确定你是否需要把这个设置成系统中完全独立的功能。我认为,使用技能这个概念意味着你可以在加载技能时提供视力,这样就可以触发你想要实现的任务的执行顺序。 你会发现 cloud 也有点类似,里面有很多功能是重叠的。 antropic 之所以没有取消工具调用,是因为他们认为你应该有策略力对这些功能进行分层。 所以,如果你的上下文因为工具定义工具搜索而变得臃肿,如果你有大量中间结果污染了上下文,那就走沙河路线。或者,如果 ai 总是把错误的值传递给参数,那么使用工具势利就是有意义的。非常感谢你的观看,我们下期再见。

为大家介绍雷曼斯当中所使用的光源材料的特写。在进行光源秀的设计过程当中,我们所使用到的玻璃材料,实际上它并不是纯粹的单质,而是由多种不同的材料融融在一起,并最终经过冷却形成了新的玻璃材料。每种材料当中所使用的 融合的材料的类型不同,以及他们所使用的比例都是不同的。在迪拜当中,我们所使用到的光源材料,他们在对名称或进行定义的时候,并没有一个很明确的界限 在这里呢,比如说我们所使用到的玻璃材料,晶体材料,甚至说我们会有时候会用到,会用到塑料。在另外当中所有的这些材料我们都统一的称之为 plus, 在这里的话我们称之为光学材料。在这节课里面,我们会通过 最简单也是最常用的玻璃材料的一些特性来为大家介绍在字面当中如何使用光源材料。在光源运动设计的过程当中, 我们有两点重要的特性是需要重点去关注的,第一点是我们所使用的光源材料的折射率,第二点则是我们光源材料的折射率随着不同波长的变化而变化时所导致的一种新的特性,就是我们的色散特性。这两个特性是在我们进行光源修饰的过程当中所需要重点关注的特性。 当然我们的光源材料也有一些其他的性质需要我们去关注和考察,比如说我们的硬度,在使用的过程当中 要考虑到我们的结构最终完成之后能否满足我们的使用要求。我们官员材料的价格、均匀性、耐三年性以及官员材料的重量,还有当使用环境发生变化时,我们官员材料的冷热成型,也就是我们的膨胀系数是否会因为温度的变化而对我们整个系统的成交质量造成影响。 还有当我们的系统所使用一些渐变指示率材料时,渐变者对材料的指示率分布是否与我们所设计的结果 如果分不出不均匀,不满足我们所需要的材料要求的话,那么我们的设计最终也不受到影响。当然,对于官员系统而言,我们的官员材料的透过率也是非常重要的,因为他决定了最终能够到达我们的人眼或者是探测细面到达我们下面的能量。 好,接下来我们就逐一的介绍五官材料的这些特写。 在 c 慢速当中进行光源设计的时候,我们刚才提到了说光源材料有两个非常重要的特性,一是折射率,二是色彩。折射率是光源材材料中最本质的一种重要的特性,他定义为 光在真空中的速度或在空气中的速度与在材料中的速度的比值。一般情况下,我们所使用到的就是或者是我们所见到的光光下材料的真实率。在没有刻意标明的情况下,我们都指的是在二十摄氏度一个大气压以及我们的标准状态下所测量的真实率。如果我们需要 官员材料的绝对指示率,也就是说我们的材料在真空中他的指示率化,我们需要重新去测量,或者是根据家人的预算法则去计算出官员材料在真空中指示率。在这里我们提到说官员材料的指示率 在测量的过程当中有两种不同的环境,都是我们的个人状态下以及我们的真空环境。实际上这两种不同环境下的直视率区别就表明了光源材料的直视率适合他所处的环境,环境温度以及压强有着很密切的关系。关于这个关系,我们会在后面的关于玻璃材料迪拜斯当中玻璃裤都去进行介绍。 接下来我们介绍 vips 当中光源材料的第二段,也就是色散。刚才我们提到了我们的光源材料的折射率随环境的温度和压强的变化而变化,但实际上色散,也就是我们光源材料的折射率也会随着波长的变化而发生变化。在绝大多数的光源 这种设计当中,因为我们实际的使用环境并不是单色光的环境,所以色彩也是在整个设计的过程当中所需要解决的问题。 在热量当中,关材料的色散定义为直视率随波长的变化,对于特定材料而言,它的色散并不是随波长而线性变化的,所以我们需要根据理论公式或者是我们实际测量的数值来对玻璃材料的色散进行定义。 一般情况下,我们用来进行定义色彩的话,最常用的方法是色彩公式方法,我们通过测量某种特定的光源材料,在针对不同的国产值他所具有的直视率,从而根据我们测量出的大量数据来混合出我们的色彩公式。 在芝麻方中,我们提供了一个很简便的工具来帮助大家查看国家材料的速算曲线,大家可以打开我们的微麦,在分析菜单中提供了玻璃材料以及渐变成硬材料的小台湾中有我们的速算图表,在这里 点击可以打开我们的摄像机表就可以看到。在 smash 当中我们提供了查看 smas 玻璃测试当中不同材料的示范曲线。在这里的话,我们点击右键 弹出的设置表框中,可以对我们所要查看的自算取现的玻璃材料进行设置。在这里和大家可以看到我们现在目前提供的自算图表当中,我们已经可以同时对四种不同的材料等自算曲线进行查看和对比。 当然对于我们这个三大学的施主而言,我们可以对同轴以及纵轴所表示的拖长和指示率的范围进行限定。 在这里的话,我们点击我们的设置菜单,将其他的三种护理材料的排号都取消。在这里的话,我们只设置我们的 f 二这一种材料,将所显示的拖长范围 更改为零点三到二点五厘米。点击确定就可以看到我们的 f 二的四段曲线在我刚才所设置的不良范围内已经全部的显示了出来。 在这里需要注意的是,可以看到在左侧我们在麦当中所提供的指示率数据,或者大家可以看到我的鼠标箭头,当点击图表中的某一点时,在上方标题栏中显示的这一点所对应的拨杀和指示率的值。一般情况下,在对光源材料的指示率进行测量过程当中, 最基本的要求是我们的直视力精度需要达到千分类,当然很为了更准确的去描述我们的高材料,我们的直视力最好能达到万分类或者是更高的精度。 对于 vips 而言,因为只是利用我们官员材料所测量的这些数据去描述我们的自身曲线,这样的话我们要需要去测量非常非常多的数据,而官员材料的种类本 也非常多,所以这样的方法并不适合去传递我们这样的数据,因为这个数据会非常大,所以在这里我们使用了四三曲线铝合出来的四三公式来表示我们的官员材料。这是 现在大家看到的,是在绝大多数的关系中设计当中都会使用到的描述关于材料设计的生态公式与销售公式。销售公式是一个实验的公式值,大家可以看到每一项他实际上都是由自从项目的系数来进行组成的。销售公式中 a 零到 a 五,每一项所表示的值本身没有任何的不利益, 他们是实际上是由我们所测量出来的一系列的玻璃材料的折射率和波长的对应值。然而秘密和出来的数据, 现在大家可以看到的是我们的斯尔梅叶尔的自动公式,这个公式是由公安材料指示率分布就是我们的生产特性的理论公式而计算出来的一个理论公式。但是在实际的使用过程当中,实际上我们这个公式依然是利用我们所测的数据来反向你和出我们的玻璃材料的指示率。 在 z max 当中,我们除了支持刚才所提到的逍客斯尔美眼公式以外,我们还支持一些其他的知识率公式。当然在 z max 我们在后面的我们还会介绍 z max, 提供一个你和工具来帮助你更好的去将自己所测量的数据输入到 z max 当中。 等级慢当中我们还提供了另外一种用来定义高原材料速算特性的方法,就是我们的二位数法。二位数的定义如下,二位数等于高原材料的折射率减一以上该材料 f 光和 c 光直射率的差距。 一般情况下,我们在谈到刚才的阿里数时,都指的是我们的地瓜,就是我们的零点五八七对你的不超所对应的阿里数。 对于现有的官员材料而言,一般情况下阿贝数范围都在二十五到七十之间,阿贝数的值越大,官员材料的色散越小。目前而言,我们所使用的官员材料和阿贝 作为政治。