粉丝3042获赞14.1万

因为评论区有小伙伴们问主播关于图片滤镜和画质等等一些问题,所以出这个视频来给大家分享一下我的修图过程。主播电脑画质就是正常配置图片,也算靠后期达到的效果。 首先主播是业余爱好,就是自己琢磨的修图思路,如果对大家有帮助很感谢有更好的修图思路,也欢迎和我分享,嘿嘿。那么接下来就是我的修图实操,主播用的是 ps 二零二四版本, 就细细这张图片来做示范,是活动期间拍的,可以实评,简直是天才。首先就是把图像数值大小调整大一些,这样放大图片就不会很马赛克。 其次就是把人物和背景分离,也就是抠图,方便后期调整亮度,色调。等抠完点击右键拷贝图层,然后复制一遍拷贝的图层, 点击滤镜,其他高反差保留四点零像素模式切换为亮光,再调整不透明度,我一般设置二十到四十不等。然后调整一下画面亮度和对比度,尽量就是突出人物,让人物亮起来。 找到选择工具里的色彩范围, 吸取一下亮度区域的颜色,确定范围,拷贝图层, 把图片模式改为亮光, 根据画面调整透明度数值。 现在来吸取一个暗部的区域颜色 大概就是头发灰色区域靠后的地方依旧。拷贝图层,把图片模式改为颜色加深,整体突出一下暗部,根据画面调整透明度数值。 到这里就是主播最喜欢的画笔环节,让亮的地方更亮,暗的地方更暗,加强细节纹理都可以这样来实现, 直接就是黑白两种颜色换着来涂抹,不透明度和流量设置在二十到三十之间,模式为亮光笔,稍微柔边缘。然后就开始战斗吧。没想到第一次见到雪,感受到的却不是寒冷与幸福,穿穿即失,我害怕, 我 ps 修图过程就是这样了,哈哈,主播没有高超的修图技术,照片能够清晰有质感就 ok 了,炸弹!然而还有重要的一道工序,修复画质 真的太炫了!点开这个叫温可的神秘软件,导入我们之前修好的图片,提升画质, 还能不能玩转到 ps, 方便大家观察细节对比。这个架一看好像没有什么变化,当放大后发现线条变锐利清晰了很多,没有那么多噪点,给人一种豁然开朗的感觉。 大家可以去试试这个软件,真的很不错,修复画质超棒,主播也会再努力,带来更多好的作品给大家,感谢你们的喜欢和支持!


我们都知道,直觉式编码只是个开始,但随后上下文工程应运而生,这才是 ai 编码的真正力量所在。有了上下文工程,你就能超越直觉式编码和提示工程,这是唯一能真正让 ai 编码助手在实际应用中更可靠的方法。但存在一个问题, 大多数人实际上并不知道如何构建上下文,他们通常只是随意塞入文件,涌长提示词到处是指令,指望 ai 能跟上, 不出现幻觉,也不占用过多 token。 例如,使用 cloud code 时, ai 代理之所以会失败,部分原因在于上下文缺乏良好组织, 或是大模型本身无法独立处理长期工作流,导致记忆无法维持,这需要持久化步骤从事机制、状态管理和事件触发器。 因此, ai 功能在生产中就会出问题。在缺乏可靠上下文编排系统的情况下,但解决方面其实很简单,上下文工程即通过持久化基础设施来编排 ai。 上下文工程是一种艺术,指在自动地、在正确的时间,以正确的顺序和状态向 ai 提供结构化上下文。这就是为什么今天我再次和大家聊聊上下文工程,以及如何将其恰当融入您的工作流中。我们将在此引入一个名为 ingest 的 新框架, 它不只是一个编码工具,而是一个上下文引擎。对于不了解的朋友, ingets 是 一个能运行可靠、多步骤工作流的框架,通过简单代码即可实现持久记忆、重置机制和状态管理。 你可以把它想象成 nexj, 帮你搞定无服务器函数,为你提供耐久函数工作流。它们可运行数分钟、数小时乃至数天,而且永不丢失状态。从技术上讲,它就是一个后台作业系统,集事件引擎、工作流编排和 ai 步骤执行器于一体。 但你无需搭建队列、各类定时任务重试机制或后端基础设施。有了它,你就能对各类工作流进行上下文工程,这样一来就能高效生成代码。 既然我们知道了上下文工程为何如此重要, ai 编程助手在缺少结构化上下文时为何会失败?持久化步骤重试机制,即适当编排? 那么下一个问题是,在实践中,他们究竟是如何做到的呢? ingest 正是在此派上用场。别把它仅仅看作又一个 ai 工具,而是一个赋能上下文工程的引擎。 ingest 能让你编排出工作流, 这些工作流持久可靠,完全可观测,每次都能在恰当的时机为 ai 精准提供所需的上下文。 要看实际效果,请看这段 ai 研究助手的演示。这是 ingest 团队开发的。 此演示展示了上下文工程如何付诸实践,比如数据如何从多元剪索,由专门模型增强后交付给 ai 智能体生成准确的实时响应,整个过程不会因复杂性或规模而失效。 这得益于 ingest 与上下文工程理念的结合。正如你所见,压缩后的最佳结果被处理,由专门模型并行处理,你便能获得所需的准确响应。 这多亏了右边的这段代码片段,这看起来工作量很大,但其实不然, 仅用几行代码便可实现。在这个特定的演示中,他借助 ingest 进行了上下文工程,他在收集各种来源的数据,这些数据来自档案, github, pdf 文档和网络搜索。 在处理速率限制的同时并行进行,并自动重试。这一切你只需几行代码就能完成。这样一来,你就可以收集所有这些来源, 以及所有这些不同的结果。这些都会由专门模型并行进行压缩和处理。正因如此,通过 ingast 进行上下文工程,才能为你生成最准确的结构化 ai 上下文,这能让它更持久,实现端到端边排。 通过 ingest, 你 也能轻松做到这一切。在我们开始之前,我想提一下,你一定要去订阅 ai 世界实时通讯。我每周都会发布不同的实时通讯,这样 你就能轻松了解最新动态。 ai 领域的,所以务必订阅,因为它是完全免费的。既然我们已经了解了什么是上下文工程,以及 ingest 如何处理这些, 这就是我们将要使用的工具,来帮助我们在工作流中完成这项任务。我们会用 visual studio code 作为我们的 代码编辑器,并在其中安装 kilo code 扩展。顺便提一下,所有这些都是完全免费的,你都能轻松获得。这些都是开源的, index 本身也是开源的。我们将并行从多个来源获取数据,自动处理,重置和数据限制,这样就能为我们的 ai 提供清晰结构化的上下文。 所有操作都在一个工作流中完成。首次使用 ingest, 你 需要先创建一个账户,完成后即可开始使用。创建账户后,你就可以直接通过 m p x 命令创建 ingest 应用了。你可以将其部署到 ingest 的 应用中,或者与已创建的应用同步。现在我们稍后再进行这些操作,因为我们首先要用 kilo code 的 设置提示词,然后你需要前往扩展商店搜索 kilo code。 它是开源 ai 编码代理, 我们将用于本次演示。现在你可以用 cloud code 或其他 ai 编码工具, 但我认为 cloud code 是 目前最好用的,在左侧面板就能找到它。接下来我们点击选择一个交互模式,这里可以看到我已创建好这个模式,不过关键是 你要点击编辑,再点击这个加号创建一个新模式。现在我将这个规则定义放在下方描述里。这种方法适用于你用的任何 ai 编码工具,比如 cursor, 或者你只需要进入规则文件夹,或是像 cursor rules 这样的规则配置文件或者客户端规则,设置好相应的规则级。 所以在这里我有个模板会放在下方描述里。这其实是一个模板,用 index 框架编排 ai 推理,在多个数据源上进行。它演示了上下文工程如何实际应用,这样就能彻底完成你描述的应用开发, 同时不会浪费任何令牌,高效又快速地完成。它只在服务开发者和 ai 代理以可靠地处理各种来源,如 pdf, 电子表格, api 等数据源, 并能为你构建这款功能应用。这样你就能创建这种模式了。我已经完成了, 然后我点击完成,我想选择它。然后你可以选择你的 api。 你 需要选择 api 提供商,然后提供你想要构建内容的提示。这里我指定要构建一个 ai 任务管理应用。它使用 nexjs 和 type script, 并集成了 ingest 的 上下文工程。 总的来说,你需要尽可能详细地描述,然后你可以让 kilo code 来处理这个任务,自主运行所有功能。 它会利用 ingest 和上下文工程。多亏了这个提示模板,它就能设置 ingest 服务器了。这是你必须做的一步,这样它才能更好地处理各种任务。 这样一来,你就能看到它将启动开发服务器。借助这个模板提示,有了它,我们就能监控 工作流的执行,实时查看重置、速率限制以及上下文流等情况。这尤其适用于生产环境,从而帮助我们了解实际情况。大家看这里,它正在创建上下文收集工作流。 这里导入了 in guest, 帮助我们从多个来源获取数据,就像我们之前提到的,可以并行处理 pdf, 电子表格和 api 等。它能帮助我们对失败的获取操作进行自动重试, 还能帮我们执行速率限制,避免 api 被限流。它还能帮助我们 整理各种检测到的数据,实现可靠的 ai 推理。看来任务已经全部完成了。多亏了 kilo code, 它成功构建了我们的任务管理应用,并确保它符合模板要求。 其实,有了这个提示模板,它将能够引导 ai 收集并评估信息,并通过 ingast 工作流处理多元数据。 indest 能够处理通过此本地主机运行数据获取和重试机制。这个本地主机是它自动启动的,它借助该模板从而启动了开发服务器。 你将能够追踪应用的所有事件,同时实现步骤可观测性。同时,提示词也将确保 ai 能接收到结构化、 可靠的上下文,而非简单的原始提示。所以,如果你只是随意输入原始提示,它就能将 混乱融长的流程转化为可预测、可复现的推理,而不再只是猜测或胡编乱造。 ai 也能更好地编辑代码,它能筛选、排序并扩充信息, 让你的应用更可靠、更具扩展性,能更好地处理复杂的多步骤任务。这都是单纯的提示工程做不到的。你的 ai 不 再只是回应。现在他能够理解上下文并进行思考, 并在海量及动态数据源中提供上下文一致的答案。来看看 ingast 结合 kilo code 内的上下文工程后 产出的质量。不过你看看这输出质量。这多亏了 kilo code 用 gemini 三点零编辑了所有组建。 它能高效地又有效地创建这个应用,实现了基本的身份验证功能。我们可以在这里继续并登录我们的任务管理应用。它看起来非常棒。在这里我们可以管理所有任务。它将利用上下文工程,让能记忆的工作流获得更优结果, 并更好地应对相关信息。这只是以上传的样本数据,我们能和它交互,并通过 ai 数据分析获得实时反馈。 我们可以问它问题,比如总额入是多少,它能立即提供反馈,就是屏幕上的这个数字。 妙就妙在 ingest 在 后台运行,能帮助工作流记住信息并跨越不同事件,使用相关信息,让自动化更智能、更精准。在 ingest 创建的开发服务器中, 你会看到它会提供给你一份日制。上面展示了任务管理、 ai 工作流处理带,各种附件的查询 在每个步骤中都会清晰可见,系统会显示重试,这些重试都是自动处理的。 ai 步骤会利用预处理的结构化上下文,深层可靠响应。你还可以管理各类事件 并获取下载日记。如果你喜欢本视频,想支持本频道,可以捐助我的频道,通过下方的超级感谢选项,或者加入我们的私人 disco, 获得多种 ai 工具的订阅, 每月免费,更有每日 ai 新闻独家内容及更多精彩。简而言之,有了 ingest 支持的上下文工程, 它能让你构建更智能响应,更迅速地应用,高效捕捉并有效利用上下文数据。感谢 ingest 赞助本期视频,因为它能帮助你 多方面入门。上下文工程我强烈推荐大家使用它,这是一种你可以完全免费上手的全新方法,帮你打造高度个性化且低成本的自动化体验。 我会把这些链接放在那里。说到这,各位,非常感谢大家的收看,祝大家有美好的一天。如果你还没订阅第二个频道,记得订阅,订阅时讯,加入我们的 disco, 关注我的推特。最后别忘了订阅我的频道, 点开小铃铛,给这个视频点赞。也请大家看看我们之前的视频,因为很多内容对你真的很有帮助。那么各位,祝大家有美好的一天,传播正能量,我们很快再见,各位再会!

