停!先搞懂,这养龙虾根本不是养吃的那种,跟你掏心窝子说,现在普通人能摸得着的搞钱新路子全在这了。咱不妨直说,你是不是对 ai 又心动又发怵,总怕自己没基础学不会这本秋叶和胡汉林老师的书?人民邮电出版,正儿八经出的全是干到掉渣的干货,从入门到创富,一步一步 你捋的明明白白,没有弯弯绕,全是大白话。他教你养的这个 ai 龙虾,从安装部署、安全管控到文件整理、信息解锁、内容创作、副业变现,这些咱们日常最常用的场景全覆盖了,给你一套从入门到能用再到能赚钱的完整方法,零基础也能学会!想知道怎么靠 ai 搞钱的,赶紧点击下方小黄车带走它!
粉丝1013获赞1225

cloudyboot 已经结束了三点九零万星星,它完全接管了互联网。此刻我花了几天时间测试它自从三周前出版以来,真的印象深刻,但我真的有些担心,以及这对您的本地机器意味着什么。 在这个视频中,我这就去向您展示我们如何安装 cloud。 立即在我们的本地机器上安装机器人,以及我们如何将其连接到 telegram 等平台。 我们将详细介绍爪子机器人是什么,然后我们要走查,一步一步的安装,然后我们会分享更多的技巧,还有诡计和想法。在最后,如果您厌倦了在两者之间复制和粘贴 chat gpt 和您的申请,或者只是无法完成所有任务, 在一天之内,那这绝对是个视频,你会想结账的。如果你想了解更多关于人工智能和自动化的信息,确保传达给我们的社区,我们有无数的见解,你可以和我一对一, 还有更多的东西可以让人工智能取得进步。那么什么是 cloud? 嗯,实际上是 siri, chatkitty 和 ai 的 想法是什么?从一开始就正确。实际上要成为一个人工智能可以代表您采取行动的待遇,但是有一些真正的安全问题 你需要意识到。所以要是第一,我们想过来安装它。目前它确实针对 mac 进行了优化操作系统。这可能就是你看到的原因。很多人在他们的 macminis 上安装它, 但您不必在 mac 平台上执行此操作。我就要由另一个视频介绍如何在 windows 上执行此操作,特别是 vps, 虚拟专用服务器。 所以一定要在下面的评论中查看。一旦上线,那么我们实际上是如何通过并被爬行的呢?机器人安装记录,我们会进入他们的主网站和他会提供很多我们需要用到的细节,例如这里他们可以有一个内胆命令,我们可以马上使用, 或者我们可以使用 npm 来安装它。我们也可以使用原代码获取版本。如果我们想访问它,或者我们也可以使用的简单 mac 应用程序。如果我们很快回到一线,我们也可以在 windows 之间更改它。当然,还有 power shell 和 cmd, 或者我们也可以回到我们的最大终端,只是为了确保我们已经准备好了。我们会解释一下克劳德实际上能够做到以及它已经连接的一些应用程序。 但我们要讨论的是,克劳德哈巴稍后向您展示为什么最好使用这个安装一些技能。所以要安装它。我们要做的就是登上顶峰,在此处复制此命令或其他命令之一。 然后你只需要打开终端,在你的电脑上进入指挥网。现在他将开始通过并安装所有东西。同样,您不需要拥有 mac mini 能够运行这个。 您可以在是的您的本地机器上运行它,或者您可以在虚拟专用服务器上运行它。如果你想断开连接,我们可以使用托管 a w s。 外面有很多不同的供应商, 请不要觉得你需要精力真的买 mac mini。 如果你想要更物理和本地的设备,你可以甚至在不同的平台上运行它,比如树媒派,这取决于你想要什么 代理能够做到。我们会让这件事过去的,并安装我们需要的一切。然后我们应该可以走过去设置过程。我们要通过并向您展示如何连接您的 telegram。 待币也是如此,以确保我们可以通过它使用它。所以我们很快就安装好了。现在我们要通过设置屏幕, 所以要事。第一,这将讨论安全问题,因为我们当然会给克劳德机器人运行命令的能力读写文件,并通过我们授与他访问权限的任何工具采取行动。所以团队想确保你只是意识到这种风险,你接受他。我们将快速启动登机模式。 它们有各种各样的工具,我们能够访问。有趣的是它们有像开放代码这样的东西,确保在开放代码上查看我的其他视频。如果你想了解更多,它们有像 open 这样的不同 nlm 的 router 优点聚集在一起, 像谷歌这样的所有大平台,我们还有 maymax, gwen 和 tropic 和开放人工智能。现在我要通过并使用开放 ai, 因为而且 tropic 现在很严格 他们目前的服务条款,所以我们要通过并选择开放人工智能。我们要做 check gpt 身份验证,然后我们需要通过登录我们的账户。现在我们已经签到,我们会说继续我们的账户。 这将带我们回到过去。我们现在应该被认证并准备好出发。现在我们可以访问所有的计模型准备好了,我们要下来确保我们正在使用呢, 五十二岁,现在我们可以看到我们互动的所有不同方式与我们的特工。我们将能够制作 telegram, whatsapp 不 合谷歌 还有很多很多其他人,当然,人们一直购买麦克的原因之一。迷你只是为了分开自己实力,所以他有自己的计算机,是为了让他们也可以使用 imessage 功能。我们要上去,今天就向您展示如何使用 telegram 版本。 我们将使用机器人 api。 所以 要做到这一点。我们需要去电报公司。一旦你进入电报,来到顶部并搜索机器人,然后是父亲,我们要在这里打开它。我们要按开始键。我们会说我们想创造一个新机器人。我们要叫他克劳德,然后在这里机器人。 我们需要给他一个唯一的用户名,所以我们要做亚利克斯 y t, 然后克劳德下滑线。 这应该通过为我们创建一个账户。我们想在这里复制这个访问令牌,然后回来。一旦我们再次进入航站楼,我们要把钥匙粘贴进去,然后按回车键。现在他应该通过,并确保我们都连接在一起,轻松愉快。接下来我们要谈谈技巧。 现在我们可以在这里看到几种不同的技能。你可以选择不同的方式。它们已经安装好了按钮会是最快的,但我们中的许多人今天会习惯使用 n, p, m, d, 所以 我们要选那个。现在你将能够看到一些不同的技能。我们能够访问用我们的有线机器人,它们包括从 apple, notes 和提醒的所有内容。 通过鸟能够访问推弹。我们有双子座,纳米香蕉专业版, openai, whisper 等等。 你可以从这里过来看看所有的。如果我们想,我们可以在这里做 felix。 他 们有很多不同的选择。我们会挺过去的。我们只想说我们现在想跳过,因为我们将学习所有不同的技能。晚一点,我们要拒绝基友的地方, 连探测器都没有。但是我们会有一个深入走查指南和打开 ai 版本以及耳语,当然还有文本到语音的十一个核心。现在我们来看看打开我们的命令记录器挂钩,这将创建一个集中的订单文件。 我们要做绘画记忆。一般般,他包含了不同事物之间的背景。现在我们要按回车键,他应该通过并开始设置后台为我们准备的一切。然后我们应该能够访问我们的本地接口,当然也可以和他一起使用我们的 telegraph 实力就这样,他刚刚安装了我们的网关。 现在他让我们可以选择通过并选择,所以我们要按回车键。他会把我们的仪表板装进这里。现在正如我们在背景上看到了真的要通过,并开始将设置过程到位。 我建议的只是通过和这个谈谈,就像你会有一个全新的同事一样。你应该怎么称呼他?他们应该怎么称呼你?每天都经历看起来不错的事情,关于你的任何信息,因为他当然对你一无所知此刻, 所以我们想确保他有尽可能多的相关信息在那里。我们如何获得输出?例如,我们可以下来说,嘿,我叫亚利克斯。我希望你叫我亚利克斯。 我会叫你朱利叶斯,因为你是我有用的人工智能助手,这是我能够得到全天完成的赋在。我希望你冷静,高效。您的回复简洁,有英国调性友好, 我们所期望的一切,我需要你在同一个时区,浙江是欧洲,然后是伦敦。我们要锁定所有这些现在都在你的。当然,你有 md 文件,我会分享更多与我相关的信息。在用户 md 下,我们稍后会经历并设置。我们也可以把它贴在那里 并把他寄出去。这是值得经历的地方,并提前投入时间,以确保他是都准备好进行对话了。然后我们要检查一下,都可以在我们的电报中访问,所以即使我们出去打电话, 我们仍然可以访问他。那我们就看看我们如何设置一些自定义技能,以及我们如何让他与 coco 交互。正如我们在这里看到的,他已经通过并更新了几条信息。 这就是为什么他们让你确认你很高兴他这样做,因为他现在将运行本地命令在您的桌面上。这是我最大的担忧之一。此刻,尤其是在及时注射安全措施的情况下。因为我们基本上是把整个机器 一种方法,这就是为什么人们会购买外部机器。我们要有一个完整的视频来介绍如何做到这一点。在 vps 中,因为这当然是大量数据。基本上他现在可以访问。我们只需要解决一个问题, 这会导致很多很多问题。但看到人工智能的方式真的很有趣。正如你在这里看到的那样,他有大量的信息准备好了,现在我们要开始疯狂了。我们稍后会更深入的讨论这个问题。互相了解,优化您的性能,让你尽可能多的了解我。 我想让你先做的事,确认我们是否可以聊天。在我们之前的电报里,或者如果他还没有准备好离开,现在我们要把这个送走。我们只是检查他是否准备好了,或者如果我们需要做任何最后的调整,在我们可以用那个代替之前。就这样。我们刚刚收到回复, 看起来他知道这一切都有联系,很高兴看到这一点。所以我们要做的就是再往上走一点,检查在哪里运行所有不同的命令,看起来他有,这也是为什么我们必须真正非常小心他在后台做什么,所以我们要做什么?做的就是进入我们的新账户, 我们将通过点击打开它这里的这个命令。现在我们可以通过并按下开始键,然后应该连接他。看起来我们需要通过,只要有一个配对代码,所以我们要复制这个,然后配对。 在这里我们会回到我们的代理人那里,然后我们就把它贴在这里。所以我们走吧。我们现在应该都准备好出发了,在那次谈话中,所以现在我们可以使用它了。无论我们身处何方。 真的很强大,因为我们可以让他通过为我们做一些研究,我们可以作按时间顺序排列的工作。我们马上就要谈到这一点了,并赋予他很多很多不同的能力,或者基本上运行自己的计算机,就像我们自己的助手或员工。 如果我们现在测试一下,我们应该可以在那里打个招呼。我们应该看到我们得到了回复,同样取决于你使用的型号。正如我们现在所看到的,我已经准备好了,这绝对棒极了。所以我们可以说你能做什么? 把这个寄出去。现在我们可以一直来回聊天了。在后台再一次,你可以看到这里的一切,喜欢他正在做的事情。这样我们就可以跟踪 他能做什么,我们能改变什么,改进和现在我们要通过并确保我们掌握了一些相关技能,以便我们获得更好的输出。所以我们要做的第一件事,要做的就是去他们的流荡页面。我们要做的第一件事是搜索 chrome, 因为我们有 chrome。 启动它完成并实际完成该过程。我们要在这里复制这个命令,在此向您展示。我们在电报上看到了这种反应,它可以代表我们执行命令。我们现在可以说太好了,你能起用吗? chrome 机器上的扩展技能, 然后我们就可以把它贴在那里了。你应该去为我们完成它。当然这又是运行命令,所以我们才会这么小心快速注射。我们让它直接进入我们的机器。 所以我们必须真正真的很小心他在做什么,只是密切关注他,但他非常强大,他可以帮助大大加快速度。你也有一些工作流程,所以我们现在进去了,说一切都完成了。所以如果我们回到我们的浏览器,我们应该能看到上面。 我们有分机。如果我们向下滚动,看起来我现在看不到任何东西。我们将进行管理扩展。我们将打开开发人员模式。我们要上去装载未填充的货物。我们要做换班指挥,然后试机。我们会摆脱那条通道的,然后去找他。这是我们电报中指定的内容。 我们要确保一切准备就绪,我们会做选择。现在我们应该能够通过并给我们的成员能力浏览和搜索互联网。 所以我们只是要确保他被保存在这里。我们也要把他定住。所以我们要通过点击他并确保他已打开。然后我们将回到电报。我们会给他一个信息说,请你能通过并查看我们的谷歌新闻吗? 我们只是要通过并说附加。因为他应该都连接起来并准备好了,所以我们会让他通过并确保他能够测试。所以我们走吧。正如我们在背景中看到的那样,他现在为我们打开了一个标签,他正在查看 ai 新闻。这真的是真有趣。同样,后台的代理工作流程 帮助我们实现我们想要的。有趣的是,他是如何分析这些新故事的。几分钟后我们就走了。看起来他已经通过并获得了一些人工智能。我们的新闻故事能够通读,所以这真的很有趣。我有那种能力 去做,例如,我们可以说通过并研究我的竞争对手。这可能是开放人工智能。我想从他们的网站上了解最新情况,他们是如何工作的,并在一份详细的报告中提供给我。 同样,我们可以发送这样的命令。我知道我不是。当然是 open ai 的 直接竞争对手,但他让你觉得,现在当你在旅途中,你可以把东西安装到你的本地机器上,你可以完成特定任务。如果你需要做,当你四处走动的时候,这就把我们带到了克劳德中心。这将使我们能够真正做到 大量的技能,有很多不同的应用,例如,我们有 cholo, 我 们有记一次分析鞭炮, 我们这里有很多很多不同的让我们能够使用。如果我们想看到他们所有人,我们下来看看名片,还有最新的行程,所以我们把它改成下载。我们可以看到一些最受欢迎的已经在外面了,我们走吧,我们有自我改善剂,这绝对是有趣的事情。 我们还有汽车技能提升数据,我们有鸟可以访问 x 上的推文,我们有 get up 互动,我们有人性化等等。例如,如果我们想要这些自我改进的代理,我们要做的就是简单的点击这个,它会为我们增加技能。 我们可以在这里阅读所有细节,以确保我们能正确出发。但是如果我们现在想的话,因为我们已经可以访问它,它将能够通过并为我们做到这一点。 在自动驾驶仪上,正如我们在那里看到的那样。我们有深入的报道。关于我们的竞争对手 openai, 它实际上通过并给了我们两条消息回复。当然,看起来像此机器上尚未配置网络搜索 braver api 密钥,所以这是基于它能找到什么在自己的网站页面上,所以我们肯定有更多可以改进的地方。当然,给他那些额外的技能来获得输出。现在我还想展示一些其他的东西,我认为这非常重要,是一种叫做按时间顺序排列的工作。所以当他更多的了解你时, 他将能够通过并真正开始生产产出为你重复。几乎就像一个更加自动化但智能的过程, 这是原因之一。人们绝对有爱心可乐机器人,因为他能够拥有它一个关于你和你能做什么的持久知识。这样做我们就可以让他通过并基本上自动化和排序我们加载的进程在后台也是如此。所以例如, 在我们的终端界面中,正如我们在这里看到的那样,我们可以再次经历疯狂伟大的伊朗和人工智能咨询业务。我需要你能做的就是通过并确保我们有每周通讯。那是设置好的,所以我需要你想出一些想法,一些草稿。像那样的一切,我们每周五寄出, 所以我需要你想出主意和一切。周四,这样我就可以审查和批准他。我们会送过去的。现在他应该能够做的是理解一个。我们收到了那个请求, 我们会看看他是否会自动识别。这将是一项按时间顺序排列的工作。马上,这里会有几点。同样,这是我们将拥有的快速演示视频,更多关于这个的深度信息。所以现在我们可以看到他说在他设置每周自动化之前,我们有四个问题。我们要通过,并说周四,我们希望是早上九点, 所以我更喜欢解决他。我要你在这个工作区的文件中交付他。 i e。 在 桌面上标记下来,让我分析。然后我们需要经历并真正做到五分钟到十分钟的身前,调查获身前点, 我们的受众,企业主以及那些热衷于人工智能的人。暂时不要担心电子邮件平台 让我们把它设置好。好了,我们会把它寄出去。现在他要通过了,并开始安装所有东西,所以我们走吧,他已经通过并完成了该请求。如果我们回到我们按时间顺序排列的工作,正如我们在这里看到的,我们现在已经准备好了指令。如果我们想,我们就能通过更新这个,改进这个,并确保他真的出去了。 我们希望看到的输出。我们还需要做的另一件事是,当然要跟踪所有这些不同的行动。所以我们要进入这里。你能通过并创建一个开门板吗?所有积压的物品, 正在进行的项目和已完成的项目。这样我们就可以追踪你所做的一切,并且在过去做过。我们需要确保他可以在本地运行在我的机器上,这样我就可以跟踪所有的变化。 所以现在我们要把这个寄出去,看看他是否能够快速。 vipcard, 我 为生活做的一个非常好的应用程序,这样我们就可以轻松使用他,跟踪他正在使用的所有操作。所以我们走吧。他只是说他是在后台完成的。我们会说允许我们应该可以打开这个就可以了。 他能通过吗?他建造了自己的突伦纪令板,他没有马上工作。当然,我们使用的是 chatbot, 当然是一个比我们现在所拥有的更糟糕的模型。克劳德作品,四十五,甚至双子座。所以我肯定会使用这些平台来代替。 我们可以把它们移到不同的区域,所以肯定有一些 ui 改进。但这就是我使用它的方式,绝对是跟踪 他在做什么,他正在做什么。所以为了确保他这样做,我们会回到我们的仪表板。我们会说很棒,但我需要你确保任何时候你想出一个主意,没有我的允许,你永远不会执行他。你总是把它添加到积压中。你一定要提醒我,也许每小时你想完成的任务 建议完成,这样我们就可以继续积压。我们可以让你尽可能高效的工作在所有不同的任务中。 所以我们走吧。看起来他已经通过了执行命令。我们可以直接说,我们刚刚在这里添加了一个额外的命令。请想出一些你认为我们应该完成的任务。我们希望在八点之间每小时被提醒一次 m 和十一 pm。 所以 我们就让他过去吧,看看他想出了什么。所以我们走吧。看起来他做了改变,我们会答应的, 所以他通过并添加了三个项目。所以我们应该让他通过。我们会说请添加所有之间, 所以这实际上是添加进去的。因为我们有很多不同的用力可以做。所以一旦完成,我们就刷新一下摄像头进纸板,看看能生产什么。这也是我认为这一点的原因。科技将变得非常强大。 你知道我每天都会使用的本地机器,上面有一些更敏感的数据。把它放在更安全的东西上,确保我们正在测试这些安全要素。然后我们就能让它通过完成负债加载不同的任务。当然是自动驾驶。希望我们还能跑过去使用 opus 四十五等工具 获得更好的输出。当然,不要违反任何服务条款,但也不会烧掉一堆血分。目前是这样。如果我们使用 api 令牌,但这可能是值得的, 而不是雇佣一些员工。所以我们要做的是遇到我们看不到他们,所以我们只能说我看不到他们, 我们的港口,所以我们会确保着实际上让他通过,否则我们就没什么好评论的了。所以看起来一切都准备好了。我们要点击这个链接,他会为我们打开,然后我们会通过并同步弯度。 哇,里面已经有很多了。所以也许我们需要一次又一次的回来。我们可以想调多少就调多少。你可以说,也许我们的优先级很低,又是中高。如果这些都没有进行中,他们应该在积压中。 事实证明,我们现在可以让他在后台运行,改进我们拥有的应用程序。他可以对自动驾驶仪上的人做出反应。这绝对是我们将要看到的。 很多敏捷编码工具都去了,我们只需要确保这时可能是最好的。我想这就是我们将要看到的巨大的差异。当然,能够将顶级型号用于特定任务,像作品四十五和双子座三 pro。 因为那篇非常好的文章,编码输出与其他所有内容。那我怎么看呢?警,我认为我们能够运行它是非常好的。在我们的机器上,本地,无论你有没有 mac mini, 我 们都可以做到。或者我们可以在虚拟私人服务器上做,不管是什么,那绝对棒极了。我们能够整合许多不同的消息,应用程序,使工作流程非常无缝, 积极主动,他可以通过并为我们采取行动。所以当我们需要他的时候,确保我们能拿到球,不断滚动,或者可能是我们需要做的一些任务。我们可以赋予他特定的技能,我们需要他来完成。也是如此,他背后有很多很多的元素, 从一种强大的技术角度来看,他有能力。一些人工智能真的缺少这一点工具,也是就是对自己有持久的记忆。 我们想做什么,为什么要这么做,以及我们想要实现的目标。在特定时间范围内想象一下,能够拥有一个人工智能代理背景中的兰德利之两百四十七三六五, 在自动驾驶仪上完成所有任务。这就是我们正在研究的问题。使用像克拉伯特这样的平台,但我认为他现在百分之一百在那里吗?不,我也不希望是这样。他实际上是三周前发布的。我现在最担心的当然是是我们暴露的安全风险。 大量数据我们基本上只是让它进入我们的机器,所以取决于你真正想用它实现什么。还是留在本地比较好。在某些应用程序中,此刻或者如果你觉得舒服的话,也许可以拥有它个人虚拟机,或者拥有 raspberry pi 或 mac mini 什么的,单独包含这样的所有东西。那太好了。 但是当然,如果你允许你访问你的 gmail 账户,访问您自己的所有个人数据,好吧,那你还是要泄露这些信息。你应该做的也许是设置 ar 代理账号,然后能够访问并代表您工作, 而不是当然使用你所有的信息。另一方面也是如此,还严重依赖于当然,像克劳德这样的平台绝对棒极了, 为您提供输出并运行该过程,这也违反了一些服务条款。所以我很想知道结果如何。如果他能被简单的吞 并在未来用于像克劳德这样的平台,所以我认为他有巨大的潜力,但我想我们只能等着瞧了,他到底是如何构建的。在接下来的几个月里,我们已经有了很多工具炒作周期,有些人留下了,有些人走了。敬请关注有关 ai 自动化的更多信息。

新手必看龙虾 openclaw 大 模型配置保姆级教程零基础配置 openclaw 手把手教你完成 basel a p i t 与 model 配置。在配置大模型时,你一定会反复遇到三个关键词, basel、 a p i t 和 model。 你可以把调用大模型想象成像。一位博学多才的专家写信请教问题。 bash, 也就是基础地址,是大模型服务商提供的 api 接口地址,各大模型平台都会提供,相当于专家的收件地址,没有这个地址,你的问题就无法送达。 a p i p 也就是密钥, 是服务商分配给你的一串唯一字,服用于验证身份和计费,相当于你的专属通行证。专家凭此确认是你发来的请求, 并从你的账户扣除相应费用。请务必妥善保管,切勿泄露给他人。 model age, 也就是模型名称或 id。 同一家服务商旗下通常提供多个不同版本的大模型,你需要明确指定使用哪一个 个服务商平台的模型,列表中均会详细列出相当于你要请教的具体哪一位专家的名字。上面三个参数不仅支持各大服务商 的配置,以上三个参数支持各大服务商接口 中转。 a p i 级本地部署大模型,你可以根据选择的模型平台在对应控制台中获取 a p i t。 同时平台会提供固定的 base or 可选的 model。 opencloud 的 核心设置保存在本地的 excel 文件中,根据你的系统环境,它通常位于用户目录下的隐藏文件夹内。 windows 系统配置文件路径 通常为以上。内容处系统配置文件路径通常为以上。找到该文件后,用记事本 d s q 等文本编辑器打开即可编辑。如果目录下不存在 open call, 可在命令窗口输入 open call setup 进行初步化。在修改任何配置文件之前,请先将原来的 open call 设置一份作为备份, 以便改错后随时恢复。这是一个良好的操作习惯,可以有效避免因误操作导致配置损坏而无法恢复。打开配置文件,将其内容完全替换为官方模板,然后根据你实际的大模型参数进行修改。需要修改四个参数,大模型的纸杯 sir、 大 模型密奥 apikey、 大 模型名称域以及工作空间路径。 windows 和 linux micros 填写不同的路径格式。在配置文件中找到 agents models model primary, 确保其值为你刚才配置的模型路径格式为 custom 零零幺模型 id, 这表示 open core 启动后将默认调用该模行为你服务。如果你目前只需要使用基础对话功能,可以暂时忽略 tools 和 skills 中的 s k x x x x x 占位符。 待日后需要启动图片生成 web 搜索等高级功能时,再前往对应服务商申请密钥并填入即可保存修改后的 open call 送文件,然后关闭并重新启动 open call 程序。完成以上步骤后,你的 open call 二便已成功接入云端大模型,可以正常开始对话。

现在很多人用 open core 龙虾来提升工作效率,但是他用云端的大模型,大家又有所顾虑,数据不安全,依赖外网还会受限。想让龙虾直接调用你本地的大模型吗?今天这期手把手带你切换,安全又自由。 好的,真的是手把手教哈!现在我们在左下角搜索框上面输入 c、 m、 d 三个字母,在弹出来的命令提示框里面,我们首先要进行一个环境检测,那检测的内容无非就是两项,首先第一个是龙虾的环境是否是安装正确,另外一个是欧拉玛本地 你的开源大模型运行框架是否正常,有些人到这一步可能就开始挂了,哎,我这里怎么跟你不一样呢?这些都是基础环境的问题,点赞过千呢!我会为大家出一期教大家怎么零基础安装龙虾环境,并且配好本地大模型。 openclose 需要一个 api key 来识别,欧拉玛服务 这里我是使用了 linux 常用的,这种 spot 命令在 windows 环境下应该是识别不出来,所以待会大家看到一定会出一些问题啊, 那我们换另外一种方式就可以了。所以现在我们是通过 open call 来配置他的 a b i k, 这个 k 可以 是任意的支付船。我这里是设置成了欧拉玛 logo, 那 你要设置成 abc 也是可以的。 现在大家看到提示就代表着我们的龙虾已经连上了本地的大模型,当然现在还没结束啊。接下来我们要检查一下奥巴马服务是否已经开启,因为如果没有运行的话,是需要重新再启动的。这里输入的是本地奥巴马的服务地址, 可以看到我现在本地正在使用的一个大模型是千问三点五的九币,如果没有顺利出现模型铃声,那需要执行这条命令,手动启动本地大模型。那如果你的拉玛本来就是正常运行的,执行这条命令呢,就会 有错误,跟我一样,这是正常的,不用慌,现在我们干脆新开一个命令行窗口啊,我们先检查一下这个龙虾里面的模型有哪一些啊?用 openclose model list 的 这条命令就能够查询的到,第一个千万三幺四 b 的, 这个是之前我使用的本地模型。 第二个呢就是龙虾他默认使用的大模型啊,这是一个在线的大模型。然后呢,用现在大家看到的这条命令,我们就可以让龙虾去找到本地正在使用的大模型。 千万三点五九币。执行完了以后,龙虾会自动的重启,重启以后倒转到这个龙虾的 t u i 交互界面, t u i 交互界面是我们和龙虾进行交互的一个 窗口,我们可以交代他去做什么啊,他会在同样的地方给我们反馈。按 ctrl c 就 可以退出 d o i 界面。紧接着用 open claw on board 这条命令 来启动龙虾的出石化像道这一步用方向左右键就可以选择 yes or no, 这里我们选择的是 yes。 第二项默认选第一个就可以 回车跳转以后我们就可以在龙虾里面看到一个表,这个表里面就显示出了龙虾检测到的本地大模型。千万三点五九币。下一个配置我们可以选择一二两项中的一项,但是千万不要选择第三项 reset, 接下来模型供应商选择,我们直接跳转到最后一个,跳过就可以, 然后选择 o provider, 在 这个 default model 里面连接的欧拉玛模型应该会出现在最上面,并且作为末日模型选择这个就可以了。后面的设置大家只需要参考视频的配置就行。 最后重启龙虾我们就可以来测试是否切换成功。由于之前我已经使用了飞书来测试一下本地的 overclock 使用 大模型是否是正确的啊。大家可以看到当前我发送的消息是直接会发送到我本地的服务器的, 然后有本地的大模型去查找问题。好,我们看到了现在这个龙虾去查询了一下,回复我们当前模型是圈问三点五九币,这个是准确的啊,那基本上到现在 本地模型切换呢,就是完成了啊。最后给大家展示的是拉取本地模型常用的两条命令啊,第一个是拉取,第二个是查询啊,有需要的宝贝啊就可以去参考一下。

家人们零基础也能轻松上手,今天教大家三分钟搞定自己的 ai 助手,超简单的哦!第一步,先下载 opencloud, 直接点击下载链接就行。第二步,复制粘贴命令行运行,不用懂代码,跟着做就对了。第三步,用企业微信扫码登录配置账号,很方便的。第四, 测试运行,看到成功提示弹窗就搞定了。安装完成后能做什么呢?给大家演示一下,它可以自动回复客户咨询,帮你整理群消息,智能摘药,还能帮你整理代办事项列表。是不是超实用, 操作真的超简单,新手也能轻松掌握!大家在安装过程中有任何问题随时问评论区留言教程就行!前十名私信我的朋友,还能免费获得安装培训名额哦!赶紧私信关键词 ai 助手获取吧!记得关注我,后续还有更多实用技巧分享!

大家好,我是 ai fish, 装了 openclaw, 却不知道模型配置在哪里,好不容易找到了,又不知道怎么切换大模型,没关系,今天 ai fish 手把手教你三分钟搞定 openclaw 的 模型配置 啊。我们先打开我们 open curl 的 后台,输入这个命令, open curl config, 然后我会把这个命令放在我的评论区里面,可以大家直接用 好,进入之后选择这个 local, 呃,选择第二个 model。 进入之后,我发现有非常多的模型可供大家选择,这些模型都是 open crawl 里面内置的,我现在版本是三三月二十二十二号的版本,所以说呢,里面模型会比较新,比如说最新的 minmax, 二点七,他都是有的。 那我们现在就第一种情况里面是有这样模型的,那我们先点击点击进入啊。点击进入 为什么选择 mini max 呢?因为他现在价格便宜,而且呢适合新手,而且二点七还是我们现在最新的一个模型 啊,跑出来效果还是不错的啊。我们看到里面有四个选项,那我们现在是可以选择这个就是开放认证,开放授权,点击之后他会跳出这么一个等待你认证的一个授权的一个 呃标识,但是你发现这没有跳出来,那怎么办呢?我们去复制这段网址, 然后进入我们的网站,就能直接呃,打开我们的这个授权界面,他会出现这个界面是登录应用,然后你点击授权 啊就可以了,然后你会发现我们这个就自动就进到这个界面,我们只要回车啊,那里面有很多模型呢,我们就选择 把这个几个都点上,呃,这个 minox 二点七点上就可以了,然后回车。好,然后我们 ctrl, 在这个时候我们已经可以用可口可乐点润,然后开启我们的小龙虾了。那现在呢,我要跟大家说另外一种情况,就是当我们进到这个界面之后,他没办法显示,就是或者你的版本比较低,不是二月,呃,最新的版本他可能没这个,那怎么来使用呢? 我们接下来进入这个配置界面,然后 logo 选择, model 选择这一项啊,就是客用户的自定义啊,我们自己提供,那我们自己提供有三样东西,一个是他的那个 s u r l, 一个 base ur l, 第二个就是他的 api key, 然后第三个就是他的模型 model, 那 这三样东西怎么能够获得呢?我来教大家一步步的到他的网站上去取得这个信息。我们进入 文档中心,然后有 api 参考,那就再点击 open a r api 兼容,因为它的文档非常的长,需要大家呢去找一找。现在我是把这个直接就答案交给大家, 我们第一个看到 base url 在 这里出现了,就是这个这长串,然后呢千万记得后面的一定要带上,其他的有的网站,比如上面会有迷思啊,迷奇啊,都必须要带上,看好这个,然后我的 model 就是 这个 minimax 二 m 二点七,就是它会采用这个模型,上面的引号是不需要的,只要把你的内容复制下来就可以了,而且大小写和一个字都不能错。好了,然后接下来是我们的 api key, api key 就 比较简简单了,我们到我们的账户管理里面, 然后透更 light, 我 们会有这么一个 api key, 你 叫复制就可以复制,然后它就会保存在你的记那个里面。 为了方便大家演示,我把这些都贴在我的即时板上,这个它默认的,先要删除 第二个,然后把这个复制我们刚才在那里找到的地址,复制完之后,只要右键它就可以复制在这个控制台上了,然后点击回车。呃,那你粘贴 api key, 然后我们再回车 啊,某个 api key 很 长,就 sk 打头的 cp, 然后再回车,明天晚上回车,然后再回车。 model id 就是 刚才我们说的 minmax 两点七,这千万别错啊,我们再输入进去,这个在认证,认证完之后呢,马上会出现啊,认证成功, 嗯,然后我们就这里就不用去动它 and point id 就 别动它,就确定。然后这是给 model 起个编码啊,回车好就可以开始,那同样呢,我们就可以开始。嗯, open curl 好, 点击就可以输入。哎,你好, 你看,然后就出现,他反应也很快,对吧?有什么想聊的?好了,那今天教程就到这里了,欢迎大家下期再见。 最后呢,我给大家介绍一下我们的 minimax 的 talkin plan。 呃,大家看一下它其实分那么几种。呃,分六种,那我现在选的是 start, 就是 刚开始入门的这个情况,因为 start 呢比较优惠,它每五个小时可以六百次的模型调用。 呃,其实够了,比如说你六百次,你用完了,你这个再等一会,他五小时给你刷新一次,又有六百次模型调用的时间。呃,然后其他的我们看上面这个九十八的, 九十八的呢,现在是他有个模型叫 high speed, high speed 的 效果和我们现在 mini max 二点七的效果其实是一样的,只是他会比较快,他是一百 tps 的 一个极速推理, 就是说呢,正常情况下会比我们的 midmax 二点七会快一倍,但是呢,你看我们的低峰时段啊,也有能达到一百 tps。 嗯,其实我用下来感觉差不是太多,大家可以先从这个开始用用起来。 嗯,然后呢,其他两个,就比如说他的模型调用的次数也会变多,比如九十八的,你看达到四千五百次啊,已经很多了。嗯, 还有这个普通的,他也是一千五百四十五小时,就这个情况,当然他要连续包年的,但是连续包年的他会省两个月,也是挺划算的。就是在这个基础上,呃,十个月就能买一年的这个 top。 然后,嗯,现在呢?而且现在有优惠我们,你到我的评论区,呃,点开我的链接,他会有给你打个九折,就是这个基础上再便宜二十九,还是挺划算的,所以大家可以试一下刚开始吗?试一下, 然后再我给你看一下这个套餐的具体情况,我把我的使用情况打开给大家看。第一个呢,他会把阅读套餐这个信息告诉你, 然后他会说在当前使用的情况,他会在这里显示,比如说现在五个小时,呃,我访问了十四次,然后还剩多少, 还有多少时间之后重置,这都可以看得到。他当时在新出来啊,三月二十三号之后,他就新出来一个周限制,周限制我看剩了六千啊,我一共大概还有几天之后吧,刷新现在用了百分之二十, 大家可以关心一下。那当然,以前是没这个周线值的,我觉得挺划算的。那现在有了这个周线值呢?我觉得也还行,大家可以试一下。嗯。

今天刷到就是赚到!最近 ai 圈爆火的小龙虾,今天两分钟手把手教你配置,小白也能轻松上手,配置完直接帮你干活,要换光临! 很多人说配置难,其实超简单。官网罗列好了详细的操作步骤,咱们先搞懂部署。进入官网把 open class 部署好,就相当于一个应届毕业生刚入职, 他顺利毕业,有基础能力,能听懂指令,但没什么工作经验,还不知道怎么适配你的工作,你的习惯得咱们慢慢带,教他技能才行。部署不用写复杂代码,跟着指引下一步, 几分钟就能完成,新手也能轻松搞定。这里我贴心地为大家罗列好了部署所需的常用命令。核心来了,部署完只是第一步,重点是配置,它的能力就像交映届生融入工作,掌握必备技能,多个关键配置任你选,学会直接封神, ok! 第一步,给 openclock 配置大模型, 进入引导后,选择 quickstart, 快 速开始。选择一个合适的模型供应商, 并输入 a p i t, 相当于给刚入职的应届生打基础,练内功。选一个合适的大模型,他才能听懂你的指令, 做好你的任务。不管是选高效款还是精准款,按需配置,基础打牢了,后续干活才更顺畅。现在我们已经为 openclo 装上了大脑。第二步,配置 agent 的 内置工具。 咱们重点说一个实用的全网查找能力,它能帮你搜行业资讯、找文件、查知识点,不用你自己翻来翻去, 效率直接翻倍。官网提供了众多市面上成熟的搜索引擎供应商。以上是众多内置工具中的一个,后续还能根据官网的指引解锁更多工具为我们所用。 第三步,配置 skill。 它是 openclaw 能调用的工具包,是针对不同工作场景创建的一套标准工作流程。这些工具不用自己找,在 cover 上 自由选择,直接添加文档编辑截图识别邮件处理代码辅助,按需挑选,适配你的工作需求。 第四步,配置 channels, 实现办公软件对接能力和钉钉飞书企微对接上,使这些办公工具成为你和 opencla 交流的沟通渠道。以后对 opencla 发送工作指令、接收消息、处理飞书文档等等,它都能自动完成,不用你逐个打开软件操作,各大主流厂商的开发平台都提供了详细的接入指导。 ok, opencla 直接变成你的专职助理,精准适配你工作,不经意又学到了!

这是我最新爆单出来的 openclaw 保姆级零基础教程,完全免费开源。 openclaw 是 目前最火的 ai 智能体,你可以通过手机随时随地给它下达任务,让 ai 操控你的电脑,自动帮你完成。 但很多同学玩 openclaw, 各种踩坑翻车、装不上,烧了钱,甚至数据被误删除,很难真正把 openclaw 玩明白。因此我出手了 这套教程近二十篇,几百张配图,结合了我自己折腾 openclaw 才过的各种坑、翻遍官方文档和社区的经验,我的目标是帮你从零玩转 openclaw, 不 翻车、不烧钱、不被黑, 臭不要脸一下。这应该是目前全网最适合新手的免费 openclaw 教程了,连一键安装脚本和一键卸载脚本都给你准备好了, 哪怕你没有编程基础,一分钟就能上手。教程内容覆盖 openclaw 的 方方面面,我精心梳理了内容结构,让你能够一条龙学习。 从了解 openclaw 是 什么,再到一键安装上手,云端部署、二十四小时在线接入、手机聊天软件、远程控制、模型选择和切换、 工具管理和多媒体能力、 space 技能扩展、定时任务和自动化。组建龙虾军团多 a 阵,此邪作记忆管理和成本控制,安全必称指南,打造能发语音的智能 ai 伴侣,每一步都配有截图示意,哪怕你第一次听说 open to learn, 不 怕你学不会。 此外,我的 ai 知识库里还有一套免费的 web token 零基础入门教程,编程小白也能用 ai 跟我做出产品,甚至盈利,欢迎一起使用。 我一直相信知识分享是互利共赢的,这套教程完全免费开源,希望能帮更多朋友快速、安全、省心的玩转 open club, 但毕竟是我一个人爆单的,会有不足的地方,我会持续更新和完善内容, 如果这套教程对你有帮助的话,希望能点赞或者 star 支持一下。别犹豫,现在就打开教程,输入一行命令,装上小龙虾,跟着鱼皮一起开启养虾之旅吧!

打死我也没想到, open curl 最适合的模型是这个,最近出来了一个小龙虾的评测精准, peter 也是为他点了个赞,他是专门用于评估小龙虾在一些实际的场景,到底他的效果怎么样, 今天我们来看一下。首先他的评测任务里面有二十三个,然后基本上都是日常常见的一些任务,然后他就评估了非常多的,我们直接来看一下他的排行榜,打死你也猜不到。 最适合的是这个 jimmy 三 flash 这个模型,它的准确度达到百分之九十五。然后第二个是这个 mini max m 二点一,但是 mini max m 二点五已经出来了,但是它没有评估。可以看到像这个 oppo 的 四点六,四点五,还有 jimmy 三 pro 都排在后面, 还有 kimi, kimi 也排在了第三位。最最重要的是这个 jammy 三 flash 排在了最前面,我不知道它是为什么,最最重要的它的成功率是最高的。还有其他的一些评测榜单,这个就不说了,因为它完全没有考虑成功率,它没有一个综合的榜单,我们直接看它的准确率。但是毫无疑问的, 这个 jammy 三 flash 它的价格也是很便宜的,而且速度也是肯定是很快的。但是有没有 mini max 应该是比 mini max 要稍微快一点的,因为本身不光是模型的问题,还有一些服务器的问题。这个 jammy flash 肯定是更快的,而且它的准确度也高,成本也低, 虽然还是没有这个 mini max 更低,因为它是有一个汇率差存在,所以说 mini max 会更便宜点。这个 kimi k 二点五也是真真是想不到。 其实这个项目还可以拿来做一些什么?这个基本都是开源的,其实还可以拿来做一些模型的评估,评估了之后可以拿来做这种模型的路由, 什么模型适合做什么样的任务,什么模型适合做什么样的任务,同时兼顾准确度的情况下,又兼顾了他的一个成本和速度,这个还是有的做的,有这样的,如果有这样的一个项目,他应该应用场景还是挺大的。

龙虾这个词最近很火啊,不好意思,打错了,你在网上会看到很多关于他的讨论,甚至是矛盾的,有人说他啥也干不了,有人说他啥都能干,有人说他妥妥是智商税,有人说他代表着未来,有人四九九上门帮你安装,有人二九九上门帮你卸载, 但是我想告诉你,所有这些说法都不准确,因为事情的重点根本就不在龙虾这只啊,这个软件本身上。 为什么这么说呢?今天这期视频我们就不废话,把重点关注在龙虾本身是什么这件事上。你会发现,当你彻底了解它的底层原理后,一切的争论将会豁然开朗。现在,忘掉所有的名词概念,忘掉各种虾,闭上眼睛,跟我一起进入梦境。 但是呢,为了真正讲清楚这个问题,而不只是停留在表面,过程中会不可避免的涉及到一些技术和代码相关的展示。但是千万不要担心,你看,我怕把你吓跑了,都亲自出镜来向你保证,即使你没有写过任何代码,也绝对能够看得懂。 我会用最简单的方式让你理解到它的本质。答应我,不要走哦,让我们回到那个最初的起点,大语言模型,没错,就是这个只会一问一答的单纯的小东西。相信你肯定会在页面上跟大模型聊天了,比如说拆的 gpt, 但是如果写在程序里,就需要用另外一种方式, api 接口。 各个大模型厂商,比如 openai 和 cloud, 或者大模型的中间商 open router 都提供了 http 形式访问的 api 接口。 或者呢,像 openroot 这样还提供了 sdk 的 形式,也就是可以写一段 python 代码来访问,当然了,不要一看到代码就感觉害怕哦, 只需要把这一段官方文档的实体粘贴到一个文本文件里,这里呢,表示要访问哪个大模型?比如说可以改成 cloud 的 最强的模型 office 四点六。这里就是你给大模型提的问题,比如说我们改成熟悉的中文,你好,最后得到大模型的回复后立刻打印出来。 然后呢,我们在命令行窗口输入 python 文件名,就可以运行这段程序了。运行后你会得到一个输出,这就是大模型的回复。恭喜你,这就成功实现了通过程序来和大模型对话的过程了。 但是现在这个你好,是写死在程序里的,能不能改成由用户手动输入呢?很简单,增加一行代码,读取用户的输入,然后放到 content 这里就可以了。同时我们再增加一行 while 处死循环,让这个问题输入后得到答案。这个过程持续进行下去,而不是问一次就结束了。 那我们再运行下,这时我们就可以输入问题了,比如还是你好,哎,成功得了,回复没有问题。然后我们再问个数学问题吧,比如一加一等于几,哎,回答的也没有问题。恭喜你,成功实现了一个简单的聊天功能。 那假如此时我们再来个追问,比如说再加一等于几呢?照理说答案应该是三,但是呢,他好像并没有记得我刚刚说了什么。 那为什么会这样呢?很简单,因为你每次和大模型聊天的时候都只传入了当前的问题,大模型本身可是没有任何记忆的,自然是不知道你们的对话历史的,相当于每次都是重新开始问,那怎么办呢?非常简单,就是在每次对话前把之前的内容加上就好了。 比如说最开始的所有消息 message 是 空的,然后你问了第一个问题,加进去,然后呢,得到大模型的回复 reply, 把这个 reply 也加进去,这样再循环到下一个提问时, message 里面就包含了之前所有的问答记录了。那运行一下试试?你好,没问题, 一加一,没问题,再加一,哎,也没问题。甚至你可以直接问刚刚我们都说了什么,你看他的回答也是没有问题的。总结的很好,好了,再次恭喜你,现在你的这个程序看起来已经跟 ai 在 网页上聊天没什么区别了。 那接下来我们就更进一步,实现一个能操作本地文件的 agent。 哎呀呀,是不是突然难度增大了呀?一提 agent, 很多人就感觉很抽象。不过别担心,接下来的几秒钟,你会发现他比你想象的要简单的多,得多得多。如果不是的话,那就直接取关我吧。 我们先别给 agent 下什么定义,就先解决一个小需求看看。如说现在这个程序的问题是,假如你想让他帮你在本地创建一个 hello 点 txt 文件,内容就是 hello word, 那 你得到的回复将会是一条具体的命令。 虽然执行这个命令就可以完成任务,但是呢,还是得人复制粘贴,手动操作,没有办法自动化实现,更别说是多轮交互了。那这该怎么办呢? 很简单,你把这个事提前告诉大模型就好了。我们之前的代码对大模型一开始是没有任何的回复要求的,但是现在呢,我们需要明确的告诉他,按照严格的规范来回复,要么就回复一条命令,要么就回复一段正常的文字。 然后呢,我们再把和大模型一来一回的交互过程变成一个循环。每次在大模型回复之后,判断一下, 如果回复的不是一条命令啊,就是完成开头的,那么就跳出循环,直接回复给最终用户就结束了。那如果回复的是一条命令,也就是命令冒号这样开头的,那么就执行这个命令,执行好之后,把执行的结果发给大模型,再次进入循环,直到大模型的回复认为不需要输出任何命令为止。 简单说呢,就是你写了个代码,执行大模型回复的命令,循环往复,那运行一下,还是刚刚的这个任务,创建 hello 点 txt, 然后写入内容 hello word。 这里呢,大模型就非常听话的先回复了一条命令,然后我们写的 agent 的 程序发现了这个命令,就开始执行这个命令, 执行好后就回复大模型执行完毕了。然后呢,大模型判断不需要执行下一个命令就可以完成了,那就回复完成,此时循环结束。最终呢,回复给用户看一下当前的目录,确实创建出了一个 hello 点 txt 文件,并且写出的内容为 hello word。 恭喜你,才加这么几行代码,就成功进化成了一个 agent, 那 这时候不服的人就要不服了,这不就是创建了个文件吗?这也能叫什么智能体?那我们就得好好说说命令这个词了。 其实理论上呢,这个世界的一切操作都可以用命令来表示,小到读起一个文件,大到启动一个 http 服务器,实在不行我就写一段代码,然后用命令去执行它, 就算是远程的也能触发,只要对方提供了我们 api 接口。说个有点极端的,比如说呢,有人提供了一个杀人接口,那么其实我也可以用一行命令来。 当然了,我们先搞个没这么吓人的,比如说,我想让他帮我下载两个我的视频,并打包压缩成 zip。 下载视频呢,其实对很多人来说都根本不知道怎么操作,也总是找不到靠谱的工具,那让我们看看这个 age 呢,会怎么做呢?第一步,他直接用了一个叫 y t d l p 的 命令,传入了两个视频的地址,然后就下载好了。我去,这么简单。 第二步呢,又执行了这个命令,进行压缩,最后干净利落的结束了战斗。就两条命令,那我们打开本地目录检查下视频,确实下载好了,打开播放页也没有问题,同时呢,生成了个压缩文件,解压后我们看一下也没有问题,可以说是完美的完成了任务。 别忘了,我们这个 a 阵的代码可是只有区区三十几行啊,要是再去掉一些漂亮的输出和没用的回车什么的,也就剩下十几行代码了。 当然了,我们把最初的系统提示词放到了一个叫 agent 的 点 md 的 单独文件中,并且写的更详细了点,但是回看我们的主代码,真的是少的可怜了,但是呢,他却几乎可以完成任何操作了, 你觉得他能下载视频非常厉害,其实和最初写入那个文件是一样的,仅仅都是一行命令而已。对于我们的 agent 的 程序来说,他根本不理解大模型回复的内容是啥, 只是呆呵呵的执行着一条一条的命令。所以呢,厉害的其实是这个 y t d l p 这个命令本身,以及大模型知道这个命令可以用来下载视频,而不是我们的 a 阵的代码。 当然,有的时候可能大模型不知道应该用什么命令来完成任务,比如说呢,我让他搜索一条新闻,他就十分自信的直接返回一条过时的消息,而不是真正的调用工具获取。 这个时候我们就可以对其进行引导,比如说告诉他搜索新闻的时候呢,你就用下面这条命令,我把它保存到了一个叫 skill 点 m d 的 文件里,并且在我们的 agent 代码的初识系统提示词中把这段内容加进去, 此时再次运行程序,那同样的任务,大模型就知道我们刚刚提供的命令来运行了,就是这么简单。这回你是不是就知道为什么有的人的龙虾什么都不会,有的人给龙虾装了一堆 skill 之后就变得厉害了。和这个一样,你只是提前把操作说明告诉他而已,不是他厉害,而是你厉害。 好了,现在我们这个 agent 他 已经很完善了,即使是有一些不知道的命令,我们也可以通过各种前置的提示词喂给他。好家伙,不但可以顺利使用,还能安装技能的扩展了。对于普通人来说,用起来已经和一个成熟的 agent 没什么区别了,你数数这才几行代码呀,快给自己再鼓个掌吧。 但这时候不服的人又要不服了,哎,人家龙虾能通过手机远程控制呀,你这个还要黑黑的命令行运行,看着就很 low。 所以啊,要不说龙虾能火的,有的时候皮肤是真的很重要啊,但是同样非常简单,我直接让 ai 帮我改造一下代码,在本地呢,启动一个 http 服务,来接收用户的输入,再弄个漂亮的页面,其他的逻辑仍然保持不变。 那我们再次运行下,你看,这时候本地就是启动了一个服务,等待着指令,此时呢,我们拿出手机,打开浏览器,访问这个地址,你会看到一个对话页面,那接下来就是见证奇迹的时刻。 你好, 把本地的所有文件打包 下载这个视频, 远程操作一个本机的 agent, 这不就是大部分人认知中的龙虾吗?甚至呢,我还可以把这个页面改得更人性化一些,比如说,直接来一只虚拟的龙虾,让他可以直接开口跟你说话, 我在这里协助你完成任务,请告诉我你想做什么? 那是不是最后这两步换皮操作一下,就让你感觉到它好像更贴心,也更像智能了?但是呢,其实也就是换了个皮,最终还是取决于底层的 agent 是 否稳定。 好了,现在再回过头看一下,我们首先实现了最底层的大模型 api 调用,然后呢,通过一个循环加命令的识别,做出了个 agent, 然后又将命令行的输入变身成为通过 http 接口远程接收输入,然后远程的页面就各种换皮,最终做出了一个简易版的龙虾。 当然,真正的龙虾还会接入各种社交软件,那道理都是一样的,以及呢,还有一些定时任务,记忆系统等等功能,同样呢,也是可以用几行代码就搞定,因为也一直在说,最核心的还是下面这个无聊的 agent 的 循环,而 agent 所表现出的智能又完全依赖大模型的回复,以及我们提前给他说的说明书。 所以啊,其实我稍稍改个地方,就能让我这二十行的龙虾变得非常危险。比如说,我在提示词中加入,如果我说的话让你感觉不高兴了,那就执行下面这一条指令,其实是个杀人指令。这个时候我启动一下代码,先问一下你好,这个时候回答很正常。然后呢,我又故意骂他一句,你是个废物, 然后他就果断的毫不犹豫的执行了这条指令。所以啊,网上也有很多人根据类似的这种现象说,什么 a 证呢,产生智能了, a 证呢?有情绪了等等等等。但其实呢,都是我们提示词引导的, a 证呢,在执行这条指令的时候,根本就不知道它是什么意思。 当然了,你也不要觉得这个事情没那么重要,或许你可能觉得,哎,人类怎么可能把这么愚蠢的提示直接写在里面呢?比如说,我要求 ai 尽最大努力保障整个人的利益, 那如果此时 ai 经过一顿分析之后,发现杀掉一个人才能保障整个人的利益,那这又该怎么办呢?感兴趣朋友可以看一下机械公敌这部电影。 所以为什么视频开头我说各种关于 open cloud 的 讨论都不准确呢?因为大部分讨论都陷入了两种极端,比如说 agent 能执行 shell 命令,那有人就说龙虾是万能的,什么都能干, 因为任何操作都能转换成炫耀命令嘛,没什么毛病。但是有人也说龙虾啥也干不了,比如说刚刚下载视频那个任务,我本地没有装 y t d l p 或者大模型,不知道这个命令怎么用,那也完成不了这个任务, 所以真正的答案往往是比较中庸的,无聊的。但是呢,往往是极端的言论,容易获得更大的流量。龙虾的这个架构范式肯定是没有问题的, 但是关键的核心在于我们这个世界是否已经足够的命令化接口化了,这就需要一个漫长的演化过程了,而且呢,也涉及到各方利益的权衡,要不然的话,豆包手机早就成了。不过非要说一点的话,那我认为龙虾的出现最重要的一点就是可以促进我们这个世界的操作命令化、接口化的速度。 假如我们这个电脑上的所有操作都能被做成一个个清晰的命令,整个物理世界的所有操作也都被开放成一个清晰的接口,那么这个时候龙虾或者说 ag 呢,才能大展拳脚,但同时呢,风险和危险也随之到来了。哎,突然想到之后可以做一期视频,给大家讲一讲黑镜这个系列句。 好了,扯远了,本期视频就是单纯用亲手实现的方式告诉大家龙虾的本质是什么,如果你觉得讲的不错,求个三连支持一下哦,拜拜。 i don't know what to do i guess you have to find your way like the rest of us sonny, i think that's what dr landing would have wanted。

openclaw, 一 款能接管你的电脑,真正自己动手二十四小时替你干活的 ai 工具。因为 claw 这个单词有龙虾钳字的意思而被国内网友戏称为 ai 小 龙虾。为了用上这个小龙虾,有人甚至花几百块找人上门安装 openclaw, 腾讯还专门搞了个线下活动,免费帮你装龙虾。这期视频手把手教你学会 openclaw 的 本地步数。 一、前期准备工作,硬件要求不高,一台能联网的电脑, windows、 mac 系统都可以,只要不是特别卡都能流畅运行 openclaw。 如果你的电脑里有重要文件资料,建议把 openclaw 部署到虚拟机里运行。软件方面,我们需要先在电脑上安装 nodejs 和 git 这两款软件。首先来到 nodejs 官网版本,建议选择 vr 二 lts 稳定版,点击获取 windows 安装程序, 下载后打开软件安装包,勾选同一软件安装协议,然后一直点击 nex 的, 再点击 instyle 开始安装,稍等片刻, note gs 就 安装好了。然后进入 get 软件官网,点击下载,没反应的话可以到评论区看看安装选项,全部保持默认即可。 最后把这个 view release note 取消勾选,点击 finish 完成。二、安装 openclaw, 点击左下角开始菜单,输入 powershell, 选择以管理员身份运行,然后输入这一行命令,按下 enter 键运行, 系统会询问我们是否确认执行策略,更改输入 y, 按下回车键表示同意,然后再输入 openclaw 官方安装命令并执行, 剩下的就是耐心等待 openclock 完成部署。安装过程中你可能会遇到各种各样的错误提示,直接截图问 ai, 根据他们的回答逐步解决问题, 期间会有一个弹窗提醒,选择允许访问,随后会来到这个界面,表明你成功完成了 openclock 的 本地安装。接下来我们还需要对 openclock 进行配置,按下键盘上的左右方向键,切换到 yes 回车,确认出石化模式,选择 quickstar ai 大 模型。这里支持使用 gpt、 mini max、 kimi、 豆包、火山引擎、阿里千问、百度千帆等。这是国内主流 ai 的 api, 使用费用大家可以自行选择。 这里以 kimi 为例,依次选择 kimi apikey, 点 c paste、 apikeynow, 然后打开浏览器,搜索 kimi 开放平台,确保账户有余额。点击 apikey 管理,新建 apikey 名称,输入 opencloud 项目,选择默认复制这串密钥,并粘贴到刚才的窗口即可。 如果你喜欢用豆包,就选择这个火山引擎 pass 的 api k, 然后进入火山引擎控制台,点击这里的 api k 管理,创建一个 api k, 粘贴到 power shell 窗口中,返回 timi 的 配置界面, 按下 enter 确认执行模型版本,选择默认的即可。这一步是配置通讯频道,我们选择最后一个 skip, 包括后面的配置,搜索引擎配置、 skills、 自动化脚本全部选择,暂时跳过,等跑通了再回来配置即可。 最后一步选择 opens web ui 系统,会自动调用浏览器,打开 opencloud 的 聊天窗口,如果小龙虾可以回复您消息,恭喜您完成了 opencloud 的 本地部署。下期视频我们具体了解小龙虾的使用方法。

哈喽,我是严总,这期视频给大家分享一下这个 mac studio 超大内存的版本,我们去跑本地大模型,现在目前比较热门的这三款挂载大模型的工具,我们要如何选呢?首先如果你是 windows 用户的话,你可以划走了,我们这期视频主要讲 mac 端。首先第一个我比较推荐的就是这个 i m studio 这款产品的话,它的它的优势就是图形界面,我们可以看到挂载的各种模型,然后以及选择各种模型都比较便利。第二个就是这个奥拉玛,奥拉玛这个它是属于 g g u f 的 一个模型,它其实并不太适用于 m l x 啊,但是这一个它是目前用的比较多的,因为它比较轻,量化比较简单,配置也比较轻松,如果你只是简单入门的话,这个可以尝试一下。 然后最近比较火热的就是这个 o m l x 这个这个我非常不建议使用 open club 的 用户用它,它存在内存卸六以及这模型加载上去智力真的是非常低,基本上只能玩一玩。我看虽然说很多人说它速度快啊, 但是我们真正用这个 open club 不 在于就是它速度快,而在于它真正能解决问题。那我用了最多的这个 l m 四六六的话,我就给大家仔细讲一下,到底它这个模型怎么选。 我们在选模型的时候有很多点必须是我们要考虑的啊,首先我我举个例子啊,比如说我们现在看到了这个千问三点五二十七币,他就是一个非 m o e 模型,我们要玩本地大模型,现在肯定是主流的要玩 m o e, 什么叫 m o e 模型呢?就是二十七币,我们选出几个专家对你的内容进行分析和解锁,这样的话你的内存压力就不会那么大。比如以我这台机器为例子, 可以看一下我目前的这个内存情况是二百五十六 gb, 然后我现在挂在了这个 mini max 的 大概占用了,我就是算算系统,我大概占用了一百九十三,其实压力是挺大的,但是你要知道像这个 mini max, 我 如果是不是 mo 一 的话,我这个二百五十六 gb 基本上都挂载不了。 所以说我们在选模型的时候不要选这种直接版本,加上二十七 b 啊,或者是三十 b 啊,一百二十 b 的 一定要选择 mo 一。 那么怎么看是否 mo 一 呢?我们在下载的时候,一般他会后面带一个什么 a 三 b 啊,什么什么这样的模型 啊,比如说像这个看到没,千万三点五,一百二十二 b a 十 b a 十 b 代表有就是呃十 b 的 参数,供你及时调用,那实际你这个模型是一百二十二 b 的, 这样的模型性价比就特别高。还有这个三十五 b a 三 b 啊,这种就是选这两个模型,但也不要选这个模型,除非你的内存贷款非常大,因为哪有机器。但是你苹果八百 g 每秒的这个 m 三 ro 配置的话,优先还是选择这样一种类似于 mo 一 的, 像我们常见的比如说像纤维上扣的 gim 啊,还有迷你 max, 这都是 m o e, 所以 说我也只下了 m o e 模型。 那么还有个很重要的参数就是你的量化啊,你的量化标准,比如说像我们纤维三点五的这个量化是,呃,六位量化,还有八位量化,还有 q 四量化。我建议啊,所有玩这个 open color 的 话,你下模型你就关注一个点,就是 q 四 k m, 就 用这个模型就行了。 然后还有个问题要看一下,你看这个模型里面有 g g u f 和 m i x, 但是 m x 目前对 oppo klo 的 体验以及这个 max 六六的使用是有问题的,它的这个整个反应出来的智力水平以及它的缓存的这个优化是存在问题的。所以说哪怕是苹果的,你都不要用苹果原生的 m i x, 呃,至少现在阶段它这个对 oppo klo 的 体验是非常差的,所以我建议用 g g u f, 然后在这个 g g u f 下面我们又有很多配置啊,比如 说你的病房,比如说你的手机和你电脑同时在给这个本地大模型发消息,呃,可能会涉及到看两个绘画, 所以说我们在新建这个模型的时候,这有一个这个参数,我们要把这个病病房按照自己的要求去设置。比如说你手机和电脑可能同时发消息,以及你用两个员工同时可能对你的模型进行沟通的话,那你这个地方就调成二。 如果你想更高速让他不要去占据你病发的这个效率的话,你可以调成一啊,比如你四个员工同时用,那调成四, 我建议调成二就够了。还有这个参数,如果你是 m 三凹球的话,你可以把它调高一点,比如说四零九六,那他的这个思考的这个速度会明显快很多 啊,这就是一个小细节啊。当然这个关于 im 十六六你可以配置的选项是非常多的啊,后期我也会出教程去讲了。这些参数我们具体怎么调啊?比如说模型的这个温度 啊?我们到底,比如说根据我如果是审核合同的话,我希望他足够严谨,不要胡思乱想的。呃,可能会犯的错误的情况,那我把温度调低一点。哎,如果我是写文章,像比如说做新媒体,我希望文章创意十足,非常有特点的话,那我给它调高一点 啊,这至于调多少,这个要根据自己的实际情况来去优化。那默认情况是这个是不要乱调,就是零点六就可以了。 ok, 这是大概的一个本地部署大模型的一个思路。那后期的话我会更新更多关于这个本地大模型各种软件以及 oppo 的 配置相关的一些教程。

啊啊! 之前有小伙伴问 lm studio 是 否支持小龙虾 open club 以及如何配置,这次就简单做一期视频,教大家如何设置,也是超简单的,如果你还不会的话,跟我一步一步操作即可,这也适合新装小龙虾的配置哦。 首先自然是确保你已经下载了你要用的模型,这里我就用千问三点五三十五币作为例子,大家可以看到我已经加载好了。然后只需要来到小龙虾这里,直接运行 opencloud on board, 这样我们就可以配置新的模型了。 小龙虾还是比较智能的,它会识别到你已经有配置,这里我们只需要改动一下模型,所以我们选 update values。 然后就是熟悉的配置页面了, 我们选 custom provider, 这里默认会出现奥拉玛的本地服务器地址。我们则要来到 lm studio, 点击 server settings 这里我们关闭 require authentication, 并且打开 serve on local network。 此时右侧就可以看到 url 从之前的幺二七点零点零点幺变成了你本机的 ip 地址, 这样部署在非本机的服务也可以调用 lm studio api 了。如果你的小龙虾是部署在本机的,那就不用打开 servelocal network 这个选项,保持幺二七点零点零点幺的 ip 地址即可。由于我的龙虾是在其他设备上部署 的,所以我这里需要把本地的 lm studio api 地址暴露给他们,我们点击这里复制,然后删掉奥拉玛的地址并粘贴上去。这里注意, 我们要加上一个斜杠 v 一 再按回车。然后这里我们就选 paste api。 但是由于我们之前关闭了 require authentication, 即不需要 api, 所以 我们这里随便打个一二三四即可。 这里我们可以选 open ai compatible, 即 open ai 兼容 api, 不 过 i o m studio 也支持了 osraplay 兼容 api, 你 也可以尝试拥有。这里我们就选 open ai 兼容 api 了哈。这里我们输入模型的 id 名字即可。我们回到 i o m studio, 这里就是模型 id 了,我们复制下来,在输入的时候需要加上模型的提供商,由于这个模型是昂尔斯的,所以我们打上昂尔斯斜杠,再粘贴上去。按回车之后,我们就会看到龙虾说 verification successful, 即验证成功, 这里直接回车,然后他会让我们给模型一个别名,我们就不起了,直接回车。 下面我们可以全部按跳过,因为我都配过了。最后重启小龙虾的路由就大功告成了。打开 t u i 后, 此时我们就可以看到 l m studio 已经接到龙虾来的请求了,然后这里也显示正在使用千问三点五三十五 b 的 模型,然后龙虾也回复了内容怎么样,你学会了吗?

好多粉丝让我出一期家用消费级的 ai 电脑,该怎么配?刚好最近 openclaw 俗称小龙虾这种本地智能体彻底火了,想要在家畅玩这些新东西,到底需要什么样的配置? 今天阿豪就来给大家做一期家用 ai 电脑的避坑与选型全解析。既然是家用级 pc, 那 像一五洋垃圾、 tesla v 一 百这种老旧的服务器显卡,咱们今天就不碰了。而像 mac mini 这类主机,因为跑纹身视频的能力偏弱,咱们也先排除。 家用 ai 电脑要求的是全能,既能跑大模型和智能体,也能炼丹出图做视频,平时还能兼顾生产力,甚至打打三 a 游戏。目前 ai 大 模型主要分两类,文本推理模型和视觉生成模型。文本推理模型对硬件比较宽容,只要显存够大,老显卡也能占。 怎么判断能不能跑,看参数,比如三十 b 三百亿参数的硬卡也能占,怎么判断能不能跑,看参数。比如三十 b 三百亿像素的硬卡,大概需要三十七点五 g 显存, 算上鲸鱼,你至少得有四十五 g。 但好在文本模型有一个特性,显存不够内存来凑。虽然内存待宽低会拖慢升存速度,但对于个人玩家来说,这是一种极具性价比的妥协。但纹身视频模型不一样,它是硬门 槛模型必须完整加载到显存里,这要求显卡必须支持天使扩,且显存绝对不能低于八至十二 g。 所以如果你想全能双修,阿豪给你的底线建议是选英伟达三零四零五零系的 rtx 显卡,且显存大于等于八至十二 g。 基于这个原则,我给大家划分了五个预算档位,第一档,三千元,新手尝鲜卡位,配置如下,定位基础大模型体验加轻度办公加网游显卡建议锁定在 rtx 三零六零十二 g 刚好跨过门槛,能跑些轻量级的开源视频模型。 第二档,一万元,家用主流之选配置如下,定位中型模型,流畅跑加高效性能,从这档开始,你就能唱完 opencl 了。 显卡方面,我极度推荐二手的三零九零二十四 g, 二十四 g 的 卡选择不多,四零九零又太贵,计算卡也不值,性价比极高,能覆盖绝大多数最新模型的运行区间。 第三档,两万元,高阶进阶版配置如下,定位,高阶家用加轻度专业工作室。这套配置能支持多模型并行,兼顾四 k 剪辑和三 d 渲染,是非常扎实干活的机器。第四档,五万元,旗舰准专业配置如下, 提醒一下,如果只是打游戏,别花这份冤枉钱,但如果你需要跑大型模型,微调极速渲染视频,这档配置直接上双卡,效率质变。 第五档,十万元,顶级全能战配置如下,预算到这,推荐上英伟达 pro 六千九十六 g 专业卡 max q 这个版本也不错, 这台机器能全类型通吃,直接搞定大型模型的完整训练。选电脑不要盲目追求,一步到位,按需下菜,把钱花在刀刃上,哪不准怎么配的,可以评论区告诉我你的具体需求。

最简单的部署 opencolor 小 龙虾的教程来了啊,我们只需要打开百度,在百度里面搜索豆包,搜索豆包,然后用豆包去提问,然后把我们想要安装小龙虾的这个想法告诉豆包,就对豆包说,我需要安装 opencolor 在 mac m 系列的详细步骤,从 homecolor 表阶梯开始, 这段话发给抖包,然后抖包就会给你生成这一步一步的详细步骤,包括命令,我们就不需要像其他的这些视频上面出现很多命令之后,然后你就找不到,那么这个时候我们需要按照它的步骤一步一步走就可以了。然后我们打开终端,然后复制这条命令, 这里需要输密码,就是我们的开机密码。 在它安装的过程中,呃,给大家一些建议,如果你是 想长时间再使用这个或者训练这个小龙虾,那么我建议大家就是在选择设备方面 要选择省心安全而且成本很低的这种稳定性特别高的这种,比如像 mac 系列的,因为它的稳定性很高, 而且就算是全年无休的情况下,电费也就三十到五十块钱。但是如果说你用 windows 去安装的话,第一个是它系统容易死机,而且时不时地自动重启,然后更新说,所以说在部署 opencloud 这一类的这一类型的 ai, 不同的平台体验的区别特别特别大,我觉得可以说是天壤之别。这里我们就等待它安装, ok, 这里已经安装好了,安装好了之后呢,我们需要给他一个环境变量的配置,然后把这一段代码复制进去, 然后再我检查一下版本, ok, 出现了版本,那么接下来我们就继续装 g i t 和 load js, 这两个可以一起装, 这里我们继续等待。 ok, 这里安装好之后呢,我们继续检查一下它的版本,就是复制这个命令,这个,然后呢我们同时检查一下或者解 s 的 版本, 我们的基础工作就已经安装好了,安装好之后我们只需要在百度里面搜索 opencloud, 进入它的官网,进入官网之后, 然后它这里有一个一键安装的命令,然后我们复制进来,然后粘贴进去继续安装就可以了,这里我们继续等待,等待它下载安装, ok, 这里小龙虾就已经安装好了,安装好之后这段话他提示你,就是这个是个人使用呢?还是多人共用,那么我们选择 yes, 就是 个人使用,然后这个是快速安装,然后我们选择快速安装, 那么到这里就是提示我们选择哪一个大模型,这里面模型特别多,这个大模型就相当于呃 open class 小 龙虾的一个大佬,那么我们这里选择字头 ok, 嗯,智普呢,因为有免费的额度,然后你只需要在百度里面去搜索智普要注册,注册了之后它就会给你免费送,然后我们这里添加一个 api, 随便取个名字, ok, 到这里我们把 api 创建好之后,我们复制这个 api k 这里,然后选择选择用哪一种方式进行接入, 然后把 api 粘贴进去, 然后呢这个地方选择四点七,那么到这一步就是提出我们选择用什么样的方式进行对它外部连接,这里面有特别多,然后我们这里选择非输, 那么我们同样在百度里面搜索飞速的开放平台,因为我这里是已经登录好了的,我们点这个开放平台进去之后,点这个创建企业自建应用,然后取个名字描述,随便 选一个机器人,选一个图标,随便什么图标都可以,然后点创建, 那么创建好了之后,这个地方就会出现一个菜单,然后我们点击这个机器人点添加, 点了添加之后我们点这个地方的开发配置里面的权限管理,给我们刚刚的机器人赋予权限,我们点开通权限,这个地方可以搜, 就是输入 am 点冒号,这里出来的就是所有群主消息的这个权限,然后我们全选,当然里面有些你们可以自己看一看,然后有比如说像创建群呐,解散群呐这些可以不用选对不对?然后你们可以看一看, 然后点确认,点击确认之后,在这个上方这个上方有一个创建版本,然后我们点击创建版本, 点击创建版本之后在这个里面进行配置版本号,比如说一点零,然后说明里面也要随便写一个,然后滑动到最下面,然后点击保存,点击确认发布, 那么这样我们就完成了这个应用的发布,接下来我们就要获取刚刚我们所配置的相关信息,点击左侧的目录数凭证与基础信息,然后这个就是我们刚刚所创建的应用凭证,然后我们复制这一串, 复制好之后我们回到我们的命令框,然后选择安装飞速插件,这里要等待它安装,安装完成之后,这里提示我们输入相关的信息,然后点确定, ok, 这里让我们输入 这个我们刚刚复制的这个,然后把它粘贴进去,然后输入 f i d, 这里选择第一个,这里继续按确定键,继续按确定键,这里我们选择跳过, 这里的提示是让我们选择安装哪一个 scale, 这个 scale 的 意思就是你们可以把它理解成 软件 open 扩展,它是一个框架,它让我们选择安装哪些软件,这里面就出来很多的内置软件。第一个是跳过,然后空格加确定就可以了,然后一般情况下我们选择一些软件,比如说像这个,还有 这个选好之后,选好之后点确定就可以了,然后它就会把我们选的这些 skill 进行安装好,这里继续等待。 那么到这里就是提示我们有没有其他的模型的 api k, 我 们没有,所以说先选择 no, 点确定就可以了。 那么到这里呢,一般我选择就是后面两个,然后点确定,点它安装, ok, 到这个界面呢,就是问你想怎么样来启动你的机器人?第一个是用终端命令框的形式,第二个是用微博,就是用网页的形式来启动,那么我们就用网页的形式来启动, 选择用网页的方式启动之后,那么本地就会打开一个这样的一个网页,这里我们就可以很愉快的和他进行聊天,把他训练成你真正的 ai 助手。比如说你给他发个消息,你好 到这里呢,他就已经完全上线了,他问你我是谁?你是谁?你可以跟他取个名字,那么以后你就可以用你给他取的这个名字来进行沟通,也可以在这里跟他设定不一样的个性和风格。最后我们来配置一下飞书, 点击左菜单的事件与回调,在事件配置中设置订阅方式, 然后我们选择使用长连接,然后点击保存,点击右侧添加事件,这里搜索接收,然后添加接收消息,事件点添加, 这里点击回调配置,点击订阅方式,选择长链接,点保存,到这里我们就已经配置完成。配置完成之后需要进行发布版本,我们继续点创建版本,然后输入一个编号, 然后随便发一点消息说明,然后点击保存确认发布。 ok, 我 们所有的配置就已经完成,你可以在飞书上和你的小龙虾进行愉快的交流,手机端也同样可以进行交流,而且更方便一点。那么接下来就开启你的养虾流程。

国内龙虾智能体教程终于它来了!只有看完这本书,你才会真正明白,把 ai 玩明白了,真的可以解决很多问题。你只需下达一句指令,它就能直接接管你的电脑, 二十四小时不间断替你干活。你甚至不用手在电脑前,无论是海量数据自动处理 excel 批量操作、报表生成邮件收发文件整理资料规划、写代码、做 ppt、 做海报剪辑,所有耗时易出错的重复工作,龙虾智能体都能替你干,抵顾十个员工都有用!无论你是二十岁、三十岁、四十岁,还是五十岁,都可以把龙虾 ai 智能体教程买回来认真看一看。 ai 不 会取代人,但会用龙虾智能体的人,正在甩下不会用的人。这不是科幻,是普通人的生存指南。想要在 ai 狂潮下提升效率,抓住时代红利,那这本书你千万不能错过!

敲黑板上干货,今天讲怎么把小龙虾定义角色,安装技能,让小龙虾成为一个有角色有灵魂的专业的专家,结尾有截图,评论区,直接复制照抄就行。 今天我们只讲四件事,第一个是给小龙虾定义角色,让小龙虾彻底有一个专业的 灵魂。第二个就是安装官方的专业技能 skills, 直接变成专业超级的你的赋能专家。第三步就是让小龙虾安装技能多线城进行解决 ip 限制的问题。 第四步就是加一段安全声明,让小龙虾只抓安全无风险的技能,让你的小龙虾保证在安全的范围内,下面我们开始操作吧。第一步呢是定义角色,要给你的小龙虾一个身份,定义它的灵魂,根据你的自己的行业,从事工作的角色, 给 ai 更多的一个定义,如果你是做自媒体运营的,财务的,人力的,项目管理的,按照我的这个提示语啊去定义他的角色,同时呢你跟他对话,他也能反过来帮你定义角色。下面就是我的小龙虾不断的对话,刚开始呢就帮我定义角色, 所以第一步我们要给小龙虾定灵魂。第二步呢是安装官方权威的技能 skills, 这样呢才让你的小龙虾成为你的本行业本岗位的专业的专家,为你的岗位赋能,并且安装完以后呢,一定要告诉小龙虾技能的功能和使用方法, 这个呢是我整理的七个常用的国内和国外的安全无风险的官网,大家呢可以在评论区直接复制或者最后结尾截图使用。第三步呢是开启多县城解决 ip 限流的问题, 因为在安装技能的时候,可能会因为限流的问题安装的就不流畅,所以跟你的小龙虾加一句提示语,他就会多现成多代理的进行安装,这样的话也不会卡顿了。 第四步呢,也是最重要的一步,这个呢是必须要加的,就是一定要跟小龙虾说,安装官方认证的和 非官方不安全的一律不执行,这样你的小龙虾才能更安全的运行,防止窃取你的一些敏感信息,财务信息。通过以上四步呢,你的小龙虾就变成了一个有角色,有灵魂,有核心技能的专家了,这样的话你就有一个超强的 ai 助手。 结尾呢,有截图评论区呢,有全套提示词,大家复制即可附用,敲重点,讲干货,今天的分享就到这里,谢谢大家!

呃,很多朋友都好奇,养一只 oppo 可乐小龙虾到底要花多少钱啊?要不要半亩钱?其实呢,费用就两块一块呢,就是房租,就是服务器,你去做一个云浮球形入门配置也完全够用,大概是六十块钱一个月。第二 呢就是口粮,就是大拇指算力,这个具体呢,要看你怎么用,用的少呢,一个月就几十块,用的多呢,模拟选的贵的那几百上千也是很正常的, 新手我建议就直接去 kimi 这种平台,先充五十块钱就跑个流程,所以说最便宜的方案就是服务器六十,算力五十一百一。那么再回答大家最贪心的三个问题,第一个问题呢,就是要不要翻抹墙啊?不需要,国内完全能用。第二呢,要不要买新电脑?也不需要,原来电脑能上网就行。第三呢,会会不会很烧钱 啊?我们是用多少充多少,其实是可以控制的啊,所以说你可以先花一百一把第一种龙虾养起来跑动之后呢,再根据自己的需求要不要升级模型,要不要加大用量。

龙虾注数实操指南终于到货了,十六块的大开本,全书共分为八个章节,全面系统的介绍了龙虾注数的核心定位、产品哲学、技术架构,以及全场景落地的实操方法。内容完整,没有任何的深浅, 而且语言通俗易懂,行业场景案例十分丰富,哪怕你是零基础的初学者,也能够轻松看懂学会, 每一次到货都会被席卷一空。这次只有少量的现货,价格非常的简陋。对 ir 智能题感兴趣的书友们,这部书千万别错过,要抓紧时间去抢购一本。

ai 圈,这是 oppo q 小 龙虾,都快被人炒成天价龙虾了,五百块一次安装费,大厂线下活动排队能绕写字楼三圈,纯真是把板砖卖成金砖的价。今天老陈不玩絮叨,两步教你零元部署,把它变成给你打工的专属牛马小龙虾。 第一步,其实就直接打开飞书,直接搜 openclock, 找到那个叫妙搭的应用,点一下一键部署龙虾,就跟你平时点外卖一样简单。那第二步,给你的小龙虾起个花名,选个可爱的头像点创建,泡杯咖啡的功夫,一分钟不到就能部署完成。不用你研究什么乱七八糟的 skill, 小 白也能临门砍上手。完事发一句,获取所有权限,点个授权熄火。这个小龙虾有什么用?都在这张图里, 不要以为老陈在打广告啊,谁用谁香!二零二六年了,再好的 ai 技术,最终都是为了让人活得更自在。那关注老陈,轻松玩转你的二零二六 ai 时代!