哈喽,大家好,我是 paper, 那 今天我们来说一下我们最常用的 token 本地模型和外部的模型该怎么样去使用?就是 token, token 是 什么呢?一方面它是有这个最小计算机处理文本单元, 另一方面它也是其他的,还有很多身份认证啊,指令串密密实都百度的话,你要使用在我们的 ai 大 模型中,你就记录这个最小文本处理单元就可以了。我们再来看这个本地模型去哪里找啊?一般的话,像这个最常见的开源社区 hackin face, 我们在这里面去找本地模型,我们登录进来,然后找到这个 browser two m 加 models, 或者说你直接在搜索栏中搜索对应的名称,像这个主页,它这个首页里已经有这些,比如说像这个 minimax 的 二点一,千万的三点三,还有一些各种各样的 模型, open i 的 gptos 啊,你可以或者说这个 kimi 二点五等等,你可以点击这里去我们要找的像一些文本到图片的模型, 就是 ai 绘画模型,还有像这个文本到视频的模型啊, text to video, 还有像这个文本到文本,也就是我们的语言模型,就像豆包,千文,这些都是语言模型,我们只要去搜一下这个 text generation 文本生成,我们就可以在这里看到有千文,三点五啊,还有各种各样的 emoji 三啊,各种各样的 mini max 等等啊,只要是你所熟悉大厂,那基本他发了都在这里面啊。你看这个 b 嘛, 这个币数越大,比如十七币,八十币,三十二币,一百九,十九币,甚至这个二十八币,或者说这个四币的,这肯定效果没有那么好,是吧?那因为达到六十七币,一二一百二十四币都很大, 这东西像这个 mini max, 二点五,二点二十九币啊,二百二十九币,这个更大,这个你要是下下来,你会发现 你可能你的电脑用不了啊,就是这么简单哈。 ok, 我 们再看这个像一些其他的开放的 a p i 怎么去使用?那这里我以这个 g m 举例啊,我们直接去找到 a p i k, 点一下就进入到这个页面了, 这个页面就是你的 a p i 密匙了,我们在这个项目管理 a p i key 中找到它,像这个已经有的 a p i, 你 用到别的地方可以去,这样子你也可以直接删除,我们再可以添加个新的 a p i, 比如说你这个 a p i, 你 要去用到自己的 call 啊,那么龙虾上我们就点击 call, 然后把它复制过来,然后粘到这个 call 里,你就给它充钱就可以了哈。 你还想还想要再用一个 a p i 去做别的项目,那比如说我这个叫这个 agent agent, 那 这个 a p i 呢?我们给它复制过来,去放到别别的调用的端口里给它充钱就可以了哈。 像这个 open a d b c 的 a p i 啊,页面也差不多哈,你可以在这里点击 create new c c 啊,你也可以在这里点一样的啊,这里 name 我 写 call 啊。这个 project 你 可以放到你的默认 project 里,不过一般只有一个啊,点击 quit 就 可以了哈, 配置完之后呢,一样的,你就给自己的套餐充钱就可以了。那这个 api 呢?它不同于你的和你的传统的大模型,你直接问它那种网页对答模型不一样的啊,因为 api 呢?它 是啊, api 它是实时计费的,就说你要是用的话,你可以用到很多层面上不同,不停去调用这个模型。而你的网页因为问答呢,只要你这个模型啊,只要你这个网页关了,你就用不了了,是吧?你要是想用它,你是不是得二十四小时数在电脑前啊?你在电脑前你才能用它,但 api 不 一样,你可以做成全自动化的东西, 这样子呢,它的费用就会很高了。所以说 a p i 是 单独收费的啊。 ok, 那 今天呢,学完这课,咱们这个玩龙虾啊,或者说玩什么都会更轻松一些哈。咱们就先到这里啊, ai 啊,一定要去关注这些啊,最基础的东西,如果说这些基础东西你都不知道,那你去你就很难玩得转这些东西哈。
粉丝4983获赞4.7万

春节期间,海外大模型聚合平台发布了全球大模型排行榜,数据显示,中国模型在全球排名前十的大模型 token 总用量中占比很高,这引发了国内对国产 ai 全球变现的关注,也催生了 token 出海的新趋势。今天我们来聊聊 token 出海目前落地的三种商业模式。 第一种是模型聚合平台上的 api 调用,这是目前最直接的出海方式,也是资本市场认可的模式。 海外开发者通过全球模型聚合平台调用中国大模型的 api 推理过程,在国内数据中心完成,海外用户按实际使用的 token 付费,中国大模型企业从中受益, 核心优势是电力核算力不出镜,但价值出镜。第二种是海外版 ai 应用,这类产品面向海外普通用户, 属于 c 端 token 出海。国内比较成功的有字节跳动的豆包海外版和 mini max 的 ai 陪伴应用。前者在东南亚、墨西哥等国的免费 ai 应用市场表现突出,日活超千万。后者吸引了近两百万海外付费用户,是 mini max 的 核心变现产品。这些应用依靠国内 i d c 服务的性价比 推理服务用国内平台,但变现方式是订阅、广告等 c 端模式,不是直接卖 token 给开发者。第三种是开源权重出海,这是长期抢占生态的打法, 中国公司将模型权重免费开源,海外推理算力平台在本地部署这些开源模型。不过这种模式下,海外开发者的 token 消耗在当地平台, 中国大模型公司无法直接受益。严格来说和 token 出海没有直接关系,但开源模型能抢占全球开发者心智,后期可通过高性能闭源模型导流到自家 api, 实现真正的 token 出海。总结来说,这三种商业模式本质还是国产算力的趋势, token 出海更像是给国产算力套了个新马甲,大家要注意其中的炒作风险。

三月十九日凌晨,天鹅又做出了一波风控,今天一定要将永恒的永远不会被限制的方法教给大家,教会大家,让小伙伴可以自己动手,丰衣足食。废话不多说,先做一个快速的演示。首先我们打开制作好的系统以后,先点击呼叫恶灵骑士, 就是任务栏里的这个骷髅头的图标。呼叫以后打开我们的 s h 工具, 延接到我们的系统,接着在这里输入扣杠 c 六 n, 输入以后按回车键,再按回车键,会有一个登录方式的选择, 我们选择第一种方式好,按回车会有一个链接,将这个链接进行复制,然后打开谷歌浏览器,打开一个无痕窗口啊,注意,一定要是无痕窗口, 将这个链接粘贴进来,在这里输入自己的邮箱,我们使用一个 dm 邮箱,在邮箱的后面输入一个加号, 随便输入一些数字和字母,接着 continue, 然后输入一个姓名,继续这个时候 abs 会给我们这个邮件发送验证码,注意啊,后面的后缀不用管,它是一个随机的无线的邮箱, 重要的是我们的前缀不要变。收到验证码以后,将验证码进行粘贴 continue, 然后就可以输入一个强密码,输入好以后 continue, 接着点击 confirm and continue allow access, 这样我们就登录了这个账号。先来随便发一个消息,打一声招呼,可以看到 hero 给出了一个正常的回复, 接着按刚 use 去看一下这个账号的积分,积分是零杠五倍,这个方法只要是能得到回复,这个账号就没有问题。关于 k o 二零骑士可以参考加运点算,找到 ai 续杯工具箱,找到 k o 二零骑士这个板块,参考里面的内容。

open call 不 会部署怎么办?今天我就给大家看看我用到的非常实用的 ai 日常助手,天佑三合一 curse windsurfer 无线助手 软件开发的 ai 效率神器。这里点击获取额度后,现在进入到登录界面,打开一个文件进行对话测试。 工具上的使用教程进去可以随意切换续杯软件,我们来对话看下。 贴入可以使用 cloud 四点五这个模型,我们选择这个模型进行对话。 看下这个是刚刚获取的账号信息, 这里我换到大家常用的 ctrl 这个 app 看看,点击一下获取额度, pause 会重启这里,我们等待几秒钟,正常是秒启动的,这里电脑配置稍微慢点,这里可以使用 pause 的 auto 模式 继续进行对话测试。 刚刚三个软件都可以直接用,不限额度, 这是我的效率日常感兴趣的朋友给个小爱心, 一键三连分享!

今天我们来聊一下在 ai 领域一个非常基础但又直观重要的概念,就是大模型的 talkin。 我 会用最通俗的最直白的话给大家结合一些简单的图给大家 理解一下什么是 talkin? 它是大模型的一些积木吧,也可以是说大模型的基本单位。来我们看一下我们是如何理解语言的 基本原理呢?是组合和识别,我们通过识别字或者单词,将它们组合起来,理解整句话的含义,比如说我爱中国,认识我爱中国这几个字组合既懂得什么含义, 形象比喻呢?是不是像搭积木一样,用数字的基础的字或者单词搭建出一个复杂的句子或者文章的造型,对吧? 是这么一个理解,这是语言的理解。那么大模型的积木是啥?也就是大模型的单位是啥?核心答案叫 talkin。 talkin 是 大模型理解和深层语言的基本单位,它是它的世界里面的字或者单词,也是处理信息的最小颗粒度。 那 token 是 怎么切出来的呢?为什么要切呢?因为它不一定是一个单词,也不一定是一个汉字,它是由于我们的分词器来决定的。比如说我们中文的分词器的话,它原始输入,比如说我爱人工智能,它可能分成我爱人工智能, 它不是分成单个字,它有的词是连在一起的。然后比如说英文单词 i love a i, 它可能分成三个虚列, i love a i。 所以 说 切分规则完全由分词器来决定,并非完全对应单个字和单词,有时候被可能一个字也被会切为多个 tok, 反字亦然,有时候一个词对应成一个 tok, 对 吧? 那然后呢? token 呢?的积木比喻是什么呢?每一个 token 都是一块独立的积木,它是构成文本的最小单元,我们的文本呢,就是积木造型,一段文字或者回答用这些积木堆叠打造出来的一个造型。 大模型呢,它是搭积木的高手,根据指令 promote 用合适的积木块精准搭出你想要的造型。不同颜色的积木呢,就是不同的 token 代表不同的语义信息,就像不同颜色的积木代表不同的属性一样。 token 在 大模型的工作是什么?理解阶段,输入的 promote 会被切分成一串 token 训练, 然后呢,模型通过分析这个 token 的 组合与顺序,精准地理解用户的需求,然后如同看我要一个汉堡,谁能识别出我要汉堡等关键字。 然后这是理解。然后呢?深层阶段呢,就是逐步理解意图。之后呢,模型思考计算并计算下一个最合理的托管,就从第一个托管开始,足够深层,直到 完整的整个回答。就类比人类说话一样,不是一次性的想完,而是一个词一个字的说出来,是这么一个工作。那托管的数量有什么影响呢?托管的数量代表模型一次能处理的最大文本窗口,窗口越大, 记忆前面的信息就越多,理解能力就越强。比如说两千的托管的模型比一千的托管的模型能看懂更长的文章和复杂指令。 第二是会影响使用成本和速度,处理的托管越多,消耗的计算资源越多, api 调用的费用也就越高,生成的托管越长, 回答篇幅也长,响应延迟和生成的时间也会长。所以说这些托管的数量就会影响上下文。窗口大小决定理解能力,决定使用成本。 一个更形象的对比图是上小下文窗口模型,就是 视野有限,只能看到拼图的局部睡眠,难以理解整体的文案和逻辑。上大下文的窗口模型呢,是视野更开阔,能够看见完整的拼图全貌,更容易理解整体逻辑,作出准确判断。 所以说这就是一个形象的对比图,就是核心结论就是还是数 cocoon 的 数量直接决定了模型的视野的广度和记忆力的深度,对吧? 我们总结一下,什么是 token 呢? token 是 大模型的积木,也是模型处理的最小基本单元,是构成语义的基本要素。 token 呢,它是用分词器来切分的,在文本在输入模型前呢,会被拆解成带特定的 token 训练进行处理。 然后模型呢,通过托看理解和生成呢,先理解输入的托看训练,然后再去生成足够深足个深层输出的托看训练。 然后呢,托看数量的影响,嗯,成,你说数量会影响能力或者成本,数量越多呢,视野越广阔,理解能力也越强,同时呢,也会增加计算成本和耗时。好了,今天我们这一讲就讲完了,谢谢观看。

哈喽,我是严校长,之前几期视频去讲了这个本尼大模型吧,然后很多人就觉得这个本尼大模型在速度上肯定是非常的差的。然后这期视频主要给大家实战演练一下啊,只见我们用录屏的形式看一下。呃,我最近发现这个模型啊,就是刚出的千万三点五三十五 b a 三 b 这个模型, 你看我用的是这个八位的一个量化版本,但这个版本其实跟我们线上去使用的话,差别并不是很大,特别在高峰时期,他不会被压缩。 如果你用线上模型 open color 想省钱不用的话没有意义,你训练的东西没有用,然后你大量使用的话,你的这个开销,特别是多 a 镜头的这种场景,你的成本是相对比较高的。所以说如果你有重度的 open color 依赖的话,可以尝试一下和我一样用麦克斯丢丢 去做本地模型的部署,可以看到我这台机器是二百五十六 gb 的 版本,这个机器目前跑这个东西都是小儿科啊,你看就占用了六十。然后我们来看一下这个本地模型到底速度怎么样, 我们先做个简单的测试啊,比如说你可以做什么?大家重点是关注他这个回复的这个速度,以及这一块他思考的这个时间啊,可以看到这个速度基本上是秒出的呀,可能现在赛文比较小啊,可以看现在能跑到四十七啊,可以跑到四十七 啊,然后这个是八位的啊,这个八位如果我换到四位,我们常用的这个版本的话,可能速能跑到五十多啊。比如说我们来点复杂的,比如说 天气怎么样?因为这个涉及到要一个联网搜搜索嘛,他会在网上去搜啊,他的步骤可能你看现在已经操作了两步了,第三步了啊, ok, 把他读到了我当前地址啊,然后天气都带出来了啊。比如说我再问一下别的地区, 因为这个就要考虑到一次两次的上下文的连连接,而不是简单的常用的这种。呃,人工智能进行一个单次对话,你看他联想到了我后面发的这个深圳的话,他能联想到这个天气的信息。然后我们接着来去 啊,问一个复杂啊,比如说推荐一下二零二五年的高分韩剧啊,这个其实是有点难度的啊,首先他要在网上去扒资源啊,找到有用的信息,然后进行整理。 这个步骤对于本尼达模型其实压力算是很大的,你看一下我们这个目前新出的纤维三点五,在这个本尼达模型上的效果怎么样?可以看到这个速度 其实有很多人应该用过线上的版本,你们又不觉得我这个速度并没有很慢是不是?而且我这个是没有弄虚作假了,这些片子可以看到都是都是新出的,而且刚刚的思考过程都是看得见的。 然后我们来反过来推一下,你看现在上下文是有一定下降的啊,跑到四十五,但是四十五点七 t 肯啊,这个叫 t g 头肯,就是吐字的,这个速度其实是已经很合理了,我们再继续给他一点有难度的啊,比如说这个片子啊,我直接跟他说嘛, 这个具体讲什么?好看吗?啊?你继续进行二次追问这样一个测试方法是很容易测出一个模型以及对于 open klo 的 适应能力,可以看到速度依然可以很快的出来。 然后我们再继续增加难度,比如说这个片子一出来,我觉得你看他,他甚至给我一个建议啊,就是他可以帮我搜磁力链接,这个就很强啊。我说,呃,找找四 k 的 吧 啊,其实这个又又叠加个难度,首先上下文的长度变长了,哎,再加上他对互联网解锁的这种能力就更强了。因为我们用的是巴巴比特这个电话版本吗?如果试比特可能会弱一点,但是他只影响他试错的这种 几率吧。可以看到这种他已经不断的在尝试了,如果你是精度比较低的,他可能试错的次数会多一点,但是基本上都能出结果,而且可以看到我现在的这个显存。 嗯,这点三条文基本上不会有开销。比如说你预算有限的话,你可以入 m 三要求的这个九十六 gb 现存的这个版本,如果你呃预算 大概在两万左右的话,也可以买六十四 gb 的 m 二要求的话,你跑四 b 的 量化体也不会差很多 啊。你看这个,这个他现在就是遇到了问题啊,你看,呃,就说在某个网站上没有找到这个资源 啊,这就是现在本地模型,我目前来测试就是很容易出问题的一个点,但是这个问题我觉得是可以解决的,因为通过你去优化它的 skill, 它可以解决更精准的一些,因为我现在是完全让它呃重新尝试,相当于没有没有教学的部分啊,让它自己去尝试, 那后期你就可以完全用自然语言去沟通,然后他会更了解你的习惯,写出更合适的 skill 啊。这些视频主要是给大家讲,就是关于本地大模型啊,以及这些使用体验上的速率以及性能的问题,可以看到一些正常使用都没问题。 我们再做点哪一点呢?比如说打开浏览器,进入小红书,搜索 back 丢丢,其实这个是有点难度的啊,就哪怕很多线上模型,我们去跑浏览器的自动化,其实都呃不是那么容易成功的。而加加我们现在已经有一些上下文的堆积了,然后我在中间突然插入了一个和上下文完全没关系的 啊,内容其实对他来说是有一定的难度的,可以看到他第一次试错了,他第一次直接用这个,呃,直接去抓了呀,他就是很简单,他打不开浏览器,但是他用了一个其他的方式帮我推出来了这个目前我想找到的东西,也就说他又找了一个别的解决方案啊,但是千万三点五,这个本身是一个小模型啊, 如果我们后期去切到这个 mini max, 你 看它这个,嗯,空间都占用一百三十八,实际跑起来大概占一百八十 gb 的 现存。比如说如果你预算更高一点,大概五万的预算的话,你完全可以入这个二,像我一样二百五十六 gb 的 这个 m 三要求啊,就跑这个 mini max, 像这些什么浏览器啊,以及呃下电影啊这种小科的问题吧,但是它的速度可能就跑不到五十头克,每秒大概有三十头克,但是日常使用完全够了。 ok, 那 下期视频我们会继续分享如何?呃,更高效地使用本地这个大模型,来去跑一些 open klo 的 一些复杂任务。

今天这期视频,我想跟所有 opencla 用户聊一个硬核话题,当对话越来越长,你的 agent 为什么会变笨?大家看一下这张图,为什么一句简单的,你好底层逻辑要消耗一万四千九百个 token, 有 效信息占比竟然只有百分之零点零一。 为此,我花了很长时间去拆解 opencla 的 源码。其实官方默认的 log 引擎就是一个空壳代理,它的核心逻辑在 attempt 点 ts 的 管线里, 当你的对话 to k 数超过模型窗口的百分之九十二,它就会触发暴力压缩,保留最近的三轮,剩下的全部送给 l l m 做摘药。 最要命的是,摘药做完,原始消息就在 g 三 no 文件里被永久替换了,找不回来了。你的 a 键 t 不是 不想记,而是底层的机制把它变成了每隔几轮就被迫洗脑的健忘症患者。这里是原版 open 库拉处理上下文的压缩提示词,大家可以浏览一下。 这里是他 token 的 消耗,从二一到二七, token 消耗增长六点四倍,每多一轮对话就多一份原文,直到撞上压缩预值。为了解决健忘,社区里极其优秀的 martian engineering 团队做了一个叫 lossless cloud 的 插件。 他彻底抛弃了限性压缩,引入了 d a g 有 效无环图。他的核心承诺是无损原始消息,永远保留在 sq lite 里。 大家可以把它想象成一个由 ai 化的 google earth, 最底层是街景,也就是百分之一百的原始对话。往上一层 depth 零是城市地图,大概六百到一千两百 token 的 片段摘要。 在网上, depths e 是 国家地图几千 token 的 完整摘样。它的代码设计非常精巧,不同深度的节点,它会给 l l m 为完全不同的 prompt。 浅层强调细节,深层强调项目的宏观决策。不仅如此,它在数据库层面用了 on delete restrict, 此此锁住原始消息,不被删除。这里是 l s c o 的 深度分层提示词,大家可以浏览一下。 这是一个工程质量极高的标杆,但是深入使用后,你会发现它的三个致命痛点,第一,它是单对画绑定的, 你换个新窗口 agent, t 就 又是白纸一张。第二, toker 仍然在增长, d a g 越深,摘药节点越多,你的上下文窗口依然再被一点点吃掉。 第三,回溯成本极高,因为分了太多层。当你需要从地球一下钻到街景去查个历史报错时,它需要 spa 你 一个字 agent, 你 可能要干等一百二十秒才能拿到结果。它确实做到了不忘,但你需要它的时候,它翻得太慢了。 既然无损压缩这么重,那有没有别的方法?这就是我做 graph memory 的 初衷。我们不走把对话缩小的老路, 我们走的是把对话征流、 legacy 和 losless 模型。上下文里放的始终是对话文本,而 graph memory 放的是什么?是结构化的三元组。我们定义了三种节点, testk、 任务 skill、 技能 event、 报错,以及严格的五种边约束。 比如,报错 event 必须通过 solved by 这条边指向技能 skill。 这叫什么?这叫逻辑关系,这不再是模糊的文本加药。 在性能上,我做了一个极致的设计,数据写入和组装阶段零 l l m 调用全靠政策和规则,引擎零延迟, 只有在后台跑 con park 提取支持时才用 l l m。 不 仅如此,只要用户一发消息,后台提取立刻中断, api 额度永远优先给你的当前对话,这是整个系统最具杀伤力的数据。 左边红线是原版的 open club, 对 话越长 token 越棒。右边蓝线是 graph memory。 大家看到了第四轮之后, token 的 增长几乎停滞了,稳定在二点四万左右。为什么? 因为同一个报错被解决十次。在图谱里只是把节点的 validated count 加了一,它不会额外占用你一个 token。 这是目前唯一一个真正将上下文消耗与对话长度结偶的方案。大家可以看下 graph memory 的 知识提取提示词, 下面这个是对话结束时的整理提示词,现在我们把这两种路线放在一起直观对比。 第一点,跨三行复用 lossless cloud 被困在单个对话里,而 graph memory 在 你新开对话的 befor agent start 的 阶段, 就会通过双层召回,把上个项目的经验自动加载进来。第二点,解锁方式, lossless cloud 是 fts 五的限性权威搜索,我们用的是什么?向量搜索加个性化配置, rank 算法,加图便利,问 dawk 和问 python, 图谱会根据你的问题动态计算权重的传播,精准召回。第三点,也就是最核心的一点,拉斯,拉斯卡是知读的, agent 只能去翻历史。而 graph memory 提供了一个 g m 杠 rico 的 工具, agent 可以 在对话中主动往图谱里写入新知识。 讲了这么多底层,让我们看看他长什么样。知识不应该是黑河,大家看在 u i 右侧,这是一个实时的二 d 三 d 图谱,你可以直观的看到刚才那个 bug 是 怎么关联到解决代码的。你可以直接把一个节点拖拽进对话框强制加载,也可以随时增删改查。 最后做个总结, legacy 是 健忘的 agent, 看得到的丢掉,看不到的忘掉。 loslasclose 不 忘的 agent 什么都不丢,但需要你去一本厚厚的账本里慢慢翻。 graph memory 是 会学习的 agent, 它从经历中提取经验,跨场景复用,你的经验属于你。它是一个可以随时带走,可被训练的 s q i 文件。 graph memory 已经完全开源,一行代码安装配置好大模型就能用。如果你受够了 agent 的 健忘,不妨试试这种全新的思路。

现随着 ai 应用的遍地开花, ai 的 talk 消耗量越来越大,甚至有人开玩笑,今天赚了多少个 talk, 还有一个应用场景,大家每天在使用 openclo 的 时候, 它的消耗量也是非常惊人,今天为大家分享一种方式,可以白嫖 talk, 而且它不是那种小模型,而是我们国内的 gim 五, 接下来我们看一下如何使用。哈喽,大家好,这里是二 pop openclock, 相信大家现在已经人手一只了吧,但是它的 talk 消耗量就非常大,今天我们分享一种可以免费获取 talk 的 办法,这就是互联网大善人英伟达免费开放的, 之前我也在公众号分享过,今天我们来手把手实操一下。我们打开英伟达官网的模型列表,大家可以看到这里有各种各样的模型,像千万三点五,还有智普五点零, 还有 kimi 二点五等等,这些都是可以免费试用的,使用方式也非常简单。我们先点击这里的注册,当然在这里注册的时候,我们要注意一点,我们要使用海外的邮箱,就比如 gmail 或者是微软的 outlook, 不要使用 qq 邮箱,这种是没法通过的,我已经给大家试验过了。 我这里粘贴我的谷歌邮箱,点击下一步,这里输入你觉得合适的密码,我们点击创建一个账户,这里他会给你的邮箱发送一个验证码,输入验证码,点击继续。这里是按选择是否接受通知,我们直接提交就可以, 没有任何影响。这里输入一个名字,这里也没有任何限制,直接输就行,这时候我们就注册完成了。回到了这个页面,大家可以看到最上边有一行,请验证你的获取 api, 我 们这里点击一下验证, 这里验证是需要输一个手机号的,这个手机号我们也试验过,输入国内的手机号,也就是加八六的,前面我们选择中国 china, 这里我们输入八六,这里我们选择中国。以后输入一个我个人的手机号,点击提交,这时候你的手机就会收到这样一条验证码, 是优速通发的,我们输入进去,点击验证,可以看到这里基本上是秒通过的,我们在这里随机选择一个模型,就比如智普的这个五点零, 然后点击这里的 welcome, 这里获取 api k, 可以 看到已经能拿到了,接下来我们验证这个 api k 到底可不可以用呢?在之前我分享过一个很好用的工具, cherry studio, 就是 这个樱桃的,它是一个开源项目,我们可以在 github 上直接下载到,然后在这里测试一下这个 api k 到底可不可用,我们点击左下角这个齿轮, 这里选择添加模型供应商,我就添英伟达下面供应商类型,我们选择 open ai, 点击确认,这里需要填密钥还有地址,我们粘贴 api k, 粘贴 url, 添加模型,这里要注意这是英伟达自定义的一个模型名称,就这个 z 杠 ai glm, 我 们拷贝过来,点击添加,这时我们打开对话试一下, 这里要注意模型切换,我们切换成刚才添加的,因为答的这个 z a i g m i 五,我们问它是什么模型,看一下它的反应,这里因为我的网络问题,可以看响应速度稍微有点慢,但是它是完全没问题的,可以看到它是由 z 点 ai 训练的大约模型,然后是 g a m, 这时我拿到这个模型大家就知道怎么用了吧,比如我们把它绑定到我们的小龙虾,或者是绑定到我们的 agent 上,这时候就可以无限的耗羊毛了, 而且我还没有碰到过说使用限流或者是 taco 被用完的情况。大家如果需要更多的账号,完全可以按照我这个方式注册几个谷歌账号,然后并且做一个手机绑定就可以了。更多 ai 和变现的方式我们一起来研究。

keynote 缩你的四点五为什么无法使用?我们先来演示一下消息发不出去的情况。首先使用 kelot 缩你的四点五,给 kelot 打一声招呼,看他的回复, kelot 给出的回复是太多的请求,原因其实很简单啊,是 kelot 缩你的四点五,不再支持我们所在的地区, 需要我们切换一个好的网络,只要不是大陆网络就可以。接着我们再来发这个消息,一般有魔法的话,打开去模式或者全局模式就可以解决这个问题。可以看到 kiro 这次 给出了正常的回复的免费账号里面最高级的模型目前是格拉索苏尼的四点五,它的积分是五百积分,非常的耐用。当我们使用宇宙魔方中心,就是从簿刻地址超超密点昂兰的第一篇文章下载的这个软件,用 kiro 这个卡片 进行切换的时候,会将账号不用登录的情况下,直接切换到我们 windows 端或者苹果端的 ide 上面,非常的方便。

兄弟们,前几天不是因为我的 token 使用异常,然后让我的小龙虾自己去优化,然后把它给干挂了吗?然后这几天的话我已经把它修复好了, 然后具体什么原因我也了解清楚了,这里的话跟大家做个分享。第一的话我原先的话因为怕我小龙虾就是失忆,然后给大家设置了一个极其变态的一个记忆系统, 让他每天把大大小小的事情都记录好,然后包括我特意强调的单独记录成一个 memory 的 文本, 所以会导致什么呢?就是我跟他简单的说一句你好,然后他也会去掉取历史上的一些记记录,然后去访问大模型,导致我的一个输入和输出都爆表了。另外来讲的话也是大家可能经常会犯的, 大家一开始装好大龙虾以后的话,对它期期望其实是很高的,所以说给它装了一大堆的啊,别人推荐的 skills, 包括说是可能给它配置一些是 agent, 其实这些的话大家都没有想好自己的需求,只是觉得,哎这些都很好,就把它装进去了,但是这些的话都会导致你的一个 token 使用爆炸。 然后现在来讲的话就是云厂商,像那个阿里云啊什么的话纷纷调价,其实 tucker 的 话是越来越贵的,而且 大龙虾其实真实的一个使用场景来讲的话,它的 tucker 使用量确实是很大的,这一块的话是很多呃,视频博主跟你们讲哎,龙虾有多好多好的时候是没有告诉你的,所以说大家如果说只是玩玩的话,其实 尽量的去做减法,不要给他去配置很多很多的一些技能啊,一些复杂的东西,他的能力越强他肯定是需要使用,他的构想是越来越多的, 所以适合自己的就行,给自己配置一个适合自己使用场景的一个龙虾,没有必要说是别人配置怎样子的去造超,这样的话就是场景错配,导致你花了很多冤枉的钱。 下次还有什么使用经验的话再分享给大家。好,这次就讲到这里,拜拜。

codexbar 这是 opencap 作者彼得斯坦伯格的又一开源神器,可以实时追踪投肯额度。目前在 github 上有七点七 k 收藏。它挂在 mac os 菜单栏中,可以让我们随时随地看到 vi 工具的投肯用量和重置时间, 再也不用输入命令或者去后台查看了。目前它支持多工具监测,例如库戴克斯克洛的 code 等,基本上在用的主流 ai 抠点工具,它都支持添加监控。

我引用了两亿的免费托盘来养龙虾,前两天发的关于免费养龙虾就是 open globe 的 视频火了,呃,很多朋友私信我,我也帮很多朋友解决问题。那今天答应大家出一个完整的视频教程,我是用的 mac os 的 系统,然后呢,接下来是以 mac 教学为准,而 windows 的 话呢,可能大家可以问问豆包或 tipisk, 一 步一步截图问它都能解决的。 那可以看到这里我是消耗的是零元,对,然后我之前的 a p i k, 嗯,网络速度也慢了,不好意思啊。对,你看到也是零元的状态。嗯,然后我们进入到那个 opencode 的 官方网站,对,它其实是 opencode 点 ai, 然后有个文档,上面呢,其实会有一些安装的说明, 因为我已经装过了。看,这是我的小龙虾的 space 状态,可以看到它是正常的一个状态。所以说我们这边重新带大家走一下那个新手引导的一个配置,然后其实我只要复制这个命令,然后打开终端里面, 然后输入这样一个重置的新数引导,那就相当于会进入到配置过程,它是麦上的终端,终端 app 搜索一下就可以了。然后我们重新进入引导,快速引导,然后更,这里因为我之前配置过,所以说会有之前的配置,那我们这里选更新配置, 到这一步呢,就会选 model, 就 模型的供应商啊,它这里有 open ai, 有 mini max, 也有谷歌,那我们是 open rota, 免费的模型就选 open rota, 这里有,然后大家可以看到有这样,这里有这样多非常多的模型,而我们的模型是什么呢?就是, 呃,叫做那个 jason 星辰就 stay fun 三 new flash 就 free。 呃,它其实是这样一个模型 id, 哎,复制一下。对,它现在在那个,呃小龙虾的榜单上,哇 啊,可以看到,就是已经消耗了一点五四五 t 的 图片,免费的。对,就是排名了很多天的第一。那么回到刚刚的配置界面, 呃,这里呢,其实是可以通过那个方向键就上下左右的上下来控制,因为它太很多,就是你一个一个找到肯定能找到的。但是呢,它这里提供了一个就是输入,对,输入 enter model。 那 我们这里选进去之后呢,把之前的这里删掉,因为要留一个 open road 的 默认的前缀,所以说我们这里,哎,对,输入进去, 这样就 ok 了。呃,我之前设置这里到这个环节呢,是设置那个我们用哪个 i m 去控制去连接?我们这里先跳过,然后这里的搜索呢?其实也可以先跳过, 然后跳过之后呢?就是,是不是那个呃,调调成近的,那我们这里选择一直跳过,然后这里是 no, 对, no, no, 这些是一些具体的一些设像,我们选 no, 但有需要的话呢,大家可以呃,就说 自己去设置。那我们只是今天先讲模型的过程,那我们选重启。哎,对,然后这个,呃,小龙虾的服务就在重启,我们刚刚重新走了一遍新手的设置。那,那我们现在等待它重启。对, 好,它就这里重启成功了,然后那我选择打开网页, open the web y, 哎,它就会自动打开网页,对,就刚刚的网页重置了,然后我们这里输入一个 states, 相当于就是可以看到它当前的一个状态, 然后返回一个当前的状态。 哦,好像说错了秘密了,应该是 s t a u t s? 不好意思 啊,反正没关系,它好像识别了。嗯,对,可以看到我这里配置的是基于新成的模型,因为 p i k 呢,其实我之前已经配置过了,所以说它,呃,不会让我重新再配置。 对,这里显示一些中文。对,然后这里的模型的配置呢?其实我们就回到 openroot 点 ai 这个网站,然后呢去创建一个新的 a p i k, 比如说我们今天是来自于抖音,嗯,点抖音,然后这里的信用额度限制呢,我们选个零点一美金,相当于其实花钱的话也 最多就七毛钱。然后这个额度的重置呢,我们不用不用管它永久都是零点一美金,就是七八毛钱,过期时间一年。那相当于我们就会有一个 a 四值大小按钮。很多朋友也都问我怎么复制, 哎,这就复制好了。这个 k 呢,其实是是在刚刚的配置环境里面,选模型的环境里面,它会让你有一步调配置的,因为我刚是已经配过了。然后呢,如果是你已经是正常的模型了,其实本质上你已经配过小龙虾的话,你在这里输,输 k 给他,然后输模型给他,然后把那个 open source 这个网站输给他,其实也能切换,正如正如我刚上一个视频讲的, 还有就是说,呃,我们在那个呃 open note 的 这个网站呢,它不光,它不光有很多的那个付费模型,它其实是我们在 mod 这里去输的话,你输 free, 它除了接下来三点五,还有很多免费的模型, 对,包括之前的智普的四点五的 air 是 免费的。英文答,有很多模型其实都是免费的,包括 open air、 gpt。 其实也有免费的模型开源的,包括千问。啊,这个千问三呢?其实是,这是一个专门用来编程的一个模型,也是免费的。其实有很多,大家其实可以是一个个去找。对, 然后技能商店的话呢?呃,腾讯最近两天出了一个,呃,中国版的 skill hub, 呃,它本质上呢,其实是在可融 hub 技术上呢,其实做了一个技巧战,呃,这个其实也不错的,然后,呃,你也可以去那个可融 hub 去下载一些技能。呃,腾讯这个专为中国用户呢,它会有个榜单, 你相当于就是你看这里有一段话,看见没有,相当于就复制下来。呃,发给小龙虾,对,他就会去检查,帮你安装这个技能商店,然后你就可以和小龙虾对话,去在里面找更多技能去安装了。我是之前已经安装过了。对,那我们今天就这样。

这几年,我们每天都在跟一个看不见的东西打交道,你问他问题,他能写文案,写代码翻译,还能陪你聊天。我们叫他 gpt, 或者更宽泛一点叫大语言模型。 但大多数人对他的理解还停留在一句话,他很聪明,很像人,会不会有一天统治世界这一集,我们不聊意识玄学,我们只做一件事,把他的工程细节摊开,从你敲下第一个字,到屏幕上弹出回答,服务器里到底发生了什么? 对我们人类来说,语言是被粉碎后的数字, 当你输入一句话,他看到的是一串小单元,叫 token。 token 有 时候是一个字,有时候是一个词的一部分,甚至是一个标点,一个空格。 gpt 背后常用的一种切法叫 bpe, 它从海量文本中统计高频出现的字母组合,合并成更大的单元。 这里有一个关键的成本事实,早期模型的分词器对英文效率较低,导致中文 token 数量激增。 就比如这句话, artificial intelligence is rewriting the world。 如果用 gpt 二系列那种英文为主的分词器,英文这一句可能只要八至十个 token, 而中文往往要多出百分之五十甚至更多。 这不仅让中文用户成本更高,还变相挤占了模型的上下文窗口。好在这一情况正在改变。随着 gpt 四采用更高效的词表以及 tiktok 等高性能工具的出现,中文编码效率大幅提升。 现代模型通过扩充词表,极大地缩小了这种差距,让中文在 ai 时代变得更加经济实用。 gpt 运行时的核心任务只有一件,根据已知的前文计算下一个 tock 出现的概率分布,并从中抽出一个结果。你可以把它想象成 gpt, 再玩一个超大规模的玩行填空游戏。 具体来说,模型会根据已有的上文计算出词表中每一个后选托肯出现的概率,最终输出的是一个概率分布。然后模型从这个分布中选出一个托肯作为结果。 一个贴切的类比是, gpt 就 像一个读过全人类海量文本的超级复读机,当你给他看前半句时,他并不是在思考真理,而是在进行统计,推演人类在这种语境下最常往后写什么。 他完全基于概率和模式,通过预测下一个词,最终拼凑出看起来极具逻辑的回答。 g p p。 最大的能力之一是在很长的一段话里,保持对谁是谁前面说过什么的记忆。在工程上,这靠的是自注意力。 想象一个高校会议,每个 tucker 都是参会者,当轮到某个 tucker, 比如他这个词发言时,为了弄清楚自己到底指代谁,他会启动三个步骤。第一步,拿着搜索卡去提问。他带着自己的需求向所有人发问,谁可能和我有关。 第二步,匹配大家的缩影标签。会议室里其他 tucker 都举着自己的标签,他会迅速进行匹配度打分。匹配度高,比如前面的小王,就会被多听一点,分配极大的注意力。权重匹配度低,比如桌子直接被忽略掉。 第三步,提取内容价值。他按照权重把大家的信息进行加权平均。最终他得到了一个融合了小王特征的综合表示, 这就是自注意力的本质。每个 token 在 理解自己时,都会回头审视前面出现过的每一个 token, 只不过关注的程度各有不同。一个 transformer 模型就是把这种看一圈算权重综合信息的操作堆叠了几十层。 模型是怎么吐出一整篇长文章的?答案是自回归生成。这意味着模型无法瞬间完成整段话,而是严格遵守时间顺序,一格一格的往前蹦字。 它无法瞬间完成整段话,必须严格遵守时间顺序。预测第一个词,把词接到原句后变成新前文,预测下一个词, 循环往复直到撞上结束符。在这个过程中,有一个决定悲哀性格的细节,我们如何从概率分布里抽出那个词?这就涉及到了几个关键参数的调配。 temperature, 温度越高,分布越均匀。低概率词被选中的机会增加,温度越低,分布越尖锐。模型更倾向于高概率词。 greedy, 永远选概率最高的那个 token, 输出会很稳,但也很无聊。 topk, 从得分最高的前 k 个后选词里随机挑一个 topp, 它只在累积概率达到 p 的 那些核心词汇里筛选。 高 temperature 加较大的 top 会让生成结果更多样,有创造性,但同时也更容易跑偏,甚至胡说。现在你已经大概明白了 gpt 的 内部世界。你看到的每一行流畅回答,本质上都是在昂贵的硅片上以每秒数以千万亿次的浮点运算堆出来的。 我们随便拎两块现在最有代表性的芯片, a 一 百和 h 二百。 更大的显存意味着同一块卡上能放下更大的模型,能处理更长的输入上下文更高的贷宽,意味着矩阵乘法里的数据搬运更快,同样,一轮前向传播和反向传播所需时间更短。 然而,一块 gpu 是 三百到七百瓦级别的耗电,一整个大模型训练集群往往要用到数千块。这样的卡连跑几周,这背后是非常具体的一张电费账单。 逻辑通了,芯片到位了,万事俱备,就差开机。下一章,我们将拆解大模型的诞生之路。

这里有四千一百万的免费 token, 可以 用来学习 open clone, 没有门槛,只要注册账号就可以免费使用,包括豆包、智普、 deepsea、 kimi。 每个模型有五十万 token 的 额度, 这里可以看到模型余额流程已整理好,接入或者切换模型。操作很简单,只需要在终端运行这几行命令, ctrl 加 c, 把它们复制出来。 第二步,替换 a p i t 和模型 id, 点击 a p i t 管理,点击创建 a p i t, 点击这个小眼睛复制 a p i t, 将这个替换成你的 a p i t。 点击开通管理,一键开通所有模型,找到想用的模型,打开推理限额,输入五十万。 这一步防止模型用超产生后付费。点击蓝色字体模型名称,这里是模型 id, 点击复制,将这三个替换成刚复制的模型 id。 第三步,复制修改好的命令粘贴在终端运行,出现这个界面,说明模型已切换好,可以去对话框验证一下。问你当前用的是什么模型,感兴趣的朋友可以体验一下。

一个例子你就能明白 token 是 什么,你把 token 理解成电话费,那么公用电话亭打电话是免费的,也就是我们日常使用的豆包 tips 这种开源大模型的 app 和网页端。但是你比如说你要在自己手机上打电话的话,首先你得你得安装一个电话卡吧,全网通电话卡的话,你可以把它理解为安装 openclock, 那么你需要给 openclo 装一个模型进去,也就是说你理解成你要给你的电话卡选择一个运营商,那么这个运营商你选择的是移动电信还是联通,那么也就是说你的大模型选择的是豆包 dipic 还是千万这些。 这时候你在手机上打电话都是计费的,所以要收费。很多人不明白 tok 为什么要收费,是因为你现在在你个人设备上使用,你可以把它理解为在自己设备上使用或你公共电话亭打电话免费,而我们手机上打电话是要收费的, 大家就可以这么类比的理解,只不过打电话运营商是按分钟收费的,而大模型是按 token 收费的,那么你这里的 token 就 可以粗浅的理解成字数。

这三个模型你要是没搞清楚怎么用,你现在的 bug coding 基本就是在乱烧钱。这是我经过几个月的实战经验得出来的结论,相信一定能帮你事半功倍。我现在只用这三个模型, clone solo 四点五和 opus 四点五, gbt 五点二, gimna 三 pro。 先说第一个, gimna 三 pro 前端首选,能快速构建一个美观的前端 demo, 但是 jimmy 三在构建权杖项目上面显得心有余而力不足,所以我一般用它先写前端 demo, 设计出一个好看的 ui 交互效果,然后再切到 clone 继续开发权杖, 这样子 clone 就 能在 clone 三构建的前端样式基础上面继续开发。第二个 clone 四点五,分为 socket 四点五和 opus 四点五, 名字相差不大,但是价格差一个等级。 opus 四点五。我只有在解决复杂问题的时候,比如分析几手的 bug, 或者说做复杂的架构设计和方案规划才舍得用。比如说做一个 a i g c 的 权杖项目,我需要先确定一个合理的架构,那我会先用 opus 四点五, 然后呢再切换到 sonnet 四点五继续编码,因为 sonnet 四点五日常编码速度确实很快, 非常适合牛马干活。第三个, gpt 五点二,写代码非常靠谱,非常适合用来做架构设计和复杂的依赖分析。虽然它前期需要长时间的思考来构建上下文,但是 contest 了 ready 之后呢,它的 record 极其的高效, 所以我一般用它来做局部重构,或者说从零到一的项目打基础,然后再切到 sony 的 四点五或者 jimmy 三。一句话总结 code, 想清楚 code 干完活 jimmy 三加速度模型选对效率十倍。

龙虾养殖技巧最大化,白嫖托肯默认大模型选千万千万有免费额度,性能还不错。其次一定要安装 crom 扩展,告诉龙虾可以用网页版 ai, 龙虾不仅会从网页找,还会自己用网页版 ai。 网页版 ai 基本不收费,直接规避掉 api 带来的费用,最终效果 整个任务只用了十三 k。

相信大家已经安装好了自己的 openclare, 但是你有没有想过你每一次的 openclare 的 使用都会消耗你的 tokyo, 这个 tokyo 的 话就是需要大家去花钱去买, 那有没有办法能够免费的使用 opencloud? 如果说你也想要免费使用 opencloud 安装 olemma 模型,那一定要点个关注,点个收藏,不然的话你下次就刷不到了。那我们进入正题,我们直接啊百度搜索一下 olemma, 然后在这个右上角位置点击下载, 这边的话选择自己电脑系统,然后点击一下,直接点下载就可以了。 ok, 下载好了之后,我们直接正常安装啊,就会进入到这个页面,然后右下角我们要选择一个模型,正常来说一般是选择这个 gpt 二十 b, 也可以选择千问,三点五千问。 ok, 我 们在这个位置选择好了之后,你发一个消息,你比如说我选一个,我没下载的,我发个一,你发一个消息之后,他就会开始自动下载这个模型。 好,我们直接进行下一步。欧莱玛下载好之后,我们直接通过这个运行安装向导重新把 openclock 跑一遍, 因为之前你们装过 deepseek 的 模型,然后这个配置处理的话,选择更新值, 在这个模型认证供应商这里选择 olemma, 本地本地本地,然后它会有一个模型 id, 例如 deepsea 杠 r 一 比八币,我们再打开你的 olemma, 看一下你的右下角, 就是把这个名字输入进去, 我们用的是这个二十币, 这个的话直接回车就可以了。 这个聊天通道的问题,因为之前已经跟大家讲过了,我们就直接挑过了, 我们把网关打开,等这个 opencloud 的 正常运行。 ok 啊,大家在运用这个 oemma 本地模型的时候,它是不需要花钱的,但是它是基于你电脑来去做的本地模型,那是什么意思呢?就是说它直接消耗的是你电脑的性能, 比如说我们在这个内存 gpu 直接消耗你的电脑性能,比如说你的电脑越好,那它运算速度就会越快,大家这么说能理解吗? 还有就是这个欧莱玛上面的模型,它对应的有一些,比如说它这个二十 b 的 模型,它是 比较推荐八到十六 g 的 这个显存的显卡,然后才去使用,然后有一些是呃,一百 二十币的支持二十四 g 或者三十六 g 的 显存的显卡才能去使用的,也就是说他直接消耗的是你电脑本身的性能。 ok, 如果说大家感兴趣的话,可以自己去装一下试试。

接下来就可以和 kiro 进行聊天了,先随便打一个招呼,发一个嗨,可以看到很快就给出了回复, kiro, 可兰呢,快速优雅的使用,最近 kiro 的 封号很厉害,所以我们想了一个 最稳定的,最稳妥的方法,就是使用 kiro, kiro, 废话不多说,先快速做一个演示。打开终端以后,我们连接到了制作好的镜像里面,接着在终端这里输入 kiro 杠, kiro 回车, 就会看到一个 kill 的 欢迎标志,这里提示我们输入回车来进行登录,那么我们需要登录一个全新的 kill 账号,好按回车,接着再按回车。使用第一种免费的 build id 进行登录好回车,然后终端 输出了一个链接,将那个链接进行复制,选择复制,打开我们的浏览器,将那个链接粘贴到这里。我们连接的是亚马逊的网络,稍微可能会有一些慢,也有可能需要魔法。接下来来到我们的服务站点,加运点赛,找到右边的服务这里 点进来好找到邮箱,这个系统免费开放使用。找到公共邮箱,点击这个骰子,复制它, 我们就复制了一个随机的教育邮箱。接着来到注册界面,将这个邮箱粘贴到这里。肯蒂尼啊,随便输入一个姓名,肯蒂尼。这个时候亚马逊会给我们发验证码,需要回到刚才的邮箱服务里面来拉取这个 邮件啊,非常快啊。这个验证拉取到以后,将它复制在这里进行粘贴。肯蒂尼,这是最后一步,授权一下登录,然后我们就成功登录了这个 新注册的账号。回到客户端里面,可以看到这里显示 log in successfully 登录成功。接下来就可以和 kiro 进行聊天了,先随便打一个招呼,发一个嗨,可以看到很快就给出了回复, 接着我们来看一下它的模型怎么使用,输入 g 二 model, 可以 选择它里面的模型 vlog 缩你的四点五,一般就使用这个模型。回车 这个时候可以看到上面由经 class 算去四点五,这个模型速度非常的快,和 class ops 四点五 各有各的优势。接着我们问他,你是什么模型,这车啊? kiro 给出了回复,他是 kiro 由 a w s 构建的 ai 柱,是用这种终端的方式,要比图形界面的 ide 响应速度快很多,而实现的目的是一样,而且我们在终端里 可以同时进行多个项目,可以看到上面有一个终端,点击加号以后就会新开一个终端,可以继续输入 key 来叫出 key, 接着又可以在这里随便输入一些文字,又是一个新的项目,可以同时进行,可以看到这个回复啊,非常的快。好,回到第一个终端里,我们问一下他,我们在哪个项目? 细心的小伙伴可以观察到,我们的系统是一个 windows 十一的系统,而连接的是一个 linux 终端,说明有一个虚拟机在后台运行着。后面我们来讲一下虚拟机上的操作, 先来看一下这个账号的积分输入杠 u z 这车在上面会看到这个积分,刚才几次对话只消耗了零点二六积分,这个五百积分不知道什么时候能用完啊,如果我个人用的话,可能要明年才能用完。好,这就是 kiro 在 终端里 优雅的使用,可以说这个终端用好了以后要比 kiro 的 id 好 用很多。有的小伙伴该有疑问了,如果我想操作 windows 上的项目该怎么办?有两种方式,第一种,将 windows 上的项目上传到虚拟机里面,我们在桌面上随便新建一个项目,新建一个文本文档,我们可以将项目的文件直接拖拽到 linux 系统里面, 然后在 kill 的 终端对项目进行编辑。第二种方式,直接挂载 windows 上的项目,找到刚才我们新建的二三二这个项目,确定下一步启动共享。然后点击打开文件树结构,可以看到系统里面的所有文件, 找到 v m y 这个项目文件夹,找到我们挂载的这个项目,里面有两个文档 可以操作,直接对它进行删除,这里的操作是同步的,我们 windows 文件夹里面的这个二三二的像好,接着复制它的绝对路径,新开一个终端,在这里输入 cd, 然后粘贴上 绝对路径回车,我们就会进入到 windows 上的这个挂载的目录里,接着输入 kylar, 可拉回车, kylar 就 会在这个工作目录里进行工作。输入 kylar, 先切换一个 kol 的 缩你的四点五模型, key 给出了回复,他会在这里创建一个 hello world 编程文件,和 ide 里面的操作一样,输入 t 就 可以让它自动去执行。我们输入 t 回车好,开始创建 hello world, 点 p y, 几乎是到一秒的时间就已经执行完成。打开 windows 上的 文件夹以后,可以看到这里有一个 hello world, 点 p y, kiro 创建成功,关于 kiro client 更多的使用方法可以访问加运点 side, 找到 ai 工具箱,找到 kiro 恶灵骑士 这个板块,我们会将更详细的操作和使用技巧在这篇文章里进行完善。下一期视频里,假设我们五百积分跑完,来讲一下如何通过自己去注册来再次拿到五百积分继续使用。感谢大家的观看。