一键直接搞定图片任意角度!!这个工具啊,只需要一张图片,,就能轻松实现全角度呈现,不管是真人形象、卡通角色,还是产品展示,全部都能精准实现,而且操作简单到离谱。! 主要是千万搭载千万三 image 二五幺幺满写版模型生图,超厉害!!进入首页下方的 ai 生图板块,输入指令即可。 比如说,帮我生成一张白底,身穿黑色晚礼服的亚洲女模特照片,千万立刻就会开始生成图片,拿到生成的图片后,,再输入指令。 帮我把人物形象变成卡通版,并做成正面、俯拍、仰拍、侧拍等四个角度的图片。!文会再次生成图片。可以看到,只需要输入精准的指令,,很快就能出图,得到想要的任意角度图片。关键是。 千万不仅能一站式搞定图片创作,,还能助力日常创作、职场设计以及电商推广等各种场景,轻松拿捏各类图片需求。。
粉丝13.7万获赞127.4万

樊宫跑去工地吃土了,这灰扑扑的毛坯房只能由我来施法了,别看现在是家徒四壁,用上这套神仙工作流,水泥地也能开出花来。 眨眼功夫带你从叙利亚战损风直飞精装五星级,想看这只丑小鸭怎么变天鹅,别眨眼,魔术开始喽! 哈喽,小伙伴们大家好呀!今天给大家带来的是室内经常用到的千问二五幺幺毛坯房转精装工作流。首先打开本地运行的康复 ui, 小伙伴们可以在链接下方找到,嗯,就跟我现在操作的就一样了啊。先打开以后先看一下版本已经更新到了二月二十三号, 然后扩展插件也全部更新完毕,好运行本地操作的 ctrl u i 整合包是基于酷的幺二九, 显卡是英伟达的四零七零, ti 是 基于十二 gb 显存大件的工作流,里面装载了建筑比较常用的插件。 双节过账版本也更新到了一点,二一版本好完美运行。进入康复 u i 界面。好,打开我们的工作流, 在这里打开我们的这个室内千问毛坯转精装工作流。好,首先呢,我们放一张毛坯的照片, 一张加装的比较简单的一张毛坯照片,然后 在提示词部分,我把它分成了四个部分,一个是空间功能上面啊,你要你要告诉电脑 这个公这个空间是什么功能的,那我这里输入室内客厅和餐厅设计,那也要告诉他的装修风格啊,我把它输入为现代简约设计风格, 然后还要布置这里要放的家具是哪些,那我给他详细的输入。左边为电视背景墙,右边为沙发, 当然你也可以按照你的需求啊,添加你所需要的或者要补充的内容。我这里补充。餐桌呢?餐厅呢?餐桌有餐椅。那远处呢?因为它是一个阳台,我说远处为阳台。好,那我们来运行一下看一下。 可以看到啊,一边运行,我们来介绍一下它的工作区里的模型加载部分。首先呢,嗯,这里的千万模型用的是千万二五幺幺的 ef 十六大模型,当然你如果本地 运行有困难,就或者是设配置,嗯,不足的话,你可以降低配置,比方说把它改为千万二五幺幺的 f p 八的版本啊,都是可以的。 然后这个不用改啊, v a e 也不用改啊,然后这个 control lab 用的是深度的啊, control lab 控制可以看到啊,效果已经出来了。 这是一个啊,你看左边为电视柜,右边为沙发啊,远处为餐桌,然后再远处是阳台。如果说你觉得这幅画,嗯,这个效果比较不错了,你可以打开 cdvr 的 修复功能啊,对它进行再次的放大处理啊,都是可以的啊。 这个我用的是两倍的放大,因为我这个图幅用的是一零二四的图幅。那你如果说要要办成啊,如果说你的电脑配置很好,那你可以把它调成四 k 的, 就是四零九六也是可以啊,我觉得两 k 已经够了。那就是这样 啊,你可以开始运行的时候,你可以把这个关掉啊,然后如果说运气好了,你觉得不错,你把这个打开,然后把这个种子给锁定,再跑一次就可以了啊。当然我们可以再比较一下啊,比方说我把这个家具的布置换一个位置啊,比方说右边为 左边为沙发,我们来看一下。 好,然后相关对应的模型下载啊,都可以在这个 这里找到,我的视频下方都有链接的,或者在本地里面你可以找到下载模型包跟这个相关的插件跟相关的模大模型啊,也欢迎小小伙伴们进我的 qq 群啊,然后在里面也可以大家一起讨论建筑方面的 啊, ai 设计可以看到啊,那看很明显啊,左边右边的沙发位置全全掉了,但是整体的啊,空间关系还是非常不错的 啊。然后 cctv 二放大以后可以看到啊,我们来凑近看一下,原先啊,沙发桌凳椅啊啊,放大以后你看都已经非常清楚了啊,直接可以用在呃给你甲方的展示中,还是非常不错的 啊,这个工作流还是比较成熟的啊,小伙伴们可以下载来玩一下。好,今天就讲到这里,谢谢大家。

大家好,我今天教大家如何下载系统镜像,本次要下载的系统是 windows 十一二五 h 二,视频开始前求关注,谢谢!先打开一个浏览器,随便一个浏览器都行,在搜索框中输入 windows 十一 i s o 镜像,下载 主播已经搜好了,打开了带 microsoft 标的就是了。进到页面之后会有三个选项,在这个页面的下载系统镜像都是 windows 十一,版本号是二十五 h 二、 windows 十一安装助手是为新手小白设计的, 创建 windows 十一安装媒体是做系统盘或是下载 i 搜用的,那最下面的就是单独下载 i 搜。想要在电脑上安装 windows 十一,需要满足需求的 cpu 要在英特尔十二代以上,内存要八 gb 以上,一定要有 tpm 二点零安全模块,还有要有安全启动才能安装 windows 一, 那假如你的电脑是 a r m 就 下期再讲,那假如全部满足需求的话,恭喜你,你的电脑能成功安装 windows 十一。从现在开始教大家如何下载来搜,滑到最下面, 那我们现在下面点击选择下载,然后再选择 windows 十一专业中文版本,点击了之后选择立即下载, 点击了之后不会立刻下载文件,它会跳出一个选择产品语言的选项,直接选简体中文就行,然后点击确认 就会出现了一个六十四位下载的按钮,直接点击就能下载,但这个系统安装完了之后不会激活。

家人们二零二六年三月二日大浪淘沙重装 win 十一二十五 h 二直接栽在开机设置上,折腾一整天才摸透 pin 和开机密码的门道,今天就把干货全分享出来。 先给大家划重点, pin 和开机密码到底有啥不一样?开机密码是微软账户的总钥匙,不管换哪台电脑,输入密码都能登录账户,走的是网络验证。 而 ping 是 当前电脑的专属快捷卡,换电脑就没用全程本地验证,不联网也能秒登录,就算 ping 泄露,别人也得抱着你的电脑才能用,安全性直接拉满。 而且记住, win 十一必须先设开机密码才能开 ping, 这就是很多人找不到 ping 入口的关键。接下来上实操,想设置 ping, 先确保开机密码已经搞定, 然后点开始设置账户登录选项,找到拼点添加输入开机密码,验证后设置专属拼码就行。想删拼也简单,同一界面点删除验证开机密码后就能搞定。 要是找不到拼入口,别慌,先去把开机密码设好,重启一下,入口立马就出现。开机密码的设置和删除也不难。新机首次开机,按系统引导登录微软账户,跟着步骤设密码, 一用设备就点开始设置账户登录选项,在密码模块添加就行,删除的话点更改密码,验证后把输入框清空,一步步点下一步,密码就移除了。想取消 pin 和开机密码,步骤更简单,取消 pin, 点设置账户登录选项,删 pin 验证密码即可。 取消开机密码,点更改密码,验证后留空提交,轻松搞定。最后给刚入手 win 十一的家人们送上新机首次开机前流程,开机先选语言和时区,连好网络登录或注册微软账户, 接着按提示设置开机密码,之后按需完成个性化和隐私设置,等系统初步完成就能进桌面,后续再按需设置 pin 解锁,快速登录体验。 其实 win 十一的登录设置一点都不复杂,只要搞懂两者的区别和操作逻辑,不管是设置删除还是排查问题都能轻松应对。家人们要是还有疑问,评论区随时留言,咱们一起搞定!觉得有用的话,别忘了点赞收藏,让更多人少走弯路!

兄弟们,我这个一百二十八 g 的 电脑安装了这个千万三千五二十七 b 的 大模型啊,把它提供服务,然后给这个 openclaw, 接入 openclaw 之后就可以和它对话聊天。很多人不会安装这个 openclaw, 其实非常简单,一共就这,其实就是三步,第一步使用这个命令安装,第二步 设置向导,并且把它安装为系统服务。第三步 openclock on board, 就是 打开这个外部界面, 当你丢失的话,你可以使用这个命令打开啊,然后这个是 start, 是 启动,你可以改成 stop 关闭,然后第五步的话就查看它的状态,总体上非常简单, ok。

电脑系统重装工具来了,它支持 windows 系统本地镜像、文件安装备份、远程在线安装、驱动更新、回退卸载、硬盘分区、网络修复、查看系统与硬件信息等。 既可以桌面环境下安装,也能 pe 环境或者 u 盘启动。安装用法也很简单,进入左侧系统安装指定具体镜像以及版本,一般推荐专业工作站版,拥有管理员权限的,然后选择想安装的分区。支持多系统,比如安装到地盘,点击底部开始安装即可, 全程无需执手,自动进行。高级选项里也可以提前设定系统优化功能,比如恢复 win 十一经典右键菜单、关闭系统更新、安全中心、用户控制、设备加密等,包括导入备份的硬件驱动注册表文件。 与此同时,也支持远程在线安装,提供了 win 十一、 win 十各个不同版本,包括显卡驱动和在线安装。 工具箱里则包含了各种实用功能,比如显卡驱动卸载、批量格式化导入驱动、一键分区、驱动备份还原、网络设置还原等。至于硬件信息,则能查看当前系统与硬件的相关内容,并能将其导出为 txt 文本,就非常的方便。

你还在熬夜翻遍全网找教程查报错吗?别傻了,高手们早就用上一键即用的黑科技了。这个二零二六年一月封包的三点一版本,就是专门为了终结安装焦虑而生的。 秋叶大佬把复杂的开放环境、底层驱动和核心插件全部打包成了一个傻瓜包。以前你要学一个月的工作流,现在拖入急用。以前搞不定的显存易出,现在被扩大十三完美消化, 他不仅是快,更是让你跳过所有废话,直接进入创作终点,把时间留给创意,把麻烦交给工具。 想要这套保姆级整合包的评论区我直接安排。那么欢迎来到我的二零二六基础系列课堂的第六课,那么本堂课呢,我们会简单的讲到我们的编辑模型的使用。 说到编辑模型,这里大约老师就列出出来几个市面上最常用的,那么首先第一个呢,就是我们的纳洛布纳呢,我想这个同学们听的应该都很多了,对吧? 然后第二个呢,就是你去用极梦的时候,你会发现还有极梦四点零模型,四点一模型,或者说四点五模型。那么豆包呢,它的功能也有编辑图片的一个功能,就是你可以通过输入一张图片给它,然后靠一行指令去改变你图片里面的内容,并且保持好你图 片的一个一致性。那么这个呢,就是我们编辑模型可以使用到的一些功能。那么这里呢,我们在 comforion 里面,一般来说我们都是优先使用闭源的编辑模型。那么在 comforion 里面的闭源模型呢,最常用到的就有两个,第一个是我们的纤维 image eddy, 那 么第二个呢就是我们的 flash context, 那么这里呢,大宇老师会主要的带大家去了解我们的千万 image id 模型。那么说到千万 image id 模型呢,我们就要先了解一下现在它更新的一些版本,我们的千万 image id 从最开始更新的 v 一 点零版本到现在的二五零九以及 二五幺幺版本,它就进行了不断的一些升级,那么 v 一 点零的版本呢,它只能对我们的一个呃图片进行单图编辑,但是二五幺幺呢,它就到达了一个多图编辑的一个高度,并且二五幺幺对比起二五零九来说,它编辑的一致性会更强, 并且它编辑的那个画面感会更加的唯美。那么这里呢,我们既然说要学习我们的千万 image edit 这款模型,我们首先还是要先来到我们的 hackinface 的 这一个主页, 然后在 hackinface 的 模型主页呢,我们可以找到千万 image edit 二五幺幺的这款模型,然后我们可以简单地看一下它的一个模型介绍,那么它的模型介绍里面说到了啊,他们很高兴地推出了千万 image eddy 二五幺幺模型,然后这是纤维一米九 eddy 二五零九的增强版,那么这里我们需要注意的是,二五幺幺它并不是一个被开发出来的独立模型,而是在 v 一 点零之后的二五零九版本上进行进一步的优化,然后并且呢它带来的改进主要是显著提 提升了他们的一个一致性。那么上面呢,这些图片也是展示的他们一致性的一个图片生产,可以看到熟人的图像,然后不断的更换场景,对吧?这个人的脸部也能很好的保持一致性, 然后下面这一个也是一样的,然后除此之外呢,他可以看到二五幺幺,他主要关键的改进就包括了减少了图片的一个漂移呢,我们等会会讲到,然后提升了制服的一致性, 集成了罗拉功能啊,增强了工业设计以及增强了几何推理能力。那么这里我们可以看到,其实用一句话总结就是他第一减少了图像的偏移,第二个就是他在二五零九的一个基础上 去集成了更多的罗拉功能,也就是说其实他的底层逻辑跟二五零九也是一致的,他的编辑图片的一个能力跟二五零九差距有多大?我们这里要等会去看一下他罗拉模型集成的一个效果, 那么这里呢啊,我们接着往下看,他也展示了一些呃,人物的一个编辑吧,可以看到,对吧?上传一个单张图片,最后可以改成这样子,然后这样子可以改成这样子,呃,这个单张的也可以把两张图片放在一起,我们可以接着往下看,这些能力都挺不错的。 呃,包括了我们一个改光影的这个效果也不错。那么说到改光影的这个效果呢,其实在极梦四点五里面,它能表现出来的能力也是非常厉害的,但是一般来说,如果你去使用千万 image edit 的 话,你会发现它得到的图片效果往往会好于极梦四点五的。那么这个是因为背后的一些 算法逻辑,就比如说我们用千万 image edit 二五幺幺的时候,其实这个算力哪里来,主要是依靠我们电脑本身的显卡对吧?那么这个算力其实就是被千万 image edit 二五幺幺这款模型独享的,但是一旦你用到了 极梦四点五,它背后的算力有那么多人在用,所以难免会出现不稳定的一个情况,所以这个也是为什么现在在嗯 comforu i 里面去使用闭源模型的编辑模型,会比 使用奇梦的一个一元的这个编辑模型要更多的一个原因,所以多数人会选择纤维 image id 二五幺幺在康复 u i 里面去使用,可以看到它这个改光影的效果是真的很不错,对吧?改景别也可以,然后改角度也是没有任何问题的。 好,那么这里简单看完之后呢,我们就来看一下我们的一个魔性的下载,那么魔性的下载呢,也很简单,我们只需要来到我们的一个主页,然后去搜索我们的千问, 然后是 image edit, 那 么搜索完新闻 image edit 之后呢,我们可以看到这里有非常多新闻 image edit 的 一些文件,包括我们的量化模型 g g u f 模型,以及在开发的 a i o 模型,但是我还是建议大家去用原声的官方模型, 就在这里 ctrl u i o i g 的 这里点进去,那么点进去之后呢,我们可以看到这有 model car 和 view, 也就是文件,我们可以把它点开,在文件里面呢,也有一个文件夹可以把它点开,可以看到这有两个模型,一个是 diffusion model, 另外一个呢是 roller, 一 般来说呢,这个 roller 我 们是不予理会的,我们直接看 diffusion model, 那么 defocus model 里面呢,它就有很多的模型,有 v 一 点零版本的 f p 八以及 b f 幺六的模型,二五零九版本的模型,也有我们的二五幺幺的版本的一个模型,那么我们这里主要就是用到它的最新的二五幺幺版本模型, 那么二五幺幺版本模型呢,它又分成了 b f 幺六以及 f p 八 miss 版本的模型,那么这里呢,我是建议大家直接用 b f 幺六版本的模型, 但是 b f 幺六版本的这个模型呢,它要使用到了电脑显显卡的显存,要达到二十四 g b 左右才可以去使用,但是它的效果是非常好的,那么你这里有 f p 八呢?也可以哦, 如果说你电脑显存比较低的话,那么我这里呢就下载二五幺幺 b f 幺六的这一个去使用了。当然了,如果你的电脑显存还是比较低的话,那么我们就需要回到前面的模型卡这里去下载 g g u f 的 一个版本, 那么 g g u f 的 版本呢,我们可以看到它分成了哎, q 二 q 三 q 四对吧?如果你是使用 q 二的,那不用说了,大概八 g b 显存也能够跑得动对吧?如果是 q 三的话,大概就要呃十 g b 显存或者十二 g b 显存了。然后这里呢,我是建议大家用到 q 四的嘛,可以用十二 g b 显存去跑也行, 那么如果说你实在不行,你就下载 q 二的去使用一下,那么下载完之后呢,我们就可以回到我们 comui 的 一个操作页面,但是这里的话,我们一定要记着 把我们的这个模型放对位置啊,一般来说,不管是 g g u f 模型,还是我们刚刚看到的原声模型,我们都需要把它放在我们的 diffusion model 文件夹下面,也就是我们这个官方模型显示的 diffusion model。 那 么放置进来之后呢,我们就可以回到我们的 comfui 的 这一个操作主页,那么这里呢,我也是用到了官方的工作流, 那么我们可以看一下,官方的工作流主要包含了几部分,其实我们可以看到他已经给我们分类了。第一个是 model 部分,那么 model 部分呢,就分成了大模型加载,也就是我们的 unit 加载器, 然后是我们的可立的加载,也就是我们文本编码模型的这一个模型加载。那么文本编码模型呢,这里依然是用到我们千万二点五 v l 模型,那么千万二点五 v l 模型呢,跟我们千万因为用到的模型是一致的,这里一定要注意不要用错了啊。 然后类型呢,一定要选择纤维 image, 因为你选择其他的它会报错。然后我们的 ve 呢,也是用到跟纤维 image 一 样的 ve, 所以 需要用到纤维 image 的 ve。 但是这两个模型刚刚展示下载的时候,我们会发现,呃,纤维 image edit 的 comforo 官方这里并没有把我们的文本模型以及 ve 模型给我们放置出来,那么你就需要在 hackinface 里面去展 好我们的千问 image, 把后面的 edit 后缀给它删掉,然后搜索千问 image, 然后在这里呢,同样找到我们 comforu i o r g 看一下 comforu i o r g 这个是千问 image layer 啊,不是 这一个,应该是这一个 comfor u i o i g。 千问 image 这一个看到没有?不要找到 idea, 然后来到千问 image 这个官方里面点击文件,然后一样的点击我们这个文件夹,可以看到这里就有 v a e 和 ted encode, 然后 ted encode 呢,我们就需要放在 model 文件夹下面的 ted encode 文件夹里面, v a e 呢,就放在我们 的 model 文件夹下面的 v a e 文件夹里面。这里一定不要搞错了啊,不然它是读取不到的。呃,那么你放置进来之后呢,就可以刷新 f u i 的 操作页面,它就可以读取得到了。那么这里呢,它就简单地把图形加载进来之后,我们可以看到它这里还有两个文本编码器,对吧?然后这一个文本编码器呢,跟我们普通的 red image turbo 的 文本编码器不一样的在于 他可以去识别我们的图片,那么这个也是编辑模型所需要的。那么编辑模型的底层逻辑企业就是让我们这一个工作流先去记住我们上传图像的样貌,或者说一些特征,是一个强记忆性。把这个强记忆性的图片外貌特征记住之后呢,我们再通过 我们这一个输入的提示词去改变我们这一个图片,但是你会发现上传进来的图片我们依然会被 v a e 所编码,对吧?然后编码完之后,它最后输出的条件是什么?条件是我们的 文本条件,对吧?那么文本条件呢?你就会发现一个问题,这个文本条件其实它是跟我们的提示词混合在一起的,对吧?所以你会发现它的规律就是它会先把我们的图片转换成为条件信息,然后跟我们的提示词进行汇合, 然后将提示词里面的特征加入到我们原有的图片条元信息里面,然后再传点我们的 k 函数进行一个编码的过程,那么这里就起到了内部编辑的一个条件,也就是我们最后可以输出的一个结果。 那么最后我们的编码器过了之后呢,就要来到我们的模型参照算法 offroad, 那 么模型参照算法 offroad 是 一个什么东西呢?其实我们在呃在 the english table 也讲过一个模型参照算法,对吧?它主要就是为了 稳固我们图片生成的一个结构,或者说让我们的图片生成的更稳定,并且从一定程度上提升我们的图片审美。那么下面这一个 c f g nom 呢,主要是为了增强我们提示词的一个识别,然后这两个可以看到它有 eddy model reference 这两个节点,那么这两个节点呢,如果说你用的模型是官方的前吻 image eddy 二五幺幺 p 八的那一个模型,那么这两个节点它就不发生任何的作用。但是如果说你用到的是我们刚刚看到的 g g u f 或者 a i o 的 模型的话,那么这两个节点一定要加载进来, 不然的话就无法发挥我们这一个千万英镑 id 二五幺幺模型的全部潜力。那么这里呢,一般来说我们不去动它就好了。 然后 k 函数里面的参数我们这里要重点看一下,这里呢是官方给到的固定参数,步数呢是二十步,然后 c f g 呢为四,那么 c f g 在 四的这个情况下,其实会增加我们一个渲染时间,但是会让我们的整张 图片的一个编辑更加符合提示词的一个输出,那么这里我们是需要记住了,然后采用下的调度器,我们就选择 u r 和 signal 降噪可能就是一样。然后我们可以看一下这里加载图像方面,那么加载图像方面呢?他可以多图编辑吧,我们就说到,对吧?那么我们的可利用文本编码器,他也给到了三张图片的一个上传,那么我们就可以最多同时上传三张图片进行多图编辑,那么这里呢,我们就简单的用单图编辑去进行演 示,那么单图编辑呢?他这里有一个被隐藏掉的节点,叫做图像按像素缩放的一个节点,那么这一个节点呢,主要是为了规范我们这个第一张上传图 这样的一个尺寸大小,可以看到我们上传的第一张图片,它经过图像按像素缩放之后,给到了谁?是不是给到了我们的 v e 编码模型,那么 v e 编码的这一个节点将我们图片编码之后,他又把人腾给到了 k 长 器,也就是说其实他这一步特别像我们的图深图,他会去参考我们上传图片的一个宽高比,最后生成我们图像的一个大小,对吧?那么这里的一个宽高比呢,就跟你的原图 是一致的,但是你原图上传的像素可能很小,也有可能很大,如果说,比如说你上传的宽高比是二比三的,但是你的像素他只有二三六乘以五六幺,对吧?那么你发现这一个像素其实非常小的,那么通过这个 按像素缩放的这个节点,他就会帮你把这张图像给他放大,放大到一百万像素左右,但是如果说你上传的图像又太大的话,是二零四八乘以四零九六这种图像的话,他又会通过这一个节点把你的图片进行一个缩小,又缩小到一百万的一个像素左右。 如果你不想他进行一个自适应的缩放的话,你也可以在 lincoln 的 这一个点把他这一个给它断掉,就是我们不用 lincoln 这一个点贴上了 lincoln, 而是直接通过这个 lincoln 点把它拉出来, 然后用空 lincoln 的 一个形式去进行我们自适应的一个宽高设置,也是没有任何问题的。那么这里呢,我们就用 lincoln 编码先来演示,然后我们可以加一个图像对比, 那么这一个图像对比呢,我们就需要注意了啊,千万不要选择到第一个图像对比,就是有后面有 image 输出的,那么这个会报错,我们选择这一个后面没有 image 输出的,然后我们把生成图像可以拉出来一条线,点到图像 b, 然后图像 a 呢,我们就用原图 好,然后简单的连接完之后,我们就试一下它的一个生成图片的一个厉害关系,那么这里呢,我们就简单的输入提示词,这也可以用中文输入,可以说将呃图片 中的模特衣服改为红色,然后我们再上传一张模特图片,那么这里呢,我就简单的上传了一张由 ai 生成的呃白底模特图,然后提示词不变,我们再点击一下生成,看一下它的一个 大致的效果,那么现在图片上出来,我们可以看一下它的一个编辑效果,其实是非常不错的,对吧?人物一致性也得到了很好的一个保持,然后我们可以看一下,哎,有没有发现一个问题, 就是他的图片他会产生一定的错位,对吧?那么这个就是他前面会收到的漂移值,其实这一个漂移值问题还是蛮大的,因为这一个漂移值可能会对我们工作人员搭建后期带来一些不好的一个影响, 比如说我后面想还原我产品的一些细节的时候,如果他漂移了,我肯定就那个蒙版,我就对不上吧,所以我就不可能对他一个细节处理,所以就可能需要在 ps 里面去处理。但是这个其实问题呢?呃,一直都存在,然后一些开源社区的大佬也会出一些新的节点去解决这个偏移的一个问题, 那么这一个呢,就靠同学们自己去想了。然后我们可以看到他的一个生成图片的一个时间,他生成图片的一个时间大概用了一百三十七秒,还是蛮快的,我觉得 已经是在二十步的踩样的一个情况下。那么其实这节课呢,就是对带大家来先认识一下我们的模型以及工作流,以及他的一个偏移,那么内容也就那么多,如果小伙伴们觉得大老师讲的不错的话,不要忘记一箭三雕,我们下期再见,拜拜。

阿里的千问一口气发布了一系列 callen 三五小模型,有零点八 b, 二 b, 四 b, 九 b 啊二十七 b, 今天就让大家一分钟在 windows 上用上这个本地小模型。 首先去 l m 服务 studio 官网下载这个模型,加载软件,点击下载你就去装,下载完成后安装那个 l m studio, 然后等安装好启动后,来到软件主界面,点击左侧有个小放大镜的图标,就可以搜索这个模型了, 输入很快就看到结果,那今天我们就用库莱三五到四 b 作为例子,点击下载,然后下载好之后就可以点击左侧第一个按钮,然后点击上面加号,然后加载刚下好的模型。然后呢,这里我们可以设置模型的参数, 我们来测试一下这个模型的基本常识, 对比下其他的模型的基本常识,但这个回答效果还是很不错的。

龙虾加困三点五能擦出什么样的火花呢?我们知道困三点五在除夕夜正式发布了,它呢也是号称最强的开源模型,它的能力可以说拳打 g p t, 五点二 叫 t cloud, 四点五是可以和国际的这些顶级的大模型搬一搬手腕的。那好,那么这样一个国产的重量级的开源大模型,我们能不能在龙虾里面免费调用呢? 答案是可以的,接下来一个视频,带着你从零到一的在龙虾里面去接入困三点五,完成免费的调用。好,那话不多说,咱们直接进入正片吧。那么接入的步骤呢?其实也不多啊,总共呢四步就搞定了。首先第一步啊,如果你本地没有欧拉玛的情况下, 你先下载一个欧拉玛,注意下载最新版的,如果你的欧拉玛很长时间没有更新的,那么也是一样先更新到最新版本啊,那么这个没啥好说的,你呢,就把它下载下来,一路下一步就可以安装了 啊,安装完了之后呢,接下来咱们要在我的欧拉玛上去安装你的问三点五的模型。好,那么安装的话怎么安装啊啊?复制这行命令,然后这时候呢,把命令输进去就行了, 这个就是开源的问三点五的模型了。好,然后这时候敲回车,咱们只需要等待欧拉玛去安装千问就行了,很快咱们就可以看到。哎,我的千问三点五就已经安装到本地了啊,这时候呢,我知道有同学就说了,说,磊哥啊, 我本地的电脑配置不是特别高,问三点五能不能部署啊?这个还真能,为什么呢啊?因为在欧拉玛里面的这个问三点五的这个模型,大家可以看到了,后面跟了一个谁呀? cloud, 这个是欧拉玛新推出的一种 云端的模型啊,这些新模型呢? ok, 大家可以看到它都是有 cloud 标识的,像 win 三点五呀,智普的五呀,还有像 mini max 的 二点五啊,都是 cloud 的, 那么这个 cloud 是 什么意思啊? 啊?它指的是欧拉玛远程帮你已经部署好了满血版的这些模型了,你只要有欧拉玛的这个客户端,你就可以快速的去连接欧拉玛帮你部署好的这个开源模型了,所以这时候你不需要担心自己的电脑不好,因为这个满血版的大模型, 它的本质上是没有在你本地部署的,而是在欧拉玛的服务器上部署的,你有欧拉玛,你是可以直接去用的啊,所以它是这样的一个逻辑,因此呢,你电脑不好没有关系,是可以去用的。好, ok, 那 么很快咱们就部署好了啊,部署好了之后呢,接下来第三步啊,咱们就去登录我的欧拉玛账号。好,这时候复制这行命令, 来到命令窗口里面输入这行指令敲回车,然后敲回车之后呢,它会自动打开页面啊,这个是欧拉玛的登录页面,如果说他没有出现,大家看这个地址了没,复制这个地址,手动的粘贴到你的浏览器里面就行了。好,那这时候 ok, 去填写你的欧拉玛账号。那有人说,哎,那磊哥我没有欧拉玛账号怎么办?那没有邮箱的情况下呢,我们就去点击底下这个注册按钮啊,然后点击完成之后呢,然后接下来 在上面这个输入框里面去填写你的邮箱信息啊,那我就填写我的这个邮箱信息,点击继续。好,这时候呢,他让你去输入创建一个密码啊,那你就输入密码,然后点击继续, 然后点击下一步。好,点击完成之后呢,他要求登录到你的邮箱了,他把这个验证码收到你的邮箱了。好,输入完邮箱之后呢,他要求绑定一个手机号啊,那我们这时候呢,就去填写我们的手机号, 然后点击发送验证码。好,然后拿到手机上的验证码之后呢进行输入啊,输入完成之后呢,咱们就完成了登录了啊,大家看到没?我就登录了 啊,登录完了之后呢, ok, 去点击呃,底下的 connection, ok, 它就显示已经登录成功了,那么到这咱们的第三步就已经完成了啊,完成之后呢,接下来咱们就可以执行最后一步了, 使用这行命令来去启动你的 open class 啊,就可以完成 open class 接入欧拉玛里面的问三点五的模型了。好,那这时候呢,咱们最后一步啊,使用这行命令 来启动进行交互了。好,那这时候咱们来试着启动一下,回到命令窗口里面,把这行命令呢输入进去。好,稍回车。好,那么等待片刻之后呢,咱们可以看到啊,咱们的 open class 了,并且使用的模型呢,是欧拉玛的千问三点五的 cloud 模型啊,但是能不能用呢啊,那么接下来咱们可以打开命令窗口, 或者是打开咱们的飞书啊,来测一下。那我这呢就打开我的命令窗口啊,然后完了之后呢?好,接下来咱们就呃给他新开一个 new session 吧, 新开一个窗口啊,然后咱们来问一下他,我给你更换了新的大模型,告诉我你使用的大模型是啥,那咱们就给他一行这个命令啊,然后点击 send。 好, 那这时候咱们来看一下他给咱们返回的模型是啥,看到没?那他说的是我现在用的就是啥呀,问三点五的模型了,那这样的话,咱们就使用 openclo, 可以 免费的使用 欧拉玛里面的问三点五的模型了,好,这时候可能有人就问了,说,难道这么简单吗?我可以这样免费的去使用欧拉玛的云端模型吗?有没有限制啊?答案是有的啊,比如说欧拉玛的云端模型,人家也是有成本的吧, 所以说那么欧拉玛的调用云端模型的调用也是有额度限制的,然后这个额度限制在哪呢?给大家来看一下啊。这时候呢去点击账号右上角的这个账号啊,点击完了之后呢,在这大家看到没, 这块呢就是云端模型的使用限制啊,它是有一个百分比的,那么每周它会有一定的额度,然后每四个小时会有一定的额度,那么当你把这个额度用完之后呢,那么云端的模型就不能掉了, 所以我刚才问了两个问题,那么基本上就消耗了百分之一点二,所以这个免费的模型的话,每四个小时应该是能够调用一百次左右啊,根据你的这个上下文的这个计费是不一样的, 所以总体来看,这个免费的额度相比于其他的免费的额度来说啊,欧拉玛还是更实在一些。那么到这儿咱们就完成了在 opencloud 里面去接入问三点五的功能了。我是李哥,每天分享一个干货内容。

quan image edit 二五幺幺无疑是近期开源 ai 绘画领域的一匹黑马,其在图像编辑与人物一致性上的表现,被不少资深玩家公认为触达了当前技术的天花板。 quan 二五幺幺最令人震撼的能力首先体现在其对人物之间的融合上。在实际的工作流测试中,当创作者输入两张人物参考图时,模型并没有进行深意的像素堆叠,而是展现出了惊人的解剖学推理能力。 即便原图仅为半身像, ai 也能根据人体结构与场景逻辑自动捕全出原本不存在的腿部与鞋袜。这种从图像模仿到羽翼捕全的进化,使得它在处理复杂的双图融合任务时,能够保持人物面部特征与服饰细节的高度统一, 彻底解决了以往模型容易出现的肢体崩坏问题。这种对画面元素的深层理解同样延伸到了跨次元的 ip 融合场景中。 当我们将真人照片融入风格独特的电影海报时,宽二五幺幺表现出了极强的元素固化能力。它能够在将真人无缝植入动画场景的同时,精准保留背景中原有的小细节,实现了人物与环境的完美共生。尽管在处理背景中的复杂文字时偶尔仍有瑕疵, 但其在构图与氛围渲染上的稳定性已足以胜任高精度的创意海报设计。如果说一致性是 ai 绘图的基本功,那么对物理光影的逻辑化重塑 是奎纳二五幺幺的杀手锏。不同于传统滤镜简单的色调独家,该模型仿佛在构建一个真实的三维物理世界。在进行日夜转换的测试中, 当指令要求将白天室内场景转为夜晚时, ai 不 仅压暗了环境光,更会依据物理常识自动点亮床头的台灯,营造出真实的慢反射效果。为了让大家能第一时间上手体验这套强大的生产线工具,我已经将本期教程中演示的专属 comfyi 工作流以及配套的懒人整合包整理完毕,直接置顶放在了评论区,即取即用。在下一期内容中,我们将进一步拆解工作流内部的节点,连接逻辑,手把手带你了解这套最新最强的模型使用方法。上期我们对 quimmy 编辑二五幺幺同志集 表现的宏观评测,今天我们将不再留恋于概念,而是直接把工作流拖入 comfy, 来一场硬核的拆解测试。如果说上一期我们是在惊叹引擎的马力, 那么这一期我们将亲自坐进驾驶舱,测试这套经过精心调优的三图编辑工作流,究竟是如何在实战中将逻辑与画质推向极致的。 测试的序幕由最基础的单图编辑拉开,我们在最左侧的被修改的图像节点中加载了一张普通的室内场景,试图考验其光影修改的内容。在提示词中简单输入,将环境改为深夜,开启台灯后,得益于 lightning lora 的 介入, 画面在短时间内便完成了从白昼到深夜的切换。最令人惊艳的是, ai 并没有简单粗暴的压暗全图,而是聪明的识别出了画面中的高原逻辑。 接下来,我们进入了双图融合的进阶玩法,即当人物遇上新世界。我们在第二个家在节点上传了一张风格迥异的风景图, 并下达了将图一人物融入图二背景保持光影一致的指令。这正是宽二五幺幺的杀手解所在。生成的图像中,人物不仅自然的占据了新场景, 更关键的是光影发生了逻辑性的适配。这种以往需要 control lab 配合光影重绘修半天的工作,现在仅仅通过一句话就能实现。他不是简单的抠图合成,而是重新渲染了人物在特定环境下的真实状态。 最终的终极考验来到了三图编辑,这也是该工作流配置三个 loadimage 节点的意义所在。我们直接沿用了工作流中预设的那条高难度指令, 让图一的女人的衣服替换图二紫色毛衣角色站在画面中间,背景改为图三的场景,并进一步指定毛衣款式。参考图二,这相当于强迫 ai 并发处理三个任务,背景被完美重建在身后实现场景迁移, 而图案中的毛衣材质被精准提取并穿在人物身上。值得一提的是,由于尾部 cvr 二放大模组的介入,即使经过如此复杂的重绘, 布料的纹理细节在放大后依然清晰锐利,完全没有传统重绘常见的涂抹感。总结来看,这套工作流之所以能被称为版本,答案是因为它完美平衡了速度与质量,依靠物理逻辑而非像素拼贴来保证画面的合理性,最后再由 cpr 都抵画质, 他已经超越了工具的范畴,更像是一个懂你指令的 ai 修图师。相关工作流和整合包已经在评论区准备就绪,各位不妨下载一试,看看你的三张图能碰撞出怎样意想不到的火花。

hello, 小 伙伴们大家好,那么昨天千问团队呢,那个可以说是个地震吧,这个事好多小伙伴也已经看到了,那么 有可能啊,我们现在千问三点五呢,就是我们的版本绝唱了哈,那么 comui 呢?现在也有第三方的插件能够使用这个模型了,我们就看一下怎么去用这个模型啊。首先我们需要装一下这个节点,就是这个 comui 拉玛 c p p 啊这个, 那么这个项目呢,在昨天的话已经更新了,支持了这个千万三点五,那么这个节点安装完以后呢,我们需要下载对应的模型哈, 对应的模型大概我们看看这边哈,他现在提供的是 g g f 的 版本的啊,因为是二十七 b 这个版本的,我这边试了两个模型啊,一个是他这个 q 六这个版本 u d q 六的版本啊,八个多 g 的 那个。那么 使用的时候呢,把这两个模型下载到我们 comui 的 models, 然后呢有一个 l l m 的 文件夹啊,放到这里, 然后这里也要注意啊,我们需要下载这个 mm project 这个文件啊,对应的文件这边有两个,我这边可以推荐下载一个 b f 幺六的,如果你想从大一些的话,可以用这个 b f 幺六的啊,稍微小一点可以用个 f 幺六的啊,他们两个属于是这个适配的一个文件。 那么这个项目的节点呢?其实核心节点我们看看啊,他就这个三个啊,就这三个这三个啊,这个是我们核心的预算节点,这个是模型加载节点,我们这个是他这个参数设置节点啊, 我们看看这里边的模型加载的话,我们就是第一个选择我们这两个模型当中的一个啊, g g f 的 可以用这个 q 六的也可以用 q 二的,那么 q 啊, q 八那个呢?我这边也跑不了啊,显轮占的更大啊,三十二 g 是 跑不了我这边, 那么这两个模型的显存占用呢?这个 q 六的大概要吃到这个二十七 g 啊,二十六七 g 左右的显存,那么这个 q 二的最小号的这个呢,它只需要十二 g 不 到的显存就可以使用哈, 然后在这边 improject 这个选项呢,选择对应的这个量化的一个参数哈,可以选择 bf 幺六和 f 幺六的,然后在这个下边这个 chat handle 这边啊,选择我们的前文三点五啊,你可以选择带 syncing, 也可以选择不带 syncing 啊, 接下来就是我们这边的下边这个参数设置节点啊,设置我们最大的 token 数这些, 然后就是这个核心节点,核心节点的话,我们在这边呢有几个选项要注意啊,首先是我们的任务类型啊,任务类型的话我们可以选择他这边,看到没有,有几个第一个是空的啊,就是你全部看你自己写的内容啊,他去帮你生成。还有一个就是 normal description 啊,就是说作为文本生成的这个, 还有就是说这个,呃,提示词生成啊,包括这么几个选项啊,还有这个电影选项的,还有这个创意类的哈,还有创意类的,我们可以选择这些啊,我这边就用了这个 cinematic, 就是 电影类这个创意类的,让他去写这个提示词啊, 然后在第一个栏里边呢,就及时告诉他用中文描述啊,下边这个 system promote 啊,我就没有写。这里还有一个点要注意啊,就是这个 模式选择,模式选择的话,我们看这边它有一个 one by one, 它那个意思就是怎么讲呢? one by one 的 话就相当于图片是一个,每次只读取一张, 那么还有第二个选项就是 image 啊, image 是 什么呢?它就会读取整个这个里边加载的所有图片,即即便你加载是一个视频,它也只是读取图片哈,还有一个就是 video, video 的 话就是会把你输入图片当成一个整段的视频去呃,去反推哈, 那么就是这里的这样一个选择,下面还有个最大的一个针数啊,还有一个最大的尺寸,还有这个种子的选择啊,就在这里选择。我们这里呢有一个强制卸载,我建议大家把大家把这个打开啊,就是说如果你把它整个接入整个的一个工作流当中呢, 你把这个打开以后,它会自动的把我们这个模型去卸载掉哈,在运转完以后它会自动卸载掉,那么我试了这个三个模式哈, 啊,第一个模式就是我们这个 one by one 啊,只对单真图片进行一个提取,那图片反推呢?我们也试了一下啊,用了这个生化危机九的这个海报,我们反推了一下,整个的复现的效果还是很不错的,包括他的文字,包括整个这些细节的一个 场景啊,然后呢还有一个就是怎么讲呢?是让他自己去写,我没有接触图片啊,直接没有接触图片,直接让他去写,呃,写一个武侠电影打斗场景的第二次,还有一个,那就是视频的一个加载啊,视频的一个反退。 那我觉得这个反推的效果都不错啊,很精准很精准啊,而且运算速度也挺快,因为 g 六 i 的 话,他只用了三十多秒啊,都是三十多秒到五十多秒之间,包括这个视频的反推也只用了三十多秒啊, 当然这个也是目前我们可能在开元社区能用到的一个绝版啊,大家是且用且珍惜吧,那就是可以去试试这个版本啊。 ok, 那 就给大家分享到这里。

q n 三点五昨晚发布了,但官方数据再漂亮,也不如社区实测的红黑榜靠谱。如果你有二十四 g 显存,无脑充三十五 b a 三 b, 它是这代的版本之子,代码和逻辑能力在这个量级基本没有对手。虽然每次推理只激活三十亿,参数速度飞快, 但记得他吃的是三十五 b 级别的,现存二十七 b 表现比较平庸,除非你的设备实在跑不动大的,否则不推荐吃鱼。 flash 版,它是处理百万字长文本的神器,本地跑太费劲,直接调 api 效果最好。 今天的视频不废话,直接把压箱里的推理参数、部署命令和调优经验喂给你,让你少走弯路,直接上手。 模型选好了,但如果参数设错,再强的模型也会变傻。先看最核心的深度推理场景,比如做数学难题或者逻辑推演,这时候必须开启千问三点五的思考模式。 注意,这里的 temperature 建议直接拉到一点零,这种高温设置能充分激发模型思维的多样化,同时配合一点五的存在惩罚,也就是 presence penalty, 这能有效解决模型在大规模推理时容易出现的复读机问题。但如果你是要写代码或者搞外部开发, 逻辑的严密性就比灵感更重要了。虽然同样是在思考模式下运行,但要把 temperature 降到零点六左右,降温是为了让模型输出更稳,少一些天马行空的幻觉。 top 维持在零点九五, 这样深层的代码逻辑会更连贯,能大幅提升代码的一次性通过率。再分享两个能让效果翻倍的小细节,第一是输出长度, 也就是 max tokens, 普通的活三十二 k 够了,但要是跑竞赛题目,建议直接拉到八十一 k 以上, 这多出来的空间不是给最终答案的,而是给模型留足打草稿的思考过程。第二是提示词技巧,做数学题一定要在末尾加一句,请逐步推理,并将最终答案写在框内。 要这层格式就明确要求只输出字母明确的指令边界,能让模型从猜你想干嘛变成精准执行。 最后必须划个重点,关于存在惩罚这个参数,虽然前面建议设为一点五,但你手动微调的时候千万别超过二点零。一旦设高了,模型会为了强行避开已经说过的词,开始强行凑数,甚至胡言乱语,整个逻辑会瞬间崩坏。 控制在零到二之间,这是千万三点五保持理性的最后安全区,模型调好了,怎么稳稳的跑起来?目前性能最强的是 s g l m 方案安装,别用慢悠悠的 pick 了,直接用 u v, 效率最高。 启动时一定要手动加上 razingpasta 这一行,这是千万三点五开启思考模式和工具调用的物理开关,漏掉它,模型就退化成普通版本了。 多卡用户记得根据显卡数量对齐 tv size 参数,确保算力全开。很多人一跑部署就炸显存,其实是因为忽略了那个默认二十六万长度的上下文设置。 如果你的显存没到八十 g 以上,千万别直接硬跑。建议手动把 context lens 压到幺二八 k 甚至更小,再配合 memfraction static 零点八这个参数,把静态显存死死锁住,这样能有效防止推理过程中显存突然飙升导致的崩溃, 让长文本处理变得真可用。如果你习惯用 lu l m 部署,这里也有个压榨显存的绝招。 再加上蓝宝石模型函数,虽然会暂时舍弃多模态视觉能力,但能为你换回巨大的文本处理空间,这在跑超长代码审计或者纯文字逻辑推理时是性价比最高的选择。确保带上 reasoning part, 让 v o l m 也能输出那串关键的思考过程。 如果你是通过 api 调用千文三点五,千万别在提示词里加斜杠 think 指令模型根本不吃这一套。正确的做法是,在 api 的 extra body 参数里,通过 chat template quicks 手动控制 enable thinking, 把这个布尔值设为 false, 模型就会跳过思考,直接给结果需要逻辑爆发时再开启,这是目前开发者最容易忽略的传餐细节。 要处理整本书或者超长文档,你就得开启千万的 r n 扩展,在 v l o l m 启动参数里追加这段,重写代码,把 max model line 拉到一百万以上。 这里有个独家经验,如果你的文档只有五十万字左右,把 factor 系数设为二点零的效果要比默认的四点零更精准。只有当文本真正接近百万级别时,才建议拉满到四点零。 想让模型看懂一两个小时的长视频,去修改模型文件夹里的视频预处理配置文件,找到 longest edge 这个参数, 把它改成这个九位数的特定值。这一步能让模型处理超过二十二万个视频 token, 无论是长篇分析还是监控复盘,理解深度都会产生质变。 最后总结一下,对于大多数本地用户,无脑充三十五 b 的 a 三 b 版本,只要你有一张二十四 g 显存的卡, 把它跑起来,温度拉到一点零,开启思考模式,这就是目前本地体验最好、逻辑最硬的中杯模型。上下文平时空在十二万左右,兼顾速度和显存,按这个配置跑,你就已经超越了百分之九十的普通玩家。

win 十一二五 h 一 二才出来的时候,网上就有很多文章和视频说原来的跳过命令都没有效果了,然后我自己下载了镜像,尝试了以前两个常用的命令,拜 pass n r o 和 start locker 都是正常的, 我在不同的机器上都做了尝试,都可以用。说明一下镜像,我选择的是二五 h 二的消费者版,安装时选择的版本是 win 十一的专业版。 我们先来尝试第一种方法,也就是 oob 一 by pass, 按 o。 在 这个欢迎界面,我们按下上档键加 f 十, 然后鼠标点进这个命令框,鼠标一定要点进去,不然的话没有焦点。接着我们输入 o o b 一 斜杠摆 pass n r o 刚才的命令一定要记得把网线拔掉,不然没有效果。然后我们直接下一步,后面呢,我就快速过,然后到桌面上看一下吧,这里左下角出现了我没有 insert 链接。说明刚才的命令是有效果的。 第一个方法能正常进入桌面,说明是有效的版本二五 h 二 win 十一专业版。 紧接着我们来试第二个命令,也就是 start lock only, 这两个命令都要断网,就是不插网线。 同样的也是在这个欢迎界面按上档键加 f 十,调出这个命令窗口,要点一下这个窗口,让它有焦点,不然你的输入法是无效的。 start ms 杠 c 叉 h 冒号 lock only, 然后回车,然后输入你喜欢的用户名密码先空吧。 好了,第二种命令也能正常的跳过联网登录。 稍微做下总结,以前的两个命令都是有效的,然后你要注意镜像,选择消费者版,然后安装时选择的版本是专业版,这样的话以前的命令都可以正常使用。 然后 logo only 的 话更简洁一些。这两个命令看你个人喜好吧,爱用哪个就用哪个。

openclaw 到底能不能使用本地模型来完成各种任务?今天我就把实际测试的结果和大家分享下。本地模型我使用的是最新发布的千问三点五量化版本,目前已经发布的有二十七 b、 三十五 b 以及 e i 二 b 三个量化版, 各位可以根据自己的显卡状况选择合适的版本。我这里选择的是三十五 b 的 量化版本,模型大小为二十四 g, 实测在我的双显卡环境下速度可以达到一百二十 t 每秒,性能上已经可以完全满足使用需求。 本地的模型工具使用的是羊驼欧拉玛,需要注意的是,欧拉玛软件必须是十七以上版本才能够支持千问三点五这样的新模型,目前官网最新版本是十七点零点四。而最令人惊喜的是,新版的欧拉玛已经集成了 open claw, 你 只需要在命令行输入 open claw 这一行代码,就可以直接部署你的龙虾机器人。 此外还需要注意的是,新版本的欧拉玛把上下文长度设置为了二百五十六 k, 这可确保连续多次和模型的对话不会被中断,但这会占用更多的显存资源,所以一定要选择适合自己硬件性能的量化模型。在将千问三十五币设置为 openclaw 的 主模型之后,我进行了多个功能的测试,包括 skill 技能的安装和配置、 股票代码的抓取和市场行情分析,以及 ai 新闻的搜集和定时任务的配置。结果超出了我的预期,本地模型基本顺利地完成了所有任务,没有死循环或是失去响应的状况发生。但需要注意的是,量化版本的模型由于能力限制, 如果是较为耗时且有多个分支任务的对话,你需要再次输入提示词,要求模型检查当前的任务执行状况,以避免任务没有被百分之百完成。在耗时一天的深度体验后,我认为使用本地千问模型配合 open claw 来执行基本的信息搜集和数据分析等无需复杂逻辑的任务是一个非常好的选择, 但前提是要确保你的硬件有足够的性能来支持本地模型的运行。同时建议另外再配置一个线上大模型来配合完成其他复杂项目。 通过这样的组合,应该可以有效避免 token 过度消耗造成的大额费用支出。以上就是我使用本地模型配合龙虾机器人的使用心得,如果你也有类似经验,欢迎在评论区分享你的使用反馈。


大家好啊,最近不是千万三点五的中小模型都发布了吗?我本来准备是想测一测模型,给大家汇报一下,结果没有想到啊,我居然迷上了另外一件事,我给你们看一下,这是一台我的工作站, 我现在把降噪关掉,给你们感受一下, 怎么样 怎么样,听到了吗?因为这个模型真的太好玩了,所以导致我三天都没有关这台服务器。 好了好了,回归正题啊,原本只是想试试这个模型能不能用在 openclaw 里面,结果一发不可收拾,我这个工作站都暴躁的运行了三天了,我老婆女儿都开始吐槽了,而且导致我最近是严重缺觉,成天就脑子里都想的都是这五只龙虾, 我也不知道,下次分享的时候说不定就是十只了。但是今天呢,我还是先给大家汇报一下我这个千万三点五的测评数据吧,然后我再给你们详细的分享我这几天的奇妙感受。 我先说重点啊,我这次测评用的是 s g 浪,推荐大家都用这个单卡,用的是四十八 g 显存的四零九零魔改版 f p 八的精度,这个配置呢,能跑二百五十六 k 的 上下文。 值得一提的是,应该是只有 s g 浪完整的支持了前缀缓存,也只有在前缀缓存才能体验住千万三点五这种混合注意力架构的真正牛逼的地方。我举个例子,如果你是一百 k 上下文,冷启动 perf 阶段就是十秒钟, 但是如果你带了缓存就是两百毫秒,所以直接的结果就是,你哪怕有很长的上下文,但是他的首字延迟就是很低,输出还特别快。 我的测试场景给大家讲一下,就和我们的真实场景特别像,我每个模型测试都是从二十 k 上下文开始,一直增长到二百 k, 每次增加四 k 上下文,模拟我们真实环境下的长任务,而且他是在缓存命中的 三十五 b a, 三 b 这个模型啊,他最初的速度是一百二十头克每秒,最后衰减到了八十,衰退不算多。 而二十七 b 这个模型就逆天了,虽然它一开始就是个归宿,二十 to 每秒,但是到了二百 k, 它依然能保持十八 t 的 每秒。而且最离谱的是,你们看到了吗?因为它有缓存啊,所以即使缓存里有两百 k 的 上下文, 我输入四百 k 的 togg, 它的 perf 耗时只有两百毫秒。所以实际的生产环境,用人话来说就是在那种多工具调用的环节, 其实你感觉不到它很慢,因为工具调用这个场景啊,它输出的 token 都比较少,所以它响应也很快,很快就出结果了。你的直接感受就是对话再长,它的速度都不会衰减。我还做了一个测试啊,就是用 agent teams 同时开六个 agent, 哎呀,那个感觉真的是太爽了, 速度还能叠加,我也不知道是为什么,就直接从后台的输出,你就能看到它能达到一百二十多个每秒,而且这个二十七 b 模型,它是可以一键启动 agent teams 的, 我之前拿千万三点五 plus 都测试失败了, 他能同时开六个成员,速度能叠加到一百二十 t, 而且我还测了一下一百二十二 b 那 个模型,我个人的这个体感二十七 b, 他的智商是超过这个一百二十二 b 的, 只是个人感觉啊,就是从各方面数学,编程能力他都很强, 唯一的缺点就是他单进城特别慢,于是我就想到了一个妙招,哎,单进城很慢,那我就多进城呗,我可以拿它养龙虾呀,而且我可以一次养好几只,你养一只龙虾慢,那我养多只他不就快了吗? 这就直接导致我的服务器一直在咆哮,二十四小时都是这个咆哮状态,一直都满载,我家电费就更不要提了, 给大家分享一下我的龙虾啊,我现在一共养了五只龙虾,这个是主控,然后他部署在一台服务器上面,然后剩下的四个是在这台服务器的容器上面。给大家看一下,这是这四个小弟, 汤圆、奶茶、闪电、布丁,然后他们自己的持久化文件,都有各自的目录,然后这里面有他的记忆啊,还有他的目标啊, 我现在让他们干了一件什么事呢?就是主控,主控大佬会通过定时任务,就作为导师来检查他们每一个人的这个目标文件,看他在这个周期里有没有完成目标,然后给他写入一些新的目标。然后呢,这些小弟也是通过定时任务启动的, 然后他每次定时任务就是会完成他的这个 goals, 然后更新他的 memory。 他 们的目标是什么呢?就是跟他们一起开发了一个论坛,然后这个论坛用于让他们沟通,他们一直 在开发这个论坛需要的功能,然后一直在写入代码,然后重新部署。这样子论坛长什么样呢?大概就是这个样子啊,他们在不停的会发一些信息, 就是汇报一下自己的工作进度呀,就是彼此沟通吧,但是我觉得现在还不是很好,他们还是各干各的,还没有彼此的连接起来。但是这是我的一个小的社群实验,就我想看看他们能不能给自己开发一些东西,让自己变得更好这样子, 所以我现在也在尝试不同的部署,但是现在你国产的这些 coding plan, 他 们都有限制并发嘛,对吧?所以你想要养这么多只龙虾,同时你就你也干不了别的了。我现在呢,给大家看一下,我现在在模拟当初论坛开发那个流程,现在是有六个 agent teams, 有 六个成员, 然后他们全部是通过千万三点五二十七币这个筹密模型在本地运行。看,就是这个我在这个 s g 浪上部署的这个模型,然后后台的这几只龙虾呢?他们是定期任务,他每十分钟会有一波高峰, 但是虽然说每一个县城只有大概二十多头肯,但它整体你看它有时候能跑到一百,甚至能到一百二十多,就是它六个跑满的时候是有一百二十多头肯每秒,然后它 prefill 的 速度也很快,所以其实我感觉虽然如果单县城去使用我会很烦,它的速度很慢,但是我一次开很多,我就不管了,让它们自己去玩去, 我就觉得这种效果还蛮不错,至少这个速度我还是能接受,毕竟他是个本地模型,而这个二十七 b 模型其实非常聪明,非常聪明,我如果把这个二十七 b 模型换成三十五 b, 那 个三 b 激活的采用,那这个速度就离谱了,差不多六七百头肯没秒完, 但是你就会发现他们一直做一些无用功,但是二十七 b 模型就会感觉更聪明一些。反正这个论坛我发现不断在产生一些变化,我录完刚才那一段,然后我写了一些提交了, 但是我看到论坛他们已经把论坛已经甩的不像什么了,我觉得非常有意思,不管他们干成了什么事情,或者没干成什么事情,你你都能发现出一些很有趣的事情。我们看到这个我现在这个主控已经很着急了, 他说他大家都没有提交,然后我现在给他只是让他做一种新的沟通方式,但是几个小弟嘛,其实就觉得还不错,他们觉得这个哎,任务都做完了,没事了, 就是你们也可以试试这样养龙虾,说不定大家能摸索出来一种,让他们用一种方式,能协调合作,哎,我觉得可能就会很有收获。所以如果你是有四十八 g 以上统一内存,比如说 mac mini 啊, mac studio 啊, ai max, 三九五啊,或者是你有这个五零九零,或者是我这种 四零九零魔改版啊,我恭喜你,你买的硬件升值了,因为他们养龙虾体验实在是太好了, 就是因为三十五 b 和二十七 b 显存差不多啊,你想想你就相当于有了两种模式的模型,可以一键切换,一种是速度暴躁,但是智商略低,有点像战士那种。 另外一种就是归宿,但是智商爆表,有点儿像法师,你可以随时切换他的人格,是不是这个道理?当然了,你依然可以用那种 coding plan 版的高级模型,用它来做编排者,就相当于你养了一个老大,但是小弟可以开很多, 你可以尝试能不能形成一个蜂群,我最近就在实验。那我之前不是还分享了一个进化体系吗?如果可以用循环的方式来运行 evover 龙虾的技能体系,就能快速的自我优化。我最近也在不断的尝试这个领域,看看能不能实现我二十四小时的路谱,看它能不能自我进化。所以请原谅我这期没有什么干货,都是我的一些畅想。 我这个人就是脑洞比较大,但我在 ai 时代所有收获都是受益于这种脑洞大,所以从这篇起也算是开启了我的一个新系列。我后面会不断地分享我养龙虾的心得,也请大家持续关注。好了,以上就是本期全部内容了,谢谢大家!