粉丝717获赞7754

可口可乐大龙虾,他是云端好还是本地好?那他们两者之间的成本有什么样的差异,以及他们实现的效果,功能上面有没有区别?那今天一条视频给大家讲清楚,哦,对了, 还有适用的一些人群啊。我先说云端,现在目前你部署一个大龙虾到云端上面,你需要花费的成本大概在五百以内啊,不会太高,因为现在阿里、腾讯 各大云厂它都出了这种 opencloud 的 一个镜像,你只要是买一个清亮云服务器,买了之后呢,自动就给你它部署好了,这个界面就是云端的界面了,对吧?自己配一个模型, 一个通道,以及它的技能数啊, skill 就 完了,非常简单,傻瓜似的,这个东西部署的时间也就在二十分钟以内,就这么快的一个时间,它适合什么呢?咱们本地没有什么设备啊,并且呢,我本地是需要关机的嘛, 所以我在云端上面就能七乘二十四小时不间断的让它去运行。那说完云端的好处优势,那我们再说一下本地,难道本地真的是那么一无是处吗?啊,倒也不是,因为现在网上但凡你去搜一下,现在有很多那种 opencloud 的 一体机啊,说实话是之前那种 魔改的一些机器,因为云端的优势刚也说了,但他的劣势也挺明显,就是他的核心以及他的内存不会给你很大,你像你花个两三百,可能买个四合八 g 的 都都都这种都很难逃了,一般是二二合四 g 的 这种样子。这就来说对大龙虾的这个本地发挥就有限制,他不能去做多现成的这种任务,可能会因为自己的深度思考,然后卡死, 也不能调用太多,那我们在本地部署的时候,当然硬件就没有什么限制了,那限制的可能就是一些什么你的贷款,对吧?网络波动 以及你本地化的一些环境搭建,这个就是一些进阶玩家的啊,这么一个操作了,你需要在一个纯净的系统上面。当然这里建议不要拿你自己的主力机,比如说像我现在用的这台 windows, 我 有很多里面自己的资料,我不 能说把大龙虾装在里面,那他万一抽风删掉了我本地的一些资料怎么办呢?那后悔莫及,追悔莫及,那对我造成了一定的损失。但凡事都有两面性,所以呢,一般的解决问题呢,我就会在我本地的这个机器里面再装一个沙盒系统, 也就是在 windows 里面再开一个 windows, 让它在沙河里运行。那这个时候问题又来了,那你在沙河里面运行,你得关机,你不能说二十四小时一直开着对吧?但大龙虾就需要二十四小时开着,所以大家都在网上疯狂的抢那个 mac mini, 就是 因为它足够让大龙虾去运行, 单独为大龙虾装这么一个硬件,那剩下就是看怎么去用了,而且 mac mini 可以 多个这么组建起来,然后让它的性能再一步去提升。但是现在也有很多那种伪 windows 的, 就是大龙虾一体机,也是以前的上古, 但是整体来说比云端的这个无论是从核心数来说,还是内存来说,还是你的硬盘来说,要宽裕太多了,足够让大龙虾多开几个浏览器或者多端去运行,深度思考 迭代一些东西。那其实在云端上面我们是适合小白,并且不是那么深度去玩的,就简单配置一下,平常我记个手帐, 运行个文档什么之类的啊,规范化。那如果说我需要大型的一些执行或者复杂一点的话,那就是在本地,但本地呢,更适合我们中高端玩家 diy, 因为要解决环境的问题,包括自定义,包括技能数 skill 的 一些自我的配置,那配置就更多了,每个机器每个机器有不一样的东西, 同时你也得保持这个二十四小时在开着机,它在运行,包括大龙虾的运行的这种情况下,水土不服的情况下,你都要去解决这样的 bug, 所以呢,两者的区分 就非常大了。那大龙虾现在能做什么?就是做一些表格公式之类的,帮你去提醒,帮你去服务一些会员,有的把它接到了一个企业微信里面,去服务一些客户,在客户群里解答一些问题。像我呢,我更多的是把它当成一个我知识库的管理员,但是他之前也建议我说把它当成一个 写脚本的,但是脚本对我来说呢,相对来说这是人该写的东西, ai 写永远没有我自己写本那个味儿, 这个对于 ai 来说是难的。呵,这个是多年的说话习惯或者使用习惯,这个 ai 的 确是做不到,但它能做到就是在我既有的内容之上,它可以自己浏览我的知识库,然后同时呢规划我的知识库更新方向, 以及呢帮我填充一些啊有必要的一些细节,然后作为我的一个助理,二十四小时监管着我的这个知识库的叠带,以及同步的去浏览现在最新的 ai。 啊,那至于他烧多少扑克,你其实也现在到现在也没烧多少,而不是说啊我是要云端好还是本地好呢? 你先跑起来,我觉得是最好的。呃,最后我想说的是在你做这个大龙虾的时候,结合你现在实际的目标去产生价值,这个我认为是你要想清楚的。然后第二步,那接下来就无外乎就是 看那些投产品呗,我投入了多少,然后他输出了多少,因为大龙虾他是可以根据你的过往记录去存储一些他工作的细节,他会一点一点增强他的技能,以及你把他当成一个伙伴搭子的这个适配性。希望对你有所保 好。关注我,阿叶能洗。

同样的图,为什么他比你快十倍?因为他用了云端集群,不用买昂贵显卡,不用操心散热噪音,随时随地打开网页就能跑,成本不到自建的一半,速度却快了好几倍。影视后期 ai 绘画必备神器,支持主流软件一键部署。 别犹豫了,试试云端秒出图的感觉,早完工早收款,别再死磕了,云端算力才是王道!海量四零九零集群出图快人一步,早上提交,下午交货,这才是效率!

观众朋友们大家好,这里是顽皮的程序员,如果你是一个极致懒惰者,或者说你连四百块的书媒派都不想买,只想空手套白狼,赶紧体验一下。那咱们今天来聊一聊租房方案云端的一键部署。 当然呢,这套方案的核心逻辑就是花一点点小钱,然后买别人二十四小时在线的宽带和电力,省去你自己维护硬件的时候,你可以去租云。 那目前我们国内玩家最推荐的两条路线是方案一,腾讯云的 lighthouse, 也就是说清亮云应用服务器,那它大概是下边这个样子, 那当然,你可以登录腾讯云的控制台,选择 lighthouse 的 产品,然后选择 opencloud 的 官方镜像,轻轻的点几下鼠标,系统就会自动装好。那你再配置一下你的 apik, 你 完全可以就这样慢慢的开始使用。它比较适合那些使用 qq 和企微的用户,因为它们可以直接一键登录,非常的简单快捷, 那你也不需要折腾那么多细枝末节的技术。第二个好的方案就是火山引擎,他是由字节跳动出品的,那大概配置类似于下边对于飞出的重度用户,这简直就是绝配,那价格更低,虽然贷款只有五兆,但是你跑一个文字智能体我觉得是绰绰有余。 他比较适合那些飞出的资深用户,也对预算非常敏感的人群,而且你是以常用的文字处理为主。 当然,如果你说我觉得上述的方案还是不能够满足自己,我有更加进阶的一些想法的时候,那你必须要看看 cloudfire 的 workers 加 r 二存储的方案,那么这叫 serverless 的 服务架构, 大概情况如下,它的核心优势就是代码直接部署到 cloudfire 的 全球边缘节点,完全不用管服务器的运维,它能自动的扩缩容,而且自带全球加速,是不是很爽? 值得注意的是, cloudfire 是 全球最大的 cdn 加速服务机构,那么他们提供的所有的服务,你可以想象成全球最舒服,在各个地区使用都有非常良好体验的一种服务形式。那么它比较适合有开发能力的技术玩家,需要全球访问,而且追求极致的稳定性的这些人。 那么云端服务他有没有一些致命的缺陷呢?作为毒蛇架构师,我要给你喷一喷冷水,云端部署虽然非常省心,但是你失去了对硬件的物理控制权,你会面临三大问题。第一个就是你的数据安全,虽然数据加密了, 但是终究在别人的地盘上,大家想一想是不是也是有一点点心惊胆战的?第二个就是你的文件访问是完全受限的, 因为他毕竟是服务器,他没办法访问你家里的本地文件或者你局域网的设备,那这个时候你再去使用本地的一些文件去上传他就非常的麻烦了,对不对? 第三个他对网络的依赖是非常严重的,一旦服务商出了问题,那你的智能体就完全瘫痪。当然我们经过上面的讲述,大家一定想明白了,云端部署最适合的两类人,第一类就是只想赶紧跑通工作流的新手, 那第二类呢?需要二十四小时消息转发,对于本地文件访问需求不大的移动办公族,如果你追求的是真正的第二大脑,那这一定只是你的临时居所,最终还得老老实实的搞台实体机, 那么他们的对比成本大概是下边这个样子。当然,作为一个老鸟,我想给广大的新鸟推荐一些路线,比如说你可以先用云端部署跑通整个流程,大概在这个过程中使用一到两周, 这时候你完全不用考虑安全问题,也不用考虑这些东西到底应该怎么实际的去操作,你只需要把你的流程跑通。第二个就是确定一下自己真的需要二十四小时在线的这样的服务。第三个再考虑考虑买实体硬件。那么对于老鸟的路线呢?我推荐大家直接无脑充实体硬件,云端只做备份和远程访问。 那么下一期我们将聊聊给你的龙虾选择,大脑模型的选择。那么在模型选择的榜单上,我们来揭秘一下谁才是最懂中文的赛博大脑是 kimi 呢? ibisc、 cloud? 或者哪一个才是你在脑海中盘旋的那个选项?那我会把每一个模型的优缺点,适用的场景,它们的成本全部给你讲透。 云端部署就是租房,本地部署就是买房,租房省心,但是他终究不是你的,买房虽然麻烦,但是他永远都属于你一个人。好,今天的内容就是这样,大家下一期再见。

零元带你体验在云服务器上部署官方 openclo 首先我们用到的是腾讯云服务器,打开腾讯云服务器, 登录完之后,这里有免费试用。腾讯云服务器给我们提供了非常多免费试用的服务器,我们通过完成个人认证之后,就可以在晚上零点之后可以立即领取,领取之后我们回到首页,点击控制台,控制台这个位置 就有清亮应用服务器,直接给它点开,点开之后这里就是你领取的服务器,直接点开,点开之后首先我们需要给它重组系统,点击重装系统,点击使用应用模板 openclock, 输入自己的密码,无需备份,直接重装,点击确定,随后我们回到刚才服务器的开始, 点击这里应用管理,在这里可以配置你想使用的模型以及使用它的渠道有哪些模型优先建议选腾讯云 deepstack, 这里不需要调用 api key, 可以 直接一键增加并应用。随后这里有通道,通道中给了这几款应用的渠道,我们首选飞书, 点击手动配置,直接点击详情。进入飞书开放平台之后点击登录,登录完成之后点击开发者后台,在开发者后台去创建属于自己的应用,输入应用名称以及对他的描述,直接点击创建。 创建之后这六个凭证与基本信息这里就出现了 app id 跟 app script, 点击复制,再回到这里配置这里复制,再过来 ctrl 加 v, 直接增加并应用,这里就可以看到它是属于正在运行中。 here 目前 我们初级配用可以先不用到,之后自己想进阶玩法,想提升自己的 open class 的 时候再来处理相关 skills, 随后这里配置好之后,我们来到飞书点击增加应用能力, 增加机器人,这里显示出机器人之后即为成功。随后我们来到权限管理,权限管理我们需要开通几个权限,点击开通管理输入,我们需要给他的权限点击确定开通权限 继续添加,这里的权限是你给他能操作的,有哪些权限在之后的用途当中可以自行添加。 随后我们点击事件与回调,事件与回调部分,进入方式全部都选择长连接,要注意的是我这里是在给大家进行演示,实际你在保存之后,他这里是没有红色字的, 要是你这里没有点击一键添加并应用的话,那你这里就会选择红色。这里保存之后我们来到回调设置,回调配置当中也选择使用长连接接受回调点保存点回事件配调增加事件, 选择两个,一个是信息已读,另外一个是接收信息。随后我们在这里创建新的版本,比如说一点零,点零,这就是你的初步版本更新说明, 随后我们直接点击保存就可以了。随后我们重新打开这个控制台,然后直接点击进入, 进入之后需要给他扫个码,成功之后直接登录,登录进去,在刚才调出来的飞书,直接在这里搜索属于你的这个机器人,随便给他发一句话,然后他就会给你发这一段, 发这一段之后把最后这一段给他复制粘贴一下, 点击回车, 当这一部分出来的时候就是成功等待。

hello, 同学们,大家好,好久没给大家做教程了啊,最近拍源没什么新东西, 然后这边在视频生成方面补声,视频出了一个 ltx 二点三啊,据说是对这个图像一致性和稳定性有了大幅度提升。然后我们在星狗云上面教大家怎么用这个 ltx 二点三那个宫格瘤啊。 首先我们看一下案例,已经看过了啊,然后我们这边打开星空云的官方网站,这个地址啊,星空云的官方网站,然后打开以后,我们看桌面上有个邀请码,使用邀请码注册可以得到八块钱的算利息, 可以使用四个小时左右,你使用四个小时左右免费啊。然后我们点击开始部署 gmail, 来这里选择推荐镜像里面的第二个蛀牙师兄的镜像,这镜像有三点几个 t r 三点几个 t, 包含了所有视频里的工作流,基本上都是一键置起 啊。我们这边选这边的那个,那个显卡,显卡我们建议选四至八个 g 的 显,这八个显卡不爆显存,因为他这个,他这个的模型实在太大了, 二十四个进贤卡也能跑啊,也能跑,我们这边已经不说好的,然后我们点击这边康复 u i 这个地方进去,如果直接不说好,千万要等个两分钟才能点击啊,要不然会有无法打菜的,就会像这样组法打菜,我们过一会再点啊, 好,真的,三星以后出来了,我们这边点击左边这个地方有个工作流, 然后我们这边有个零三零七更新 l t x 二点三全能宽圆视频生成好,点击进去以后啊,设置一个工作流整体的一个状态,右边散弹一张图片,那里可以 根据这个自动提示词啊,我们是可以生成出来自动提手词,我们把这个拉大一点旁来一次一个,我们登录顺采一个自动提词词的提交的那里,我们上传一个图片 啊,我们就传一个外国女人的图片,这个地方是看提示词的结果啊,对了, 好,我们根据这个图片,然后让它自动出提置词来,出一个动画,我们测试一下效果。在此之前有可能同学会问这个不要自动提置词,要手动提置词怎么办?我们看这里有个文本输出啊,连接到这个地方,好的,我们双击这里搜索 cr, 然后出来一个 prom, prom 特 啊,在地方有一个新的一个节点,然后把这个 problem 连上这个熨索这里啊,在地方就就就实现了。我们手动输入提示词啊,这是一个小技巧,我们现在就使用它的自动提示词啊,我们现在把这个删除,然后直接连接上去。 好,我们点击开始运行,其他地方都不要动啊,都不要动。简单介绍一下它的参数, 也是个 we do set 单词的参数,它是一个不像长宽长宽高的一个 h, size 是 它的 p n p 处理,做几个目,这也都是页啊,功放,不用管它地方一个 nice nice, 这个地方怎么填? nice, 就 着重讲一下 nice, 它就是视频长度,我们这里看到了它的视频长度是二十四帧每秒,如果我们定视频长度是定二十四帧每秒的话啊, 一般就是十秒钟二百四十加一。因为他这个个平针是从零针开始算的,所以我们做针的话一定要写加一多少秒,加一,然后二百四十一啊,二百四十一就是十秒钟的意思 啊。这个功课流还有优化的地方啊,我们因为时间关系,我们没有去详细的给优化这个功课流,有需要同学可以单独联系我做优化啊, 比如把这个地方时间改成秒数那种啊。然后有人问宽高,嗯?宽高在哪地方?宽高?我觉得这个地方它是自动获取图像尺寸,获取图层的那些渐层, 这个图像尺寸把它做成了一个缩放,就是零点五倍大小,就是原来尺寸是七二零看一二八零,哎,他给它缩小成到三六零看六四零。 这地方想用心改的话也很简单,我们不要改变圆图尺寸,要改变圆图尺寸,然后直接把这个 upscale 这地方改成 e 啊,改成 e, 然后然后图像再连上去,或者是直接就取消掉这个额 色方图像这个节点也从图像连到这个地方,这样就跳过了这个色方图像这个节点好,就可以保持圆骨尺寸是处。然后如果你想改变自定义图像尺寸啊,把这两个渐变也给他去掉,然后在这地方显显你要的尺寸,七二零 一二八零,把这个地方头像切上,然后再接下去,这样就显示了你自定义从小尺寸,等他一些技巧啊,同学们记一下啊,我们现在已经开始生成了啊,我们章鱼等会就生成完了。好的,我们这边做完了啊,我们点击播放看一下效果。 好的,今天我们的教程就到这里啊,感谢大家的收看哦,下次教学再见。拜拜。

阿里刚开园的 q 泡桌面智能体,我替你们实打实踩坑实测了,一句话总结,咱们普通小白想上手,真的再等等,别着急,跟风折腾。 最开始我想本地部署,跟着豆包给的步骤一步一步来,全程全是代码操作,要配置各种环境,跑好几个网站下载对应的安装包。对我这种不懂小代码的小普通小白来说,真的巨复杂, 前前后后折腾了快两个小时,最后还是因为环境不兼容,直直接卡死,只能彻底放弃。然后我就去试了阿里云官网标注的五分钟一键部署,结果踩的坑一个接一个。首先就是大家最关心的费用问题, 别看模型本身是开源免费的,但实际用起来有不少消费调用大模型需要开通阿里百链服务,首月套餐七块九,包含一万八千次请求。这个倒是不贵, 但想在云上部署,必须租赁阿里云服务器,我选了最基础的入门配置,最低要先充值一百块,按量付费,折算下来一小时差不多七毛钱。 这里必须给大家提个醒,也是我自己踩过的坑,这个服务器不是你关机,不用就不扣费了。我折腾完关机放了一晚上,第二天一看啥操作也没做,又扣了好几块。 后来才搞明白,他默认状态下关机还是正常计费,只有手动开启节省停机模式,才能免掉算力部分的费用。而且就算开了这个模式,系统盘的存储费用还是会持续扣除 大家,大家如果只是临时测试用,用完一定要直接删除释放实力,不然钱不知不觉就被扣没了。 呃,钱的事还是其次,最折腾人的是他对咱们普通小白真的不够友好,操作手册的很多关键步骤对新手来说说明不够详细,就比如开通密钥,手册里只提到了开通编程密钥, 我照着操作折腾了半天一直报错,后来问了千问才搞明白,调用大模型需要开通的是大模型专用密钥, 就这一个没说明白的细节,白白浪费了我快一个小时。好不容易部署完成,我把它关联到钉钉上,想着手机上也能随时用,结果刚用第二句就出问题了,我先给他发了个文章链接,让他提炼核心要点,倒是很顺利就完成了。 紧接着我用语音发了一句,把这个内容和要点生成一个 ppt, 发出去直接就报错了。后来我问了技术支持才搞明白, 这根本不是我操作错了,是这个刚开源的初识版本本身就还没开发语音识别功能,原声只支持文本输入,不支持语音消息处理,属于版本本身的功能缺失,咱们普通人根本改不了,只能等官方后续更新版本。 整个折腾下来,我最大的感受就是这个工具真的只适合技术爱好者,懂代码的专业人士拿来测试学习。 对咱们这种只想拿它来干活、写文案、做内容的普通创作者来说,真的不建议。现在着急上手,到处都是没说明白的细节,不知道下一步 就会不知道下一步哪就会报错,时间全花在调试上了。有这功夫,用豆包、 deepsafe 那 些都写完好几篇文章了 其实,呃,跟我之前测的 mini max agent 一 样,这些新出的智能体对懂代码、懂逻辑的专业人士来说确实自由度高,很好用,但对咱们普通人来说,真的是步步都有门槛,体验感很不好。 最后给想试的朋友提三个新手一定会遇到的问题,大家记好避坑。第一,普通小白别轻易碰,本地部署操作门槛非常高。第二,开通密钥一定要开大模型专用的,别只开编程密钥。 第三,当前版本不支持语音识别,别在这上面白瞎白费功夫。给咱们普通人一句实在的建议,想玩这些新的 ai 智能体真的不用着急,再等等,等他们出了正式版本,功能完善了,哪天 咱们在应用商店里直接能下载到了再去用也不迟,现在跟风折腾,最后大概就是浪费时间浪费精力,还没办成事。 嗯,接下来我也会回归内容本身,把我用 ai 写头条、做自媒体的真实心得和实用技巧毫无保留的分享给大家。想跟着一起用 ai 做自媒体,少走弯路,不瞎折腾浪费时间的点个关注,咱们一步一步慢慢走。

前两天,我在抖音分享了两款大模型的核心原理,很多朋友点赞收藏。今天,我们把镜头对准大模型背后最真实、最硬核的成本密码。 token 消耗的真相。当你和大模型对话,让他写文案、做总结、 写代码时,你看不见的算力洪流正在奔涌。而计量这一切的最小单位就是 token, 它不是虚拟货币,不是积分,而是大模型理解与深层语言的原子级单元,是帅力、显存、电力的统一计量标尺。从技术本质看, token 是 文本被模型分词后的最小片段。一个汉字、一个标点、一个英文字词 都可能是一个 token。 中文语境里,一个汉字约等于一个 token, 英文中约四个字母或零点七五个单词对应一个 token, 空格标点换行, 五一例外,全部计入消耗。每一次交互都在消耗双重 token 输入。 prompt 的 token 加输出, completion 的 token 输入是你提出的问题。上传的文本历史对话,上下文输出是模型逐字逐句深层的回答,这不是简单相加,而是算力的真实对价。输入决定理解深度 输出主导计算强度。为什么输出 token 更贵?因为大模型生成文本是自回归推理,每生成一个 token, 都要基于全部上下文做一次完整计算。上下文越长,计算量呈平方级增长, 险存、债用、电力消耗、 gpu 折旧都随 token 数量同步攀升。 token 就是 大模型世界的算力通货。你必须知道三个关键真相。第一,上下文窗口就是记忆边界,八 k 三二 k 一 二八 k。 token 决定模型能记住多少,处理多长文本,超出上限,内容被截断,逻辑必然断裂。第二,多轮对话会累积消耗。每一次追问都要把历史对话重新带入计算,聊的越久, 投肯消耗越快,成本限性上升。第三,计费按真实消耗结算。国内模型多以签投肯为单位计价, 国际主流模型输入输出分离定价,输出单价往往是输入的数倍。一次长文深沉,一次深度分析,背后都是精确到 token 的 资源消耗。很多人以为 ai 是 免费的,是无限的, 其实每一次思考,每一行文字都在消耗真实的工业级算力。 token 的 背后是数据中心的灯光,是芯片的运算,是电力的流转,是技术谱汇背后 沉甸甸的工程成本。理解 top, 你 就看懂了大模型的效率、边界、成本逻辑与能力上线,它让我们更理性地使用 ai, 精简指令,清理上下文,聚焦核心需求,既提升效果,也降低消耗。 ai 的 智能 藏在模型的架构里,而 ai 的 真实代价藏在每一个 token 的 流动中。敬畏技术,理性使用,让每一次交互都物有所值。本地部署 vs 云端 token 讲到这里,很多人会问,本地部署大模型是不是就没有 token 消耗了?答案是, token 依然存在,但计费逻辑彻底消失。本地模型同样会计算 token, 占用上下文窗口, 它的理解逻辑生成机制和云端模型完全一致,区别只在于云端按次付费。本地一次性投入 云端大模型用的是别人的显卡,别人的贷款,别人的电费。所以用 token 计价,本地大模型用的是你自己的硬件,自己的电力,自己的存储空间,所以没有优次计费,没有额度限制,没有隐私泄露风险, 你可以无限生成无限对话,无限处理长文本,不用担心 token 超标,不用担心对话被记录,更不用担心突然涨价, 服务下架,但代价也很真实。本地模型的性能上线,由你的显卡决定,显存不够,模型跑不起来,算力不足,生成速度就慢。一句话总结,原端,模型买的是服务,按 token 付费。本地模型买的是自由,靠硬件支撑,没有绝对的好坏,只有场景的选择。我是小白,持续用专业与温度 拆解大模型的底层逻辑。关注我,下期我们讲如何高效优化 token, 让你的 ai 使用更省钱、更强大。

ai 的 入场券刚刚被撕了,当巨头还在云端秀肌肉时,一个真正的破局者已经杀到了你的桌面上。它叫 stable diffusion, 它最大的杀手锏是它被设计为可以在消费级显卡上高效运行, 而且他选择了开源,并且完全免费。这意味着什么?这意味着 ai 视频的生产力第一次从少数几个大厂的云端服务器下放到了你我的台式机上。这不叫更新,这叫技术平权,但他仅仅是人人可用吗?不,他绝对专业!这个工具的出现, 直接把专业设计师的门槛给干碎了,无论是学生、特效师还是对 ai 有 兴趣的小白,都可以轻松学会。关键是这个工具完全免费, 每个人都可以尽情的发挥创意灵感,新手直接无脑抄作业就好。那么本节课所用到的 ai 工具和各种 ai 实战案例都打包好放在网盘了,敲六六六即可领取。那么我们应该怎么去使用这个 ai 工具呢?首先我们先从网盘把 stable fusion 整合包下载下来。 下载好整合包之后,第一步,先解压,鼠标右键点击压缩包,选择解压到当前文件夹。这里我重点提醒大家,千万不要直接运行安装包, 解压路径一定要全英文,不能有中文空格或特殊符号,不然后面启动画图都会有频繁的报错,这个坑一定要避开。解压完成后,打开文件夹,右键点击查看,调整一下图标大小, 你就能看到一个启动图标,双击打开,直接一键启动。如果是第一次使用,系统会自动部署运行环境,这个过程需要几分钟,大家耐心等待加载完成就好,不用反复操作。 刚装好的 sd 就是 一个空壳,没有模型根本生成不出想要的效果,所以接下来最重要的一步就是安装模型。我们打开利布利布官网,在首页找到自己喜欢的模型,点击进入详情页,再点击下载。下载完成后,打开对应的模型文件夹,把文件放进去就可以正常使用了。 如果大家不想花时间一个个挑选对比模型,我已经把目前市面上最热门最实用的各在模型全部整理好了,全部提前下载完毕,还配上了清晰的封面,每个模型的风格都标注的明明白白的,不用再对着一串英文蒙圈,在 sd 界面就能直接预览效果,特别适合新手小白去使用。

相信大家现在还有很多人卡在 opencloud 的 部署上吧,这款真正能动手干活的开源 ai 智能体最近爆火,但是门槛不低。大家好,我是伟建。今天我用三分钟把云端和本地部署的区别、大模型调用的逻辑讲透,帮助大家少走弯路。 云端部署和本地模型的区别是什么呢?云端部署的一键镜像可以免去复杂的安装步骤,成功率几乎百分百,而且能七成二十四小时在线随时调用。但本地部署就不一样了,每个人的电脑环境不同,代码的能力不同,部署是各种的报错跳出来,成功率特别低。更关键的是,本地部署依赖自己的电脑,一关机就没法用了。这里重点说下本地部署,我只推荐虚拟机部署,为什么? 因为 opencll 权限太高,很容易泄露公司信息、个人账号、密码甚至商业数据,风险太大。而虚拟机能隔离环境,既不影响原有系统,又能够降低权限的风险,是本地部署的最优解。 再讲大家最关心的大模型怎么选? opencll 就 像一只手,要让它干活,必须配个大脑,这个大脑要么调用厂商的 api, 要么本地部署大模型。先说说 api 调用 top 机费 直接用厂商已经不好的满血大模型,不管是硬件还是通过他们的接口调用算力输出,结果按输入输出的 token 进行计费。现在很多厂商都有免费的 token 额度,日常使用的成本比较低,而且大模型的性能拉满,响应速度快,结果又精准。 那为啥不推荐本地部署大模型呢?不是不小,是真的不划算,现在大家的电脑显卡内存平均才有八 gb, 顶多只能部署八 b 以下的模型,和厂商的几百 b 满血大模型比,性能天差地别。有人说,那我买高端的硬件,一套能部署满血大模型的硬件不就行了? 那你可以看看现在的硬件价格,一套能够部署满血大模型的成本价格大概在一千万左右,要是能花这个钱,根本就不会觉得套很贵了。 最后总结一下,想快速用起来,怕部署踩坑。选云端部署,非要本地用降低成本就选虚拟机大模型,优先选择现在免费调用大模型的厂商 a p i, 包括阿里云、华为云、腾讯云等 一夜的朋友们呢?想抓住 opencloud 的 红利,我会根据你的具体业务场景,免费为大家提供专属的落地解决方案。我是伟建,下次见。

兄弟们,最近又刷到一个云端部署小龙虾的方案,虽然这个没有我上次发的摩达社区便宜,但性价比比较高,它就是 maxclock, 虽然需要三十九块钱启动,但它使用的是 mini max 驱动,性价比还是很高的,有条件还可以订阅它们的 coding plan, 启动后还可以选择它提供的配置,相当于它训练好的龙虾给你使用。 calling plan 相当于五小时给你一定的算力额度,相当于会员一样,不用计算 token 额度,用完就等下一个五小时。 还有就是这个地方对小白比较友好,跟他说连接非输,他就会一步一步引导你完成操作。这里他会帮你安装插件,完成后他会提供操作步骤给你执行。 完成操作后将配置直接输入给他配置即可,等他重启后继续按着他提供的步骤执行即可。这里我已经配置完成,并选择他的图片创作助手的配置, 然后叫他帮我设计一张 ip 图片,变换了自己喜欢的衣服。 总的来说, max cola 还是很适合小白,价格也不算贵,性价比很高,对于想玩玩的兄弟还是很推荐试试水。但想实现更多有意思的操作,还是得自己安装, 下一期就拍一个 mac 电脑安装玩,一些有趣的操作可以在评论区中说下,你们希望能做到什么操作,我尽力实现看看哦,就这样啦,谢谢大家的观看!