粉丝198获赞1504

你用 ai 生成了一个炫酷的网页,特别想分享给朋友们看,但是要么购买服务器部署,每年都要用几百甚至上千块,还要配置环境,要么使用 versale get help pages 部署,结果国内访问巨慢,经常白屏。今天阿超教你一招,从豆包进行部署,国内访问速度非常快,而且完全免费, 方法超级简单。我这里以谷歌 ai studio 为例,我使用了尖门山生成了一个三 d 粒子矢中的效果, 这个效果整体还是挺不错的,我觉得看着挺酷炫的。现在我们有了这个代码,接下来我们就来到豆包进行部署,打开豆包的网页版,然后点击这个应用生成,这里随便让他生成一个应用就行了。比如我让他生成一个二零四八的游戏,然后他会让我确认需求,我们直接点进确认开始生成。 等它开发完成,右侧就会出现预览和代码的切换按钮,我们点击代码这里,把刚才我们界面那三生成的 html 代码我们直接复制一下,然后把这个原来的代码去给它覆盖掉,我们再点击保存, 再切回预览。你看这个三 d 地址始终已经运行起来了,跟刚刚效果是完全一样的。想要分享给朋友,我们直接点右上角的分享按钮,然后再点击公开分享, 把这个分享链接我们直接发给朋友,他点开就能直接看到了,是不是非常非常方便?不过他这个顶部有一些豆包的 logo, 但是这些完全不影响使用。 而且不管你是通过 jamie 的 gptcloud 的 生成的代码,都可以直接通过豆包进行部署,真的超级好用,推荐大家赶紧去试试看。 但是啊,这个方法虽然好用,但他不是万能的。第一,他只能部署存前端的代码,就是那种单个 html 文件, 像刚才这种三 d 地址时钟页面完全没问题。第二,代码是公开的,你看这里有个用豆包做同款的按钮,别人点进去就能看到你的原代码,所以千万不要把 apm 要这种隐私的信息放进去,这个大家一定要注意一下。 第三,链接的有效期,我自己测试下来,现在这个链接是永久有效的,但是不排除后续官方会进行调整修改,所以大家趁现在赶紧去试试看吧! 总之,如果你是学生党,想省钱,或者就是想给朋友分享一下这个方法,真的超级爽,厉害!对了,大家平时会用 ai 生成什么有意思的代码呢?欢迎在评论区留言,我们一起交流一下。 好了,以上就是本期视频的全部内容,如果有用的话,记得点赞加关注我哟!我是阿超,我们一起学,一起变强,我们下期再见!拜拜!


闪上最近的活动,入手一个 mac mini m 四的 pro, 今天给大家展示一下我这两天用这个神器跑本地大模型啊,也是纯实测的一个干货。先看我的配置啊,这个机器配置就是 mini m 四的这个 pro, 四十八 g 的 统一内存加上五百一十二 g 的 硬盘, 国补后呢大概是一点三个 w, 这个价格买显卡肯定是不够的,但是它跑三十二 b 的 这个大模型,内存是刚好够用的啊。呃,我本地大概装四个模型,一个是千万的三十 b, 然后 tipix 的 十四 b 和三十二 b 和 g p t o s s 一个二十 b 的 一个模型, 嗯,整体测速还是非非常的稳,其中呢,这个我我大概统计了一下啊。第 six 这个十四 b 的 模型呢,嗯,氢氧机战斗机速能达到二十四,头肯每秒写文案,对话翻译都是相当不错的。 six 三十二 b 的 这个模型呢,生成的速度大概就慢一些啊,改在十一个头肯复杂的国际代码分析,长文本摘药也都是没有问题的,一把拿捏 千万三的三十米模型还是很惊艳的啊,速度非常逆天,飙升到五十一个头肯中文的写作呀,工具调用啊,速度都比三十二 b 快 了四倍,非常适合日常的高频的使用。 还有一个 g p g 的 o s s, 这个二十 b 升升速度呢,是四十八的一个水平。那么四十八 g 的 这个 m 四 pro 这个版本呢,可以说是桌面极推的一个工作站啊,四核 cpu 加二十核的 g p u 加四十八 g 内存, 基本上就是 m 四 pro 的 一个甜心型号啊,同时装四个模型,运行时的峰值呢也是二十三 b 左右,所以一句话总结,四十八 g 的 m 四 pro 是 二零二五年本地大模型的一个黄金配置啊,三十二米模型的长触不卡顿内存也刚刚好,目前是一点三 w 的 价格,云服务器半年的费用它能用五年至少,所以想玩 ai 又嫌云服务器太贵的也可以参考一下啊。

一款软件彻底玩转所有 ai 功能,官方正版还免费?这还不够呦!官方他还帮你把他的两百三十个 ai 功能内置进去了,全程不用你动手,你只需要三步就搞定一,下载。二,解压三双击打开,不用装插件,不用配环境, 连模型也就是一键自动下载,完全就是点开就能用,哪怕你完全不懂 ai 是 啥也没关系,照样能轻松玩起来。想画图点一下就行,想做视频再点一下就好,想创作音乐还是点一下的事, 就算要搞三 d 建模,也只是点一下的功夫呀!这可不是什么野鸡套壳网站,而是全球公认功能最全面、生态最丰富,还最贴近生产力的免费开源 ai 软件 kufui 哦! 你用它就能玩遍所有叫了上名的国内外最新最前沿的 ai 功能!或许呢,你早就听过它的名字,但今天真的绝对值得重新认识它,因为它变了,变得比以前有好多了,它就是 comfy 官方十二月份新推出的全新版本,变动大到超出预期, 其中有三点尤其利好咱们中国用户朋友,特别贴心。首先,全中文官方界面,大家注意哦,这可不是第三方翻译插件,是官方正版原声就支持中文的,比第三方插件权威多了,性能稳可能性也更高。连做翻译插件的大佬都直呼有救了, 英文不好的朋友,入门的第一道坎,官方直接就帮你摆平了,是不是超省心?第二呢,内置了两百三十个开箱即用的模板,完全不用学 新版 comui, 官方直接筛选了两百三十多个在 ai 史上留下过浓墨重彩的经典 ai 功能,做成模板放进工作流预览那里了, 从 ai 绘画的纹身图、图声图扩图、高清放大,局部重绘区域控制到 ai 视频的纹身视频,图声视频首尾帧过度动画,甚至连 3 d 建模音乐音效创作都有,真的应有尽有, 这些全是 comui 官方精选的,新手入门尝鲜,快速掌握时下最流行的 ai 技术,你以为这就完了? 第三呀,官方还直接提供了一键安装包,点一下运行直接就能用。那接下来的话呢,我就带着大家来从 comui 最初始的部署开始,来部署到我们的本地电脑,那我已经把咱们需要用到的安装包和操作为档都已经打包好了, 同时的话呢,有一些主要的电脑配置要求也会给到大家,那如果你是第一次接触到 cfui 的 话,那就可以跟着我的视频一步一步来进行。那么在我们部署 cfui 之前呢,首先我们还需要去检查一下咱们系统的配置啊, 我们可以通过右键点击 windows 的 菜单栏,然后的话呢,点击我们的任务管理器, 打开任务管理器之后,我们点击到性能的这一个列表当中,我们就可以看到自己设备的整个的一个情况啊,包括 gpu 的 显存,然后包括的话自己的内存 ok, 好 的,那么这个的话呢,是第一步我们要检查一下咱们的一个设备,这是 comfui 的 推荐配置啊,那当然,如果你想要跑的更好一些的话,内存的数量要更高,或者是显存的数量更高才可以, 同时的话呢,硬盘最好能够控于有三百 gb 以上的这样的一个空间啊,那么在检查完了系统配置之后,我们就来安装一下必要的软件哈。我这边推荐的是 comui 官方的一键安装包,它是一款用拖拽节点的方式轻松创建图像、视频等生成工作流的 ai 工具, 支持 windows、 mac 和 linux 多种系统和硬件环境。我这边就以最简单的桌面版为例,带大家一步一步的安装到自己的本地电脑上。这里我就以 windows 电脑安装为例,给大家演示一下安装过程,非常适合新手朋友。 打开我给大家准备好的 comui 官方安装包文件夹,鼠标双击一下这个程序图标,接着按照提示一步一步的安装就可以,他会弹出一个选定安装程序位置的弹窗,在这里我们选择一个宽裕一点的磁盘进行安装就可以, 以我这里为例,我就安装在 d 盘了。安装路径选好了之后,我们接着点击这里的安装,他就会显示 comui 正在安装,请稍等,最后等待他安装完毕,我们点击完成就可以了。 这个时候呢,我们来到电脑桌面,双击一下 configui 的 这个图标,它就会跳出一个 configui get started 的 界面,这时我们点击一下 get started, 接着会出现这么一个窗口,我们选择 nvidia cuda, 接着点击下一步,这个时候我们还是选择刚刚安装 configui 程序的那个的位置路径。 到这里很多小伙伴们会疑惑,这是要安装什么呢?其实这一步就是要部署 configui 真正运行起来的环境依赖, 接着我们点击下一步,这里我们直接保持默认就可以,它就是一个保持程序自动更新和反馈你在使用软件过程中遇到的问题,方便 comfyui 官方改进产品,其实就是对新手习惯的功能自动帮助更新, 我们点击下一步到这里, comfyui 就 会自动帮你安装运行程序所要所有环境依赖,等待它安装完成就可以。 在这里我要做个提醒一下哈,就是你的电脑全程要有魔法哈,这样在安装过程中软件要用到的环境依赖才能顺利下载到你的电脑本地,否则可能会遇到下载失败或者卡住等问题。 最后安装完成之后会出现这么一个界面,这些都是 comfyui 官方在里面内置的一百多条经过社区和广大用户验证,拿到过巨大成果的工作流,其中包括图像、视频、音频、三 d 模型等等等等。那么到这里恭喜你,你已经把 comfyui 成功部署到你的本地电脑了, 是不是很简单, comui 部署成功之后,我们该怎么用起来呢?接着我们来到这边点击一下这个模板的图标,也就是一开始安装成功时弹出来的界面,我们点击视频生成,这里面很多都是通用万象视频开源模型的一些好用的经过广大社区大佬验证过的工作流, 我们选择其中一条来体验一下哈,这里我们找到外向二点二图声视频来带大家来体验一下。找到这个 one 二点二十四 b 图像到视频工作流点击一下,这时我们会看到一个缺失模型的一个提示弹窗, 小伙伴们不要慌哈,我们挨个挨个的点击下载就可以了,你不用管它具体放置在哪里,直接点击下载就可以了。等待模型下载完成之后,我们就可以愉快的玩耍了。怎么样,小伙伴们是不是 so easy? 这还没完哈,这次 comfyui 还有个重大功能,升级官方签约 api。 简单说,你只需要注册一个 comfyui 官方账号, 再充点值,就能在 comfyui 里直接调用所有付费 api 了。而且 comfyui 还承诺所有 api 费用和 openai、 nano、 banana 等各大官方平台的报价完全一致,没有任何中间商赚差价,用起来特方便一点不麻烦。 时间有限,更多细节我就不展开说了哈。本期视频用到的安装包、电脑配置说明和操作文档我放在了评论区了,绝无套路,点进去就能下,要是实在找不到的话就在评论区发。六六六,我看到了就直接发给你。

我们都知道,因为苹果的统一内存架构,运行内存可以直接当显存来用,所以只要内存够大,不用买显卡都可以轻松地运行很多大语言模型。今天我们来对比一下两款在 mac os 上面跑大模型的软件, olam 和 lm studio。 olam 需要自己安装 open web ui 才有网页的 ui, 好 处是它可以变成公开的网站,哪里都可以访问。而 lm studio 自带的 m l x 框架,而 lm studio 支持, 所以在运行 mx 格式的模型的时候运行起来会更快。 alamo 需要安装插件才可以使用 m c p 服务器,而 lm studio 原声支持。 alamo 只支持官方给的模型,而 lm studio 支持 hugging face 的 模型, 而且可以直接在软件里面下载模型,又多又方便。 alamo 是 第一次运行模型的时候把模型加载到内存,而 lm studio 是 切换模型的时候加载模型,哪个更好,那就见仁见智了。 等一下将会在我的 m 四 max max studio 上面运行,他有六十四 gig 的 统一内存,我们这是选了这个 open ai 开源的二百亿参数大约十二 gig 的 模型来测试一下他们的速度对比,确认他们是同一个模型 来先上我拉满。选中模型之后,先问他一个简单的问题,让他先热热身,把模型加载到内存,然后我们让他用拍档写一个实现快速排序的代码, 速度不错。完成了之后我们来看一下它生成 tikken 的 速度,结果是大概七十九个 tikken 每秒。 下面我们来看一下 i'm studio 怎么样。同样选择模型,明显他需要更多的时间加载,加载完之后问他同样的问题,这里我用同样的倍数播放。这次明显更快, 它的速度是一百一十三个拓客每秒,比欧拉玛快百分之四十三,太厉害了。最后我们不要忘记,这个网站不只是可以作为欧拉玛的 ui, 也可以作为 im studio 的 ui, 所以 也可以在这个网站上面使用 im studio 运行的模型,只要在这里的设置填写 im studio api 的 地址就可以。好了,这次先到这里,下次再见。拜拜。