粉丝15获赞61


ai 生成的艺术字很强大,比如现在图像显示的这些字。艺术字可以通过各种书法风格和笔触展现出独特的美感和艺术性。有些艺术字显得端庄大气,有些则充满了活力与张力,而另一些则充满了柔美与婉转。 每个艺术字都蕴含着丰富的文化内涵和审美情趣,他们不仅仅是文字的表达,更是对传统文化和审美价值的传承和创新。在当今数字化和信息化的时代,艺术字的呈现方式也变得更加多样化, 从传统纸墨书写到数字化绘制,不断展现出新的魅力。无论是传统的中国书法还是现代的西方艺术字都表达了人们对美的追求和对生活的热爱。艺术字作为视觉艺术的一种表现形式,将继续在不同的文化背景下为人们带来愉悦和启发。

大家好,我是 model scope 社区的开源工程师雨虹。 model scope 是由阿里云牵头发起的 ai 模型社区, 提供以 ai 模型为核心的服务给 ai 开发者。目前,摩大聚集了二十多家顶尖人工智能机构,贡献的包括通一千、问七币、七币 chat 在内的一千多款开源模型,已经成为中国大模型开源的第一门户。 毛豆 scope 整合了 ai 开发和训练所需要的基础算力数据和基础模型,旨在为用户提供零门槛的模型开发服务和简单快捷的 模型使用体验。同时,在 model scope 上,我们也形成了模型定制的完整链路和云端模型的部署能力,力图构造一个让 ai 爱好者、 ai 使用者、 ai 开发者和 ai 研究者都能够进行交流切磋的平台,真正实现 ai for everyone。 model scope 模型库中包含了多种优质 ai 模型,同时社区还提供了多种方便开发者配套模型使用和进行模型微调的数据集。 model scope 创空间则帮助开发者将需要串联多个模型的想法,实现 基于平台模型和可视化的 s、 d、 k, 简单方便的搭建起属于自己的 ai 应用。 model scope library 是阿里云开源社区摩搭提供的深度学习 模型开源框架 library, 集合了阿里云各个算法实验室开发的优质模型,开发者只需要安装好拍森环境,并使用 pip 命令安装 model scope 的环境依赖, 就可以利用几行代码使用这些优质的模型。值得注意的是,由于摩达是一个开源平台,因此用户可以根据模型的 laces 的要求对模型进行调优、研发或商业化部署这些功能,摩达社区是免费提供的。 目前, model scope library 提供了多种模态的模型,涵盖了自然语言处理、图像和视频多模态、语音科学等多个领域。从任务角度来讲, model scope 支持了多种用户关系 新的任务,比如自然语言处理领域中的情感分析、语句相似度、中文分词、中文命名、实体识别,以及目前大火的大模型问答和多轮对话 agent 等。在图像和视频领域中, 支持了图像经典任务,如图像分类、图像分割、人脸识别、三维视觉、面部迁移等。 语音领域中, model scope 支持了语音识别、语音合成、语音分离、回声消除等多个任务。 多模态场景中,除了图文问答外,还支持基于 stable defusion 或 control night 的文声图、文声视频 in painting 或 out painting 等多种任务。从模型角度看, monoscope library 集成了阿里云自研的扫塔模型,包括通译千问翻译模型 c s n n p、 自然语言 理解模型 structboard、 多模态模型 offer、 语音识别模型 power former 等。同时, library 也提供了业界知名的开源模型,如拉玛系列 chat glm 系列、百川 rwkv moss、 stable diffusion 系列 control night、 蛋白质结构模型 uniford 等。模型的训练和推理能力 在 aigc 迅猛发展的时代, library 支持了大量的大模型和 aigc 模型的训练推理能力。 用户可以进行全量参数微调的 s f t, 也可以使用 laura pro tuning 等技术进行部分参数的高效微调。为此,我们提供了 library 的周边生态框架 swift。 swift 除了支持大部分的开源轻量级调油方式外,还支持 自研的特有调油方法。开发者只需要一块消费及显卡,就可以使用自己特定的数据集进行训练。这使得 aigc 能力可以走进千家万户,使人人都可以把模型挽起来或用在自己想要的场景上。 model scope library 包含了用于提供模型结构的模型组件、用于加载和处理数据的数据组件和预处理组件、用于提供推理的 pipeline 组件、用于提供训练的 trainer 套件,以及用于模型导出为 onyx 等格式的导出组件。 目前已经有很多个人开发者或公司将 model scoped 模型用到了自己实际的场景中。比如目前 perform 模型的下载量已经突破了一千万,方便语音识别领域的用户 快速搭建自己的解决方案。在这里我们着重介绍下基于 model scope 模型生态提供的个人数字形象工具 face chain, 该项目已经在 githop 上完全开源。 face chain 可以利用用户的最低一张个人照片, 使用商业级显卡进行简单训练后生成属于您的数字照片。由于是完全开源的,使用者可以无限制的训练生成。如果有对创业感兴趣的小伙伴,也可以利用我们的能力进行二次开发,自主创业,编写照片生成类的 app 或小程序。 如果使用者有编写 prop 或者更换模型的能力,那么您只需要简单改一改,就可以使用 fistin 生成更多风格的照片,比如华贵的古典风、优雅的欧洲风、科幻的赛博朋克风。 fistin 已于八 八月十一号开园,截止到目前已经在 gittab 上积累了两千多个 star, 是目前 gitab 上最热的深度学习应用类开园项目,并连续三天出现在 gitab training 榜单上。您可以在 gittab 上搜索 face chain 进行下载使用,或直接进入 modescope 官网点击创空间进行试用。 fischin 有效利用了 modesco library 提供的多模态领域和图像领域的数个模型,其中包括人脸检测加关键点模型达摩 fd、 图像旋转模型、人体解析模型 m to f p 人像美副模型 a b p n、 人脸属性模型 fair face、 人脸质量模型 fqa、 人脸融合模型、人脸识别模型 rts 以及最重要的机模型 stable diffusion v 一点五系列模型。 face chain 可以训练用户面容的 lora, 并将其和风格 lora 融合,经过面部筛选、面部融合等过程,形成具有本人外貌的多风格数字照片。可以看到 model scope 开源框架可以为具体的深度学习应用提供完整的模型能力链条。 model scope larry 目前已经支持了大多数用户关心的各类桑塔模型,未来我们会集成更多的模型和技术进入 model scope 开源框架,不断满足用户模型二次开发的需求。 同时我们也会不断提升模型和技术的组合应用能力,以孵化出越来越多的类似 fistin 这样的优质 ai 应用。最后,我们会完善大模型时代的整体开源训练工具和推理工具,使大模型的训练过程可以在用户自己的环境中 使用一张消费集钱卡就训练出一个满意的效果,谢谢大家!

阿基米,我真的真的好想跟你相像,耶耶耶,真的,我不允许每一个想要了解 ai 的 人不知道这个网站,这个网站绝了。这期视频我们讲一个 社区,叫摩塔社区,它是一个集合了所有的关于市面上常见的一些模型应用的一个 平台,我今天刚刚知道,说实话知道的有点太晚了,这上面的东西太好用了,真的是太好用,就是说 我不会去无脑的去去吹,因为刚刚我体验了一个很有意思的一个东西,我给大家展示一下啊,因为这个这个界面是在我的一个浏览器上面进行的,我全部的一些操作都在手机上面进行, 那么我刚刚是进行了一个桌面查看,然后我们切换过来,切换成手机模式,手机观看的模式。切换到手机模式之后,就是近期发布的一个 语音模拟模型啊,放 cos, 放 cosy voice 啊,放 cosy voice, 零零五 b 的 一个模型,它里面有一个很有趣的一个东西,叫做快速体验的一个功能,比方说我们选零点五 b 这个放 cosy voice 三, 我们就可以直接进行这个题,这是他进入到这个界面直接给出的一个放文本,第一栏就是输入合成文本,就是说你要深沉的字要怎么读,你可以把你想要读的文字输入进去,比方说我刚刚输入了一个比较很 比较羞耻的一个词给大家演示叫好吉米,我真的真的真的好想跟你 香香嘤嘤嘤。我们调整一下这个词汇,其实很很具有搞笑的风格,然后他分两个模式, 一个三秒极速复刻,一个自然语言控制,我先给大家演示一下三秒的极速复刻,按照这个操作步骤来进行。这上面其实先不管,你可以点点一下这个骰子,他会随机一个推流的种子,然后我们来上传,因为我之前已经上传了,不,之前我已经录制了一个音频, 这是采访录音二只有八秒,记住不要超过十五秒。今天呢,天气也很不错,外面阳光明媚,已经上传上去了啊,然后他直接会识别这个文本。今天呢,天气很不错,外面阳光明媚,风和日丽, 然后我们选择用这个不同的一些方言来表达啊,生成音频试听一下,他时间也,他速度也特别快,九秒钟不到二七米, 我真的真的好想跟你香香嘤嘤嘤。很羞耻是不是?这个词汇是特别羞耻?举例举的特别羞耻,然后我们来换一下啊,换一下自然语言控制,它会更具有情感。 比方说我们用小猪佩奇的风格来体验一下,可以看到这里有一个小猪佩奇的风格,然后再来生成视频, 他的语气就会很很有喜剧效果。阿基米,我真的真的好想跟你相像,耶耶耶。哈哈哈,就是说特别搞笑的一个是声音啊,这是用我的声音去模仿, 所以说有一些需要配音的一些功能的一些视频博主啊,或者说你们想要做一些什么搞笑的一些东西,都会用这个合成,它可以提供下载。然后这个摩塔社区里面还有很多很多宝藏模型,特别特别多,真的, 我们进入首页,它分别有模型库、创空间、数据集、 m c t 广场合集社区, 就是说如果你手机上面想要进行这样体验,我建议你们多数都进去创空间进行体验。如果你是电脑端,我建议你采用模型库,直接把模型下载下来,在电脑上面去运行,他会更方便,更加快捷, 效果也更好。这就就是我今天发现的一个宝藏社区,真的,我是真心感觉我自己了解的太晚了,这个东西如果提前一年了解,上面的很多很多的一些功能我都可以用的到。 这期视频非常干货,推荐给你们,赶快去体验一下这个社区吧,很有趣的,下期视频见。

你说的对,但是元神是由上海米哈有网络科技股份有限公司制作发行的一款开放世界冒险游戏,游戏发生在一个被称作提瓦特大陆的幻想事件,在这里,被神选中的人将被授予神之眼刀印袁殊之力。 玩家将扮演一位名为旅行者的神秘角色,在自由的旅行中邂逅性格各异、能力独特的同伴们,和他们一起击败强敌,找回失散的亲人,同时逐步发掘元神的真相。

兄弟们,这是一个最接近企业级落地的多功能 ai 智能体的开发平台,是基于 m c p 协议的企业级 ai 智能体的开发平台。它集成的 ai 对 话、视频生成、图像编辑和前端的应用构建,包括这是酷的 r i g, 包括工具调用、工作流的编排、长期记忆和多模态交互能力,这些都是有 的。而且支持完全自托管,零门槛接入大模行,为企业和开发者提供一站式的 ai 创作和业务自动化解决方案,有需要的可以关注试一下。

图一男生抱着图二的女生,然后图一竖起大拇指。这就是 skyreal v 三模型带来的奇迹,它不仅支持单张图像视频生成,还能处理多图参考,让每个细节都精准复现,从人脸到姿势都不遗漏。 并且 skyreal v 三不仅多人物参考可以完美实现,它还可以应用于产品、场景甚至是动态效果的生成, 这些效果不仅仅是展示,更是你可以掌握的技术。本期视频我会带你完整拆解 skyreal v 三的多图参考视频生成流程, 包括工作流结构参考图、输入方式、提示词写法,以及如何让人物动作和关系保持一致性,让你可以直接复现同样的效果。想要深入学习 comfy 的 同学,欢迎加入小黄瓜的知识星球,星球汇聚了两小时入门,十二小时进阶工作流、竹节点拆解等高质量课程, 后续持续更新 lara 训练康复、 u i 云端教程等实战内容,每节课后有客户作业答疑群和每月直播辅导,进阶学员可参与 u i note 攻坚计划,实现技能变现, 内容丰富。感兴趣的小伙伴可在视频简介区联系小助理获取优惠加入。话不多说,我们直接开始本节的内容。好的,那么我们来看一下这个 skyreal v 三模型的一个效果哈, 现在这个工作流给大家演示的是 r two v 的 模型,也就是 reference to video。 这里我们给的是两张图像的参考案例哈,一个呢是男生,一个是女生,然后我们在提示词里面写的是,图一的男生抱着图二的女生坐在沙发上,然后男生拿起一个茶杯递给女生, 我们主要看一下这个参考的能力,以及他的一致性有多强哈,我们可以看一下最终的视频生成就是这样的,这个男生呢,抱着这个女生,然后拿起了一只茶杯,同时符合我们的提示词,这个是我们上传的男生参考图像啊, 可以看到基本上一模一样,我可以感觉到哈,这两个角色基本上是一样的,同时他保留了图一当中的沙发哈,然后还生成了一些后面的背景,比如说树木花草等一系列的内容哈,然后这个男生的一致性是很强的, 我们再来看一下这个女生的,这是我上传的女生的照片哈,可以看到包括服装以及装饰品,还有女生的脸部啊,这个相似度一致性都是非常强的啊, 所以说这个模型呢,它可以完成的不单单是我们参考两个角色去完成视频的生成,那同时呢,它可以参考一些产品啊,包括一些背景。那么这个工作流当前给大家搭建的提供的是两张图片的参考,如果大家想上传多张的话,就在这里输入三就可以了。好吧, 那么具体能多到多少张就大家自行去测试了。那么我们先来看一下啊,这个模型后续还会发布一些什么?现在的话,官方已经发布了三个模型,等待 k j 量化完之后,我们三个就都可以使用了。那么在哈根 face 上我们搜索 skyreal 就 可以找到 v 三这个版本, 然后在 skyreal 的 账号下面,我们可以看一下现在一共发布了哪些模型哈,这些模型呢,它是基于万象二点一的, 我们来看一下 skyreal v 三模型,现在发布了三个,第一个是 a to v, 那 么这个呢,就是 audio to video, 所以 说可以支持我们数字人视频的生成。我测试过它的效果,大概跟 infinite talk 或者说 lancet arvada 比较类似,那么运镜效果可能没有 ltx 那 么好, 但是呢它的对口型的效果是相对来说非常稳定的, ltx 的 口型呢,相对来说比较不稳一点哈,如果大家用过,可能知道画面的质量,包括人物的手部,有可能是会毁掉的,在 ltx 里面, 所以说这个 a to v serial v 三的模型也是我们的备选选,备选方案在完成数字人生成的时候,那么这个 r to v 指的就是 reference to video, 也就是参考图片完成视频的生成。我们今天的话就主要给大家分享一下这个工作流,以及看一下它的效果。 还有一个就是 video to video, 这个可以理解为是视频的延长,或者说啊视频的一些其他功能,现在的话 kj 还没有做支持,所以说这个模型呢,我们可以稍微再等待几天,等到 kj 支持完之后呢,我就会进行测试,完成视频的一个发布。那么这个呢,就是 skyreal 它们发布的三个模型, 我们今天的话主要来看一下 reference to video 的 模型哈,然后这个呢,就是我们刚才演示的两个角色的一个案例哈,那么接下来我们可以试一下,比如说带上一个产品,那么这里呢,我们就把图二切换成一个产品,我们就以这个 毛绒玩具为例哈,然后提示词呢,我们修改一下,我把它拖过来啊,我们提示词就写,图一的男生抱着图二的毛绒玩具坐在沙发上,男生正在讲话介绍毛绒玩具的用法。好的,提示词我们相对来说写的比较简单,那就直接运行, 我们可以稍微等待一下看看效果,那么在它运行的过程中呢,我们可以看一下大概的显存占用,或者说采用时间,因为这个模型自己内置了加速的一个方案,所以说不需要去加载一些额外的蒸馏的 loo 模型,我们可以看一下哈,这里的一些报错呢,大家可以把它忽略掉啊, 现在的话专用的 gpu 内存,也就是我们的显存占用大概在二十一点二个 g 左右哈,这里是没有做 block swap 的, 然后采用时长呢,大概四步会用掉我们二十四秒的时间,然后完成最终一个视频的生成。那么这个显存的占用呢?根据大家显卡的不同,它的占用呢,可能有所不同哈,我这里只是提供给大家参考的。 然后这个视频时长,我们在 one pattern 主体转视频节点当中有设置,这里有个长度八十一,指的就是我们生成视频的总帧数,最后合并的时候可以看一下,这里我给的是二十四帧每秒,那么所以说最后的视频生成大概是在三秒钟左右, 如果大家想要生成更长的,把这个长度进行一个修改就可以,我们看一下这个一致性的效果哈,角色呢,非常符合我们的要求哈,可以看到人物的一致性是非常强的,除了光影的调整之外呢,这个角色包括发型啊,以及整个人物的脸部,包括他的一个服装都是完全一致的。那么这里呢是我们上传的一个产品, 相对来说还是比较大的,所以说当我们进行多图参考的时候,很难处理的一个问题,就是产品的一个透视关系,比如说这个娃娃有多大,那么因为他们两个并不处在同一个空间当中,所以说并不存在相同的参照物,那么就没有办法把两个角色的形状大小都固定到合适的一种状态, 所以说这个最终生成的娃娃,它的一致性是没问题的,但是这个大小可能不一定符合要求,那么就需要大家去进行一些处理了,或者说抽卡看看能不能获得符合要求的。 好的,那么接下来的话,我们来测试一下人物和场景的一个融合程度哈,这里我们上传一张图片,也就是室内的一张照片,然后再加上还是我们这里参考的一个人物哈,然后分辨率呢,我这里就设置成四比三的一个分辨率哈,然后可以看一下,这是我们第二张图传到模型里面的一个场景,然后这是第一张图, 提示词的话,我们就写图一的男生正在图二的房间里面行走哈,然后就点击运行,我们可以看一下他对房间一致性的一个保持能力如何。 好的,这里我们最终完成了视频的生成哈,可以看到他非常倾向于在图一当中把角色的沙发什么的给保留哈,那这个画面其实是不太正常的,但是我们可以考虑一下把两张图片进行一个位置的切换,比如说把原场景变成图一, 那么图二当中呢,我们尽量不提供这些额外的参考信息哈,比如说只保留一个角色,然后放在纯色的背景上面哈, 我们可以更改一下他们之间的位置,把这个改成图二,把这个改成图一。然后我们就说图二的男生正在图一的房间里面行走, 然后去更换一个背景相对来说比较干净的人像哈,比如说这个模特,那么是纯白色的背景,然后我们点击运行在图一当中呢,我们就上传了房间的,也就是室内的照片哈,然后图二当中我们上传的是角色的照片,尽量去屏避那些不正常的一个干扰。 好的,那么这里呢,我们就生成了最终的一个视频哈,然后男生在房间里面逐步往前走,只是说画面可能相对来说稍微有一点点糊哈,但是角色的一致性呢,我们还是能看出来的。当我们把背景变得相对来说比较干净的时候,生成的视频呢,也没有出现额外的那些内容, 比如说像刚才那个案例里的沙发,那么视频当中的这个透视关系相对来说还是比较正确的哈,然后可以看到我们 整个场景包括背景都保持的非常一致啊,比如说这个沙发壁画,然后以及墙壁上的电视,还有后面的这个吊灯。 好的,那么这个呢,就是我们大概的几个案例演示,如果说大家有自己做产品的话,那么就可以去进行这种方式的尝试,或者说去完成多角色融合,完成视频的生成,然后再进行后续的对口型,这个都是可以的。 那么接下来的话,我们就看一下整个工作流当中的内容哈,这个工作流相对来说比较简单,里面用到的节点也不多,大家把 ctrl u i 更新到最新,那么这个工作流就可以用了。然后要下载一个模型,模型的话我们在网盘里面已经给大家提供了哈, 然后最前面的节点就是加载我们对应的模型,这个 skyreal v 三发布的就是直接带有肌底模型的一个大模型哈,可能还做了一些 lara 的 融合, 所以说这个节点我们就直接加载模型,不需要加载万象的模型哈,然后在 set reverse 的 viram 节点当中呢,这个大家可以自己去进行一个设置哈,或者说直接把它 by pass 掉,如果你没有用这个插件或者不想用的话,可以把它关掉。 这里的话是为了防止低显存超出,然后导致整个工作流运行不通才给的这个节点哈, 如果大家没有就可以直接把它删掉就可以哈。然后这两个呢,我们就不用多讲了,只是说大家如果用的是五零七显卡,你装的 sega ten 是 三的版本,那么你需要在这里选择 sega ten 是 三,不然的话有可能报错, 如果不是的话,那直接选择 auto 就 可以。然后往下这个节点需要加载一个 image to video 的 加速的 lora 模型哈,那么这里呢,大家就下载网盘里面的 lora 进行一个下载,进行一个加载就可以了。然后这里呢用了一个四部的 lora 模型, 所以说我们可以以极快的速度完成我们视频的生成,下面这两个用的是万象的 clip 文本编码器啊,这里要注意,如果你用的是 k j 的 话,你下载的是 um t 五叉叉 l e n c 的 那个 带有 e n c 的 标志的模型,那么那个在运行的时候会报错的,所以说这里呢,我们用的是 comui 官方的 um t 五模型,大家可以直接在网盘里面下载哈,然后呢这里就是输入我们的正向提示词,这里就是上传对应的图像哈,那么图像上传完之后,你需要经过第一个节点,叫做图层工具,按宽高比缩放节点, 在这里你可以自己选择一个框高比,比如说我这里选择的是四比三,然后同时缩放模式选的是 group, 它就会将我们的两张原图呢自动进行一个裁剪,裁剪到四比三的一个比例。比如说我们的第二张图片哈,可以看到它跟我们上传的图片是不一样的哈,它会裁到这样一个四比三的分辨率上面哈, 所以说呢,大家自己去进行设置的时候,你要生成的视频的分辨率是多少,你就在这个宽高比里面选择对应的,比如说我这里选择十六比九的,那么运行,那么图呢,就会保留十六比九, 但是你可以看到在十六比九的图当中呢,第二张图片他把人物的头部给裁剪了,那模型看不到人物的头部,他就参考不了这个角色的一致性, 所以说这个时候我们可能就不能选择十六比九的分辨率,或者说你将你的原图再进行一些修改,让它裁剪完之后能正常的保留所有的人物的特征,这样的话它才能更好的去参考啊, 所以说这点大家一定要注意,然后在这个节点当中有一个值叫做缩放到长度,比如说我们这里给的是四比三的分辨率吧,然后呢就会将我们的原图进行裁剪,裁到四比三,当你打开这个节点的时候,可以看到它的分辨率是八四八乘以六四零,那就说明把它的最长边又缩放到了八三四,这个分辨率 就是这样的,所以说你最终生成的视频是最长的那条边是八三四的,比如说你是四比三,那么你就是八三四除以四再乘以三就是他的另一条边的一个宽度啊,就是这样的。好吧,那么这个节点呢,就是对尺寸的一个设置,所以说你生成视频的分辨率取决于你这里设置的宽高比。 那么还有相应的一个裁剪呢,主要就是注意不要把画面当中呢,这个长度指的是你视频的时长, 整个视频的时长八十一针,最后合并的时候二十四针每秒,那么最终大概就是在三秒到四秒左右的一个视频哈,如果你想生成更长的,那么就在这里去更改它的值,比如说改到二百四十针,那么它最终生成的视频呢,就是十秒左右,然后就是点击运行拿到最终的结果了,最终的结果我们可以右键直接保存就可以了, 好吧,那这个呢就是我们整个工作流的用法,那么在本地进行安装使用的话,大家还是在视频的剪辑区打开小黄瓜 b 站资料分享,然后在网盘里面呢,我们会提供 skyreal v 三模型以及工作流,大家双击打开,然后这个 diffusion model 指的就是 skyreal v 三对应的一个模型, 也就是这个 unite 加载器,大家下载完之后呢,就直接把它放到 comui 对 应的位置就可以了。在 comui 里面打开这个 models, 然后放到 diffusion models 文件夹,也就是这个位置 diffusion models 文件夹,直接把模型放在当前这个文件就可以,然后呢拖入工作流,加载对应的模型就可以运行了。 这些 lowra 呢,后续我也会上传进去,大家按需去进行一个下载,如果你本地有就不用再下载了哈。然后这个工作流呢,我们也在云端有做,大家可以直接在视频的剪辑区打开云端进行一个率先的尝试,不用处理环境以及模型,可以直接点击运行哈。那么今天的视频呢,我们就先讲到这里,感谢大家。

怎么把 java 生成的应用部署到服务器端,让朋友家人都可以访问呢?今天我给大家介绍一个最简单的方法。 java 出来不到一个月,已经有无数人通过一两句 prompt 生成自己的应用了,怎么把自己的应用免费的部署到服务器上呢?供朋友家人来使用呢?首先咱们打开 google a s studio, 大家可以看啊,这个是我一句话生成的吃豆子的游戏,现在我就要把它部署到服务器端,这里提供了三种方式啊。第一种方式就是通过这个 download app 把它下载到本地,然后部署,这种方式要求的技术含量比较高,所以咱们这次不讲。第二种方式呢,就是咱们可以通过谷歌这里的 deploy app 直接步入到谷歌的服务器上,但是谷歌服务器呢,可能会产生费用, 咱们这里也就略过。今天主要通过 get up 的 方式部署到第三方免费的服务器, 这里我点击 gitup, 它直接出来的,让我填写项目的名称和项目的描述,以及是 public or private, 这里我的话就随便写一些信息,然后 public, private 的 话可以自己选,这里我选择 private, 这里我点击 create gitribo, 它这样的话会自动地在我的 gitup 账户里边创建一个新的项目, 这里会有项目的总结,咱们先不动,然后点击 commit, 这样的话它就会把所有的整项目的所有的文件上传到 gitup 上,然后这里就是它帮我们生成项目,我们点击进入 gitup, 在 gitup 里边呢就可以看到帮我们生成的所有的文件。 好,项目已经生成了,那咱们下一步去服务器提供上 verso 的 网页,这里话咱们可以通过 google 或者 get up 来登录,我就通过 get up 来登录了,这里呢咱们点 add new, 也就是创建新项目。然后这里可以直接输入 get up 地址,咱们进入 get up copy 地址, 然后把地址 copy 回来。然后 voicemail 呢,会自动检测咱们用的技术啊,然后加上各种的默认配置,咱们就保持默认,然后点击开始,这里呢,它会自动帮咱们编辑部署,并且分配域名。 似乎已经部署好了,咱们点击域名。呃,这是什么情况?难道我要翻车了吗?肯定不可能,这里肯定是这个项目跟 versa 有 一定不兼容的情况,咱们这就回去质问一下 gemini, gemini 肯定也会在想,你也没告诉我你要部署到 versa 啊。 不管怎么说,咱们先问一下它,这就是我问的问题,为什么我不处到这儿,然后它是一个空的页面呢?然后 jimmy 吧啦吧啦给我回答了一大堆,但是总体来说,它给了我一个修复的方案。这里咱们再次点击 gitlab 的 图标,然后可以看到它把咱们修复了这个文件,咱们再次点击提交, 这样的话,代码就次再次提交到的 github。 咱们再次回到 versusail, 似乎已经部署好了,然后预览来看,没有什么问题。为什么这么神奇呢?因为每次我们往 github 推代码,都会自动地部署到 versusail。 好 了,确实没有问题。既然部署这么简单,那我开始向 jimmy 提要求了啊,比如说把我的网站整个的换成中文,这里吧啦吧啦它会有一大堆啊,这里我就全部省略了。整体的流程,就是 改完之后再次点击 github 的 图标,然后再次走这么一个循环,它会自动地把你的新的更改部署到你的网站,是不是很方便?当然, versuson 不是 你唯一的选择。这里还有一个网站叫做 netify, 你 可以方便地部署流程呢,跟 versuson 基本上是一样的。 这里我以十倍速给大家演示一下,相信大家肯定能理解的。好了,今天的视频就到这了,如果你发现这个视频对你有帮助的话,欢迎关注、点赞、转发,谢谢大家!