粉丝13.9万获赞288.7万

兄弟们好消息,火山引擎的豆包 c 弹三二零的接口已经对外公开了啊,能看到价格了,我们现在价格是包含视频输入的是二十八元百万特刊,不包含视频输入的是四十六元百万特刊啊。然后我们输入的内容是文字、图片、视频、音频都可以输入,输出的就是视频,跟吉梦是一模一样的。 然后我们现在就要去看一下,二十八元包含视频输入是二十八元百万特肯,不包含是四十六,那到底什么算是包含视频和不包含?我自己单纯的理解就是 我们这里面有视频参考,就是按照二十八元百万特肯来计算的,如果你只是图片和参考或者是手帧视频生成的话,那就是四十六元百万特肯,然后我们再看一下百万特肯和我们的五秒视频到底有什么关系来,可以看到 我现在选择的是 c 蛋四二点零, c 蛋四二零官方的体验,然后我选择是图像生成,然后是九比十六七二零 p 五秒一条。可以看到官方进行计价是这样计算的, 呃,视频 top 是 宽乘高乘,帧率乘时长,最后除以幺零二四等于条数,他计算出来的,我们 c 蛋四二点零七二零 p 的 这个消耗了就是十万两千九百六十个 top, 也就是一条五秒视频,大概就是 十万套粉左右。我们让豆包给我们算一下,五秒视频消耗这么多,一秒多少钱?五秒多少钱?一分钟多少钱?得到的结果就是一秒的话包含视频输入是五毛八,不包含是九毛五, 一分钟的话是包含视频三十四块五毛九,不包含视频是五十六块八毛三,所以这个价格你觉得你用的起吗?反正我做精品慢,我肯定是用的起。最后我再给大家看什么叫做视频输入,什么叫做不是视频输入,我们直接看官方案例, 官方在这里面直接给了将这个输入这个视频,然后输入三个图片,输入一段音频,参考人物视频里面的动作和镜头语言,然后根据这个画面打斗背景用这个,然后最后输出的结果是这样的, 那么这个我觉得他就是视频输入包含视频的,因为这里面有视频。来我们看下一个,参考这一条视频的运镜方式,然后参考这个版画风格, 然后给我生成一个马年的视频,他生成的就是这个样子的,所以说这样的视频也是参考视频,那我们可以玩的我觉得就非常的多了,比如说我们去找一些动作,找一些运镜方式,甚至你自己拍一条视频去传上去, 你的价格直接就降下来了,明白吗?好,关注我下一个视频,教会你写视频题词,不需要再写小作文,百发百中免抽卡。

豆包推出付费版,到底是真的有实力,还是在收智商税?我这次不绕弯子,直接给你最真实、最正确、最直白、最客观的结论,他就是想收智商税。 大模型变现一般有三种方式,第一种是 api 调用,第二种是企业订阅,第三种是消费者订阅。他们只是在近期的一场活动中公布了整体偷看的使用量。 豆包的日军 token 用量已经超过了一百二十万亿,仅次于 open ai 和 google。 不 过呢,这个用量包括免费和付费的 token。 但如果去看 openroute 的 api 调用排行榜,豆包根本就没上过榜。在排除免费选手的情况下,经常能在榜上看到的国产模型就是 deep、 sec、 mini max 还有 kimi。 企业端同样很难找到像样的数据。字节在二零年上线了火山引擎,这是一个对标阿里云、腾讯云的服务平台,你可以理解成字节把自己的技术能力打包卖给外部企业。 豆包 ai 当然也是火山引擎的卖点之一,但具体有多少企业是因为豆包才与字节合作,字节没有公布,如果这方面数据亮眼的话,他肯定会拿出来大力宣传。 豆包现在就是在尝试第三条路,也就是消费者订阅。豆包在官网公布了最新模型 seed 二点零的跑分情况,最右边是豆包,深色的是最高分数,可以看到还是国外模型比较强。而且 seed 二点零是二月份推出的,他当时对标的这些模型现在已经是上一代甚至上两代了,参考意义并不大。 当然,我们不排除豆包的新一代模型会有重大突破,但别人同时也在迭代啊。如果一个人真的能用 ai 提高生产力,市面上有很多比豆包更牛的 ai, 如果他用不到,那就没有任何付费订阅的意义。 字节旗下的 ai 模型也并非一无是处,字节主攻的方向是图像和视频生成。他家的 cds 就 很牛啊,完全可以比肩国外的顶尖生图生。视频模型 我自己就充了极梦的年会员,非常好用,但豆包我是绝对不会充钱的。其实豆包想要收订阅费也有不同的方式,国外的大模型就有三种收订阅费的套路,第一种就是 check gpt 模式,直接收费,豆包现在就是想走这条路,但是你的性能要足够好,才能留住用户。 第二种就是 gmail 模式,它把自家其他的产品打包在一起,让你订阅你像谷歌二十刀一个月的 ai pro 套餐,里面除了 gmail 之外,还有一大堆其他的服务。第三种就是 gork 模式, 像你经常能在评论区里看到有人艾特豆包,艾特抖音求真,这套玩法都是学马斯克的,最开始在 x 上面艾特 grog 提问是免费的, 现在只有会员用户艾特 grog, grog 才会理你,普通用户人家不理你。而且 grog 辨别信息真伪的能力确实非常强。从我个人体验来看呢,在查找信息方面, grog 比 gbt 和 cloud 都要强, 真的我没充会员,没法评价哎。这个模式在我看来才是抖音最应该模仿的,你可以把豆包辨别真伪的能力进一步提高,然后宣传做好,再开放一个抖音会员功能, 把艾特抖音求真作为功能之一放进去,你现在把抖音求真作为免费功能开放,就给人一种他和豆包差不多的感觉,没法让人信服。 如果字节真的做到了这些,我肯定会充钱去那些胡说的博主下面,直接艾特抖音求真,打他的脸,专治各种不服。 不过现在来看呢,豆包还远远达不到 grog 的 水平,这也是为什么我在上一个视频奉劝大家不要用豆包来做金融分析,如果你只是想知道某个专业名词的意思,豆包还是能胜任的。玩聊世界,帮你看清世界,我们下期再见。

大家好,今天给大家介绍一下火山方舟 coding plan 的 配置教程,我们会去实战去集升到四个 ai 编程工具啊, cloud code, open code tree, 来去教大家怎么去配置。目前的 coding plan 也是有活动,首月了需要九块钱。那第一个介绍我们是 cloud code, cloud code 需要去修改它对应的配置文件。 那第二个介绍 open code, open code 可以 修改配置文件呢,也可以通过下载它的桌面客户端去直接连接它的供应商去实现,那相对说更方便一点。 还缺右缺右,需要在设置里面去添加添加对应的模型还是 cursor, cursor 也是在编辑器里面去添加设置,但是呢,它要去去多余,不修改它的一个 bios。 二和 ipad pro 的 同时注意这个 cursor 你 需要去开通它的 pro 的 时候才能去使用其他模型,不然的话它不会免费的时候没法使用的。 那这个是各个模型,那可能针对使用的场景啊,比如说复杂任务有豆包, seed 二 pro。 那 首先我们来看一下它的这个目前支持的模型有哪些啊? 那目前来说啊,这个火柴方舟 coleon plan 的 话,这是 dobac 二 pro code light 啊,这个是更清亮级的,更复杂任务级的。然后呢,这个是比较稳定的这个编程的啊,不然后 mini max m 点五 g m g m 四点七,然后 deepsea 维维三点二和 kimi, 然后呢,主流的电主流的编程工具的话都 a, 编程工具都是支持的,然后提供两个套餐,而 light 的 话是一一每个月的话是一万八千四,完全够用啊。 pro 的 话是它的五倍,首月只要九块钱, 然后订阅的方式的话就直接去访问他的一个活动页面啊,这是他的一个活动页面,那这里的话,嗯,你首首次开通的话,还可以提供给你五七天的一个 ark ark cloud 的 一个配置,然后我们去购买,完成之后呢,我们可以在控场里面去管理,我们在火山方舟里面去做一个管理, 在火山方阵里面有个开通管理,开通管理右侧呢有一个 coding plan 啊,这个如果说我们买的话就是它对应的这个额度,这你可以看到它套餐的语量啊,这是每小时的或是每每月的语量以及它的续费。那下面呢可以看到它的一个 模型的适配,这个凹凸模型的话,你就是需要配个配置。 ark 的 话,你可以在后台进行切换,但是你去切换的话,它有三到四分钟的延迟, 相当于只用配一个模型就可以完成切换。这里呢有配置的势力啊,这个叫 ark code lettys 的 话,它就是凹凸模型啊, 这个比较适适合,这个比较适合初学者啊,你如果你对大模型的各大模型的选型不太了解的话,你可以使用凹凸模型,它会它会通过一些算法自动去进行啊路由,比如说你对大模型足够了解的话,你可以选择在不同的任务场景去选择不同的模型啊, 对我们这个初学者说话就选择选择这个 app, 同时你可以在后台进行切换,然后这里呢是可以创建 k 的, 就是我们这里去创建一个 k, 创建之后呢我们就可以打开选择复制,那这个就是我们可以用来去做配置了, 我们把它复制出来,然后呢我们可以选择编程工具,对应的每个编程工具都有室内的文档。首先我们来看一下我们的第一个配置啊,第一个配置呢,我们是要去修改 cloud code, 它需要去改到它的一个配置文件, 那这里我们先下载,这里先先下载 colocode code, 然后呢你看这下你下载完成之后呢,看下你 colocode code 的 版本,我们这里就是可以看到 colocode code 的 版本,然后呢进行修改, 如果是 mac 的 话,就手动的去打开 open 好。 打开这配置之后呢,我们可以看到这里的 e n v 是 我们要修改的内容啊,这里呢我们要根据我们的文档去修改这三个选项,如果是多 n 键的话,再修改其他的选项啊,比如说这个默认的我们选择是 ark code 啊,在这里去配置。 然后如果是多 a 帧的写作的话,我们可以选择豆包 c 的 light 和这个豆包的 pro 分 别去配置,然后这个是 a 帧 team 的 一个配置啊,大家可以不用配啊,主要是配这四个啊。我们这里呢把我们刚才复制的 a p, a k 复制过来, 然后这样我们就配好配置完成之后呢,我们就可以去打开 cloud code, 那 这里呢如果说大家用编辑器的话是可以下载一个 cloud code 的 插件的, 那我下一克拉插件的话,它右侧就可以直接出现打成克拉扣的,我没有的话,大家就可以在控制台去选打开克拉扣选择模型,那这个点阿克 netis 的 选择好了,出了就可以去对话了。 好,这样的话这个我们的这个克拉扣的就配置完成了啊,这是我们的克拉扣配置。然后呢就是 open code, open code 呢,大家可以在这个 github 里面去下载一个客户端啊,也就是我这里的客户端 下载完成之后呢,我们可以看一下它的配置啊,它可以去改这个配置文件,也可以去下客户端。我们首先给大家介绍一个简单的是下客户端,那这里呢我们去连接管理模型,去连接供应商,搜索 word, word 编辑,然后呢输入我们刚才的 api k 提交, 那这里可连接了,然后连接之后我们就可以测试了,然后这里我们还有一种方式,我们打开配置文件,那这里也是我们这里先停止的,我们打开它的配置文件, open code json 的 配置文件啊,打开之后呢,我们搜索到 voc 啊,在这个位置 voc 可以 看到这里了,我们配置它的 base i l 还有 api key, 就是 刚才我们的 api key 啊,这个是刚才我们配置好的 api key, 那 下面就它对应模型以及它上下文窗口长度,如果说它的默认的不高的话,你可以去修改它的上下文窗口,或者是我们的这个提供的模型,这是火山引擎的模型,这个配置接下来我们来再介绍, 我还我们可还可以开度深,开启深度思考。接下来我们再看一下 treo 的 配置, treo 的 话需要去添加对应的这个固定 plan 啊, 我们也是可以看到在这个添加模型层面上可以选择这个服务商,服务商的话我们选择火山引擎 plan, 选择模型,如果说没有的话选择其他模型。然后呢这个模型 id 的 话,大家是可以在这个控制台快速配置里面去复制这个模型 id, 当然你这魔像力已存在率,当然你可以选择其他的魔像力,比如说这个 royce 的 code, 或者是 kimi k two 啊,这些不存在的。 g m 七已存在,然后选择我们刚才的 api k, 然后连接啊,连接成功的话你们可以使用,而且 g m 七啊,这个是 g m 四点七的话就完成了, 那这是我们的 chris 的 配置,那 chris 的 配置的话相对来说要改动的点比较多一点,因为它改它 biosil 和 api driver, 我们打开我们的 per cursor, 打开 cursor 之后呢我们在右侧呢打开它的对话,到了 agent, 然后呢我们在这里去添加模型,然后呢这里呢我们需要去第一个修改是修改这个 base i l, 我 们要放复制这个,然后第二个是它 api key, 所以 我们这里一定要开启啊,一定要开启 api key, 然后去替换, 然后呢我们再去搜索,比如说我们添加好了这个逗号 c q 的, 我们可以使用对话,然后可以看到我们这里的配置呢就配置完成了,这就是我们这四种提升 ai 辅助工具的方式。

股友们炸裂消息来了,中国移动干了一件大事,他要把全中国三百多个 ai 大 模型装进一根水管里,拧开龙头就能用,偷看成本直降百分之三十。你知道我国如今有多少大模型吗?超过三百个!如果你是一家企业,想用 ai, 你 得先搞清楚哪个模型适合你。 epic 擅长推理,豆包擅长对话签问擅长代码, g、 l、 m 擅长长文本。然后你得分别对接每家的 api, 分 别充值,分别维护,分别踩坑。这就像什么想象,你家装了十个不同品牌的水表,每个龙头接不同的水厂,你洗澡用 a 厂的水, 做饭用 b 厂的,喝水用 c 厂的,每个月收十张水费单。崩溃吧!中国移动说,我来修一根总管道, 所有水厂统一接入,你只对一个水表,按需取水,费用统一结算。这就是 moma 移动模型服务平台。五月八日二零二六移动云大会上,中国移动正式发布 moma 平台 核心三点,第一,超级聚合一个统一 api 网关,接入超三百款主流 ai 模型,包括中国移动自研九天系列、 deepsea、 通易、千问、豆包、 kimi、 minimax 等等,文本、语音、图像、多模态全覆盖,企业一次接入所有模型随便选。第二,智能路由分独创三种策略,第一种,成本优先,自动匹配最便宜的模型。第二种,效果优先,匹配最强的。 第三种,均衡优先,性价比最高的模型,超时或限流秒级自动切换,业务不中断。第三,成本屠夫基于国产算力部署,自研推理引擎,结合智能缓存上下文附用 tokyo 压缩技术单位, tokyo 成本压降百分之三十, 资源占用率降低百分之五十以上。中国移动董事长陈忠月原话,开放万亿级偷看服务体验包,万亿级免费体验。你可能会问,百度有千帆,阿里有百炼,字节有火山引擎,都能提供模型 api, 中国移动凭什么三个别人给不了的东西?第一,算力底盘。 中国移动二零二五年算力服务收入近九百亿元,制算服务收入增速百分之二百七十九。他在全国布局了超一千五百个边缘制算中心,正在建设几百级高性能 ai 数据中心, 这个量级,百度、阿里都得靠租。第二,网络管道。中国移动有全球最大的五 g 网络,二百七十七万座基站。 ai 从云端到终端的最后一公里,它的管道延迟最低,覆盖最广。别家坐的是云上 ai, 它坐的是网家、云家 ai 三位一体。 第三,客户池。中国移动有十亿级用户,政务、金融、医疗、工业客户遍布全国每个县。这些客户用 ai 的 需求,跟互联网公司的开发者客户完全不一样。猫马专门有机密模型服务, 基于硬件及隔离,保障数据安全,这是政务和金融的刚需。中国移动要做的是 ai 自来水厂。万亿级 token 是 什么概念?一个 token 约等于零点七个中文字,一万亿 token 约等于七千亿个汉字, 相当于一百四十万本红楼梦的文字量。如果按市场价, deepsafe v 四输入 token 价格,约每百万 token 两块钱,万亿级就是两百万元人民币的算力。中国移动说开放体验,虽然细节待公布,但方向很明确, 用运营商的规模效应,把 ai 调用成本打到骨折。 g p t 五点五 a t i 输出 token 价格每百万三十美元, deepsea b 四约每百万二元,中国移动在此基础上再降百分之三十。这意味着,一家中小企业接入 ai 的 门槛,从请得起程序员降到交得起话费,这就是 ai 像水电一样随取随用的真正含义。 中国移动的逻辑很清楚,五 g 时代,它卖的是连接, ai 时代,它要卖的是智能,从中国最大通信公司到中国最大 ai 基础设施公司。但话说回来,模型聚合平台不是新概念, one api、 light lm 甚至 open router 都在做类似的事。默认的护城河不在聚合本身,而在算力和客户壁垒。如果算力和客户优势不能兑现为调用量,这就只是另一个中间。降价百分之三十对开发者有吸引力。但目前大模型价格战已经白热化, ipc 把行业价格打到骨折之后,再降百分之三十的空间,还有多少利润?对于中国移动这种体量的央企来说, ai 转型的组织惯性和创新速度,才是真正的挑战。一九九四年,中国接入互联网, 一根电话线拨号上网。二零一三年,四 g 来了,移动互联网爆发。二零一九年,五 g 来了,万物互联开始。二零二六年, 中国移动说, ai 时代,我来修管道,三百个大模型,一个入口,万亿级 token 拧开即用。这不是一个产品发布,这是一家万亿级央企在赌下一个时代的入口。你现在每个月交上话费,也许三年后,你变成交 ai 了费觉得有用,点个关注,我来讲透每一条消息背后的硬逻辑!

家人们火山引擎直接放大招了!豆包语音识别模型二点零正式上线了!这波模型直接把语音交互体验卷到了新的高度,真的是太顶了啊!咱先看核心升级,第一点就超牛! 推理能力直接拉满上下文,关键词的召回率直接提升了百分之二十!不用依赖历史词汇记录,光靠语境 就能精准的识别!不管是生僻字、多音字,还是因为你口误说错了的字,他都能精准的修正。就像这个视频里说的,把错的加精准的变成瑕,连生僻地名、专有名词都能认对, 再也不怕语音识别闹乌龙了!更觉得是新增了多模态视觉识别这个模型,他不光能听懂字,还能看懂图, 结合图片内容做语音识别,彻底解决了同音不同字的难题。比如说你对着图片说改码头,他不会误判成码头搜拍图片创作时说的生僻表达,他也能靠画面精准识别。 这波操作直接打破了语音识别的局限。还有一个重磅福利,他还精通 日语、韩语、德语、法语等十三种海外的语种精准识别,而且完全不耽误中英和方言的识别准确率。跨境沟通、多元创作,直接解锁, 真是太实用了!这个模型把专有名词、地名、品牌名、复杂场景的识别全都优化了,不管是日常聊天、内容创作,还是办公适配各种真实的交互场景, 又准又快。不得不说啊,豆包这次升级,直接从能听清到能看懂、能理解,语音交互直接迈入了一个新的阶段。你们觉得这个模型最戳你的功能是什么?评论区里聊一聊!

豆包各位肯定都用过,但是你真正了解豆包背后啊,火山引擎他们家的这些模型吗?啊,很多人都没有打开过,现在我这个界面啊,你们用的可能都是这个电脑端或者手机端那个 app 啊,用的里面的那个模型啊,说实话,那并不是豆包真正的实力,它有点像 deepsea 的 v 三 啊,就是它是一个快速的流逝的输出啊,不会进行什么太多深度思考,包括你看现在豆包除了那个超能模式之外,它是没有深度思考模式的了啊,就是正常模式,正常我们去用它是快速给你这个答案,因为我们常用的对话,一些问题啊,一些搜索啊,它都很简单,只需要简单调用一下网络上的内容就可以了。但是 你们真正了解豆包的这些模型了,那么今天我以主观的啊,作为一个网文作者,给各位说一下啊,他这些模型我在写作过程中都有哪些应用,其实用的最多的就这一个模型啊,那就是他的最新的这个模型啊,我给各位看一下啊,这个大语言模型啊,这个模型 就是这个啊,豆包啊,这个 c 的 二点零 pro 啊,就是这个,我用的是这个模型,这里面就有深度思考模式,各位可以去用一下,它跟豆包的区别非常之大。 先说好,这期视频不是广告,也不是掐饭,虽然有很多甲方找过我说啊,做豆包的广告,但是如果我接了,那就会主观,只能说是客观的了。就是啊,甲方说这个东西怎么都好,我就会出这个视频,而且我如果说审我的内容,我就没有办法,我是没用 大杠的,我这周围就除了一个屏幕,再有一个镜头就没了,所以说我是想到哪说到哪啊。我们来给各位看一下 这个界面上就是火山方舟火山引擎的这个模式下,豆包的这个效果是比正常他那个对话框就是里面下的要牛逼很多的,哎,但是这个里面是要花钱的啊,但是你也有免费额度,比如说那个我给各位看一下,呃,这个在这 哎,在哪呢?嗯,我就不给各位看,容易看到我的这个 k 啊,就是这个这个钥匙啊,容易看到我的这个掏坑的这个钥匙,所以说我就不给各位展示了啊。他这个也是有联网的啊,直接可以开启联网,关闭联网,然后至于说深度思考在这呢, 正常你们回复的用的是深度思考,都是关闭的啊,这里可以用到高啊,然后这个 mcr 这个我就不用多说了,这个一般咱们就问一个简单的问题啊, 嗯,我就给他一个我我们创作的一个灵感啊,比如说啊,我创啊,我有一个写小说的灵感啊,嗯,主角穿越啊,火影世界 啊,成为啊宇智波呃,组的成员, 嗯,但是我没有具体的剧情和设定啊设定啊,现在啊,给我想一个啊,符合当下啊,同人 同人文的呃,小说剧剧情架构啊以及大纲 它的效果,你们可以同样的这一句话,同样的一个灵感,你们询问一下豆包的那个正常的就是那个界面,你再进到这个火山引擎里面,你再用它的这个思考深度高, 你再测试一下啊,因为有人说很多人说豆包这个,呃,测试效果没有 deepsea 什么没有这个质朴青年,没有什么 kimi 的 效果好。哥们,你们用到满写版 啊,这是能用到满写版的,能用到这个模型的啊,不要低估了豆包,也就是它背后的字节,字节跳动,这个公司的信息收集能力以及信息处理能力,人家毕竟有抖音这么大一个信息收集平台, 所以它能收集到的脑洞还有想法是非常非常高的啊。至于说什么啊,有人说啊,让 ai 给我想灵感,我首推用豆包火山引擎里面这个 c 的 二点零这个版本 啊,你就直接在这用就可以,你让他给你规划的这个剧情的内容,因为他能收集到大量网络上的这些最新的这些小说的一些想法和内容,灵感拓展,豆包绝对是可以有一战之力的。但至于你说什么啊,处理这个大量数据啊,拆书啊等等的这些 豆包效果其实一般,他跟那些专门做大模型的这些哦公司啊,他比不了,因为人家毕竟是做这个豆包,你像番茄是豆包的啊,他可以调用番茄的一些数据,他肯定会用番茄的一些数据去训练豆包啊。再一个,你有抖音呢,他有这么多大数据,数据这么多的平台, 他肯定是能做出一个很牛逼的东西的,所以他里面所储存的灵感和正常那些网,这正常那些模型里面所提供的灵感肯定是不一样的,所以各位可以尝试一下他的深思思考能力,时间有点长啊,我给各位稍微放大一点, 哎啊,各位可以看一下啊他的思考过程。哎呦我去,这个思考过程稍微有点长啊啊 哎,思考过程我就不不看了啊,然后咱们就直接看他输出的啊啊语录,郭靖啊的曾孙啊什么的啊啊,主角身份名字性格啊,然后包括金手指,看啊,回溯能力, 你看他想的这个东西不是也可以吗?哎,所以啊,这这个后面我就不给各位看了,什么三沟玉啊这些东西,那肯定是会给你想一些更贴合比较贴合网文的这个实际的 啊,一个剧情啊,所以如果说你想要 ai 给你找一些灵感,我建议用一下豆包的这个 c 的 二点零这个模型,用火山引擎里面才能用到啊,我不知道这个正常的这个豆包,因为我这个下面也开着一个豆包的这个 app。 呃,如果, 嗯,你是想要想灵感的话,我建议你们用一下这模型测试一下啊,效果真的不一样。行吧,那么这期视频就到这,希望各位知足之后都能努力马自,早日成为白金大神,加油!

今年春节,一份特别的年礼悄然来临,火山引擎携手豆包 app 在 总台春晚上给大家送出十万份科技好礼, 让 ai 融入万家灯火,让熟悉的年味焕发新的光彩。 一会听我口令,精准运动控制,智慧交互应答语数机器人接入豆包大模型,用感知与交流的进化推动世界的进步。 你好,奔驰终于快到家了,长途奔波辛苦回家的路有理解相伴豆包大模型,为奔驰车机注入活人感,懂你的疲惫与期待,温暖每一程归心 小爱同学给我生成一个年兽的故事,一声问候,两份牵挂。小米携手豆包大模型,与智慧交互,温柔回应每份期待 打印一只小马吧,把新年的想象捧在手心破竹三 d 打印机携手豆包大模,行为年俗注入新想象,将吉祥的寓意变为立体可触的模样。 豆包帮我记一下要买的年货,腊肉螃蟹红酒 ok 智能铁耳机搭载豆包大模型,做你随时陪伴耳边的朋友。 你好,追觅打扫一下卫生,解放双手动口不动手追觅扫地机器人接入豆包大模型,一句话自动扫描,智能规划,清洁难题迎生而解。 最好的年味是懂家人的口味。苏泊尔接入豆包大模型, ai 定制健康食谱,让关爱恰到好处,妈妈煮的好吃又健康看看谁来了 用声音唤醒科技的默契魔法原子携手豆包大模型,让机器狗深度理解你的每一句话,响应每一个期待。 吉米,我要看春晚说出口就播的出吉米投影仪接入豆包大模型,指令模糊也能精准响应大屏随心一换极限 你好,奥迪导航去长白山途经加油站的最快路线,以选择避开拥堵的最高效路线。最好的欢聚是一路畅行。奥迪助手接入豆包大模型,智慧规划,全程守护,让智能陪伴每一公里。 拍完即出片,新年记忆自动高光大疆接入豆包大模型,美颜风格,一步直达 小艺。小艺这古城的春节习俗有什么讲究?这里的青春藏着最热闹的耳畔,一句话读懂整座城。华为耳机实时问答,答疑解惑,用 ai 洞见历史的厚度。 快看小布里,跟着我们跳舞,感知情绪,传递快乐。松原机器人接入豆包大模型,能自然对话,更能读懂心意,让科技拥有温度。 这个春节, ai 不 再是遥远的概念,它是礼物,是陪伴,是新的年味。火山引擎与他的朋友们,让 ai 融入生活,点亮每一个团圆时刻。

在 wsl 二巫班图系统中安装 hermes agent 并配置火山引擎 coding plan。 hermes 是 一个基于 python 和 node js 的 ai 智能体框架,其底层依赖大量 linux unix 环境下的工具链, 这些依赖在 windows 原生环境中兼容性较差或难以稳定运行。因此官方明确推荐在 wsl 二 windows subsystem for linux 中 安装和使用 hermes。 第一步是安装升级 wsl 二,以管理员身份打开 power show, 输入以下指令,安装完成后输入用户名和新密码, 注意输入密码的时候是看不到的,这样就进入 wsl 终端污斑图系统了。然后输入以下指令,更新软件包列表并升级已安装软件。然后输入以下指令, 用系统包管理器 a p p 一 键安装多个开发工具和依赖库。然后试用中科大镜像装 u v, 然后刷新环境变量。然后就是重头戏安装 hermes agent。 安装成功后进入配置页面,这里选择 quick setup。 我 用的是火山引擎的 coding plan, 这里选择的是 三十六 custom point, 然后根据火山引擎的配置文档配置就可以了。这里选 keep current local 回车就行,默认本地本机运行,不用改容器。云环境, 这里可以选择跳过,然后就可以进入 hermes 跟他对话了,我问他当前是什么模型,回复的是火山引擎的 r code latest。

哈喽,小伙伴们大家好, ai 漫剧的风越吹越烈,很多小白也想自己做漫剧,今天给大家介绍一个一站式做漫剧的工具,配合现在全面开放的 cds 二点零,小白也能轻松做漫剧, 咱们现在就开始。安装好软件之后,咱们先点开设置,首先选择模型服务, 点击选择火山引擎开关,打开这里需要输入 app, 咱们登录火山云账号,在模型广场的 app 管理里面创建一个。不知道 api 在 哪里创建或者怎么配置的小伙伴可以联系我。 创建好了,点击复制, 复制到 api 栏里面火山云的请求地址,直接把下面的势力复制上去就可以。配置好了,点击模型后面的测试,查看接入成功了没有。 ok, 接入成功,接下来选择 a 帧配置 每个选项里面的模型,这里我们都选择最新的模型,新模型功能更加齐全,小伙伴也可以根据自己需求选择不同的模型。 模型设置好我们就可以点新建项目开始创作了, 小伙伴们有准备好的小说或者剧本可以直接开始,这里我们随便在网上找一段小说来创作,找一个现在很流行的重生穿越类的小说, 这里把小说简介复制下来。 复制到小说简介,这里小说类型,咱们根据小说选择对应的类型,我这里选择玄幻图片模型,咱们选择最新的 seed 五点零视频模型,当然是选择现在最能打的 sedans 二点零, 这里选择图片参考,视频参考,音频参考,我差点选错了,接下来选择短剧的画风和导演手册, 然后点击下一步,终于发现自己选择错了,赶紧改回来。 项目创建好了,现在点击进入项目,开始创作,点击导入原文,咱们随便选一个章节的小说, 小伙伴创作的时候可以把整个小说全部复制进去,可以复制到记事本或者文档,直接上传。 复制好了下一步保存,等待生成事件。生成好了之后,点击下一步流程的图标, 进入了豆包 cd 模型,让这个工具创作更加智能。根据提示一直下一步就可以。剧本里面有需要修改的地方会给你指出来,根据他的意见修改就可以。根据他的提示输入你的要求。 生成的故事骨架都是可以根据自己的需要编辑更改的, 根据提示一直进行下去就可以。 剧本已经生成好了,我们进入下一个流程,把三个剧本全部选择,然后点击提取资产 提取,完成下一个流程。 点击全选未生成象,点击批量生成提示词, 再次点击全选未生成象,点击开始批量生成图片。 生成好了,进入下一流程, 根据提示点击开始生成视频, 跟着提示走就完了, 这里为了节约时间,全自动的步骤选择了加速,小伙伴们不要担心遗漏了什么,万事俱备。到了最后一步了,进入视频工作台, 点击第二个图标,分镜台 把声音打开, 点击批量生成提示词。 生成好了,把第二个第三个镜头提示词都生成出来。 这里需要检查一下参考图片和后面的描述是否一致, 没有问题那就开始生成视频,依次检查第二个和第三个的参考图片和描述无误之后全部生成视频, 现在等待视频生成好。 生成好了,进入最后一步,剪辑视频, 把生成好的三段视频依次拖入剪辑轨道。 呃,领导我,我还能干,我诅咒老板生儿子没屁眼, 谁能告诉我为啥我变成蛇了?嘿嘿嘿,哪来的小翠青,刚好给爷当开胃小零食, 至此零基础。小白根据小说做出了慢剧的开始。有的小伙伴会说,分镜之间没有连接性,转场太硬,那咱们加上一个转场特效就可以了。 ok 了,导出视频。 这里没声音是因为使用了电脑内置的播放器,声音在耳机里面, 画面效果还是挺不错的,上架完全没问题。 小伙伴们可以根据自己风格选择不同的剪辑手法,包括前面所有的流程,剧本镜头都是可以根据自己需要进行修改, 不仅限于小说,有剧本同样可以生成。 好了,今天的分享结束了,有小伙伴需要接入火山大模型的可以联系我,有好用的工具和模型我还会继续和大家分享的,让 ai 的 便利能够服务每一个需要的小伙伴。

今天来聊聊 cds 二点零申请的 api 接口的问题。第一个问题,个人能不能申请?个人不能申请,只有企业能申请,企业在火神官网填写相关资料,提交审核。第二个问题, 接入后大概的成本是多少?以慢距为例,成本大概是一元一秒。当然,部署这个 api 是 直接能用吗?用大白话举个例子,你要电热水壶烧水, 要把插头插入插座,同理你必须有自己的系统、智能体等这些类似的载体,把 api 接入进去,才能调用 cds 二点零视频模型能量,不然无法使用。最后说一句,你要 效率全部拉满,和你充值的金额有什么?就像之前有企业充值一千万,可以四百条任务同时并发,当然后面的门槛会越来越低,时间会很快,因为技术在不断迭代。更多关于 cds 二点零的问题,欢迎评论区交流。