粉丝2229获赞1.2万

大家好,我是根谷,今天是 open core 第六堂课啊,本地模型配置的 lm studio 片和微软的这样一个开发了这个,呃,本地大模型管理的工具啊。首先祝大家二六年, 呃,新年快乐,明天就过年了,建议大家先去看欧拉玛篇,因为欧拉玛篇会的话,这篇就非常容易了。非常容易了,那首先给大家看一下我这个那个 bug 啊,就是这就是 open core 的 一个官网,我前天好像提了个 bug 啊,就在这个英雄里面给他开了个 bug, 我 看看 这个 bug 其实就是 l m 十丢丢的一个 bug, 就是 在它重启的时候,它会失去了这个通信链接,我待会怎么证明我是它是一个 bug 啊,我把各个的环境啊,还有我怎么操作的选择的模型啊,最后配置文件都截图都分享出来了,现在还没有人回复我, 好,我是怎么做的呢?就是首先你要打开 i m 四丢丢点 ai, 这是微软的一个官网,你去下载啊,你如果你是 windows 电脑,它自动的,就会自动的给你到 windows 的 电脑那个那个,呃,安装的这个软件啊,你把它下下就好了,下下来以后就会出现一个这样子的 i m 四丢丢啊,这个就是你的一个那个, 呃,就比欧拉玛复杂多了,因为这个他不是面向开发者的,但是我感觉,呃,用这个也是挺不错的,他有海量的这样一个模型,让你去下载,我这里面下了一个千万三的一个模型。千万三的一个模型,呃,正常的就是在这个地方,比如说 给我讲个笑话,那这个非常容易啊,就不需要去给大家演示,你直接下一个模型,它都是界面的管理,你在这里下一下就好了,点它下载它就能下载,下载了好了以后在这个地方就能够选模模型,选到了模型以后,在这里你就把它去装入这个模型了,就是去加载这个模型,这个模型在这里, 在这个地方千万三星,那就就这个,就在这个地方。然后呃,我说这这个这里,这是他开发文档,然后这个地方他有几个端点,就是他有几套的去对接 api 调用,你首先去这里设置里面把这个, 呃网络这个服务供应,这个服务网络中提供服务,把它打开之前是默认关闭的,你把它打开就好了,那这个端口也不要去改,就用它的一二三四,那这个比较好记一些,比较好记一些。 配置好了以后,配置好了以后就点一下它就关了。嗯,首先这个地方 state 需要,需要开启这个服务啊,需要开启这个服务,开启这个服务完以后就是输入这个啊,就是 ceo 啊,然后这个 我这样就跟它对接了,你看吧,我的,我的 h t t p local house, 一 二三四五,对吧?一二三四 api v e chat, 并且你还是可以用这个 open ai com compatible 这样一个呃 协议进行对接,那你 pos 的 请求就是唯一,呃,你,你是 boss, 它自动的会跟你拼接啊,那我这里就用这个客请求和它对接好了,剩下的就是我用客请求去把它塞到呃这个 open core 里面去。那怎么做呢? 也是在这里啊,就是我因为它这个网站啊,它这个网站不像欧拉玛,它自动的里面,呃,跟它做了 open open clone 这样一个对接啊,大家看到上海课就知道这里微软的 i m studio 并没有对这个小龙虾进行做对接,那没有做对接也是没问题的,我们就直接在这个这里去做配置啊。就是我首先是 open clone 是 吧? clone 有 一个叫 daisy board 的 啊,不是 daisy board 的 on board, on board 的 一个 insode 这样一个地方,我重新进行配置啊,重新进行配置的话是 yes 啊,然后 click start, 然后我要更新其中的一个字,这里选选第二或选第一都是可以的,我去更新它,对吧?到了这个地方 一定要选 custom pro i 的, 因为因为你这里没有没有那个 lm studio, 它都是模型在线的。我们是需要 http 请求,这个 http 请求就是呃, local house 的 一二七点一这里,这个地方就是一定是一二三四。 好,这个地方一定是写一二三四。我,我需要把这个呃日字给清掉,待会可以看一下我,我这个 open core 已经会怎么和它连通的哈。如果你这个地方假设我,我写错了,我这个地方假设有个什么 a a 啊,这是瞎写的,他就会报错啊。这个 api key 没关系,因为他我没开通那个,我没有去开健全这个地方我没有去开这个要求健全,所以说这个 api 你 写写不写 api key 都可以的。 这个时候就是 open ai controllable, 和这里是一模一样的,看到吧,哎,回车好, mod id 非常重要,你不能瞎写,这个 mod id 就 在这里,你看把它粘出来就好了。对 啊,他都告诉了你啊,就 local horse 的 一一一一 charnel 就 一二三四啊,这个它比那个小龙虾啊,不是比小龙虾,比那个欧拉玛要做的好啊的地方,就它各个地方都出来,哎,你看, 呃,其实它已经连通了,但是你这边唯一 a a a a, 它应该是唯一,你看到了吗? 所以说他就报错,报到错,对吧?然后这里有个端点 id, 这个端点 id 让他默认给就好了。啊,这个,这个这个名字啊,然后这就是错了,错了的话你就得重新填过,所以说他没有返回的机会,就是我,我现在 就是你只要按 esc 退出重新来过,所以说这里那我快速的演示一遍就是正确的应该怎么做。 yes, click start 第一个, 然后选这个 customwide 的, 哎,这个地方他又默认的,就就写一二三四就好了。呃呃。你说有些人为什么不加 api 呢?你看我这个地方为什么有 api? api 是 它的另外一套这个接口服务啊,是这个, 这里有一个 api 点微,但是一般来说是没有 api 的, 所以说这个就是没问题了,一定是这样子的,微一它后面会自动的跟你加陌陌的啊和那个例子 box 啊,然后这个就回车啊, 一定是要选择这个 openair compatible, 哎,然后这个 mod id 不 能瞎写啊。就是你,你这里,呃用的是什么 mod 就是 用什么 mod, 哎,你如果可以换的,就是在在在在这个地方换啊,就是在这个 my mod 里面,我这里只有一个,你可以选,你可以选 好,然后这个地方我,对了,以后你看,哎,这个地方他就补报错了,全绿了,看到没有,哎,这个地方全绿了,我给他全通了,全通了,那全通了就赶紧去启动一下,那就是 skip, 因为我之前都装了,也不要去装他的 skill 式,也也不需要装他 fuk 式啊, 直接就启动这个网关是吧?因此多领啊, get 位首位,然后让它浏览器打开,那这样就通了,其实它配置起来其实是比那个欧拉玛要简单,为什么呢?这微软还是做的可以的。但是呢,但是呢,这个 open core 竟然和它 内部的就是那个,我感觉它很多没有去做兼容到这一步就已经通了啊,你学会了吗?

这条视频让你的八 g 笔记本显卡的本地大模型推理速度提高百分之四百五十。小伙伴们都知道我推荐的本地大模型推理框架是 l m studio, 如果你还不知道什么是 l m studio, 可以 翻翻我的往期视频。 l m studio 最近更新到了零点四版本,这是一个大版本,更新了很多内容,比如支持多病发和 cloud 的 api。 其中混合专家模型的层卸载也得到了更新,现在单独的选项消失了, 取而代之的是这个滑块。通过滑块的调节,我们可以决定把混合专家模型的层卸载到内存里,只保留激活的层在显卡的显存里, 这叫做卸载 mo, 一 层到 cpu。 这是一个针对混合专家模型的特殊优化,它的原理非常简单粗暴。 以千万三三十 b a 三 b 模行为例,三十 b 指的是这个模型的总参数量,就好比我们现在有三十个在不同领域的专家, 而 a 三 b 指的是在模型推理中只会激活三 b 的 参数量。这就好比从这三十个专家里挑出最适合执行特定任务的三个专家来执行任务, 这样我们最后在完成任务的时候,就只需要支付这三个专家的开销。相对于混合专家模型的叫做筹密模型,比如千问三三十二 b 就是 一个筹密模型,他也有三十个专家, 但是在执行任务的时候,是这三十个专家一起上。这些专家里有很多专家可能并不适合执行你给出的任务,既滥竽充数,浑水摸鱼,且并不能对任务的执行有多大的贡献, 但是我们还需要支付三十个专家的开销,回到大模型上面说的开销就是我们的显存了, 显然三个专家比三十个专家占的显存更小,理论上推理速度也就是更快了。 众所周知,显存的待宽和速度要比内存快不少,所以我们可以利用混合专家模型构架的特点,把激活的专家层放在显卡的显存里,而把贡献不大的专家卸载到内存里,从而充分的优化和利用显存而达到提速的目的。 下面就跟着我带你操作,超简单,有手就会。首先确保你的 lm studio 升级到了最新版本, 然后确保你的 ron time 也升级到了最新版本。 我们直接用千问最新发布的千问三 coder next 模型为例,这是一个八十 b 参数量的模型,在安斯拉斯动态四比特量化后的大小是五十点五一 g, 而我的显卡呢,则是一张八 g 的 rtx 两千 a d a, 显然八 g 是 装不下五十 g 的, 好在我的内存有九十六 g, 而千万三 cold nex 是 一个混合专家模型,且激活量仅为三 b, 所以 我们可以只保留激活专家在显存里,而把没用的专家放进内存里来提高推理速度。 首先我们来演示一下正常情况下的推理速度,我们把上下文拉到三万两千,打开 flash attention, 剩下保持默认,点击 load model 等模型加载。 此时我们可以看看任务管理器,我们可以看到显卡的使用率极低,几乎不参与推理。 此时我们可以看到推理速度是四点四九 tokens 每秒,速度可以说是非常慢了,几乎是不可用的状态。现在我们利用混合专家构架,把没用的专家层卸载到内存里,让激活的专家层都保留在速度更快的显存里。 我们回到加载模型的界面,我们只需要无脑把 gpu offload 拉满,点击 load model 就 可以了,就是这么简单。 同样的问题我们再推理一下,此时我们可以看到显卡的占用基本跑满,而且显存的使用则比刚才还要低,这是因为三 d 的 激活餐数量大概只需要一点八 g 的 显存就可以塞下, 此时的推理速度是十三点九七 tokens 每秒几乎是之前速度的三点五倍,推理提速百分之三百五十。这同样适用于任何其他的混合专家模型,比如 g、 l、 m 四点七, flash 不 卸载到内存的情况下是三点二 tokens, 每秒,卸载到内存之后则达到了十四点四七 tokens 每秒, 提速更是达到了百分之四百五十,一下子就把这些模型从不可用的三四个 tokens 每秒的速度拉到了十四 tokens 左右的可用状态了。

l m 十丢丢全面设置跟使用方法,今天给大家介绍一款工具, l m 十丢丢它是干什么用的?它是下载大模型的时候用的, 如果不知道是拿来干什么的话,就像我们需要部署离线的大龙虾,或者说工作流还有等等相关的很多啊,比如说你们需要一些啊,跟人家聊一些比较私密的问题 啊,都可以部署,他都可以用的到。那么这种工具啊,比较火的有两款,一个是 lm 丢丢,一个是欧拉玛,还有国内的,国内的我没有试,欧拉玛的话我现在也还没玩明白, 那么我们为什么啊介绍推荐这款软件呢?首先啊就拿这个我们已经下载好的软件呢,首先啊就拿这个我们已经下载这款软件呢,首先啊就拿这个是千万三 v 一 八 b 是 不是啊, 如果放在欧拉玛里面的话,他的那个啊就是每秒组的质的量的话有五十多,这个的话有三十多,为什么还要选择 lm 十九九呢?因为他啊每个选项里面可以就是细调啊,细调那个模型啊,比较方便。还有一个啊比较好的这个应用界面大家都能看得懂啊, 大概就是这个样子。首先我们啊要去浏览器啊里面搜索啊,这个官网 找不到的话可以进这个粉丝群里面啊,咱们啊分享给大家。那么啊前面介绍完了,我们现在的话就是介绍 lm studio 这款软件的, 这个啊怎么用啊,怎么设置啊?安装之后该怎么弄呢?首先我们安装之后呢,就是跟正常软件一样,安装就选 d 盘,记得选 d 盘啊,装上之后点右上角直接跳过,这边有一串英文,你们安装完之后呢,直接点跳过进来之后点设置 啊,然后呢我们一般的话是这里要选到这个啊,下面往下面拉, 直接选, ok, 我 们先介绍这款软件的这个功能,首先这里是聊天界面,这边是聊天记录,然后下面的话啊,这边输入文字的话可以对话, 你看回复很快,但是在欧拉玛里面这个啊值就是这个,这个值就是这个他每秒钟吐多少个字?欧拉玛运行这个模型的话有五十多, 但是他里面一些数值我还没玩明白,还有这种条数呢,对不对?我们 下面啊这边有个锤子啊,还有这个这个是支持图像输入,然后我们点这个加号的话,可以啊,这个可以放这个文字文档里面就可以放图片进去让他去参考啊,左边的话是调一个数值, 这个的话后面啊我给大家传一些比较好的。然后我们第二个界面是什么呢?这个是开发者点这里打开之后呢啊,它下面有一个链接啊,就是可以支持远程或者近程,你们要远程的话要把这两个功能打开, 然后这边的话就可以看一些参数啊,咱们对话一些参数是我们看不懂代码的,不用管的啊。然后呢这上面的话就是看一些啊,兼容啊,连接状态什么的, 下面的话啊,下面就是一些文档啊,我们都看不懂,都是英文的啊,看不懂啊就不管他啊。然后这里的话就是加载模型,下载好的模型出现在这里,这边是加载好的模型,第一个的话是加载好的模型,这边是下载好,在这里面打开, 这边是下载按钮啊,这边是下载按钮,我们可以啊,在这啊下载的模型可以在这边看啊,下载过的这些更新啊,或者 这边的话就选这两个,然后我们啊最后一个的话啊,这里面的话就是这个模型,我们没有开这个啊,就是下载模型记得勾赞啊,这个啊就是最适合你们电脑的啊,最适合你们电脑的, 然后呢我们可以啊,选一个最佳匹配,或者说最多点到里面去找啊,找你们的模型。那么模型我们该怎么下载呢 啊?就拿我的配置来说啊,就是我觉得你们先下载一个七 b 的 模型,如果他吐的字更亮啊, 特别特别低,每秒钟吐一两个字的话,你们下载那个四 b 一 点五 b 那 种的啊,如果说他一下载好只是有二三十的话,你们可以啊下载啊,二十 b, 三十 b 以内的配置很多,如果你们想学的话,后面啊我会好好研究一下, 那么到最重要的环节来了,设置前面忘记说了啊,你们下载模型的这个路径啊,在这里面啊,有一些人在左边,有一些人在右边,反正他是跟你默认设置有关的啊。 呃,大概就是这个啊,我们点这里要更改这个默认路径啊,选到第一排啊,来到设置啊,同样啊,我们现在是最新版本的啊,有一些人的在在右边有一些图片,我们啊就认识这个图标就行了,点一下 他啊设置的话啊,是第一个选项,然后 下面的话勾选这两个,其他跟着来, 然后第二个的话就是主题啊,我默认的话是白色的,黑色的话不一样,我们选选这个,而这边不用改啊,制作模式的话也不用改,然后下面啊你们跟着啊,这两个跟着调啊 就行了,看不懂英文没关系啊,因为我们看过比较多了啊,大概是这个样子比较好,我们来到第三个选项啊,这个啊, no, 然后呢这里面的话,你们就是看你平时玩电脑玩多久 啊?我设置三百三百分的话就是好几个 小点。打开啊,这个使用本地服务的话,这个使用本地服务的话可以打开啊, 我是不开的,你们要开的话可以开,然后呢这个自动更新关了,然后呢这边选择稳定版啊,我们下面的话聊天信息啊啊,这边的话跟着调就好了。 试过了,刚刚忘记说了一点,你们要下载模型的话啊,就记得勾选上这个啊,用 lm 九九的代理,不然的话你们下载不到的,下载不了就加载了,下载不了我们接着看 啊,接着看第三个,然后这边的话啊就跟着调啊,这个开这个开这个开这个开啊,下面的话你们看一下有没有跟对, 然后不使用 ai 生存的聊天,然后我们的话选第二个,我们接着到啊这个选项, 这里面是什么呢?这边是图片啊,这边怎么选呢?你们电脑的分辨率是多少就选多少,我的是幺九八零, 然后呢记得把它开了,而这边的话选第一个,这个是什么用呢?这个是上下文,这个是上下文,我的话是一万五啊,也可以调低一点 k d d 的 话调到五千 提示啊,这里面的话就没有这个加载提示了,然后这个模型保护的话选平能或者宽松严格的话有一些模型加载的话就会有卡顿啊, 就是说不给他这么多内存啊,防止这个电脑啊,懂了吗?下面,下面的话啊,选第一个啊, 我们这个的话是啊,这个不用看,再看下面啊,这边的话你们跟着他这个会自动适配你的电脑的啊。啊,其实呢就是你们更新的一些版本啊,选哪个版本 的啊?这边比较复杂啊,就选他默认的就好,下面的话你们跟着来, 我们这里面最后一个呢就是插上这个 cpu 啊,这边的话我们可以看到 cpu 是 兼容的,然后呢啊这个内存条啊啊 什么什么的等等的,然后我们就这边的话这个就是显卡信息,记得开了啊,右边的是开,然后呢限制啊,我先加载到 ppt 就 可以关了,然后呢这个打开 下面呢想放松就是啊,希望你们不管是啊玩大龙虾也好还是说工作流也好, 先把这个 lm 十丢丢玩过,一天两天玩明白了,玩上手了,你们再考虑那些,直接跟着攻略来一个没学完又去学那个,左边学完右边又忘,没用啊,先把这个玩明白了再慢慢去搞,如果你们 还有哪些设置操作没有说到的,或者说你们发现了什么问题, 可以打在评论区咱们一起解决,咱们粉丝群里面啊,定期啊更新一些知识,大家有空的话可以加一下,我们一起探讨研究啊,新领域 ai 的。

今天十秒钟教你调一个,首先找到你的说话鬼,然后点击上面加号,搜 m i n d, 把这个 b, e, n d, e r 点出来,点出来以后把右上角这个圈拧到十,然后左下角这个拧成绿色, 然后左上角这个你想让它扭曲的程度越大,你就越往右扭,喂喂喂,一二三,差不多八,以后的效果会很明显。好,没有这个插件的可以来找我要, ok。

插件装完机架里却找不到?一分钟教你快速扫描添加,赶紧收藏起来慢慢看!我们点击十一选项位置 v s t 插件,点添加六十四位的插件,默认安装路径,在 c 盘 program files v s t plugins 点选择文件夹,点应用。如果是三十二位的插件,我们点添加默认安装路径,在 c 盘 program files 叉八六 v s d plugins 点选择文件夹,点应用确定。如果你在装插件的时候修改过路径,那么我们在添加的时候选择你修改过后的那个文件夹就可以了。赶紧去试试看吧!希望今天这个视频对你有所帮助,我们下次见别忘了点关注,拜拜!

上期讲了用 notebook lm 打造 ai 智能团,大家都感觉非常好用。留言中有很多关于 notebook lm 的 使用问题, 例如笔记来源不够专业空间不够用、总结总是泛泛而谈等等。此次分享将基于 notebook lm 的 工作流来展开,从信息的收集、学习、内化,再到最终的内容多模态输出等。希望通过这期视频,能让你手里的 notebook lm 从一个机械总结的机 变成你真正得心应手的外脑。我们先来看第一部分,信息的收集充足且优质资料是保障 notepook lm 输出的能量来源。那么我们如何高效地获取信息呢?我们分两部分来讲, 第一, ai 辅助,让它帮我们快速收集权威资料。第二,高效获取批量上传以及解决笔记容量不够用的方法。我们先来看下这个容易被忽略的 ai research 功能。这里的 fast research 相当于是一个增强版搜索引擎, 可在几秒钟为你提供初步的来源,适用于刚开始没有方向的时候使用。而 deep research 相当于是一个自主智能体,它像一个不知疲倦的研究助理, 不仅帮你搜,还帮你把搜到的东西读完,筛选好,并给你一个完整的综述。而在此之前呢, gmail 的 deep search 更偏向于解决问题,它会给你一个最终答案。而 notebook lm deep search 主要是帮你搜索资料,想让搜索出来的资料更加权威,那么提示词就特别重要, 我利用这个 cip 专业查找方法论来增强他的资料搜索能力。我们从实力出发,来看一下这段提示词思路。 首先是搜索研究的角色和主题需要定义清楚,然后让 aig 与 crip 进行信息的可信搜索。第一,时效性信息是什么时候发布的,有没有过时?第二,相关性需要着重回答你哪些问题。 第三,权威性信息来源是否来自权威机构,语言是否中立等等。最后,准确性和目的,信息的来源是否有数据支撑,是为了学术研究还是为了营销等等。 通过这些提示词,可以大大提升资料来源的可信度。搜索完成之后呢,可以点击导入搜索结果,这里可以批量删除一些因各种原因而无法添加进来的资料。 然后就是大家提到比较多的视频资料批量收集的问题。上次分享了把 youtube 视频一键导入到笔记里边,非常的好用,有朋友问能不能一键导入某站的视频,官方目前是不支持的,那有没有更好的办法呢?这个可以有。 其实将视频链接丢到笔记里,本质上并不是 ai 帮你观看了整个视频,而是帮你阅读了视频的字幕,所以其实我们上传字幕就可以了。 我发现了一个在 github 上开源的视频和字幕提取程序,可批量下载并支持一千七百多个视频网站。不过它属于命令行工具,需要在终端里输入命令才能执行,有一定的门槛。那我是怎么使用的呢? 就是一步一步的把截图发给 ai, 他 竟然帮我跑通了,但这依然很麻烦。后来我才发现,其实有界面化的软件,可以用,在电脑上安装这个即可。如果是单纯想下载某站的字幕,用这个 chrome 插件就可以,它用起来比较方便,而且是免费的, 视频字幕倒是有了。大家提到比较多的还是文件数量的限制问题,免费版官方给的限制是五十个文件,其实并不多。我这边的思路是将文件进行合并和压缩,听起来好像挺麻烦的,但如果你的动手能力还不错, 免费且高效的方法还是有很多的。视频的话,我们可以将多个字母文件合并到同一个文件里。 pdf 文件的道理也是一样的。 这样的工具有不少,但基本上都是收费的。我们可以随便找个能写 ai 抠钉的工具,输入两句话,几分钟就可以给你一个合并文档的应用,还挺好用的。另外, pdf 的 压缩处理推荐这个工具, 压缩后还不损失质量,功能也比较全面。另外,较大的音频文件像会议录音,可以转成文字后再上传。 我们可以使用 open ai 开发并开源的语音识别模型 whisper, 下载后用这个工具即可识别,还是比较精准的。 将资料导入之后,在来源管理这块, notebook lm 并没有给提供搜索、筛选和编辑功能,例如添加进来的材料很难查找。针对这个问题,我平时会对一些重要资料进行重命名, 官方并没有给搜索功能。我们也可以利用浏览器的查找功能进行关键词搜索,点击 command 加 f 输入关键词即可。 还有一些 u x 设计的问题,例如无法对资料进行格式归类、文件归类批量删除等等,以及重复上传的资料无法去重,这些问题给操作带来了一些困扰。 在这里推荐一个好用的插件,安装插件后可以发现整个 notebook l m 的 体验都有了质的飞跃。 这边多了一些功能,具备了一些高级搜索和筛选的能力,例如关键词搜索,按照来源文件格式进行筛选。还有类似文件夹的功能,可以自定义筛选组,还可以将来源文件进行导出, 以及贴心的批量删除功能等等。在对话栏这边,这个插件也提供了导出和复制功能,方便我们把对话结论进行导出,并进行二次学习。 丢丢模块也是同样的,可以把已生成的多模态资料进行批量导出。在这个插件的高级版功能中,还有很多云端功能,这里就不再过多赘述,有兴趣的小伙伴可以去体验一下。我感觉 notebook l m 的 后续体验升级,可以借鉴一下这个插件的 u x 设计思路。 第二部分,信息的内化信息输入之后呢,我们对信息要进行进一步的熟悉,特别是来自外部的信息来源。 我们用 five w two h 的 方法快速熟悉一下资料的基本情况。题日词可以这么写,请以表格的形式帮我列出来源资料的标题、日期、来源、研究主题、文献类型等等,这样你就可以对每一个资料都有一个初步的判断。如果想对某个资料进行深入的探寻, 可以在左侧单独勾选后,再对内容进行单独的提问。另外还有两个比较好用的题日词,比如说寻找资料的缺失或漏洞, 就可以输入这段题日词,用于排查缺失的关键信息,未被证明的假设数据断层,并指明下一步研究的方向。我们可以看到 ai 比较精准地发现这里的研究时长和数据等问题, 同时也给出了建议,点击这里的来源引用标识,可以进一步的对原始材料进行阅读。另外也可以让 ai 帮我们找出各个资料之间的矛盾点,便于进一步进行批判性思考等等。这里有一些我收藏的提示词用法,也分享给大家,可以截图保存。 这里还隐藏了一个配置,对话的功能相当于是给对话定一个基调,我们可以选择默认或者是学习指南型的对话风格,另外也可以进行自定义, 它相当于是给 ai 设定了一个长期人设或固定规则。这里的提日词字数虽然已经扩充到了一万字,但还是建议按照官方的要求,对基础的对话角色、风格、整体目标等进行配置,回答长度的话根据需要配置即可。 这里给大家几个提日词案例进行参考,建议提日词内容尽量的精简,这样的话可以避免与对话时所使用的提日词产生冲突。 目前对话内容系统已经可以做到自动保存了,另外还可以手动保存为笔记保存之后呢,还可以再次转化为来源资料,从而丰富你的笔记内容。 第三部分内容生成能力 notebook lm 的 studio dom 太输出功能是这个产品的核心,可将来源资料总结并转化为音频播客、视频解说、欢腾片等等。这种能力使得 notebook lm 实际上成了一个私人内容工厂。这九大输入功能,每一个单独拿出来都能讲一集。 本期我先讲一些高频功能的使用技巧。首先最需要注意的是,不要直接点击这里的卡片进行生成操作,这样生成出来的内容可能不是你想要的。 建议点击这里的铅笔 icon, 进入设置界面,设置后再进行生成。我们可以看到这里有七种具备自定义选项的功能,主要是针对生成内容格式的配置。最重要的是这里的提示词在输入之前可以参考官方给到的视力说明。 其中我用到比较多的是音频概览功能,可以帮我快速了解来源资料的具体内容,也能针对我提出的问题进行快速总结性的解答。举个好玩的例子,例如我让 ai 主持人寄予我收集来的奶茶店经营资料,专门为我定制一期播客内容,来解答我最近纠结要不要开一家奶茶店的问题, 让他们帮忙分析利弊,大家来听一下,欢迎超梦进化论来到我们的深度解析,今天我就为你梳理了一系列行业报道,深度分析,还有很多真实的创业者故事,帮你一起把这件事掰开揉碎了看个明白。你最近在纠结要不要开一家奶茶店?对,这次我们目标很明确,就是帮你拨开奶茶行业这种热闹的表象, 清楚它背后到底有多残酷。怎么样,这种娓娓道来的讲解方式比直接看文字更有代入感吧。另外,大家用的比较多的可能就是这里的演示文稿 ppt 功能,我这里有两个小心得,第一,如果这里生成的 ppt 是 你工作中需要拿来参考的,想要控制生成的内容方向,这里有两种方式, 第一,让它针对你的目标生成 ppt 大 纲,你满意后再生成最终的 ppt。 第二,你输入事先你定好的大纲,让它帮你补充内容后再生成 ppt。 因为让 ai 帮你填充内容的话,所有的内容都是基于你笔记里已有的资料,这样生成出来的内容才相对可靠。第二, ppt 的 风格是可以进行自定义的,这里给大家精选了几种 ppt 风格的提日词,大家可以选择性使用 这些风格的提日词,也可以用到视频、信息图等功能这里。另外让大家头疼的是,生成出来的欢腾片是 pdf 格式的,是不能对其修改 的,可以使用一些第三方工具转化为 ppt 文件,但可能需要一些花销。工具是有很多的,大家可以去搜索一下。还有一个前不久更新的非常好用的数据表格功能,可基于你上传的资料,快速抽取你想要的信息,并 以表格的形式输出。比如我们想分析一家企业的经营情况,在以前我们需要单独在报告里手动抽取数据,这样很费力,那利用数据表格的话,我们可以让他按照我们的要求进行快速整理, 并且可以导入到 google 表格中,结合大模型进行进一步的分析工作。另外这个功能在市场分析、会计较等方面也有不错的效果,大家可以试试。 好了,以上就是本期的分享,这期视频真的是做了好长时间,还有许多实用的功能没来得及跟大家分享。如果大家还有一些问题,欢迎留言讨论,我是超梦进化论,我们下期再见!

如果你很喜欢说话温柔的效果,那么今天这期视频我会手把手教大家如何来用最简单的几个插件实现这个效果,不管是新手小白,人人都能学的会。 哈喽大家好,那么今天这期视频给大家带来的是一个说话非常温柔的效果教程,那么咱们直接给大家上教程,非常简单,第一步呢我们添加一个降噪的一个插件 nse, 如果说大家身边小伙伴环境非常好的情况下,这个插件我们就不添加了,直接跳过,那么如果说咱们身边环境音啊不是特别好的,咱们添加进来之后,咱们就不用动了,他自带呢会有这个默认的一个降噪效果啊。我们第二步呢,添加一个 eq, 我们添加这个 eq 呢,只是为了去除一些低频的一些喷麦的一个声音啊,在这里做一个低切,在八十跟一百之间,大家可以边说话边听,然后选择一个频段啊,为了去除一些低频不需要的声音,然后在这里我们不需要对任何一个频段啊进行增益或衰减啊,我们直接点叉。 下一步呢我要添加的是压缩插件,第一个呢加了一个三 a, 我 们的左边是增益音量,右边呢是这个压缩的一个旋钮,我们控制右边的压缩旋钮来去看到中间的压缩表,声音只要不超过负三啊,就没有任何问题,最好的状态是在我们说话的时候,时针 啊,在负二跟负三之间啊,这个状态呢听起来是非常的丝滑,非常柔顺啊,然后紧接着我们再去添加一个二 a 插件, 这个呢也是一个压缩啊,然后呢我们用右边的旋钮来去控制这个时针不要超过负五,这里也是最好的状态是在负三跟负五之间,大家呢可以说来控制一下这个压缩旋钮啊,然后呢紧接着我们来去添加这个七三, 添加这个七三呢,呃,在这里大家能看到三个频段,零点三六,零点七,一点六啊,我们对这三个频段,大家呢可以说边说话,然后边去听, 对这三个频段啊,其中一个我们衰减五点五个 db 啊,大家呢可以说衰减完之后,先点零点三六,再点零点七,再点一点六,听一下这三个哪个是给你带来最温柔的一个感觉,那么我的这个感觉呢是在这个零点七是我说话呢比较温柔的一个感觉,大家可以听一下啊,然后呢紧接着 在低频这里咱们进行一个呃一点点的一个提升啊,然后呢我们接下来呢要加的是一个 v 三, 我们把这个插件添加进来之后,我们把这个灯咱们都点亮一下,关联一下,然后这边我们对低频进行一个稍稍微微的增益,高频呢咱们也稍稍微微增益一下,然后咱直接点叉就行。紧接着呢我们现在呢要去加一个去齿音的插件, 我们把这个插件添加进来之后啊,大家呢呃往下去去一下齿音,那么在我们去去齿音是听起来最得劲的一个位置,就是在大家能看到这旁边有个表,在零跟三之间,我们这个去齿音的量尽量不要超过三的这个位置, 那么呢这个就听起来非常的得劲啊,他不会说让你这个高频的损失的这个特别严重,然后如果说做完之后你感觉声音肯定会去变小一些啊,然后呢我们添加一个 恐龙家的一个插件,稍等一下。 好,那么我们把这个插件添加进来之后啊,我们对这个声音咱们进行一个增益啊,在这边这个旋钮,我们把它旋转到负十的这个位置, 然后我们可以说对这个进行一个争议,对自己的声音啊大小咱们拿这个来去控制,声音小呢咱们就多推一推,把这个声音呢往大了推一推就没有任何问题。做完这些之后,如果说你还想要再温柔一点的感觉效果音还是觉得不重,那么呢咱们可以说加一个一 q 四, 加完一 q 四之后啊,我们再对这里的六百五再去进行一个衰减,大家呢会不会变得更温柔一些啊?那么咱们今天本期的一个教程,咱们就到这里。

如果你总感觉自己的声音缺点什么,像不够贴耳,不够温暖,有一点闷,有点核子音,或者说不够通透,没有空气感、颗粒感,今天一个插件都可以帮你解决。 首先找一条你想要改变的轨道,可以是说话、说唱、唱歌,然后点击上面的加号,搜 m a h, 把这个 eq 四点出来。 如果你觉得你的声音不够贴耳,就拧这个黑色的,往右拧,你的声音就会离你很近。然后如果你觉得声音不够温暖,就扭这个蓝色的往右扭,你的声音就会变暖。然后如果你觉得有点闷的话,把这个绿色的往左扭一点, 或者是有盒子音,扭这个红色的往左扭,然后觉得缺了一点亮度,就扭这个橙色的往右扭。最后如果你觉得缺了一点空气感,就把这个蓝色的先给他拧到十或者二十,然后 回来调这个黄色的,调到二左右就可以了。一个插件可以解决你的所有问题。好,快去试一下吧。

如何采用制作底特律风格说唱伴奏两分钟教会你。对,就是你现在听到的这个。

大家好,我是 alex。 我 们很快的来看一下 studio verb, 这是 studio pro, 老想说 studio one, studio pro 新带的一个混响的插件,下边已经打上分的这标了,然后长的这个样子,就跟他们的那个集的效果器那种 新设计的感觉一样。我个人不是特别喜欢这种这种按钮啊,我希望它能更现代一些。但不管怎么说呢,这个新的插件我们来看看是什么?其实就是一个非常经典的算法的混响, 我们先把它放在一个发送轨,然后百分之百的信号进来看。我鼠标这边有一个 mix, 默认是百分之四十,我们先把它推到百分之百,现在你听到的是完全混响出来的声音,我们先听一听这混响的声音大概是什么感觉。这是默认的设置, 第一时间能听得出来它是一个特别, 我不想说宽,我感觉他更多的是声场处理的,是极其往两边推的这么一个感觉,尤其是你用耳机的话,你会觉得有一种不自然的,缺少中间核心的感觉就很多的。混响的设计也是 千奇百怪啊,这倒也没有什么太惊讶的。所以呢,你可以去利用他这个特点,你去利用他两侧的这个特点。然后呢,把你的干声混合来时候,一切就会变得很自然,因为你的干声回到中间了。 同时你可以用他的这个宽度,这个推子 稍微的控制一些,不要让他太宽。 很多人喜欢用混响,用特别宽,特别宽的话,容易出现很多那种香味很奇怪的问题,这种感觉 我不知道,如果你喜欢的话,你当然可以这么用,我个人不是这种声音的爱好者,接下来我们再来看他其他的参数。从最左边看,这有一个拼,你点这个拼的时候, 他会发一个噪音进去,让你听一下这个混响大概是什么样的声音,在你调整的时候能帮助你。然后底下呢有个低切,这低切默认切到了五十赫兹,下面有卡了,这个卡了呢是整个声音的明和暗, 很亮很暗。这个低切的这个这个声音听起来有一点简陋, 太多的 resonance 能听得出来吗? modulation, modulation, modulation 就是 就是把它里边各种各样的发出所有的声音,稍微的变化一些,我建议你其实有时候多打开一些 modulation 还是好的。 然后接下来 pretty late 这个第一个推子,然后呢往这边 sink 点上它以后的话,它可可以根据你现在的项目的速度去同步这个 pretty late 的 时间。我们先把它关上,我们调回百分之二十几,这样的话你能听到 pretty late 一 般来说几十到一百多一点点的延迟可以给你一种感觉, 他在后边老是有个小延迟在触发你的听听觉。 做完以后,尺寸就是你整个混响空间的尺寸以及声音下降的速度。 这个地方有两种情况,一种情况是你可以用大尺寸,然后用勺, 我的 dk, 比如说我现在有六秒接近七秒的延迟,接近七秒的混响,但是实际上我的 dk 是 三点四一,它会有一种很宽很远的感觉,但是很快的就会被控制下来。你也可以用稍微小一些的尺寸,然后但是把 dk 放的高一些。 怎么理解这件事情?就好像你在一个特别特别大的大厅,你的声音可能是比较的,不是那么光滑的一个声音,你听到就是那种慢慢很快的, 很快会想掉下去的感觉,但是你仍然能感觉到一个大的空间。如果你的尺寸小,你的 dk 长,就好像比如说你在一个全是瓷砖的厕所里边,或者是像 chamber, 对 吧? chamber 的 话一般尺寸都不会巨大,但是它的 dk 会很长, 因为它的声音在光滑表面会一直震荡。所以呢,如果你想要一个类似于大厅的话,你把尺寸放大,把 dk 降低,以最后这右边这个时间为准。比如说我希望有四秒钟的大厅混响,我可以把这个 dk 放的短一点, 这样它更符合它的声音的逻辑。如果你想要一个 chamber, 你 可以把 dk 放长一些,然后呢,把这个 size 放得少一些, 这样的话能够去区别这两种模拟的东西。好,我们把它们都放回正常的三秒钟,百分之百。接下来单频,单频,这个更像是一个对于高频衰减的这么一个变化,就是如果你把它推少了的话,你会发现你的高频很快就没有了,你把它推大了的话,高频会保持比较好。它这个有很有意思,上面这个图标,看这个光啊 往下放,你可以看到这是你整个这个声音下降的一个感觉,这个比较形象, 非常非常明显。 接下来 distance, distance 就是 你的你这个声音主体跟你的在这个混响空间中拾取的声音的距离。接下来 distance, distance 就是 你听到这个声音和你真正声音这个源头的之间的区别,这是一个算法混响里边经常用的一个,如果很近的话, 越远你的声音你听到的直达声就越少,你听到的整个混响混出的声音就越多, 所以你可以通过这个去调整你的听感,刚才这是我们的宽度,所以这就是他整个的这个效果。我们一般来说用发送给我,把它放到百分之百, 我觉得就比这合适。刚才我们在演示的时候听到很多很多的混响, 这是混响,这是干声,慢慢把混响调回去, 几乎你觉得你能听到的时候就够了, 这更像是大厅一些, 这更像是房间, 所以呢,通过这种方式,你可以去用这种模拟出来这种结果。 算法混响其实都是一样,都是通过这些参数之类的让你去从,你当然要从物理角度稍微理解一下这声音传播的速度、原理、时间等等,然后让你模拟出大概的这么一个空间。 我觉得这个新插件还行,说不上好听,这个真的比很多的插件,比很多收费的插件可能听起来要差一些,但是如果你需要一个混响插件的话,还是可以用的。好吧,那我们就先讲到这,感谢大家收看,咱们下次再见,好好学习,天天上,拜拜。