出事了,我刚才不是在用这个 live, live tv 在 做我的野怪要翻天第四集吗?然后我刷新了一下, 竟然可以用 cds 模型了,有点兴奋。然后要用团队版的会员才可以用,现在显示的分别是按月的以及按年的价格。然后我对比了一下,官方是五千一百九十九包年,一个月是一万五的积分。 我用 cds 二点零生成七百二十 p 十五秒的视频为例,官方是消耗九十积分,那算下来差不多是可以用 一百六十六点六七次。然后 lebelle 这边是六千五百九十九一年, 同样用 cds 二点零生成十五秒的视频,消耗为四百零五积分,那算下来差不多是每个月八十三点九五次。 但目前他们有做活动,就是能送六十条的二点零的生成,然后六十条的二点零 fast 是 生成可零三点零一百五十条,可零 o 三一百五十条。 所以这样算下来,这个性价比大家可以自己去衡量一下。但目前对于我来说肯定是能解决排队问题,所以我就赶紧先冲试一下是不是不需要排队。然后我用二点零的模型提交了一条十秒的制作需求,差不多三分钟左右就做好了, 效果上感觉也没有降至,感觉像是插了个队一样。同样的,现在官方那边我还有三万多个队伍继续反向排队。主要利布利贝也是今天晚上突发,不知道明天过后是不是又是一番腥风血雨啊。
粉丝6.9万获赞27.8万

好消息,兄弟们,马斯克旗下的 ai 大 模型 grog 三十刀版本啊,我已经用远低于三十刀的价格成功拿下,而且整个流程只需要一分钟时间,具体怎么做我快速演示给大家看。首先我们来到这里, 然后根据提示选择 super log, 这里输入自己联系方式,完了后我们会获得卡密,然后根据提示来到这个地址,输入卡密并验证,然后点击这里获得 log 用户 id, 然后这个灰色的字就是我们的 id 啊,很容易忽略,复制粘贴确认并最后立即激活即可啊。然后我刚刚已经成功了,这个是我给我室友用的,有需要兄弟快去试试吧。

本地欧拉玛模型接入软件教程本教程适用于若手内容管家、若手 ai 重命名等有 ai 能力的软件。欧拉玛的安装在网站上面有教程, 有需要的可以搜索若手软件,到网站看一下本教程,跳过它的安装及模型下载,直接进入 ai 配置环节。首先我们确保欧拉玛运行后,进入软件,点击 ai 配置,直接填写 ai 配置信息就可以了。如果是欧拉玛部署在本机,把这个地址更换成为 local host, 后面的不需要做修改。我这里是局域网内其他电脑部署的,所以需要更换为局域网电脑的 ip 地址。模型名称这里填写已经下载的模型名称。 apikey 可以 随意填写,只要是字母数字都可以,厂商这里可以随意填写,填写完成之后保存即可。保存完 apikey 配置信息后,再次来到 ai 配置,点击测试功能,验证 api 的 可用性,选择文本生成测试,点击开始测试,等待结果返回之后, 说明我们的本地 a p i 已经可以正常使用了,可以开始进行批量任务了。另外,如果在安装使用过程中遇到问题,可以联系我们远程解决。最后我们搜集了一些各大 ai 平台免费的模型,大家有需要的可以去自取。

兄弟们, mini max 新出的大模型 m 二点五已经在 openroot 上霸榜三周了,今天我用一条视频教你如何将 mini max m 二点五接入到 v s code 中,配置完就能使用 ai 写代码。老规矩,先点赞收藏,防止后面找不到了。我们 来到 v s code, 点击左侧的扩展按钮,进入扩展,在搜索栏里边,我们输入 client c l i n e client, 选择第一个这个机器人头像图标的,点击安装左侧这个有机器人头像的就是 client, 我 们点击这个 client 图标,进入 client 的 界面,我们首先要点击这个齿轮图标,进入设置里边,点击 ai pro vader, 我 们找到 minimax, 这就是 mini max, 这个就是 mini max 的 设置界面,默认这里的 basic l 是 api 点 mini max 点 i o, 这个是国外站的, 我们要选择 api mini max 点 com, 这个是我们的国内站。好,我们看这里的介绍,让你选择好你所在的地区。 api mini max 点 com 是 给中国用户的 api mini max 点 i o 是 除了中国以外的其他地区的,那么我们在这里就要设置 api mini max 点 com, 设置完 base ur l 之后,我们要设置 api k, 点击这里我们就到了 mini max 的 开放平台,这里我们要注册一个新用户,我们这里要使用手机验证码登录来注册一个新用户,在这里输入我们的手机号,然后点击获取验证码。 输入完验证码之后呢,我们还要点击这个已经仔细查看并同意该用户协议与政策隐私。点击登录注册, 我们就可以进入 minmax 的 接口密钥 api k 的 设置界面,在这里点击创建新的 api k, 这里我们输入 client, 创建密钥, 复制密钥粘贴到这里,然后模型这里我们可以选择不同的模型,我这里是强烈建议选择 minmax m 二点五,选择完了之后, 我们点当我们的设置就结束了。好的配置就是这么简单。有什么不明白的可以在评论区留言关注我,每期一个 ai 编程知识,谢谢大家的观看,再见!

兄弟们, kimi 前不久推出了最新的大模型 kimi k 二点五,今天我用一条视频教你如何将 kimi k 二点五接入 vs code, 配置完就能本地用 ai 写代码,能刷到这条视频,就是你对 ai 编程感兴趣,先点赞收藏,防止后面找不到了。打开 vs code, 我 们点击左侧的扩展按钮,在搜索栏里搜索 client c l i n e 这个带有机器人头像的图标就是 client, 我 们点击安装,安装好了之后呢,左侧这里就会出现一个机器人头像的按钮,就是 client, 我 们点击这个 client 的 按钮, 就可以进入到 client 界面。我们先要进行设置,我们需要点击这个齿轮图标的 setting 来进入到 api 设置里边。在 api provider 这里,我们要找 moonshot, 这个 moosehot 就是 月之暗面,选择好之后,我们还要在这里选择好 api 的 网址,那么这个呢,是 api moosehot, 点 c n, 这个是中国区的网址。再下一步呢,我们就要有一个 api 的 k 填到这里,那么点击这个蓝色的文字,我们就可以 来到 moonshot 月之暗面的开放平台,它的开放平台可以支持微信登录、手机验证码登录和账号密码登录,我们直接选择微信扫码登录,这样比较快一些,提示我们同意服务条款。 然后就跳到了 api k 的 管理这里,我们要在这里新建一个 api k, 点击右上角这里的新建 api k, 给这个 api k 起个名字,我们这里写上 vs code, 代表着它是给 vs code 用的所属的项目,我们选择默认的这个点击确定, 这个时候就生成了 api k, 我 们点击这个复制按钮,然后返回到 v s code 中,把这个 api k 粘到这里,然后下面是模型 默认,就是选择了我们想要的 kimi k 二点五,不用修改,或者将来有了其他的模型,我们也可以选择其他的模型。点击当我们就把 kimi 接入到了我们的 vs code 中,现在就可以开始用 kimi 来进行 ai 编程了。 同时 kimi 还对新认证的用户提供了十五元的代金券,足够你完成一些小项目的了。想尝试的快来试一试吧! 好的,设置就是这么简单,希望尝试的同学快来试一试吧!有什么不懂的可以在评论区留言关注我,每期一个 ai 编程知识,谢谢大家的观看!

这不是教你实现 ar 智能化交易第三课,今天给大家讲一下 ar 大 模型 api 的 一个介绍。 呃,那首先我们就是以那个 deepsit 为例,讲一下这个什么是 ar 的 一个 api 啊? api 全称叫做 应用程序接口,就是说我们在使用量化交易的时候怎么去调用 dsp, 怎么去调用 dsp? 它是有一定的一个格式啊,包括要使用一些啊 api 啊才能去使用它, 那它跟网页版有什么区别呢?那网页版其实就是说啊,就是我们平常跟 dsp 在 那个电脑或者手机端直接去跟它互动的那个界面,那 你不是个 api 嘞? api 就是 说我们程序在使用它的时候怎么去啊?调用它的一个功能,把数据传给他,但是这个是我们看不到的,它是里面的一个自己的一个互动的一个机制 啊,我们看不到的,你不可能叫程序到你的网页版去操作,对吧?啊?除了现在的小龙虾,他也他可以这样去做,那我们的程序是不不可以这么做的啊?那要使用的话就必须使用 api 接口去调用 啊,然后呢,等一下去讲一下啊,怎么去啊?获取这个 a p r 一 些文档啊,或者是怎么注册这个 a p r k, 然后呢再去解释一下这个 a p r 的 一些代码啊,我们直接进入 deepstack 的 一个官网, 那这是 dbc 官网,那么我们呃打开以后,这里有一个开始对话,就是我们平常跟 dbc 对 话的一个窗口啊,点进去是这样的,对吧?啊?这个大家都很熟悉, 那右边有一个 api 开放平台,那我们在使用程序调用的时候,就点进去看它是怎么去调用这个 api 的 啊?点进去啊,这是我自己的一个 用量的一个费用啊,我一天用不了多少钱,因为我这个调用的频率比较低啊,一个小时调用一次,所以一天就就花个一块两块钱啊,一块两块钱,那有些时候高的话呢,可能就是, 呃,做回测的时候可能比较高一点啊,花不了多少钱啊?这个当然呢,主要是看你这个呃是是怎么样一个频率去调用它的,那你像如果说用小龙虾的话,那个费用就会高很多了啊。我们看一下这个下面有个接口文档, 那首次调用 api, 它会有一个说明。怎么去调用它?我们先看下这个 deepsea api 使用与 open a r 金融的 api 格式啊。 open a r 是 什么? open a r 就是 发明啊,全是 gpt 的 那个公司,也就是第一个 呃,发发明 ar 的 一个公司,所以后面基本上所谓的这种 ar 大 模型使用的 api 调用格式都是根据他这个来的啊,根据他这个来的,当然还有其他的一些调用格式啊,那这个是最简单最方便的,大家最熟悉的。 这下面啊,一个贝斯 u i l 啊,一个 aprk, 那 贝斯 u i l 不 同的 ar 模型,它的使用的地址就不一样,那其他格式都一样的,它可能这个地方你就改一下了,那 aprk 也是要改了, aprk 等一下我。 呃,咱们等一下再讲一下怎么去申请 aprk。 那 aprk 呢?它是一串代码,那也是确定你身份的 一个标志,但是根据 a p r k 呢,它可以啊,来算你的一个用量,一个 tok 的 用量。那 call tok 又是啥嘞?我们现在说听到说,哎呀,用 tok tok, tok 的 话,我们简单的可以理解为汉字的话,它是一个汉字,一个 tok 啊,有些时候它是一个词一个 tok, 具体的话是看他这个分词器怎么分的,我们简单理解为就是一个字一个头肯啊,一个字一个头肯,那你花了多少钱,就是他帮你你生成了多少个字啊?以及你输入了多少个字,他就是花钱就根据这个用量来进行一个计算的 啊。看下面啊,下面有个 deep secret, 那 它是两个版本,那恰恰就是非思考模式啊,可以看到它恰恰 deep secret 对 应的是二点零的非思考模式,那瑞瑞呢?对应的就是那个思考模式,思考模式就是我们在用那个网页版呢。啊,我,我回答你 啊,这个地方你如果点了这个,它就思考模式了,你不点它,它就是非思考模式了,但它这里有个智能搜索,它可以联网的,那我们调用 a p r, 它是不能联网的啊,调用是不能联网的啊,我们回到 那调用 a p r, 我 们用的是拍摄语言啊,拍摄语言,所以我们点这个位置啊,点拍摄, 哎,这是一个导入一个 os 的 一个库啊,那是这个,它这个作用是干嘛呢?主要是你看 它是从环境变量获取你的 api k 啊,这个的意思是从环境环境变量获取 api k, 那 很多时候我们会把 api k 为了安全起见,会把它设置到我们这个 电脑的系统的一个环境变量里面去,那在程序里面就看不到了,以免就是程序泄露的时候把你的 api 也泄露了,对吧?那我们前期用的话就就就不用,不用搞那么麻烦啊,你到时候直接在这个后面写啊,等于,呃,这一张就好了啊。 api 等于这张就好了 啊。前面这个,这这这些都不用写了啊,括号也不用写了啊。贝斯 u i l 啊,就是这个是 deepsea 的 api 地址,那这个地方就不要动它,不要动它 啊,这个,这个 from open ai input 的, open ai 就是 导入一个 open ai 的 一个库,就是因为它这个 用的都是 open ai 协议, open ai 协议,所以说你这个要把库导入啊,到时候以后讲那个 python 的 时候,到时候讲一下啊,那你导入它以后就按它的格式,按 open ai 协议的一个格式去去写它就好了 啊。这下面啊,这是一个固定的啊。 class 是 这个地方的啊这是这是固定的它的一个方法啊,这个这个不要动默的啊,我们这个地方点,这不是一个卡子这不是个卡子 啊,不要用 leader 了啊,为什么不要用 leader 了? leader 了,他这个主要是用来推理的,那推理的话呢?我们其实在做交易的时候其实用不上太多的一个数学的一个推理的东西, 嗯,而且它太花费掏坑了太花费掏坑了,它会给你分析一堆分析来分析去,而且我试过,我试过,没什么多大用啊,直接用 excel 就 好了,好吧。然后 message 啊,这个也是我们重点的一个地方。 message 参数的话呢 啊,这个是叫角色,角色系统啊,一个角色是 user 用户,那系统的空投的就是是提示词,那系统提示词呢? 这个地方我们最好是定义一下,他这是英文,我们可以写中文啊,我们可以定义他的角色。很多时候我们这个啊,可以在网上也看到一些,就是说我们在跟那个 deepsea 互动的时候,要先给他一个角色,比如说假如你是什么什么什么,对吧?然后呢,你再把要问的东西问发给他,他再回答为什么要给他定义角色。这样子定义角色以后呢,他才会以精准的缩小自己的范围,精准的回答你的问题,回答东西更专业, 对吧?你不同的角色他回答内容是不一样的。打个比方啊,这小孩今天考试得了零分, 那假如这个得了零分,告诉这个消息是告诉老爸,那老爸就是兔崽子他妈,老子搞死打死你,对吧?那如果这个你得了零分,你这个告诉的是一个朋友,那朋友就说,嗯,没事,我也是零分,对吧?没事,下次咱们继续。那如果告诉这个老师又是另外的回答, 所以说不同的角色他回答的内容可能不一样,所以我们在做这个 ai。 呃,智能化交易的时候,你最好是 告诉他你是一位量化交易专家,或者是你是个股票量化交易专家,然后呢?你擅长干嘛干嘛?然后要实现什么样的功能?你先给他一个确定的一个角色,选角色, 那以后我们就不需要在在这个 user 的 提示词里面去写了,还告诉他你是个角色啊,你在这里直接写好啊,把它定死。那后面你就这个地方的提示词,你这就直接问他内容,问他内容啊,把数据给他就好了啊。 啊,这个地方很重要,那这个地方的提示词是非常重要的啊,就用户提示词非常重要,你最后会得到什么样的结果跟你提示词是非常非常影响是非常大的啊,这个肯定是慢慢是自己需要去优化的 啊,这个地方啊,是均等方式啊,这个是均就是啊,非流逝啊,如果是去就是流逝啊,那我们 做程序化交易的时候是不需要流逝的,不需要流逝的,我们分流逝 boss 就 好了。为什么?那流逝是什么呢?就是说他。呃,深层一点内容就发给你,深层一点内容发给你,那我们在网页版跟 dvd 交互的时候,那可以 发一点,我看一点,发一点我看一点。那你程序交互的时候是没必要的,它是一次性给你,对吧?一次性给到程序,程序再去做回应啊,这个是这个意思,那这一段啊不论的是打印,那打印什么呢? 最后这这一段打印的这个内容就是指 deepsea 的 回答的内容,就是我们网页交互的时候你看到了它给的内容啊, 那前面的就是不要动啊,他他是指指到了某一个字段,某一个字段这里面的内容,他就是指回答内容啊。好了,应该讲的也差不多了,这个很清楚了啊。啊?我们现在返回一下, 返回一下看一下。这个 a p r k 在 哪里啊?啊?这里还有一些其他的参数啊, top 用量啊,这个它可能有最大 top 数啊。呃,还有这个温度啊,这个我看一下下,下次再讲一下。 好,我们看一下 a p r k a p r k。 啊,这个地方可以直接创建啊。直接创建?那我这个是每一个程序我是创建了一个 a p r k 啊,如果我这个程序不用了,我就可能就直接把它删掉了, 这把商家为了安全起见,你点创建这里输个名字啊,比如说你是用于 ai 交易的,你直接在这里输个名字,对吧? 啊啊,然后这一段你把它复制起来,好吧,你把它复制,然后呢?用电脑存起来保存好,因为以后就不见了,以后就没有了啊,你除非你删了它,你重新再创建一个也可以啊。以后 啊,你看啊,列表中设置的全部 api k, api k 仅在创建时可见,可复制,请妥上保。请妥上保管保存,不要和他人共享你的 api k, 因为你这个暴露的话,别人用你的就就是钱了,就是钱了 啊。这个是 dsp 官网的一个 a p r 调用,以及这个 a p r k 的 一个创建。那除了 dsp 官网,其他地方也没用啊,可以有用的啊,有有地方可以调用的啊,有个两个地方,一个叫做摩达摩达平台,一个叫做阿里百炼,就是阿里云的啊, 那为什么我要介绍这两个呢?因为它这两个有免费用的,对吧? dsp 它这个官网是没有免费用的。我们先进入摩达 啊,摩达,这是摩达,那摩达它其实有很多的模型啊,很多的模型,那不单单只有 deepsea, 那 我们搜索一下 deepsea 啊,版本的话我们用微闪点啊, 摩搭的话,它是每天都有两千次的一个免费调用的额度啊,但不是只针对这一个模型,它是所有的模型加起来两千次。那单个的模型有多少次它是不确定的啊?不确定的,可能一百次,可能两百次, 它有很多,它包括图片啊,包括有没有视频,我的图片我是用过图片生成的模型,千万的一些图片生成的模型,哎,各种各样的模型,它模型库里面可能好有几百个,上千个啊,都可以去免费去用,直接调用的。那在这个右边 哎,一个我朋友的一个范例,这也是 a p r 调用的范例。这个地方还是不要动啊。 啊,我们看到啊,其实这个跟刚刚我们在 d f d f c 的 光我看到的是一样的,原理是那这个都一样的,你看,首先它要导入这个库, open i 的 库,然后这个写法也是一样的啊,对吧?生成一个 open i 的 一个实体啊,这个是这个地址,你就要改成摩达的, 这个地址是摩达的,看到没有?那这个 a p r k 你 要改成摩达的,改成摩达的这个这个地方,这一段它是指 in lab 四 control, 等于就是指使用的是推理模型,那我们其实正常人就不用用推理模型。这个地方其实我们这段可以不写的啊,也可以把它写成 force 也行啊,这里是固定的,不要动它 这个地方啊,刚刚那个是 deep sleep chat, 对 吧? deep sleep, 刚刚我们官网是 deep sleep 啊,杠 chat。 这个地方你就要填入这个东西啊,填入这里 啊, mess messages, 这里是只要用户的一个啊,一个角色,它没有系统的角色啊,其实我们要把那个系统角色也写上去啊,你就用官网那个,你在这个地方加上一个 lo, 然后 啊加上一个 lo, 等于啊,冒号 system 啊,记得有引号啊,然后 contact 啊,把它是什么角色写上去啊,写上去。 呃,这里时时间等,就这里,我们用 force 啊,刚刚讲了啊,我们要用非流式啊,这个时间说的就是这一段,这一段就这段可以不要了啊,可以不要了,因为我们不用书啊,可以不要。嗯 哦,当这个 force, 这个跟跟着来,这个这个。哦,搞错了啊,这是开始流逝返回,我们把它不用流逝返回,刚刚讲了流逝返回,它就是一个字一个字的给你,发给你,我们是要一段整的,最后就是它思考生成完了全部给我们一次性给我们,好 哦。啊对,就这里啊,这里等 force 以后啊,一一样的啊,这里有一段,因为这个地方它是 q, 所以呢它会有一个推理的内容, 推理的内容大家就是用第五十个推理的时候,他前面不是会有一段会有一段话吗?一段话他自己在这里推理完了,他就自己隐藏了啊,就是那一段话, 那最后回答的内容是这一段啊,是这个,把这个给他,到时候啊这就回答了内容啊,这个跟那个是一样的啊,因为他用的协议都是这个,所以他都是一样的,他的格式都是一样的 啊。这个是摩达摩达,大家注册以后一样的,他有 a p r k 啊,有 a p r k, 他 这个叫托克啊,那摩达托克也是一个意思啊,那注册完以后他也是可以免费用的,可以免费用的 啊,至于他这个里面有个有些限制啊,一个是他的次数限制,每天的次数限制,第二个他使用的频率限制,他如果你频率使用太高掉免费的就是这样的。 好,那除了魔搭免费的用,还有一个就是给大家介绍一个就是阿里百联,阿里百联叫阿里巴巴的 阿里百联啊,你们搜索到阿里百联以后呢?它这个模型,全国模型, 全部模型啊,这个地方我们搜一下,它也有很多模型啊,其他模型可以用啊,你自己喜欢哪个就用哪个,其实现在的模型都相差不大了。 好,这个地方我们进去一下,这是阿里自贡的啊,因为它这个是 deepsea, 它是一个开源的, 它会有免费额度的。那免费额度,它这个免费的话是新用户注册,好像是前三个月它会会有免费额度的啊,具体怎么免费的,大家试一下啊。我也不确定 前三个月它是有免费的啊,它频率也没有限制,大家也去测一下,如果说反正你如果说你试一下能达到你的要求,你就用免费的啊,用免费的 啊,这里面下面有个 oppo r 金融的一个代码啊,那也是拍摄,那这里可以获取 api k, 你 点这里,你要你要去注册啊,注册一样啊,获取 api k 啊,看到没有啊?这里一样的啊, oppo r 啊,这个格式也是一样的。这个地方啊,我跟你说一下这个位置啊,它这个加入一个 os 库,就是是从环境变量。哎,刚刚我是不是讲过 啊?我讲过了啊,不讲啊,这个 k 写进去这个地址,那不一样了,又不一样了,对吧? 又不一样了。这个地方啊,填这个啊,模型的一个,呃,代码填这里啊。 啊? message 它是写到这里来了,是写在下面,把这个整个放在下面,可以,它也只写了这个用户端的。我们我是建议这个在这个角色系统角色也要去点一下它的这个提示词啊,这个是 q 啊,这个我们,我们是用 force 的, 这个也是 force, 有 force 的。 好了,它这个是 q, 所以 所以下面的内容就不用看了。好了,今天就讲了这么多了,那下节课给大家讲一下这个,呃, deepsea api 跟那个 ai 交易程序之间的一个互动啊,到时也给大家演示一下。

这期教大家飞书多页表格如何接入 api。 首先我们点修改四段,你会看到关联账号,这里点进去出现这样一个界面。好,我们点右上角这一个分享的符号,跑到这里是一个飞书的教程,我们往下滑,他这里会教你如何接入,但我觉得他讲的还不是很详细。 好,我们看到这个火山引擎模型广场,这一个二点三点二点二,登录火山引擎 好,就跳转到这一个界面,这个界面你自己登录就行。登录上来之后是以这样一个界面,然后我们点击模型广场,在这里你可以找到你想要调用的模型,我们在搜索框里搜索 zip 好, 看到 v 三点一点进来到这里,点右上角 api 接入,然后跟着它的步骤一步一步操作,第一步,创建 api key, 创建并使用, 第二步我已完成调试好,这是接入的第一步。之后我们来到在线推理这个板块,创建推理接入点,点进来 好,是这样一个界面,输入接入点的名称,这个你自定义,我这里说的是 d c 和 v 三到下面输入模型,就点这个添加模型好,点进来。 好,第一列这边全是豆包的。好,我们点击上面它分类的深度求索,这里会看到 d c 的 v 三点一在这里,然后点击确定, 再点击右下角创建并接入好。之后是这个界面,选择 api key 并复制好,这里我是创建过很多,然后如果你没创建的话,就直接点右上角的创建 api key 名称,按他这个来就好。点右下角创建好, ok 了,把这个小眼睛点开,复制这一个 api key 好, 再回到飞书输入密奥 api key 就是 第一行,这里。好,我们再回到火山引擎,找到这个在线推理的板块,敲重点了, 这里复制下面这一小行。还是回到飞书这个板块,把你刚才复制下来的这一段输入到第二行。 ok, 关联账号好,到这一步就已经基本完成了。如果还有什么问题的话,你可以点击那个 感叹号,下面有一个联系客服,你点进去,客服会帮你解决比较复杂的一些问题。好,这期就先到这里,感谢观看,点个关注不迷路。

在 cherry studio, 通过使用本地代理方式接入英伟达 api key 即可无限免费使用。 g l m 五 g l m 四点七 kimik, 二点五嵌问,三点五嵌入模型等等各种大模型 不吃配置,什么电脑都可以跑。还支持本地知识库,联网搜索、深度思考等。有需要评论区留言吧。

这两天看到一个项目啊,挺有意思的,它号称可以让你实现 a p i 自由,本质上其实就是把网页的原生端那些可以免费无限兑换的能力重新分装成一个可以调用的 a p i 接口, 然后再以 a p i key 的 形式提供给你自己使用。这样一来,很多能在网页上部署的像 openai jimmy 和 cloud code codex。 呃,那些网页上 的模型的算理就可以直接接入到你自己的本地,比如 opencloud 小 龙虾 opencloud 以及你自己编程的一个应用小工具,然后可以实现自动化部署。

今天给老习宝宝们讲解一下怎么导入自己的 live 二 d 模型,一般这个就是 vtuber studio 下面简称 vts 里面可以直接面部捕捉的模型游戏那种。 live 二 d 模型后续会另外出一个视频讲,我们首先打开瞄 chat, 点击我页面,然后进入设置 角色模型,点击选择模型,可以看到选择模型的右上角有一个 add 按钮,然后我们再打开我们的 vs, 如果自己没有自己的 live id 的 话, 也可以去 steam 的 创意公房或者是 b 键上找找有没有自己喜欢的免费角色,或找老师秀钱。我们从 steam 下载或者是别的渠道获取到角色模型的文件夹后, 点击喵 check add, 点击 live id 文件夹,然后选择我们的文件夹,如果文件夹格式内容正确的话,就可以在角色列表中看到你导入的人物了。主包这里已经导入过了,就不导入了, 可是人物只是在背景左右移动,实在是有点无聊,有没有什么办法能够让他像真正的人类一样,在喜怒哀乐的情况下表现出不同的表情和动作呢?有的老师,有的我们回到 v e s 双击界面, 点击设计按钮,选择左上角第二个相机按钮,把选项页面拉到最底下,可以看到一个录制 live id 动画的功能。我们设计好面部捕捉机后就可以开始录制了,我这边随便录制一下, 命名好后,你就可以看到在你的 vds 的 模型文件下会出现一个 motion。 三 jason 文件我们回到瞄 check 就 可以导入了。 把所有的心情都对应好动作的时候,和 bob 聊天的时候, bob 就 会根据当前聊天的时候自动实现动作播放了。

打开迷你 max 官网,右上角点登录,选择 api 开放平台,输入手机号和验证码,进入开放平台, 在开放平台界面左边有一个 code and plan, 这里是可以购买我们模型的套餐, 你可以看到下面有很多的模型套餐,一般对于初学者而言的话,我们选择最便宜的,这个就可以 回到账户管理页面来为我们的模型创建 api, 点击创建 api, 输入你的 api 的 名称, 点击创建密钥, 记住 api 密钥。

最近 oppo pro 爆火,很多人想用 a p i, 但又不想花钱买套餐,分享一个英伟达免费 a p i, 零成本就能用。首先打开官网, b o l d, 点 amazia 点 com, 没有账号的用邮箱注册一下,英伟达的网站很卡,实际注册没有这么流畅, 每一步都要等好久。这里选不选都可以,接着随便填个称呼提交,接着点右上角印证手机一个号只能绑一次。接着在首页找到更多模型,进去选择 epi 分 类,再筛选你想要的大模型。这个网站加载有点慢,耐心等一下就行。找到合适的模型,点进去, 点击右上角查看代码,把这三个关键信息复制出来。 base 模型 id 生成的 a p i t, 点击这里生成 a p i t, 然后复制下来。有了这三组数据,直接填进 open call, 就 能免费用上英伟达大模型了。想试水不想花钱的赶紧去试试!

openclo 安装好了,如何让他开口说话? openclo 本身是免费的,但是你需要给他接入模型 a p i, 这部分通常需要一定支出。 目前官方支持的模型供应商有这些,其中这部分直接提供面向中国大陆的站点。如果你购买的是来自他们的服务,对接起来将会非常方便。 当前主流的计费形式有两种,包月套餐和按量计费。选择你中意的,随后前往 openclock 中。认证接入主要有以下两种认证方式,部分厂商可能会提供第三种认证,但需注意此处的 token 与计费 token 不 同。 认证方式中如有 cn 或 china 字样,我们优先选择。如果你的厂商不在官方直接接入列表中,也不必担心,只要它是 open ai 或 anastropic 兼容的,都可以接入。 我们只需选择 custom provider, 随后填入这四样信息,它们都可以在你的模型供应商处轻松获得。 至此,你已掌握如何给 openclaw 进入大模型,赶紧去和你的龙虾机器人对话吧!

扣你鸡娃,我是小孙。时隔多月,今天教你们在手机上本地部署一个 ai 模型,不用联网,也不需要复杂的命令行操作,关键还可以搭配破甲模型使用,它就是 pocket top。 这是个轻量级 ai 模型运行框架,界面超简单,支持 d u f。 呃,这种适合手机跑的模型,完全不用代码基础。 第二步,去哪找模型?我这里为你提供两种方法,一、摩乐社区浏览器搜摩乐社区, 进去直接找想要的模型,下载导入即可。二、我的网盘资源找不到破甲模型,迅雷搜索鱼鱼的保障,进资源盘就能看到怕甲模型文件和提示词,保存下载后直接导入即可。网盘里我还放了往期视频的资源,需要的可以了解一下。 第三步,导入模型超简单,在网盘下好模型文件,然后来到传输页面,点击左上角的下载,等到模型下好后,点进去,点右上角,打开本地目录, 就可以看到刚刚下好的模型。然后选择移动,选择手机系统文件,这里随便选一个记得住的文件夹临时放置,我就放在电脑目录,然后就可以退出。来到 pocket 号,打开 pocket 号,点击右下角的 go to model, 这个界面的模型不用管它,需要科学上网才能下载。先点右下角有个加号,点它选添加本地模型,添加本地模型,找到你的模型,等着加载完成。导入后,模型会出现在我的模型 列表里。重点来了,每个模型右边有三个按钮,第一个,删除不想要的模型直接删。第二个,设置,这里能加提示词,这里就不多说了。第三个,开始聊天,点它就能跟 ai 进行友好互动了。 这次就有人要问了,这手机上部署有个傻子 a a 有 啥用?这手机上部署个傻子 a a 有 啥用?重点来了,破甲模型和角色提示词。我在网盘里准备了提示词库,让他帮你写小说,甚至模拟特定角色聊天。当然了,咱得用在正道上。在这里要特别提醒大家, ok, 好,虽然能让我们在本地现运行 ai, 但任何工具的使用都要遵守法律法规和品牌规范。分享的模型和提示词仅限于合法合法合法合法正当的学生创作与交流,严禁用于诈骗、钓鱼、传播违法信息或其他危害他人及社会的行为,请大家务必使用。尊重隐 私,保护数据安全,让技术真正为生活带来便利,而不是风险。不要当罕见的人,就这么简单。从找模型到聊天,全程离线,隐私拉满,方便便捷。今天教程就到这,我上次正式更新时 到现在应该有两百多天了,中途也有一些朋友来催更或者来鼓励我,我也非常感谢各位!还有,以后我可能会选择更换其他形象来更新视频,所以孙孝川小课堂可能要绝版了。

还在担心云端 api token 太贵?今天教你在 windows 电脑上用 lm studio 一 键运行本地大模型,零代码,不花钱断网也能用。 第一步,下载安装 lm studio, 打开浏览器,进入 lm studio 官网,点击右上角下载,选择 windows 版本,双击安装包,一路点下一步,等待安装完成就好。 第二步,打开 lm studio, 建议先更新下运行环境,更新好之后,在这里选择下起用模式,有独立显卡的优先选择独立显卡,没有的选择 cpu general, 这里可以选择语言为中文 hardware, 这里可以看到独立显卡支持情况。第三步,点击 model search 搜索安装下载模型支持众多开源的模型,例如 cuan 三点五、 g l m 四点七,大家可以根据自己的配置来选择模型。下载搜索模型后,在这里会有推荐标志。本次下载一个零点八 b 的 小模型来演示, 如果显示完全加载进 gpu 显存,运行模型可以说毫无压力,不推荐下载过大的模型会导致回复 token 速度很慢,用起来并不舒服。 可以通过 model cart 到 hugen face 中查看模型的详细介绍,也可以在 hugen face 中找你需要的模型。 第四步,加载模型,等待模型下载完成。点击选择要加载的模型,选中刚才下载的零点八 b 模型 参数,这里可以使用推荐参数,然后点击加载模型,等待模型加载完成。点击 newchat, 现在就可以使用本地模型了。零点八 b 的 速度非常快,用作本地 ocr、 网页摘要、翻译都很好用。 本地模型的优势是隐私安全、低延迟离线可用、自主可控、成本可控,大模型越发展越强,本地小模型也会越来越强,越来越好用。 在 developer 中可以开启 api 访问, 就可以用其他应用调用本地模型了,支持多种格式。好了,本期视频就到这里,你也快去试试部署吧!

大家好啊,现在市面上企业接入国内大模型 a p i 的 渠道特别多,那我今天就和大家汇报总结一下不同渠道的特点。首先呢是火山引擎的豆包系列和 deepsea 系列产品, 那他们的特点是限流的额度最高,基本上不会打满他们的 tpm 和 rpm。 原因是因为火山之前囤了很多英伟达的卡, 所以它背后的推理集群资源特别充足。那价格上呢,它的折扣力度相对比较小,如果不是特别大的客户的话,官方渠道最多是给七折,火山销售的业绩压力也很大,基本上每个人单单大模型都要背至少一千万的业绩。 其次呢是阿里云的千位系列和 deepsea 系列产品,那它的优点是单价最低,而且阿里云内部最近在打大模型战役, 千万系列模型的折扣根据用量呢,从五折到三折不等。但是缺点呢是背后的集群资源相对来说没有那么充足,如果遇到大客户重保的话,比如说 b 站跨年晚会,那资源就会更紧俏一些。 百度的大模型呢,目前基本上是卖三方的 deepsea 和其他模型为主,他们自己家的文心妍用的客户相对少一些,但是百度的折扣政策一般来说是还不错的。然后就是各种各样的大模型中转站了,比如说三零二点、 ai 云雾、 api 等等的平台, 这些平台的价格浮动会比较大,而且折扣普遍会比原厂高一些。但是有些厂商的模型可以做到特别低的价格,这种情况下呢,一般是做了逆向账号之类的方式,他们能够保证低价,但是不保证可用性。最后呢,如果您希望低价进入国内主流的大模型 api, 可以 后台私信我,我有靠谱的渠道。

上一期教大家了 cloud code 怎么安装和部署,那么这一期教大家怎么样去对接大模型,怎么样去付费使用?首先介绍一下 cloud code 的, 我现在使用方式有这几种,第一种呢,最基础的官方订阅了,你要去 cloud 官方注册一个账号,订阅它们的计划, 它有不同的这个付费的这个形式。是的, free 的 pro max 对 第一个门槛。好多评论区的人问怎么注册账号啊?有一个最简单的办法就是你去注册个谷歌账号, cloud 是 支持直接用谷歌账号登录的,就不会碰到什么用手机号的问题了。 ok, 然后呢,解释一下他们的这个 pro 和 max 账号, 他们这个账号有一个限制,比如说像 pro 账号,它是在五小时之内,你可以用到一定的 token 用量,然后在一周也有一个 token 上限,但是它有一个很坏的地方,就是你不知道它的 token 的 限制到底是多少。对,我们找了很多,没有一个官方的说明。对啊,它其实大家都是动态的,它会根据它们自己的用量实际 去调整。 ok, 我 去论坛找了一个大家使用反反馈,就是呢,有一个人大概估算了一下,像估计它是比较大量的那个 token, 消耗任务的话,可能两个任务就能用掉 pro 账号的百分之五十五的使用额度了, 大家可以感受一下,其实我之前在自己使用过程中也是差不多是个这样量的,比如说如果你的项目下内容比较多的话,可能五六个任务你五个小时的额度就用光了, 你就要再等等他解锁了那个五个小时,五个小时以后你再开始用。对,是的,所以呢,总结一下他官方订阅的,他的优点就是质量是肯定没保没问题的,用的是真正的 cloud 的 最顶尖的大模型。缺点是封号封快飞快,我已经给封了两个账号了。 还有就是 pro 账号是肯定是不够用的,大部分人的,就国外的那些专业开发者用的都是 max 账号, max 账号的话一个月折合人民币大概是一千四百块钱人民币,所以这个打呗打呗对这个专业的用户才会考虑。 ok, 如果你想要去解决不被封号,你需要去投入研究 更多的办法,这个隐形成本是很高的,建议如果你有本事折腾就是避免封号,你可以去考虑,你一定想搞的话,你可以考虑用组合配或者 apple pay, 这种方式会加收百分之二十五左右的费用,但是听说封号的时候 谷歌会或或者 apple 官方,他会帮你挡一刀,有时候会给你退钱或者帮你兜底,至少,但也只是听说啊,不负责任感觉下来就是大可不必。对新手小白不建议这个方式, ok, 第二个方式,官方 api 其实对于大家来说其实是不需要考虑的,因为质量没问题,但是缺点是死贵, 你们可以看一下奥普四点六,他的呃输入是每百万托肯是五到,也就是三十五块钱人民币,输出的话是二十五到每百万托肯非常非常贵。 正好我一个任务差不多就一个,一个多一点,任务差不多就结束了。哎,讲了这个正好呢,我们正好解答一下之前还有很多朋友关心的这个推算消耗的问题,我也给大家测算了一下,投入啊,真金白银的投入。测算了一下, 我有一个很复杂的一个自己的项目,就是那类似于今天老师之前的那个个人的工作台一样的,这里面有我我所有的工作的记录,包括记忆进度啊等等等等,这项目还是比较大的, 我让他全量的跑一遍我这个项目,把里面的每一件事的进展汇报一下,相当于他会把我整个文件夹全部读懂点。对,是的,我第一个是用的是卡的 pos 四点六模型,他耗时用了大概十四分钟,把我这个项目读完了, ok, 用了投,看多少呢?用了, 用了七万的投垦,这一个任务后面的两百是什么?其实两百是这个上下文窗口的上限,这次用的是七万的投投垦。给大家大概估算了一下,假设 大部分情况下,输入是占百分之七十,输出占百分之三十,所以折算下来,我本次绘画用了五块六毛钱人民币,做一个任务是相当于重量的, 也就是说大概你可以估算出来吧,可能对于你们这种办公工作者可能会少一点,不会五块钱,但是一次任务一块钱肯定是有的,我透露一下,有一天下午我一个人就用掉了人民币六十,对,是的是的,所以大家有数啊。很多人关心偷更消耗,但其实偷更消耗这个问题其实很难回答, 它基于的是,首先你的项目,你的复杂度,你的文档的多少,还有你这个用的模型,有的模型他的思考的程度高,那么他消耗的头可能就高。 还有基于的就是你用的软件,所以呢,为什么我在对比呢?我用的是 g p t 五点三 codex 思考度 high 的 那个模型,它的思考程度很高,所以可以看到我本次跑下来用了十三 万,刚刚是七万,现在是十四万,十四万,十四万的消耗翻一倍,对,同样的任务翻一倍,所以用不同的模型跑同样的项目,它的消耗不一样。是的,用同样的模型, 也是那个 gpt 三点五的模型,我在 opencloud 里面再跑了一遍,消耗就是七十七万。因为之前在 opencloud 里其实也有很多人关心这个 token 消耗的问题,所以呢,我给大家看一下,大概感受一下。相同的模型,不同的软件在 products 下跑的是十三万, 在 opencloud 底下跑的是七十七万,这也就是为什么大家说 opencloud 很 少 token 很 厉害的问题原因。但是这个东西在 bug 里面其实只有七万对,是的,其实只有七万对, 天呐,但这个里面有核心原因,影响因素很多啊,比如说 gbt 五点三扣带子 high 这个这模型它的思考度就高,所以呢,它耗,它耗,它消耗头很高,它本身它因为它的记忆体系,所以导致它它的消耗头很高,这也是影响因素,所以这个只是做个横向的,让大家感受一下, 点到为止。所以这个总结下来,如果你调用官方 vpi, 这个就对于新手来讲一定也不用考虑,大部分研发也不会做这种事,这种只会做产品的时候考虑。 还有一个办法就是我提一下,免得有人说我没提就是 antigravity, 反反贷把,有一个软件开发软件叫 antigravity, 就 谷歌推出来的,有的人有办法把它里面的 api 提出来,到扣子里面去用,当时它谷歌很大方,但现在已经开始对这样用的人进行封号处理了,所以今天就不去详细提了, 别搞了,能写到我们,我们咱们就是。然后最后一种办法就是通过第三方 api 来接入。第三方 api 的 话其实又分成三种方式, 第一种就是 open route, 国外最大的一个就是第三方 ip, 提供平台模型超市,对,是的,然后它们里面会有各种各样的模型的 ipi, 然后也有那个 cloud office 四点五的,但是它的价格和官方是一模一样的,呵呵, 所以呢,它是同样死贵的,花钱也是飞快的。它对于就是我们大陆的 ip 封禁没有那么不会,没有那么严啊,能用上,对,能用上,不像那个官方的一天你是几乎用,为了用还很费劲,还很花钱,所以你大部分情况下可以不用考虑,但是你可以去少充一点钱, 通过这个去感受一下奥克斯四点六的真正的能力。然后呢,还有一个就是大家常提的中转站,就国内的中转站, 它实惠,一定程度上你可以用到 off 四点六的顶级模型,但有很大的缺点就是首先它不稳定,时时时不时断线,那很多都是自营的,所以呢,大概率会跑路,有风险有风险,而且还可能会一次充好它。你说是在用 off 四点六,而背后说不定用的是别的模型,都有可能的,你也不知道它那个管子跟你插在哪个边了。是的是的, 所以建议就是啊,你可以用,但是不要一次性充过太多钱,少量多次的充,用多少用多充多少,也不要在我的评论区交流。对,我不会给大家推荐具体哪一个厂商,但是呢,会给大家推荐一个网站,叫做这个网站不读了,在这里面你可以看到各种各样的中转商以及他们的稳定性,可以 基于这个去选择你想用的中转商。不要交流啊,你看就行了,不要交流。好的三种方式呢,就是我大家比较推 推荐新手小白,先尝试的就是用国内的模型来代替,因为国内模型的话是最实惠的,也是最稳定的,而且其实在能力上的话也没有什么太大明显的差别。 然后讲到这呢,正好就是给大家推荐一个软件,是开源的,之前我也提到过叫 cc switch, 因为 cloud code 它本身理论上来说只能用它自家的模型,但通过这个软件是可以切换到别的任意一个模型的,包括了我前面提到的中转商提供的模型以及 国内的模型,它使用起来也很简单,你去 getapp 上面,或者到时候曾老师发一个。然后呢,我们打开这个软件以后,点击右上角的加号,你就可以看到它预设好了各种各样的模型厂商,包括了千问、 kimi, 然后你去他们那边注册订阅一下他们的 kimi 二点五去做我们的那个网站,也都是挺实惠的啊,包括上次我们其实用了那个 kimi 二点五去做我们的那个网站也都是啊, g r m 也都 支持的。好的,我推荐新手小白呢,最好的方式就是你订阅一个国内的模型,然后你再去 openroot 上稍微充一点点钱,你把 真正的 cloud office 四点六接入进来,然后也可以把国内的模型接入进来,两个去做同一个任务,去比较一下这个结果对于你来说差别是不是真的很大。如果差别不大的话,你就完全可以先用着国内模型,然后等到以后真的有一些业务需要了,你再去换。 你先看看你自己做的这点事,你配不配用这么贵的东西啊?有些写文档的工作,你自己思考一下你配不配用。 ok, 本期视频就这样,拜拜。拜拜。

在 opencode 里面使用密报免费的大模型,需要在 opencode 里面首先注册,注册之后过提到你的 a p a, 然后复制到你的 a p a, 到 opencode 里面找到你的急风声,要点击 opencode 做你这个模型, 复制你的 api, 点击确定,然后在配置里面去找到你需要用的两个 free 模型,一个叫做 miimo v 二 pro 的 free 模型,另外一个是叫做欧米的一个 free 的 模型,它俩点开,然后就可以使用了。