用了半年 oppo 科尔,一对比第三方 a p i 的 价格,我碗里的饭都不香了,毫无知觉的我又当了半年的韭菜, 说到底还是输在信息差,除了官方平台,我压根不知道还有别的 api 平台能选。于是我就拿着昂贵的官方价,特别认真的扮演一个消息闭塞但消费积极的用户,而且演的特别投入。 后来我第一次看到第三方 api 平台的价格,我人都麻了,同样的用量不到一百块就够了,那感觉像什么?像你用了几年电信天价套餐, 突然发现隔壁联通同款套餐便宜的像是在做慈善,像是在嘲讽你。而且信号套餐宽带质量还差不多。你不是生气,也不是愤怒, 只是单纯有点想报警。我不是后悔用了 oppo 科尔,我是单纯为我烧掉的昂贵 a p r 感到心痛,真的,没有特殊需求的话, 普通用户根本没必要死磕官方价,我这半年算是交学费了,希望兄弟们别再走我这条路。
粉丝57获赞77

想让你的额崩破龙虾更强、更听话、反应更灵敏吗?今天我就手把手教大家怎么给它配置付费的 apikey, 彻底释放它的全能性能。如果你现在还没安装好额崩破,先别看教程了,直接私信我,我先帮你把它跑起来。好,咱们言归正传, 想要额崩破变强,你得先了解付费 apikey 的 两种省钱模式。第一种叫可定 plan, 你 可以把它理解成自助餐,按月收费。 如果你选择基础套餐,每个月定死一个价格,每五个小时给你一定的调用次数,只要你不是二十四小时,不停的疯狂折磨他,这种模式就相当于无限使用,性价比极高。第二种就是开放平台直充,这种方式去超市买菜,充多少用多少, 你往平台里充点钱,生成一个 api key 就 能直接用,每次任务消耗多少特权就从余额里面扣,没钱了再补就可以。这种模式有个好处,只要你累计上到一个档次,一般都是五十块钱,它给你的接口频率就会非常非常高,用起来非常丝滑,而且不用不扣钱。那到底选哪种呢? 如果你追求极致的性价比,选第一种,如果你想随用随取,不差那么点差价,选第二种。接下来咱们直接上实操。先说追求性价比的方案,我推荐大家用 mini max, 我 们先打开电脑,进入 platform, 到 mini max 点 com 这个网址,点击右上角的订阅套餐,选择连续包月 没看到六个档次。如果你只是平时偶尔用用,选最低基础的二十九元一个月就够用到个人最推荐的四十九元那个档次, 这简直就普通人的天花板,完全够用,这六个坑大家别踩上面那几百块的极速版,如果你不是 ai 超级,即刻千万别乱充,那是纯纯浪费钱。这个时候后台会给你发一个 api key, 把它复制下来。如果你想用更聪明的模型,我直接选择第二种方案, 直接充 kimi。 kimi 的 模型在国内是出了名的聪明,而且自带超强的联网搜索。我们来到 platform, 到 miniso 登录之后,去用户中心,点击左侧菜单的账户总览,然后点击充值。 这里我建议大家首次直接充值五十块,充五十之后,你的调用频率限制会大大宽放,用起来不会卡顿,而且首次充值还会送你十五块的代金券。 充完之后,去 apikey 管理创建一个新的 apikey, 同样点击复制。拿到 key 之后,最后一步也是最关键的一步,怎么把它塞进龙虾的脑子里?我们在终端里输入 opencore config, 按回车,这时候会出现一个菜单,让你选 model provider, 也就是模型供应商。你 充的是 kimi 就 选 kimi, 充的是 mini max 就 选 mini max。 需要后直接把该复制的串 apikey 粘贴进去。 接下来的几个选项,大家如果没有特殊要求,就一路选择,无脑跳过就行。等屏幕显示配置成功,你就可以回到额本库的控制端,开始认认真真养一只属于你自己的超强数字员工了。这期视频讲的非常细了, 如果配置过程中有什么卡住的地方,或者你还没有装上额本库,直接私信我,你学会了吗?学会了赶紧去试试,我们下期见!点赞收藏、关注!

大家好,我是航灾,今天呢我准备给大家介绍一下在迈克迷你上如何来安装欧拉玛,欧拉玛就是最简单的尝试本地大模型的方法之一了啊, 有了欧拉玛呢,我们就可以创建一个本地的大模型,和他进行一些简单的聊天呢,或者是给其他程序啊提供一个免费的 api, 如果你的本地设备足够强大的话呢,你甚至可以给龙虾 open club 啊提供一个靠谱的大圆模型,不过这是一个未来的梦想啊,不知道大家有多少人的设备满足这个需求。 然后呢我们就来开始今天具体的内容。首先呢我们来看一下文档啊,在好用载当中,我们直接左侧这里啊就有一个五三零欧拉玛的安装和使用,我们点击一下, 然后我们点击网盘分享,然后我们继续向下啊,这个里面呢一共三个文件啊,其中呢一个是文档,一会我们说接下来的两个文件呢,是我给大家下载好的客户端啊,一个是 d m g, 也就是 max 上使用的,一个是 ex, 这个呢就是 windows 上使用的啊。然后呢我们来看一下文档, 文档当中呢一共有三部分内容啊,第一部分呢就是欧拉玛的官网,第二部分呢是我们一些具体要使用的内容,第三个呢就是我好用在的官网,大家爱学学用就可以了。然后呢我们先说一下欧拉玛的官网,欧拉玛的官网呢,一共有两个啊,一个呢是它真正的官网,另外一个呢是它 github 的 官网, 我们可以一起来看一下啊,至于命令呢,一会用到的时候一起说,这里呢就是欧拉玛的 github 官网,如果需要什么内容呢,可以直接到 release 这里面来下载啊, 不过我们一般呢直接使用欧拉玛点 com 这个官网就足够了。这个官网当中呢,右上角这里就是登录的,也就是下载点击一下 这个里面呢就可以选择是 mac os 或者是 windows, 然后点击下面的登录的,就可以下载你对应系统的客户端了。我这里呢给大家演示一下 mac 系统当中客户端如何来使用啊。在 mac 系统当中,我们直接双击这个欧拉玛,点 app 直接投入到这个应用文件夹里面就可以了。 好的,这样就可以了啊,接下来呢,我们在应用程序当中找到欧拉玛,然后进行点击,这里就是欧拉玛啊,我们双击 第一次运行的时候呢,它会提醒你一下啊,是从互联网下载的,问你是否要打开,我们直接选择打开,现在呢我们就已经进入到了欧拉玛的主界面啊, 然后呢我给大家说一下它的初步设置和使用。首先呢我们先来设置一下啊,因为只有一步设置非常简单,我们直接上滑啊到最上面的菜单栏,然后呢点击一下欧拉玛这个图标,这是一个小羊驼嘛,然后点击 setting, 也就是设置 这个里面呢,只有一项啊,需要打开,也就是说把欧拉玛暴露到局网,这样的话局网其他设备才能够正常的访问欧拉玛, 比如说你的 windows 系统啊,你的丽江系统啊,如果你想使用这台设备的欧拉玛开通的服务,那么你要把后面那个开关啊,直接点击打开一下,下方刚才也看到了出了一个 c 五,这样呢就已经成功了啊,然后还有一个我们再说一下啊,底部这里还有一个上下文长度,默认呢是四 k, 比如龙虾 open 可乐啊,他就要求一定要十六 k 起步,所以说如果你之后有其他程序需要更大的上下文,你需要在这里呢进行一下调节,只有这么两个选项啊,需要说一下,别的呢就没有了。然后我们把这里啊直接关闭一下, 在接下来使用呢也非常简单啊,在这里你可以选择具体的模型,比如说我们点击一下啊,默认的是这个 g m 三啊, 我们可以不用,我们可以向下选择,比如说啊,我们这里选择一个千万三四币,我们点击一下,然后这里呢你随便打一个字,比如说这里呢打一个你好,然后一回车,如果没有这个模型的话,它就会自动进行下载了,我们稍微等待一下,等待它下载完毕就可以了, 大家可以看到现在这个模型呢就已经下载完毕啊,同时呢他也给出了答复,接下来呢你就可以直接跟你的本地大模型进行对话了,比如说呢,这里我们可以问他啊,你都有什么功能,然后直接回测一下, 因为它是一个思考大模型嘛,它首先呢会进行思考,在思考之后呢才会给你形成一个输出的答案啊,我们还是要稍等一下, 现在呢他就开始进行正式的输出了啊,我们还是要继续等一下。好的,现在呢就已经输出完毕了,这个呢就是你跟本地大模型的一个交流过程啊, 所以说总体使用上啊还是很简单的,接下来呢我再给大家演示一下,你现在已经搭建好了,但是其他的程序如何来使用呢?我们这里呢就以 cherry studio 啊来给大家做一下演示。我们打开 cherry studio 以后呢,这里就有欧拉玛,我们点击欧拉玛之后啊, 我给大家简单的说一下如何来设置啊。首先呢你要填写一下 api 地址,这个 api 地址呢就是你的欧拉玛运行的设备,我这个设备的地址呢就是三幺点二二二,后面的部分呢不要变啊,后面是端口号,再加上一个路径杠为一, 这个呢就是它的一个完整地址,我在文档当中呢也有写。再接下来呢我们就可以添加一个大模型,选择添加,然后呢这里要求你输入模型 id, 我 们看一下这个模型 id 是 多少啊?模型 id 呢就是千问三冒号四 b, 然后我们这里手动输入一下啊,千问三冒号四 b, 然后我们点击添加模型,再接下来呢我们选择检测来看一下效果啊,点击,然后这里默认呢就是千问三冒号四 b 啊,我们点击确定 可以看到连接成功,也就说到这里呢,我们的 cherry studio 啊,已经可以使用我们本地大模型了啊,比如说我们点击这个助手, 然后在最上面这里啊,我们选择一下,这个呢就是我们自己本地的欧拉妈妈,然后就是纤维三四 b, 我 们选择一下,在接下来呢,你就在这里输入聊天信息就可以了,比如说这里啊,你同样输入你好,然后回车可以看到它,同样呢是正常的调用了这个本地大模型, 还是开始思考,然后给你答复,没有什么区别啊,跟刚才我们直接使用欧拉玛本身的客户端呢,效果差不多。好的,这里呢开始答复了,可以看到这个思考模型啊,耗时非常多,二十四点三秒, 到这里呢我们就已经知道如何来安装和使用欧拉玛,同时呢如何和其他的软件来进行对接。整体的使用呢,其实是非常简单的,不过我们如果使用这个存储页面的话啊,它的功能呢还是比较少,但是如果我们使用命令行的话,能管理的内容,同时呢也可以看到更多详细的信息啊, 所以我还是推荐大家学习一些基本的命令行命令啊,这样使用起来呢会更方便。然后呢我们就来看一下啊,命令行都有哪些命令?我这里呢给大家列出了几个常用的命令啊, 前面呢都是奥拉玛这个开头,然后后面第二个呢就是具体的参数,比如说第一个奥拉玛历史,就是列出目前所有已经下载的大模型。第二个呢库就是我们要去拉取某一个大模型啊, 第三个 run 呢就是我们要运行这个大模型,所以说大家如果看头三条命令,如果你之前用刀刃用的比较多的话,你会发现啊,这个命令呢除了前面变成了欧拉玛以外,剩下的部分呢基本都是一样的啊,整体呢还是很好记的。 然后这里呢多加了一个这个沃 boss, 它就可以看更详细的内容,一会呢我给大家演示一下啊。最后呢这有一个 r m, 也就是删除,前面呢我们要说一下如何来进行删除, 然后呢前面我们进行的 run, 也就是运行,后面这里呢我们说了一下如何退出啊,接下来呢我就给大家一点一点的演示一下啊, 首先呢我们这里打开一个终端啊,接下来呢我们就可以一条一条的运行命令了,比如说啊,首先我们看一下欧拉玛 list, 我 们直接复制,然后呢在这里右键粘贴,然后回车 可以看到现在这里面呢我们就有了一个大模型,就是我们刚才下载的千万三四 b, 所以 说如果你使用终端的话啊,你刚才跟别的软件进行对接呢,你都不用手敲这个模型了啊,因为有一些模型啊,它的名称还是比较长的,所以说你直接可以复制一下,直接滑动一下啊,然后就直接复制了,或者是你再右键一下都可以啊,它就直接复制了, 然后到你的软件当中直接粘贴就可以了,这样用起来呢比较方便。这个呢就是历史的作用啊,就可以看到你现在里面有多少个大模型了。然后第二个呢就是铺,它就是用来拉取大模型的,具体拉取的大模型名称呢,就是后面这个啊,但这个名称怎么来的呢?我给大家说一下, 我们打开欧拉玛的官网,然后第二个啊就是 models, 这个就是模型啊,我们点击一下,现在呢我们就来到了模型这个页面,里面呢,就列出了目前所有热度比较高的模型啊,当然你也可以在上面进行搜索,比如说那你直接搜索千问, 可以看到千万所有的模型呢就都列出来了啊,比如说我们选择一下这个千万三点五啊,我们点击一下,然后这里就写了啊,欧拉玛瑙,然后千万三点五,你直接复制,然后在终端中粘贴就可以了。当然啊,如果我们想要别的模型的话,也可以, 因为这里我们向下滑动一下就可以看到啊。如果你刚才直接选择欧拉玛瑙切问三点五默认的呢,它就拉取的是这个九 b 的 模型,因为这个呢是 latest 的, 如果你后面不加这个模型大小的话,默认拉取的就是这个啊。我这里呢给大家说一下我使用的 mac mini 它的使用情况。 mac mini 呢,最多是能跑到十四 b 的 模型,大概跑到十抽根左右吧。十四 b 以下的模型呢,一般都可以跑九 b 呢,是一个相对比较适合的模型。不过如果你跑 open cola 那 种需要十六 k 上下文的,你就跑不了九 b 了,就只能跑四 b 啊,因为上下文呢,同时要消耗一部分内存, 所以说这种最适合的九 b 呢,如果再加上十六 k 的 上下文,它所需要的内存呢就比较大了。我曾经直接把麦克迷你啊直接给跑死机了,它自动重启了啊,在我之前使用麦克迷你的时候,我几乎就没有听到过它的风扇的转动啊, 但是自从我测试 ai 开始啊,麦克迷你风扇呢就会经常听到了,也就是说 ai 啊,对于它的性能压榨呢,还是很严重的。 所以说,如果你需要一个大的上下文,你就只能跑到三点五四 b 了。如果你只使用默认的四 k 上下文,那么你是可以使用到九 b 的 啊,当然如果你不需要很大的上下文,同时你也能够忍受速度的话,你其实呢是可以跑到十四 b 的, 比如说前面有那个 coder 十四 b 嘛,可以跑一下,没问题的, 我们这里呢就以切问三点五四 b 为例啊,给大家看一下,我们直接点击一下后面的复制,然后呢我们回到终端里面来啊,我们直接输入欧拉玛,然后铺,然后直接右键粘贴,然后直接会撤, 稍微等一下呢,他就可以直接去下载了啊,而且这个和刀客一样,刀客我们也可以先铺,然后再 run, 但是如果我们直接 run 的 话,刀客里面如果这个镜像没有,他会先去下载,然后就直接运行了 欧拉玛。同样啊,你可以直接运行欧拉玛 run, 这样的话,如果里面没有这个模型的话,他就会直接先去下载,然后呢就会自动运行了啊,我们稍微等一下可以看到啊,你用命令行下载的话,速度是要比刚才用的那个客户端啊下载速度要快的多,所以说我建议大家啊,尽量呢是用命令行来下载。 好的,这里呢就下载完毕了啊,我们稍微等一下,这个速度是要比刚才的客户端要下载快非常多啊,然后这里我们就可以执行下一条命令啊,就是欧拉玛瑙了,我们直接到这里面来啊,直接复制一下欧拉玛瑙,然后同样啊这个模型的名称,切问三点五四 b 邮件粘贴,然后回车 出现这个符号呢,我们同样啊可以开始跟他正常的对话了,比如说这里同样啊,我们输入你好回车, 同样呢这里又开始正常的输出了啊,没有什么区别,但是这次的速度呢,可以看到啊,快很多。然后如果我们想退出的话啊,就是底部,这里就是给大家说了, 你可以用两种方式来退出,一种呢是 ctrl 加 d, 一 种呢是杠 e x i t, 我 们这里输入一下啊,杠 e x i t, 然后回车,现在呢我们就重新回到命令行终端了,这是第一种方式啊,然后我再给大家说一下啊,你后面加上这个沃 boss 有 什么区别啊?这个是详细的意思,我们直接把这条命令再一起复制一下, 实际上就是在刚才的欧拉玛 run 后面啊,多加了一个参数而已。我们同样啊右键粘贴,然后回车,然后这里呢我多说一句,你都能做什么?然后回车, 这里呢它就开始正常输出了,然后我们稍微等一下啊,可以看到啊,上面就是它的思考过程,下面这里呢就是它具体的输出过程啊,整体的速度呢还是比较快的, 如果你加了 woobos, 在 最后这里呢就可以给你一个整体的输出啊,第一行呢就是它总共的消耗的时间,一共呢花了三十九秒, 然后呢这里有一个加载的时间,也就是把模型加载到内存里面去啊,一共呢是一百一十七毫秒,在下方呢这是一个提示词的数量,也就是刚才我给他发的提示词啊,当然一般里面还包括一些系统提示词,所以说呢,它一共是十三个桃痕啊。 再接下来呢这些提示词的处理,一共花了二百六十五毫秒,再接下来呢,提示词的处理速度是四十九 tock, 接下来呢,就是输出的部分了啊,输出的部分呢,一共输出了六百四十八 tock, 花了三十八秒,相当于呢,每秒是十六点七七的 tock, 大家经常关注的呢,其实是最后这个啊,也就是每秒能输出多少 tock。 所以 说,如果你习惯之后呢命令行的话,你就能看到很多更加详细的信息,而且你习惯之后呢命令行和图形界面那个差距并不大。 而且最主要的是啊,如果我们一般使用本地大模型的话,一般也不会用它这个客户端也不会用这个命令行啊,因为都是我们要通过其他的程序来进行调用。这部分呢,主要是用来检查一些信息啊,比如说某一个大模型,它是否速度足够快啊, 这一次呢,我们直接摁 ctrl 加 d 啊,同样也是直接退出了。有的同学可能会问,你为什么用 mac 来演示,你为什么不用 windows 来演示呢? 就是因为我 mac 这个核显啊,本身还算是可以跑,大模型呢,还是能跑的动的啊。如果我用 windows 的 核显来跑的话,我那个是十一代的 a u c, 它的核显啊,也就只能跑动二 b 的 模型,而且速度呢,还挺慢啊。 所以说,如果你还想用 n s 来跑的话,如果你没有一个好的显卡的话呢,那个速度啊,就会更慢了。如果大模型太小的话,智商实在是太低,我觉得四 b 啊已经是底线了。 再向下我觉得只能在手机上回答一些简单的问题,还可以,在电脑上呢,已经不适合了,欧拉玛呢是一个入门的好程序,但是它并不是 mac 上使用最好的一个程序啊。后面呢,我还会给大家介绍其他的程序,如果你对这方面内容比较感兴趣的话啊,可以持续关注 上面这里呢,也已经把所有的命令都介绍完了。最后这里呢,就是刚才给大家提过的啊,你需要在其他程序上调用的时候需要写的地址,你只需要把里面的 ip 换成你自己设备的 ip 就 可以了。 好的,这就是本期视频的全部内容,如果你觉得这期视频对你有帮助的话,欢迎点赞评论转发,一键三连,当然也别忘了关注我们,下次见!

登录官方地址, win 加二,然后输入 power shell, 找到安装命令,复制粘贴进 power shell, 回车执行后开始等待。 放心, node 安装成功,开始配置。方向键选 yes, 选 quick start, 建议选择即将使用或者正在使用模型选择,跳过以后后续不会生成 api 文件,会复杂一点。 这里我用的 minimax, 我 选择一下,选择对应模型型号, 这里可以配置连接软件,后续也可以配置先跳过 用于搜索的模型选择,我这里跳过 是否安装技能,后续再安装。 建议选择 command logger, 方便查错 session memory 保持对话记忆。空格键选择回车确认。 最后一步选择 open library, 龙虾就安装完成了。 因为我没有前面输入 key, 所以 这里你可以直接告诉龙虾你的 key 进行配置。 等待龙虾自己配置一下, 龙虾表示已经配置完成, 整体安装结束,测试一下 搞定。

什么?你问我怎么拿下官网一折的 opencall api? 那 兄弟我不得不给你吹一波了,之前我斥资大几百用 opencall 做一个产品服务器,订阅一下 ai, 订阅一下 模型调用,还踏马要单独掏 api 的 米?东西还没做出来呢,一个月光工费就几百块打底了,那我可不乐意了啊,这波 api 价格和钱包存亡战,必须干到底! 我啪啪啪翻遍全网,踩了好几个黑中脚,被拉闸了无数次,最后还真让我找到一个企业级平台,不但价格基本上系官网的一角左右,关键廉价还稳定的一批。这时候我就纳闷了,凭什么比官网便宜这么多?别是缩水的吧?后来调研了一下,其实逻辑特别简单, 你自己去官网买 a p i, 那 是零售价,人家一分不要。但这种聚合平台是跟厂商大批量拿头,肯拿到的是企业批发价,所以非常便宜,而且用户主要是企业,所以稳定性有保证。最方便的还得是它把 g e d d cloud j m i 这些主流模型全整合到了一个接口里, 你不用给每个抢箱,单独注册账号,不用海外信用卡,不用退役网络一个屁全部搞定,用多少付多少!兄弟们,这波必须随我冲锋,看看效果,那省下来的米,它不香吗?

大家好,今天给大家演示一下菲林的泊泊的。嗯,配置方法。嗯,这个,嗯,菲林的泊泊安装挺简单,就是在应用中心中。嗯,点安装就行了。我这个已经提前安装好了,它这个安装的时候会提示安装两个插件先。嗯,然后再安装。 然后我这个菲林是刚装的系统,里面也没什么数据,用的是惠普那个 t 四三零的那个小主机,能用菲林装主要是因为这个安装门槛非常低。 嗯,咱们下面打开这个 windows, 然后,嗯,再打开外部页面,大家可以看见这很轻松的就打开了,不像像其他的那个安装方式,还需要配置一下才能打开这个。嗯,外部窗口,这都是飞牛都提前配置好的。嗯,我们来使用就可以了。 所以说安装的口很低嘛。这个飞牛的配置主要就两项,这个模型配置跟消息渠道。咱们先配置一下模型,咱们这是选择自定义, 然后这个选择模型名称,咱们可使用的是。呃,轨迹流动的那个服务,需要大家先注册一下。呃,这个有两千万的那个免费 token, 而且模型广场中就是目前的主流模型都有,大家可以随便选择使用,我们选择这个 mini max。 二点五来演示,复制一下它的名称,粘贴到这下面,这里是添加那个。嗯,轨迹流动的服务地址,咱们到这个轨迹流动这去复制一下, 然后回来,然后粘贴。嗯,然后再往下这个地方就是需要配置它的认证密钥,就是 api 密钥。嗯,咱们也复制一下,然后再返回来粘贴。 哎,怎么不能确定?哦,上面这块是啊,上面这块要点击添加,然后再点保存,这样模型就添加成功了。嗯,然后下面需要去配置一下。呃,消息渠道,这个需要等它刷新一下,它这个默认是已经安装了飞书, 我们这次是,呃安装一下微信,这里直接点装安装微信就可以,这里需要大约等个两三分钟吧。嗯,他安装好了,我们就,嗯添加一下,扫一个二维码就可以使用了。 这个安装微信,有的小伙伴们可能会呃提示安装错误,呃,安装好几遍都是提示错误,这个时候大家可以刷新一下状态,它有可能已经装上去了,但是吧,呃,你扫码进入微信之后,呃说话,嗯,这个 openclaw 没有反应, 这个时候大家需要去把那个,呃,嗯,就是微信中那个插件里有一行这个微信机器人的代码,复制给外边端的那个聊天窗口,让龙虾自己去安装一下。啊,这样你就可以在微信跟龙虾进行对话了, 然后提示安装完成。啊,我需要重启一下才能使用。嗯,咱们先点那个添加渠道,嗯,渠道类型选择微信,然后生成二维码, 然后拿手机来扫一下这二维码,然后添加一下那个微信机型就完成了。好,我打开。

今天给大家分享一个比较便宜的普通小白都能用的一个大模型。我们知道我们在学习 ai 或者使用 ai 的 过程中,就会发现 它是一个巨大的氪金的东西,因为会消耗大量的 token, 很多大模型靠这个 token 的 消耗令来盈利来赚钱。今天分享的这个呢,就是阿里云的一个最新的叫扣丁普兰的 这个头,跟他这个主题呢,说是量大环保,支持阿里云的千万的三点五,还有 mini max, 还有 嗯 g m m 等等各种模型,他是按照消耗的次数调用的,次数就每月呢大概有一万八千次的这个调用额度,每月的这个套餐费用是四十块钱,现在打折啊,现在二十块钱 对于普通小白是完全够用的,因为很多人反映这个 投币量很少,而且比较慢,如果你只是说我掌握一下 ai 的 基本应用,跑一下简单的流程,知道这个 ai 是 干嘛的, 我觉得是完全够用,它还支持这个龙虾,还有支持可乐扣的。另外一个呢,就是我们在调用这个 api 的 时候,一定要记得是扣丁普兰的 api, 不是 那个百炼的 api, 因为百炼的那个 api 呢,它是后付费的,你消耗多少投币就扣多少钱。 我上个月签约的时候,当时结果 api 填的是那个百炼的,他一天就给我花费了一百块钱,当时把我吓坏了。我觉得阿里云他这个售后比较好,因为是今天那个售后小哥给我打电话, 我把这个事情给他说了,他说你是调用错了 api 了,今天就把那个 api 给改过来了,我觉得这个是比较划算,因为一个月就二十块钱,大家可以试试。

哈喽,大家好,我是菲菲蓉蓉,今天我们来推荐一个大模型 a p i 的 网站,也就是 open router, 在 这个网站中呢,可以通过一个 a p i 使用任何大模型, 包括像谷歌的 jimmy g b t 的, 包括像阿里的千文,还有这小米的 mimo, 都可以在这里面去使用哈,这个网站呢还是一个比相对来说比较权威的模型网站,它还能去和一些其他模型进行对比,比如说我们可以点击这个 explore models, 只要在右边 登录之后呢,你就可以看到这里了,因为我们这个网站它是可以用这个邮箱,中文邮箱也是我们 qq 邮箱之类的登录的哈。我们可以点进任何的一个大模型,比如说我们看下小米星巴这个模型,我们可以看这里面啊,可以看到它一个和其他模型的一个对比啊,还有它相对应的这款的一个价格 啊,你甚至还能在这里看到一个相应的评分啊。你看它这个 agent index 比较高,但它 coding index 就 比较低,说明它在代码的制作上可能稍微的没有那么强,是吧?可以再看一下一个随便的比,比如说我们看下这个 mini max, 那 我们再看一下它这边,哎,这个数据相对比较多啊,用的人可能比较多一点,它这个价格也差不多,感觉整体来说比较平均啊,这个效果 agent tick 它就可能更好一点,我们还能在这里看到一些公共的一些公共应用啊,用使用它的这个行的这个数量啊,在这个我们也可以给它直接翻译一下当前页面是可以的哈,可以呢,可以看到它这个东西是很多的,我们要是想用它 a p i 呢,很简单啊,点击这个 quickstar, 点击创建 a p i 密钥就可以了。创建之后呢,我们需要先登录一下啊,登录完成了我们再看,进入这后台页面就可以了啊,登录完成之后,我们再点击 create a p i k 就 可以这里在我们的后台里找到 quit 了。然后我们这个关于这个东西都写上之后呢,就可以用复制这个 a p i 到我们的任何需要的地方了, 所有模型都是这样,当然它不只是这个文本的模型,它还有很多的一些别的,比如说这个视频,我们可以先把它来勾选看一下视频的模型,直接的 c 的 二点零 light 啊,像素三点五九 b, 还有像这个图片大模型,比如说这个谷歌的 banana banana two, 那 这些都是可以去使用的哈。推荐一个无形 a p i 寻找的网站吧,国内可以直连哈,相对网速还是可以的哈。

欢迎收看我是大叔,只跟你聊最实在、最有用、最有意思的内容。 好,我看了很多博主,要么让你装个 skill, 要么丢给你官方配置文档就完事。根本没人讲清楚 opencloud 到底怎么才能真正上网。 所以这一今天咱们一次性把 ai 联网的正确用法掰开揉碎讲明白。而这个秘密武器就是 github 上十四 k 新星的开源项目 agent reach。 一个脚手架工具,却能让 ai agent 瞬间开眼。好,咱们先来直面一个扎心的事实, 你天天用的 ai, 其实是个呃互联网瞎子,百分之七十三的 ai 任务因为无法访问 而失败,百分之八十九的开发者因为 a p i 限流或高额费用直接放弃集成。 更离谱的是用官方啊, a p i 的 成本比免费工具高出二点四倍。比如你想让 open cloud 帮你监测禁屏,一条推文就用,就要零点零零五美元,月月账单能到六百刀,结果还经常中断。这就是典型的配置地域 ai。 还没干活,钱包先空了,那怎么办?就新来了 agent rich, 它不是个新框架,而是一个脚手架,专门帮你把所有选型和配置的脏活类活全干了。 你只需要说一句话,它就能让 opencloud 主要只有十五个以上的平台,包括推特、 reddit、 youtube、 赞、小红书、抖音,而且全部免费。它的核心理念就是把呃怎么上网 这种破事变成异形命令,这才是 ai 联网的正确打开方式。那么它到底是怎么做到的?咱们来解剖一下它的核心技术通道机制。每个平台背后都是一个独立的上游工具, 比如推特用 bird, youtube 用用 atelp, 小 红书用 macbook air, 这些工具全都是开源的,不满意也随时可以换掉。 安装完之后, agent 会自动获得一张使用说明书, a skill dot md, 以后你再说帮我搜推特,他自己就知道该掉 bird。 你 甚至不用记命令, 运行一下 agent tree doctor, 所有渠道状态一目了然,比体检报告还清楚。再来看看它到底覆盖了多少平台?根据官方文档,目前有十七个平台, 几斗格,装好即用。 a 网页、 youtube r s s reddit get up 公开仓库部占本地地微信公众号、微博、 twitter x 这些连配置都不用,装上就能跑。另外八个平台需要简单配置一下,比如全网搜索、推特 b 站服务器,小红书、抖音、 linkedin、 雪球、小宇宙播客。但关键是,所有平台都不需要你掏一分钱 api 费, cookie 存在本地隐身 全上游工具全是免费开源,这就相当于给你的 open cloud 配了个额万能通行证,全网任它玩。好, 那我们直接上手,三步就能给你的 openclaw 装上额脸。往外挂。第一步,给个 openclaw 开启 exact 权限, 因为 agent reach 需要 agent 执行命令,你只需要在终端敲一句 openclaw config set two star profile coding, 然后重启网关。第二步,直接告诉你的 openclaw 帮我安装 agent reach 链接给你, 就这一句话,它会自动下载安装,依赖配置环境验证一下,跑个 agent trace to doctor, 看到所有渠道都绿了,恭喜你,连往外挂就装好了,那效果到底怎么样?咱们来验证一下。你看, 这是微信聊天风格的对话记录,左边是 agent 的 回复,右边是我们用户的提问,用户说帮我收推特上 ai agent 最新评价, agent 自动调用 bird 返回二十三条推文,用户让总结 youtube 视频, 它自动用 a、 t、 d、 l、 p 提取字幕,再让大模型总结,效果对比也很惊人,主模型成功率从百分之四四飙到百分之九十二,回退命中率百分之九十八,延迟降低百分之六十四, 因为再也不用排队等那些付费 api 了。如果你想深入了解,官方 github 仓库有十四 k 信信文档清晰一键安装命令全公开,大叔大在 也经常分享实战技巧,而且它兼容 cloud、 酷、克酷、路由等所有主流 ai 编码工具,真正的一次配置到处可用。 最后咱们总结一下,三步,三步就能让你的 open cloud 强势被,第一,开启 coding 权限。第二,告诉 ai 安装 agent reach。 第三,开始全网冲浪,搜推特,读小红书,看字幕全都不在话下, 从此 ai 不 再是瞎子, a 预算也省到爆。如果你觉得这期内容有帮助,别忘了点赞加关注,大叔大,感谢你的观看,我们下期再见!

淘宝如何接入 openclo? 第一步,根据你的系统版本下载淘宝桌面版,登录上你的淘宝,点击设置,点击 ai 设置,启动 mcp 服务。那么 openclo 接入淘宝之后可以做点什么? 模拟,点击淘宝输入内容,也就是说我们可以让 openclo 去找到你想要的商品,自动对比,找到最优的价格,甚至可以自动领取优惠券。最后 将选中的产品加入购物车,并且可以根据你的历史订单,浏览记录,我的收藏等等做统计报表,你的年度报表,月度报表,做一些记账服务或历史价格对比等等等等。并且 可以允许 ai 代理操作旺旺聊天,也就是说可以替代客服,或者让 ai 去跟客服聊天。开启 ai 与旺旺聊天, 可以查看收货信息,物流信息,订单信息,旺旺聊天记录等等等等。下一步,点击授权检测 ai 应用,如果检测到你本机有安装 klo 相关的应用,那么淘宝将会一键安装,不需要你自己配置。那么部署在虚拟机的怎么办?只需要一行命令,把你宿主机的 ip 发给你的 open klo, 它会自己添加 m c p 服务器。我让他搜索一下前三的洗面奶,我们看看到他现在已经开始查看评价了, 自己滚动查看评论区,然后我们看这边他已经在自己访问第三个商品了。好总结内容已经出来了, 更多玩法,大家快装上自己探索探索吧!

新手想玩 openclo, 到底选哪个平台的小龙虾最合适?怕买贵又担心不会安装?今天一分钟就给你讲明白,记得先收藏起来。先给纯小白科普一下, openclo 本身是免费的,咱们花钱呀买的其实是平台的一个服务器,还有模型的使用权, 不用自己折腾本地部署和对接 a p i 那 重点来了,六家主流平台对比,我将从收费模式、价格、安装难度等维度来帮你筛选出最合适你的 openclo。 首先是腾讯云和阿里云的 openclo, 它们采用的是服务器加模型收费的模式,优点是便宜,这里推荐阿里云的 openclo, 只需要十八块钱就能够拥有一只自己的小龙虾,但缺点是需要折腾两次付费流程。而且考虑到很多人连服务器是什么都没有搞明白,非技术人员呢,就可以直接 pass 掉这两种了。直接看下面四种就好了。 kimi clo 先排除, 因为它太贵了,且不说功能和其他几家相比起来大差不差,光订个会员就需要一百九十九块钱,直接就是一个劝退了。从价格上来讲,我更推荐火山引擎,它有九块九体验七天的一个套餐,别看时间只有七天,我 敢打赌百分之九十的人呢,在装了 oppo nano 不 到七天就会放弃了,如果是想尝鲜的话,这是一个不错的选择。最后是扣子跟 mini max, 也是我最推荐的两个, 质量其实差不多,一个四十九块钱,一个三十九块钱, mini max 会更便宜一些,但扣子的生态更完善。这里有很多大神已经做好的 skill 呢,可以给 openclaw 来调用,大家可以根据自己的需要来进行选择。这六个主流平台的 openclaw 安装指南,我也整理了一份完整的文档,点个关注轻松获得。

哈哈哈,我不要做什么救世主,我要赚钱,五千块钱官方头啃,你们还嫌贵?那干脆别用了。还有你们跟我讲话,能不能把手上东西放下,我都看不清谁是谁。人 聚又人 散, 这个模型在中国会有很大的市场,因为有很多的用户需要这个 token 来挽救工作,工作就是钱, 最近这个便宜 token 居然在上海出现了,而且已经开始泛滥,总公司对这个事情非常重视,像你讲卖最多傍晚肯定被封, 但会有其他人卖,而且更 贵,你说的是人话吗? 可是好多人连便宜的都用不起,你不知道吗?我谢谢你,祝你公司越做越大。我想那么多人吗?我少有老下小,我要去破产了,他能咋办? 我不想被 a a 淘汰,我只想一份稳定工作。不平吗? 我不让他卖兔啃, 饿着没饭吃,我不想饿死,我想活着。 怎么搞成这样了呀?因为没有兔啃啊,就这样了, 从下周开始我会重新卖兔啃,但是我只能保证以前的用户有 你这次要卖多少钱? 五哥,你帮了大家那么多,也该难到我了, 他才二十岁,他竟然养家糊口,他有何罪? 我不是 token 贩子,我只想人人都用得起。 open claw。

用这个 oppo 可乐,我是真的用的快没招了啊,用的我真的快吐血了。我靠,我折腾了快一个多月啊,现在其实就连一些最简单的功能他都没法实现。我,真的,你网上还有些人说靠他赚钱的,我现在就是让他给我做个表格,他都做不了。 举个例子吧,你看就是你看我给他发图片,这是我们顾客前面备注的名字,后面是添加的日期,我把图片扔给他,我说就是你做一个表格,你把添加日期改成我后面备注的日期,你看 我添加日期顶多三月二三月十八号,我不知道为什么他会添加日期,他会写成三月十九,三月二十。我觉得他这个图片识别功能有点问题吧, 你怎么叫他改,怎么叫他调,他都调不了。我说你这不乱写了,他就是一直跟你对不起,他跟你道歉 啊,然后就一直跟你说他补好了补好了,然后你点进去,他始终还是这个样子,一点反应没有。卧槽,我这真的被他折腾没招了。 我用的是那个机迷,你官方的 a p i, 我 用的是三点一,三点一 f。 那 学,我现在就准备去开一个 gbt 的 polo 那 个订阅账号,然后到时候用账号授权登录,然后切五点四 polo 大 模型,我来看一下那个能不能帮我做个表格登记的工作啊?卧槽,真的是我被折腾吐血了。我靠。

兄弟们,紧急突发,如果你以为花两百美元就能无限制调用 cloud ai 算力,那我明确告诉你,今天凌晨两点,全球百万开发者刚被 sriabic 上了一堂价值五千美元的硬核商业课,没有预警,也没有协商,直接断供。 北京时间今天凌晨三点,也就是美国东部时间四月四日下午三点, ai 巨头 astromech 突然就发布官方公告,态度抢硬所有 cloud 的 订阅套餐,全面禁止 opencloud 等第三方工具。更狠的是,只给用户二十四小时的缓冲期, 要么接受天价的 api 费用,要么就是忍痛重构整个业务逻辑。无数中小团队的 ai 预算,一夜之间从暗月锁定变成了随时爆单,直接陷入了被动。 肯定有人可能要骂啊, s robert 也太小气了,真不是人家小气,咱算笔实打实的账。根据太媒体的深度调查,一个二百美元 cloud max 订阅,通过 open cloud 这种七乘二十小时 不间断高强度调用的工具,实际上它消耗的算力价值足足高的五千美元。这就好比你去住自助餐厅吃饭,结果有人推门进去,直接把你的锅端走了, 这换谁当老板,那都得着急啊。是不是核心原因其实很简单,现在全球的 gpu ai 算力其实极其紧张, sloan 允许用户以固定低价去无限制调用等额的高额算力,本质上就是在补贴对手的生态。而且 cloud 的 自身的 code 还有 dispatch 这些功能已经很成熟了,这笔战略投资其实早就没有继续的必要了。 更关键的是, openclo 在 用户和模型之间加了一个中间层,让 astrobic 彻底地失去用户入口的控制权。在 ai 智能体时代,入口就是命脉,巨头的话怎么可能拱手让人? 而且这也不是个例, google 二月份就已经封禁了 openclaw 的 访问, jimmy ultra mate 内部其实也早已禁用 openclaw。 不 过大家别慌,咱们开发者最擅长的就是解决问题。我总结了三条方法, 照着做至少能降低百分之六十的成本和风险。赶紧记好,一多模型混用,不要把鸡蛋放在一个篮子里。日常普通任务用 gpd 五点四,成本低还够用。专业内容处理用 jimmy pro, 免费,额度大,性价比拉满。 只有复杂场景再用 cloud, 百分之八十的日常任务不用顶级模型,成本直接降到百分之六十以下。 第二,咱们部署本地大模型去兜底,你可以用奥拉玛搭配零码的三点二七 b 的 参数,普通的电脑就能去调用。还有千万的二点五十四 b 的 参数。中英混合优化,特别适合中文场景 编程专用就选 deepsea 的 code, 文本分类,像格式整理,还有简单问答,这些轻量任务一分钱不花就能搞定。 第三,咱们可以参与开源生态,与其被动接受规则,不如主动共建。多给 oppo cola 设计提一手,提一 pr, 然后参与 mcb 的 标准化讨论,甚至可以开发自己的跨平台 a 境的抽象层,掌握主动权。 最后提醒大家, ai 技术的真正价值其实从来不是巨头的垄断工具,而是每个开发者手中的创造力杠杆。 记住这句话,在 ai 时代,要么掌握规则,要么被规则掌握。评论区聊聊你和你的团队有没有遇到类似的平台限制,后来是怎么解决的?分享下你们的经验,帮助更多的开发者避坑。我是可乐,咱们下期见。

家人们,这个 a p p 中转太牛逼了,看我今天消耗了八千万,但是实际上只花了五块钱不到,就直接到达官方的一折。然后包括看它的 card code, 它可以演一个 key, 使用任何模型。比如说我现在切完模型可以选择 oppo s sony color default, 包括 gpt 啊 gmail 我 都可以使用。我靠,这个真的是方便,而且非常稳定,三月的时候 cloud 官方都吃湿了,结果这家店完全没有任何情况。牛逼。

如何本地部署 openclog? 无需付费,无需 api, 可调用多种大模型,适合想尝试但是分币不花的同学。今天嘴对嘴教会你,记得一键三连鼓励一下。第一步,环境准备,我们先来安装 get, 点击电脑开始菜单,这边输入 powershell, 然后右击以管理员身份打开,输入上面这一段代码,注意空格,然后按下确认键,等待安装即可。这边已经提示我们安装成功了。第二步,安装 elama, 进入欧拉玛官网,点击右上角的下载,这边有三个系统版本可供选择,大家根据自己的系统自行选择,然后复制上面这段代码,打开之前的 power shell, 把刚才的这段话复制进去,等待下载安装 已经提示安装成功了,我们点击开始菜单,找到刚才安装的欧拉玛,打开欧莱曼以后,我们发现这边有很多模型可供选择,我们也可以自行选择模型,比如我选择最近刚发布的千问三点五模型。第三步,安装模型, 大家根据自己的配置找到合适的参数进行下载,复制上面这一段代码,然后点击开始菜单,输入 cmd, 把刚才复制的代码复制进去,等待下载安装即可。 由于模型比较大,大家需要耐心等待,我这边直接跳过了,我们显示已经安装成功了,我这边输入你是谁,他会跳出思考过程,然后说我是通一千问系列最新的模型。接下来我们回到奥拉玛,点击左上角的设置菜单,打开 expose alama to the network 这个选项, 然后往下拉,找到 context list 这个选项,把上下文长度设置六十四 k 到一百二十八 k 之间,如果你显存高,可以调高。第四步,安装 openclaw, 我们进入 openclaw 官网复制上面这段代码,记得不要看错了,它有 mac os 版本的。然后重新打开 powershell, 把刚才复制的代码复制进去,跟之前一样等待安装即可。这边显示已经安装,我们点击允许我们输入 alama launch openclaw, 然后点击确认键。 接下来可以通过 tab 键来选择你想要的模型,因为之前我们下载了快三点五模型,所以我们直接选择这个。安装好以后,我们复制上面这个链接到浏览器打开即可。 看到这里就恭喜你成功安装了 openclaw, 下一期我会教大家如何链接 qq, 实现全自动工作,小伙伴们别忘记点波关注哦,咱们下期再见!

手把手带你安装 opencode 龙虾必备的 skills 上期我们安装了 opencode, 并配置了免费的大模型,但装完之后你会发现它其实还是一只裸龙虾,所以这个视频带你正确配置龙虾补气必备技能, 让它真正从能聊天进化成能干活。第一名, skill v 者安全守门员装任何插件前先把它装上,它的作用就是给你的新插件做安检。装陌生 skill 前自动扫描有没有读取 api 密钥、访问本地文件这类危险行为。 安装方式也特别简单。首先复制 skill vater 的 qhub 页面,复制链接来到 opencard 的 聊天页面,告诉 opencard 安装这个技能包,并把链接发给 opencard, 这里需要等待一小会就安装成功了。我们告诉 opencard 以后安装技能 包都要通过安全检测才能安装,可以看到 opencard 的 已经学会了这个技能。第二名, fan skill 搜索神器 以前找个插件还得去翻仓库,太麻烦了。有了它你直接打字说,我想找个能抓网页的 skill, 他 自己就去翻库了,找到还会告诉你怎么装,主打一个动口不动手。 同样来到 qwerp 中,复制 find skills 的 链接,在聊天页面告诉 open qwerp 安装该技能包,这里可以看到 open qwerp 回复我们,这个技能包已通过安全审查工具,再稍等片刻就安装完成啦。 第三名, memory set up 记忆大王,没装它之前,小龙虾是鱼的记忆,聊完就忘装了它,你的使用习惯、偏好它都能记住。 下次聊天不用重复自己的背景信息, ai 才会越用越懂你。安装方式跟前面的一样,这里就不掩饰了。 第四名, selfing 自我净化这玩意特有意思,你用着用着,如果纠正了它一个错误, 它会自己记小本本上,下次同样的问题就不会再犯。简单说,这是一个能用时间换智商的神器。第五名, summarize 全能总结扔给它一个 b 站链接,一篇公众号长文,或者一个几百页的 pdf, 它几秒钟就能给你突出核心。摘咬现在信息爆炸,省点阅读时间,多刷会视频不好吗?以上神级 skill 都能在 github 或 cloudhub 找到并下载,赶紧去安排。

点击对话框,和小龙虾直接沟通,无需再启动浏览器界面。点击模型界面,可快速更换 ai 模型供应商。 点击 a t 的 界面,可快速创建多个整体替您干活。点击频道界面,连接扫码,可快速部署 openclock 到您的微某信。 点击技能页面,搜索您需要的技能。点击 style, 就 能快速一键安装您所需要的技能。 点击定时任务,点击创建任务,就能快速创建您所需要的定时任务。