粉丝1195获赞8617

接上条视频,很多兄弟说我的这个 open crop ctrl 没有配置模型,然后我发现腾讯的这个 q crop, 它是已经帮你配置好模型的。

呃,这是二点零的,稍微测试一下,刚是稳定版了,调了几个。 嗯,我们现在,嗯,在这里。这用的是二比模型啊,我们看下它的效果。我们用 gpu, 这里是 gpu, 这会快一点, 然后待会看怎么看呢?打开我们这个任务管理器,尽量是看 gpu 吧, 我们来测试一下,你看这是本地模型,用的是本地模型,就是这个 u 盘里面的。啊,这个 u 盘在这里,我们看一个必说。北京今天天气吧。 呃,新闻嘛, 你看这个 gpu 就 下来了,对吧?他在跑, 然后这是他今天的北京的新闻,对不对啊? 这是不要钱的 ab 模型,还可以。

大的来了,观众老爷们,就在昨天,智普和阿里新发布了 g l n minus five v minus turbo 和千万三点六减 plus 的 模型, 而且这两款模型已经接入了龙虾。今天我们来看一下这两个新模型对于我们养虾和日常生活,哪一个模型更适合我们平时用。另外还有前几天发布的千万三点五波迷你, 不过沃米尼分成了 pos、 八蛇外三个版本,并且侧重的是音频读曲方面。因此我们把重点 gm 五非题和千问三点六减 pos 上先来看看龙虾对于新模型的评价,得到的结论是两者各有千秋, 千万能处理一百万词源,上下文大概是六十五万汉字,并且编程能力是最强的,而 gln 重点优化了视觉的编程能力,能承接的上下文内容在二十万词源,也就是十三万汉字。接下来我就对此进行一下测评,先测试上下文承接能力,这里我挑选了一本名著唐吉赫德 全书七十五万字,换算过来大概是一百一十五万词源。我打算直接把这本书喂给龙虾,让他读完之后只能根据读到的内容来回答我的问题。 结果没想到的是,基雅兰在这一环节出师未劫身先死,可能是因为六十五万字已经远远超出了他的极限,导致 api 速度被限折,于是我直接用千万来测试,结果千万分两次读完了这本书, 中途在一百万词源达到极限时歇逼了一次,但好在还是成功读完,并且读取速度还挺快,在后续的问答上也对答如流。现在我的龙虾已经完全了解这个军令中二界顶点的男人, 现在到了 g l m 擅长的图像编程环节,我挑选了一张普通难度和一张困难难度的图片,分别让千万和 g l m 生成对应代码。千万在处理普通难度的图片时也毫无压力,直接完成了, 可在处理高难度的图片时直接崩掉, 而之后 glm 却完成了高难图片的任务,看来还真是专注优化了视觉编程,最后再根据词源的消耗来综合评价一下。我个人感觉是千问更适合我们平常使用, 因为 glm 的 视觉整合能力我们平时很少用的上。当然,如果是需要用上视觉编程的工作者,那 glm 肯定是比千万更强的,而千万的编程能力已经足够普通人使用,并且纯文本能力明显要强于 glm。 当然最关键的一点就是千万它更便宜啊, 耗费的超坑,比 g y n 少了将近一倍,性价比会更高一些。所以综上所述,我们平时用千万三点六破就好, g y n 千万沃米尼用于平时的话显得有些大材小用了。以上是本期全部内容了,我们下期再见。

没高端硬件也想玩大模型?奥莱玛免费模型,零成本解锁数据中心级 gpu, 直接调用超大云端模型, api 全支持。今天教你免费使用奥莱玛云端大模型! 首先打开奥莱玛官网注册一个账号,只需要验证一下邮箱就可以,可以直接使用 gmail 或者 gfs 授权注册。 我已经注册过了,这里就不再给大家演示了。注册完成后,回到奥莱姆中登录,可以在 settings 中看到免费使用的额度。奥 莱姆有明确重置规则,每五小时重置绘画限额,每周重置周限额用到百分之九十,还会发邮件提醒不用担心超支。 不管是百亿参数的大模型还是专属代码模型,都能免费调用,云端轻量使用,完全够用。日常和模型聊天,快速答疑,测试各类云端模型,效果通通满足。 在奥了马模型列表中选择带 cloud 标签的这些模型都可以免费调用,我这里选择千问三点五给大家演示一下,到你使用 api 的 平台粘贴 url, 后边注意加上 v 一。 回到奥了马中,选择 settings 生成一个 apit 并复制, 可以直接获取模型列表。可以看到众多热门模型, g l m 五、 kimi k 二点五、千问三点五等热门模型都有, 试着调用一下三九七 b 模型,速度会慢一些,可以看到能够正常调用。如果你也想低成本玩大模型,现在就去 alma 官网注册体验吧,我们下期再见!

之前我出了一系列实操视频,分享怎么把各类 ai 大 模型接入自己的网站。不管是国内常用的 deep seek、 豆包、通易、千问,还是国外主流的 chat gpt、 gemini, 以及最近热度拉满的 minimax, 只要你手里有对应的 api key, 都是可以接入的。 还是有小伙伴私信说想要的模型不知道怎么接入。这个视频我给大家安利一个超级实用的 ai 模型聚合平台 open router, 如果觉得好用,记得给个一键三连,让更多人能够知道它。 我们知道这两年 ai 模型的更新迭代非常快,如果你想用上最新的 ai 模型,或者说想让你的客户在你的网站上体验到最新的 ai, 又不想在各种平台之间来回切换,只要有 open router, 就 可以直接调用市面上几乎所有的 ai 大 模型。 先给大家说说它的三大核心优点,也是我最推荐大家用的原因。第一个优点是不需要科学上网,不用到处找梯子,直接就可以打开 open router, 这点对国内用户是非常友好的。 第二个优点是 ai 模型库很齐全,几乎每个模型的每个版本都有,而且更新非常快。今天是三月十一号,可以看到三月份上线的有七种模型,二月份有二十多种,这样就不用自己到处找资源了。第三个优点是提供免费试用额度 字节的 seeddream、 阿里的通用千问、 gpt 的 基础模型等等,都可以免费试用。 进入自己网站很简单,在 open router 的 首页点击 get api key, 然后复制它,打开 wordpress 后台,在模型的下拉列表里选择 open router, 然后粘贴 key, 就 可以调用 open router 提供的几百种 ai 模型了。 需要注意的是,如果你的网站部署在国内服务器上,选择 chat、 gpt、 gemini 等中国内地禁用的 ai 模型是会报错的。 如果是部署在海外服务器上的外贸网站,就没有这个限制。我自己的网站上模型选的是目前最火爆的 mini max 网站。接入 ai 模型之后,我们可以做很多事情,这个 chatbot 聊天机器人算是最基础最常用的功能,也可以用它来生成 seo 文章,具体的操作方法可以看我们之前分享的视频教程。 另外我们还可以设置自动化程序,创建 form 表单生成、图片导入 knowledge base 知识库等等, 这些内容会在后续的视频更新,感兴趣的朋友可以点个关注。我的网站用这个表单功能增加了一个 ai 页面,用来提高客户建站的效率。我还基于网站内容创建了专属的向量知识库, 当访客在 ai 客服这里提问的时候, minimax 会解锁向量知识库,然后基于 ib 网站的内容去精准回复,而不是用全网通用的资料去回复。 欢迎大家来体验。在给网站接入 ai 的 时候,遇到困难的可以在视频下面留言,我看到都会回复的,不要吝啬你的三连,我们下期视频再见!

上一集我们简单介绍了 lock 的 核心功能和适配优势,相信大家已经对这款轻量 ai 助手有了初步了解,这一集我们就手把手教大家如何快速部署 lock, 全程步骤清晰,操作简单,新手也能轻松上手。 拉卡默认提供 x 八六六十四二七六四、 rmb 七 l 三种架构的二进置文件,无需手动下载翻译,确保系统支持 http, 使用官方提供的脚本就能实现一键部署适配 lock fox 开发版及各类 linux 主机,我们只需要在终端输入这条快速部署命令,输入完成后回车直行即可。后续我们会在 lock fox 微提中进行查看, 脚本会自动完成环境检测、程序安装和架构适配,全程无需手动翻译,无需额外配置,我们耐心坐等执行完成就好。 安装完成后,我们直接在终端输入了 call config, 回车就能进入交互式配置向导。在这里我们可以一站式完成 agent 核心参数、大模型、厂商、消息渠道、网关工具 等所有核心配置,全程可适化引导,不用手动修改繁琐的配置文件,新手也能快速完成。 接下来是核心的大模型 api 配置环节, luck claw 支持接入多款主流大语言模型,包括 openai、 antropics、 deepsea、 质朴清盐、通易签问等,也支持本地部署的 olem。 我们只需要在配置向导中选择对应的模型厂商,填入你在对应官网申请到的 apikey, 就 能完成模型对接,全程不到一分钟。 luck 支持接入 qq、 企业、微信、 telegram、 discord 等多种主流社交平台,无需额外开发,仅需简单配置就能实现跨平台 ai 交互控制,适配不同使用场景。 这里以 qq 为例,给大家演示其他平台的接入,可以参考官方文档。首先我们打开 qq 机器人,官方平台地址已打在屏幕上,用 qq 扫码登录后,创建属于你的 qq 机器人,自定义头像和名称,创建完成后就能拿到机器人的 apple id 和 secret 密钥。我们回到了拉克的配置项导,找到 qq 渠道配置项,开启渠道开关,填入刚才获取的 ipad 和 secret, 就 完成了 qq 平台的对接。 所有配置完成后,我们执行了拉克 get 为 f 命令,前台启动多渠道网关服务。 服务启动成功后,我们打开 qq, 找到刚才创建的机器人,就能直接开启对话,体验这个清亮 ai 助手的全部能力。不管是日常问答、工具调用,还是远程终端控制、自定义技能都能轻松实现。 以上就是了 club 的 完整部署流程,步骤简单,全程实操,大家跟着做就能轻松落地。更多进阶玩法和详细说明都可以在项目 github 仓库的 wiki 和文档中查看。部署过程中遇到问题也可以在仓库 issue 中提问,别忘了给项目点个 star 支持一下,我们下期再见!

如何切换 openclaw 的 模型?首先输入 openclaw comf 命令,键盘上下箭头,操作界面选择 local, 然后回车选择 model。 目前模型中只有千问是免费的,选择 coen, 然后会打开浏览器让你认证一下千问模型登录只需要在千问官网注册一个账号,然后弹出来的页面通过一下就行了。接下来模型具体版本选择直接选默认的就行, 如果有需求可以豆包问下,直接回车配置完成, ctrl 加 c 直接退出就 ok 了。

家人们 oppo note 排行榜第一的模型居然还是免费的,真没想到千万三点六会冲到第一,你们不会还不知道吧,我都已经默默用上一段时间了,我以为大家都知道了,结果真去接的人不多,其实特别简单。先去 oppo note 注册一个账号, 先去 oppo note, 点击 mark 的 菜单,先搜索千万,进入模型页面,拉到下面, 然后新建一个 p, 复制下来就行。接下来更简单,直接去贴官网的刻,回到模型页,拉到下面。这里也看到这模型应用最多场景是这些,最多是 open 刻 找到刻,这不主要快速验证你的 p 是 否好使。 贴这个 key, 主要注意这个地方不要全覆盖,把里面的 key 换成你自己的,一发能回说明你已经接通了。但你要是想接近 a j 也很简单, 像 c c switch 或者我现在常用的 v s code, 加个 i 配一下 pro v 的 和 key, 基本就能直接跑。

old research 是 用一句话讲的,就是你给定 ai 一个目标,然后 ai 不 断地通过去做实验,看指标,做实验,看指标,然后这样不断地去迭代,最终找出一条最优的能够达到你的目标的路径。这么一个过程,实际上它是一个 meta optimization。 哈喽,大家好,我是老黄,最近研究 capathy 的 old research 项目特别的火, 他两周前上线,现在在 github 上已经有五万两千星了。很多人用 auto research 这个思路去做了很多疯狂的事情,比如说让 ai 去自动化的把一个千万三百九十七 b 的 模型不断地优化,量化,最后让它能够在本地的 macbook 上跑起来,并且能够达到五点五 tokens per second。 还有人呢,用 auto research 不 断地去让 ai 加速他的 gpu 的 核函数,使得他的训练效率现在比平时快了十倍。这些都是这两周内真实发生的事情。 但我发现还是有很多朋友不知道 auto research 这个框架它到底在做什么,以及说它在什么样的场合底下比较有用。那么今天我就可以做一期视频,把这个事情讲清楚。那么 auto research 是 用一句话讲的,就是你给定 ai 一个目标,然后 ai 不 断地通过去做实验,看指标,做实验,看指标,然后这样不断地去提 携带,最终找出一条最优的能够达到你的目标的路径。这么一个过程,实际上它是一个 meta optimization, 那 么它一整个循环的内部呢?长这个样子。首先在每次 older research loop 开始的时候呢,你会让 ai 去读取 so far 的 一个上下文,就是之前做哪些实验,呃,有哪些动作是成功的?有哪些动作是不成功的?接着呢,根据这个实验结果以及你想要 ai 优化的目标, ai 去 propose some changes 提出变更。比如说如果你要优化一个神经网络的话,那么它可能是把某些层挪到另一些层前面,或者它去优化您 betting 或者 tokenizer, 接着呢,它就 commit proposal, 并且开始 run 这整个流程。 我们就用 karpai 最原始的那个 repository 来讲一下 older research 到底怎么 work 的。 它是用 older research 来优化它的一个叫做 nanochat 的 模型,就是一个极简版的 g p t。 二,你会看到这整个项目的设定实际上是跟神经网络的训练有关的,那我们也是可以把它推广到其他不同的任务上面去,我们在讲的时候就会用它最原始的那个设定。 那么在 old research 开始的时候呢,你需要让 ai 读取你的呃,实验的上下文就是说 so far 你 到底做了什么事情,哪些东西 work, 哪些东西不 work, 哪些东西跑崩了,全部都记录在一个文档里面,让 ai 去读。 读完之后呢,根据你给定 ai 的 目标,那比如说如果你是神经网络训练的话,那你就是希望 ai 能够提高它在验证级 validation set 上面的表现,比如说降低 validation loss, 然后呢, ai 就 根据它刚才读取的上下文 propose 一个改变, 然后呢,它就把这个改变 come 了,然后开始训练神经网络,或者说如果你是做什么核函数的优化的话,那它就是改变并且开始跑实验。如果这个神经网络的训练,或者说这个实验崩了呢?首先尝试能不能把这个东西修复了, 如果能修复它呢?那么就继续跑,那如果不能修,也要把这个不能修复的事实给记录下来,那么就说明这个尝试它不是因为没有提升,而是因为一些其他原因而崩溃了。 如果它几次都修不好,就先让它过去,那如果这个实验没有跑崩了呢?你就可以看到一个结果,那么你就把这个结果给记录下来,记录到 resource 啊 t s v 里面。 在记录完结果之后,你就要去比较这个结果跟当前最优的结果,呃,比起来到底怎么样?如果它确实优化了我们想要的那个指标,比如说 validation 上面的 performance, ok, 那 么这就是一个好的优化。我们就把这次的改变保留下来,把它推到我们的主分支上 merge 进去。 但如果这一次的改变并没有给我们带来比现在更好的提升,那我们就把它记录下来,但我们不会把它保存进我们的主分支里面。 ok, 那 么进行完一整个流程之后,你就又回到让 ai 读上下文,然后提出变更,提交训练,然后这么一个 look 不 断循环下去, ok, 那 么这就是一个 auto research 循环。当你跑完了这么一个循环,那你就会进入下一个循环。这里面其实你可以看出一点,就是说任何能够有可量化指标的 流程,我们都可以用 auto research 去让 ai 帮我们找到,去提高,然后达到我们这个可量化指标的一个最优的路径。那这个东西取决于你到底有多少的时间和 tokens, 我 个人感觉它实际上是一个范式上的突破,虽然它看起来好像跟我们已有的一些框架非常相似, 但它厉害的地方在于就实际上生活中有很多任务是可量化的,并且它能够带来很多的经济价值。比如 说你的代码的速度是可量化,然后你的 p n l 是 可量化的,然后呢,你去做,不管是广告投放还是什么的,你的 r o i 都是可量化的,流量是可量化的,所以我觉得很快我们会看到 old research 在 各个领域开花结果。我目前发现最有意思的一种玩法呢,就是说你把一篇文章, 就是或者说 best practice 丢给 ai, 然后让 ai 根据这个文章的思路去用 older research 这个框架帮你完成一件事情,比如说帮你把千万三百九十七币,呃,不断地压缩优化,最后让它能够在你的本地机子上跑起来,并且五点五 tokens percent 这个事情就是 非常疯狂,但是现在已经有可能了。今天就跟大家分享到这里,下一集呢,我会跟大家分享一下我自己用 auto research 以来,觉得大家有什么优点,什么缺点,然后我自己呃对 auto research 的 一些调整,今天就这样,谢谢大家,拜拜。

想问一下各位的小龙虾调用的是什么模型?主播使用的是阿里的千万大模型,宽三点五 plus, 但是主播给龙虾配置这个模型出现了 bug, 想问一下有没有同样用这个模型的兄弟,你们有没有遇到这个 bug? 具体情况是,主播在安装龙虾的时候,按照安装指引的要求输入了阿里云百炼的 apikey, 并且选择了快三点五杠 plus 模型作为默认模型。可是当我与龙虾对话时, 龙虾无法响应,并告诉我 tik 无效访问或者过期。主播以为是我输入了错误的 apikey 或者模型的额度用完或者过期了, 可是我在后台查看发现并没有问题,并且 apikey 确认了几遍没有出错,主播顿时懵逼了,不知道是哪里出错了。随后主播研究了几个小时也没有解决问题,期间尝试种装小龙虾或者生成 apikey 等等手段, 依旧无济于事。最后主播只好去求助阿里的官方人员,对方首先确认了我的模型没有问题, 然后就查看了我的配置文件,不出几分钟,对方就找出了问题所在,并且给出了解决方案。原来是小龙虾的配置文件并没有绑定 apikey。 根据阿里技术人员给的配置文件可以看到,小龙虾的配置文件在 model studio 里缺少 apikey 这个参数,不知道这算不算是一个 bug, 因为主播绑定 apikey 后确实出现了模型选项, 可是配置文件也确实没有 apikey 这个参数。主播虽然纳闷,但是也不管这么多了,于是我修改了配置文件,把参数添加了进去,没想到还是不行,我又又又对比了两个配置文件, 发现了另一个问题, open 窟窿给的悲喜若尔的参数值是这个,而阿里给的参数值是这个,我又又又替换这个参数值。这次我终于能和龙虾对话了,可以看到龙虾终于能回答我的问题,并且告诉我它是什么模型, 让他说中文也是 ok 的。 最后总结,解决这个问题的方法就两步,第一是配置文件添加 apikey 这个参数,没有这个参数就无法使用模型。第二就是修改悲喜 rolo 这个参数值, 改为阿里给的参数值,因为阿里给的接口地址肯定比小龙虾的更准确。想知道屏幕前的各位使用千问模型有没有遇到这个 bug, 如果有的话,你们是怎么解决的?欢迎在评论区留下你的答案。

别再花钱去用香蕉模型了,国产开源免费的千万二点零深度模型他来了,一经发布就霸榜全球深度模型 top three, 香蕉能做的他全部都能做,而且文字设计、编辑能力和人物一次性甚至还超过了香蕉。今天给大家准备了千万一 mate 二点零超全使用技巧, 视频结尾还给大家提供了免费使用的方法,记得先点赞收藏哦!首先就是无可替代的文字设计和编辑能力,特别是中文,以前你想让 ai 写中文,那你大概率得到的是这样的乱码。现在有了千万二点零,不管是长文本还是超复杂排版,它都能精准满足你的要求, 就算是这种非常细小的字体,它也能非常清晰的给你呈现出来,这点就连香蕉 pro 都不一定能做到这种程度。有了这么强的文字处理能力,那么像电商海报、详情页、 ppt 科普图解、旅游攻略这些都能轻轻松松拿下了。 另外,千万二点零还把纹身图和图像编辑融合在了一个模型之中,你也可以用它直接修改图中的文字,文字样式和原图可以保持完美一致性,文字内容你可以随意修改替换。除了修改文字以外,其他常用的图像编辑功能它也都能够很好完成。 在人物一次性方面,枪王二点零不仅能高度保持人物脸部特征,而且能准确复现各种抽象美学风格,人物各种表情都能准确复现。还有一些复杂动作,现在的精准度也大大增强了。 时尚写真、海报大片,还有这种抽象概念,他都能很好的理解并复现出来,这个效果真的比市面上其他的很多模型都要强太多了。这里特别要说的是他的多风格融合能力,真人风格和二次元风格出现在同一画面中的效果都能很好的实现,这点相比其他模型也是非常强大的。 接下来是产品一次性方面,这一点其实上一个版本的千万 id 的 二五幺幺模型就能够做出来比较好的效果了,而现在的二零零模型效果比之前的更好了,给产品换背景,给模特换一下衣服,给产品加个模特,提取产品,变成百里图,给产品做精修,把图片贴到产品上。 而且你不管对产品进行怎么样的编辑处理,它都能给你保持产品细节不发生变化,完全可以达到商用落地的效果。不得不说现在 ai 对 于电商行业来说真的是刚需了, 完全可以替代传统的工作流程了。接下来是 ai 视频分镜头,一次性的分镜头是制作 ai 视频的关键, 千万二点零可以一次性连贯生成人物、产品和场景高度一致性的多数量分镜头,不管是制作短剧、微电影还是电商广告宣传片,它都能很好的帮助到你。有了这种高质量的分镜头图片,再配合视频生成模型,就能大大提高 ai 视频生成的效率和可控性。 当然还有其他很多的基础图像编辑或者一些创意玩法,这里就不一一给大家举例子了。我把这些生图案例以及提示词全部都整理成了文档,直接分享给大家,记得去领取哦! 接下来教大家如何免费使用千万二点零模型?目前这个模型可以在阿里官方的 aigc 平台物理上使用, 用手机注册后就可以免费不限量使用了。在主页选择图片生成,点击加号上传需要处理的图片,这一步是可选的,纹身图就不需要上传了。模型这里选择千万英妹就二点零,后面你还可以自由选择深图比例, 还能直出四 k 高清大图。在对话框中输入你的作图需求,打开这里的联想助手,还可以帮你自动优化提示词, 最后点击生成它就会用千万二点零模型帮你升图啦,就是这么简单!目前千万 image 二点零暂未开放下载,等后续官方开源后,我还会在 comfai 中给大家搭建千万二点零的升图工作流,并分享在评论区,如果你有需要的,记得先在评论区留下自己的标记, 方便后续获取工作流。最后别忘了点赞、关注、收藏,我们下期再见!

cloud code 家最新千万三点六模型简直强到离谱,看到这个粒子动画了吗?一百个彩色粒子自动连接成网,鼠标靠近会被吸引或推开边界无缝穿越。这不是我手写的,是我只说了一句话, cloud code 用千万在几十秒内生成的,而且整个交互过程也异常丝滑。在控制台输入 kl 的 命令,进入交互界面,输入 hello 后, agent 立刻给出自动回复,并显示模型已经切换为千万三点六。然后我打了一行字,实现一个 web 例子动画,并在浏览器中打开。接下来 cloud code 干了什么?它先自动写了 particle animation html, 整整一百八十二行代码,然后自定义服务器代码,创建了 server 点儿 js, 一 共五十行。接着自动执行 node server, 并在八零端口启动后台服务, 再用 open 命令在浏览器里打开粒子动画网址。全程我没碰一下键盘,它自己读需求,写文件祈福,开浏览器。整个过程非常丝滑,紧接着就能在浏览器中看见粒子动画的效果了。 千万模型加 cloud code 还有一个巨大的优势,那就是价格也比 antropica 官方模型便宜,使用起来基本上感知不了太多差异。本人由于是程序员,工作中经常会使用到科室 cloud opus 四点六,从编码、检查电脑环境、 打开 app 这三个方面体验下来。千万三点六 plus 加 cloud code 的 组合并不差,百分之九十九的场景下都感知不到三者的差异,推荐大家去尝试一下,下期会出一期 cloud code 加千万三点六的安装教程。

今天分享一下如何在本地安装 lama 并使用千问三模型。打开浏览器,进入 lama 官网, 点击右上角的黑色 download 按钮。由于网速的问题,我们可以换用其他下载载器下载,我这里使用的是某雷下载。 双击打开安装包,点击下一步, 点击展开侧边栏,点击设置并修改模型文件的储存位置。 输入问题,点击适合你电脑配置的模型, olama 会自动检查本地是否有该模型,如果没有会自行下载。 下载后 olama 会自动调用并加载模型并开始推理。 谢谢观看。

经过一整天的折腾,不停的调试测试,终于把龙虾和欧拉玛本地部署的大模型链接上了。下面说一下我这次的经验,并不是所有本地大模型都支持龙虾,目前经过我测试,最好用的是千万三, 我本地的硬件最高能支持在欧拉玛里面跑三二 b 的 大模型,但是速度比较慢,所以我下载了一个九 b 的 千万三,先试一下 九臂的千万三在欧拉玛里面可以很快的速度运行,但是在龙虾上反应的速度就有点慢, 而且只能支持本地聊天或者处理文本任务,让九臂的千万三驱动龙虾去打开浏览器都实现不了,也可能是因为我本地部署的大模型太小,有没有哪位部署过比较大的本地大模型的朋友可以说一下使用效果如何? 所以我打算暂时放弃使用本地大模型去动龙虾,去购买二十九元包月的 mini max 的 a p i 来使用 tucker, 量大管饱,关注我,一起交流养龙虾!

兄弟们,如果你需要本地制造 token, 看下加了 cloud 四点六 opus 的 这款模型。首先咱不说复杂参数,先提个关键一点,这个模型是 obliterate 消融版本, 简单说就是移除了大部分拒绝项链和安全护栏,平时用的时候不会轻易拒绝你的请求。再说说实际使用感受,加了 opus 的 这款代码,能力接近 cloud opus 水平,实测下来生成很丝滑。最后根据你的显卡选择参数。

现在很多人经常吐槽,天天看着各家大模型发新版本,跑分一个比一个高。但在公司里实际干活的时候,比如写业务代码,跨系统查业务数据, ai 根本接不进去,就只能当个聊天外壳。那到底怎么才能让大模型变成实打实的职场生产力工具安排?四月二日, 阿里发布了新一代机座模型千问三点六 plus。 官方数据显示,它在 threebench 和 pro evo 两大评测中全面超越国产竞品,性能高度逼近 cloud 系列。不过这次相比参数,阿里这次亮出的模型 x 应用双轮战略更值得大家关注。千问这条线专门负责在底层持续精进技术卷,模型 携带速度极快,通过千问端直接把前沿模型送给广大用户体验。但真实的企业场景远比个人使用复杂的多,企业需要的不是单纯跟 ai 聊天,而是让 ai 进入系统,理解工作流,自主完成任务。这正是阿里悟空要解决的核心痛点。 他负责把顶尖模型能力转化为千行百业的真实生产力。操作也很简单,悟空会员在 v 零点九点二零版本选,选择千问三点六模型就能立刻使用。 接入之后,悟空把千问的能力深度封装进了企业工作流。比如研发团队直接用大白话下达需求,就能获得完整代码交付,业务人员一句话就能搞定。跨系统的查询审批,管理者面对海量文档,也能迅速提取关键信息做决策。阿里 ai 的 战略分工现在非常明确,千问负责做技术底座, 让大模型能力触手可及。悟空则是那个关键的转化器,把模型直接接入真实的业务系统里去干活。悟空在海量企业场景中跑出来的高质量反馈,又能直接反哺给千文做迭代,这早就不是单纯发个新产品了, 而是在构建一个能自己滚雪球的生态闭环。模型能力越强,大家用的越顺手,业务场景抓的越深,大模型的进化速度自然就跟着狂飙。