粉丝314获赞882


朋友们,你们有没有算过你每个月在 ai 大 模型上花了多少钱?有人一个月光调用 api 就 花了上万块,有人为了省点钱,到处找免费的平替,甚至自己去买显卡搭服务器。 但折腾了一圈下来,发现算力成本、维护成本、学习成本加在一起,比直接买服务还贵。但今天我要告诉你一个好消息,可能直接改变了你使用 ai 的 方式。 中国移动刚刚发布了猫马平台,接入了超过三百款主流的 ai 模型,而且单位掏客成本直接压降百分之三十。这意味着什么?意味着以后你用 ai 可能比你现在便宜三分之一。 五月八号,在苏州举办的二零二六移动云大会上,中国移动正式推出了移动模型服务平台猫马。 这个平台到底牛在哪里?我给大家总结了四个核心点,第一,模型最全。某马接入了超三百款业界主流的 ai 模型。 这个数字是什么概念?基本上你能叫得出的名字的大模型这里都有。从 g、 p、 t 系列到国内的文心一言通一千、问讯飞星火。文本生成到图像识别, 从代码辅助到多模态理解,从通用大模型到垂直领域模型,基本上你想用的模型这里都能找到,再也不用东奔西跑,一个平台搞定所有的需求。 对于开发者来说,这意味着你可以在一个平台上测试不同的模型效果,找到最适合你业务的那一个。 第二,成本最低。这个平台首创了滔肯节约化运营模式。什么意思?我给大家解释一下传统的 ai 调用模式是什么?你调用哪个模型,就要按照哪个模型的定价付费, 不管你用的多还是少,价格是固定的。但猫啊,不一样,它采用了智能路由技术, 你的请求会自动匹配最优的模型和算力资源。举个例子,如果你只是问一个简单的天气问题,系统可能会给你匹配一个轻量级模型,成本很低。 但如果你要处理复杂的代码生成任务,系统会自动切换到更强的模型。这种动态匹配避免了资源浪费。官方数据显示, 单位掏坑成本压降约百分之三十。对于高频调用 ai 的 企业和个人开发者来说,这意味着每年能省下一大笔钱。假设你原来一年在 ai 调用上花十万,现在可能只需要七万。第三,国产算力。 猫马基于国产算力,不处自研推力引擎,这不仅意味着响应速度快,更重要的是数据安全性更有保障。为什么这么说?因为很多企业的数据是敏感的,比如说金融行业、客户信息、 医疗行业的病例数据、政务系统的内部文件,这些数据如果传到国外的服务器上,风险很大。但猫马用的是国产算力,数据不出镜,合规性更强。 对于金融、政务、医疗这些对数据安全要求高的行业来说,这是一个非常靠谱的选择。第四,生态开放。 momo 不 只是提供了一个调用接口,它还提供了完整的开发者工具链,包括模型微调、 api 管理、用量监控、成本控制等功能,可以根据自己的业务需求灵活配置和优化 ai 能力。 而且,中国移动作为国内最大的运营商,它的网络覆盖和算力资源是其他平台难以比拟的,这意味着无论你在哪个城市,都能获得稳定、低延迟的 ai 服务。所以你看, ai 的 门槛正在越来越低。以前用 ai 是 技术活,需要懂代码、会部署、能调优。现在用 ai 正成为基础,能力 就像办公软件一样简单。中国移动这次推出的摸马平台,其实是在释放一个信号, ai 正在从技术驱动转向服务驱动。 未来的竞争不再是模型参数的比拼,而是谁能把 ai 能力更好的普惠给每一个用户。 你觉得中国移动这个 mua 平台会对现在的 ai 市场的格局产生什么样的影响?评论区一起聊一聊,觉得有用的话点个赞,收藏起来以后用得上!

你的 openclaw 和 hermes 还在花钱调用大模型的 a p i 吗?今天我教你用零成本本地部署奥拉玛,在你的电脑上直接跑大模型,还能无缝对接 openclaw 和 hermes, 实现免费玩 ai 智能题工具。首先介绍一下欧拉玛,什么是欧拉玛呢?欧拉玛是目前最简单的本地模型工具,在 windows、 mac 和 linux 上都支持,几分钟就能装好,八 g 内存就能跑。当然了,还是建议最少要安装十六 g 内存, 这样体验起来更加流畅。如果有英伟达的显卡,还能够使用 g p u 加速。了解完了欧拉玛是什么之后,我们来看一下欧拉玛如何安装。首先我们要访问欧拉玛的官网欧拉玛点 com, 它的首页是 一个羊驼抱着一个龙虾,下面的英文是 power open claw with ollama, 中文的意思就是使用 ollama 为龙虾赋能,从这一点我们就能看出它是全面的拥抱和支持 open claw 了。这也是为什么今天我要在 open claw 的 专栏里专门做一期 ollama 视频的原因。 废话不多说了,首先要下载欧拉玛,点击右上角的 download, 这里我们可以看到它有 mac os、 linux, windows 的 下载方式自动已经给我们定位到了 windows, 点击这个黑色的 download for windows 按钮, 就会弹出下载框,点击另存为保存,有点大,两个 g, 这个网速非常感人,所以我建议大家用迅雷来下载。 我们已经下载完了欧拉玛的这个安装包,下面我们就开始安装欧拉玛的安装有一个问题,就是它没有让你选择 需要安装的文件夹这个选项,它默认是安装到我们的 c 盘 user 底下的,如果你想安装到指定的文件夹,那你需要换一种方式,我们先把这个安装过程停止。 我们找到拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇拇 斜杠 d i r 等于这里写上我们的安装地址,也就是记盘的欧拉玛文件夹。打回车就跳出来安装界面,我们点击安装,大家可以看这里已经安装到记盘的欧拉玛这个文件夹下面。 进了这个界面,就代表着欧拉玛已经成功安装并且启动了。安装好了欧拉玛,我们再来看如何下载模型。在欧拉玛的网站上点击这个 models, 就 可以进入模型列表,这里都是可以使用欧拉玛直接下载使用的模型。我们来找一下 谷歌的 jam 四,这个是最近小模型中比较好的,可以通过这一句欧拉玛 ram 四来进行下载。 输入奥拉玛 ram 捷摩斯回车运行。安装完了,我们来跟他说一句话试试。我们在这里输入一个,你好打个回车。 好的,扎马四已经回复了我们,虽然有点慢,但那是我电脑性能的问题。大家可以看到现在已经成功地让大模型在我们的电脑上运行起来了。再下一步我们就来看如何把欧拉玛接入到 open cloud 中。 ctrl d, 我 们来退出欧拉玛,然后输入 openclaw config, 进入 openclaw 的 设置,这个我们直接选择本地运行,这个我们选择第二个 model, 打回车进入,然后我们要在这里找欧拉玛, 这个就是欧拉玛提示我们欧拉玛不可用。我们来重新编辑一下 openclaw 的 配置文件。 openclaw 的 jason, 这个就是 openclaw 的 配置文件。我们来找一下 allow 这一项,这里就是扩展的 allow 这一项,我们要在这里添加上 alama。 我 们来运行 openclaw config 来设置 openclaw 的 大模型。 选择默认的本地模式,这个我们选择第二项 model, 就是 设置模型,这个是选择模型的提供商,我们来找一下 alama, 这个是询问我们选择云服务还是本地模式。我们选择最后一个本地模式,这个是欧拉玛默认的 b、 c、 l。 回车,这个是有哪些可用的模型?只有一个,我们按空格选中回车确认 提示,我们已经把模型信息写入了配置文件,我们退出。我们回到 open 可乐,这里是我们 问了 openclaw 一 句你使用的什么模型,他们回,他回答,我使用的是谷歌的伽马四。我们这次的 olamata 下载安装以及安装模型,以及如何在 openclaw 中使用 olamata 模型。到这里就结束了,关注,我每次 都给大家带来一个 ai 的 新知识,感谢大家的观看,再见。

ai 圈猛料来了!就在五月八日的移动云大会上,中国移动正式发布国内最大的大模型平台猫马。中国移动把自身变成了 ai 世界的超级入口与基础设施管家。猫马到底牛在哪?三大杀手锏,听完让你彻底了解猫马! 第一招,猫马干了一件很实在的事,建了一个 ai 大 超市,把市面上最好的模型搬到自己的平台上, 一口气接入了三百款主流 ai 模型。不仅有中国移动自研的九天大模型,还把 deepsea、 通易、千问、豆包、 kimi 等头部模型全部囊括其中,提供统一 api 网关,用户只需要接入一次,就能在这个大超市里随意挑选调用任何模型, 彻底告别了反复对接、各自为战的繁琐。第二招,首次实现了 toc 集约化采购,把成本打下来。 高昂的使用成本一直是阻碍 ai 发展的痛点。中国移动这次首创 took 集约化运营管理模式,平台内置了智能路由引擎,像个精打细算的管家,它会根据你的需求,自动在效果优先和成本优先之间做切换, 比如不重要的任务就分配给性价比较高的小模型,遇到难题再呼叫大模型。凭借自研推理引擎和国产算力调优,猫马硬生生把单位偷啃的成本下降了约百分之三十,资源占用率降低了百分之五十以上。 买包月套餐总怕浪费,用多少算多少才踏实。猫马真正实现像水电一样,计费端到端,延迟不超过一分钟,真正做到即用即付,让每一分钱都花在刀刃上。 第三招,猫马给企业吃下定心丸,稳如老狗,且绝对保密。对于政府和金融机构来说,数据泄密是致命的。猫马给出了极高的安全承诺,万无一失的切换。如果某个模型突然卡顿或故障,系统能在秒级自动切换到备用模型,业务完全不中断, 硬件及防窥探能力也值得一提。猫马推出机密模型服务,把模型放进基于硬件隔离的机密容器里,哪怕是中国移动自己的运维人员,也看不到里面的数据真正实现可用不可见。这么强的猫马,你还在等什么?

股友们炸裂消息来了,中国移动干了一件大事,他要把全中国三百多个 ai 大 模型装进一根水管里,拧开龙头就能用,偷看成本直降百分之三十。你知道我国如今有多少大模型吗?超过三百个!如果你是一家企业,想用 ai, 你 得先搞清楚哪个模型适合你。 epic 擅长推理,豆包擅长对话签问擅长代码, g、 l、 m 擅长长文本。然后你得分别对接每家的 api, 分 别充值,分别维护,分别踩坑。这就像什么想象,你家装了十个不同品牌的水表,每个龙头接不同的水厂,你洗澡用 a 厂的水, 做饭用 b 厂的,喝水用 c 厂的,每个月收十张水费单。崩溃吧!中国移动说,我来修一根总管道, 所有水厂统一接入,你只对一个水表,按需取水,费用统一结算。这就是 moma 移动模型服务平台。五月八日二零二六移动云大会上,中国移动正式发布 moma 平台 核心三点,第一,超级聚合一个统一 api 网关,接入超三百款主流 ai 模型,包括中国移动自研九天系列、 deepsea、 通易、千问、豆包、 kimi、 minimax 等等,文本、语音、图像、多模态全覆盖,企业一次接入所有模型随便选。第二,智能路由分独创三种策略,第一种,成本优先,自动匹配最便宜的模型。第二种,效果优先,匹配最强的。 第三种,均衡优先,性价比最高的模型,超时或限流秒级自动切换,业务不中断。第三,成本屠夫基于国产算力部署,自研推理引擎,结合智能缓存上下文附用 tokyo 压缩技术单位, tokyo 成本压降百分之三十, 资源占用率降低百分之五十以上。中国移动董事长陈忠月原话,开放万亿级偷看服务体验包,万亿级免费体验。你可能会问,百度有千帆,阿里有百炼,字节有火山引擎,都能提供模型 api, 中国移动凭什么三个别人给不了的东西?第一,算力底盘。 中国移动二零二五年算力服务收入近九百亿元,制算服务收入增速百分之二百七十九。他在全国布局了超一千五百个边缘制算中心,正在建设几百级高性能 ai 数据中心, 这个量级,百度、阿里都得靠租。第二,网络管道。中国移动有全球最大的五 g 网络,二百七十七万座基站。 ai 从云端到终端的最后一公里,它的管道延迟最低,覆盖最广。别家坐的是云上 ai, 它坐的是网家、云家 ai 三位一体。 第三,客户池。中国移动有十亿级用户,政务、金融、医疗、工业客户遍布全国每个县。这些客户用 ai 的 需求,跟互联网公司的开发者客户完全不一样。猫马专门有机密模型服务, 基于硬件及隔离,保障数据安全,这是政务和金融的刚需。中国移动要做的是 ai 自来水厂。万亿级 token 是 什么概念?一个 token 约等于零点七个中文字,一万亿 token 约等于七千亿个汉字, 相当于一百四十万本红楼梦的文字量。如果按市场价, deepsafe v 四输入 token 价格,约每百万 token 两块钱,万亿级就是两百万元人民币的算力。中国移动说开放体验,虽然细节待公布,但方向很明确, 用运营商的规模效应,把 ai 调用成本打到骨折。 g p t 五点五 a t i 输出 token 价格每百万三十美元, deepsea b 四约每百万二元,中国移动在此基础上再降百分之三十。这意味着,一家中小企业接入 ai 的 门槛,从请得起程序员降到交得起话费,这就是 ai 像水电一样随取随用的真正含义。 中国移动的逻辑很清楚,五 g 时代,它卖的是连接, ai 时代,它要卖的是智能,从中国最大通信公司到中国最大 ai 基础设施公司。但话说回来,模型聚合平台不是新概念, one api、 light lm 甚至 open router 都在做类似的事。默认的护城河不在聚合本身,而在算力和客户壁垒。如果算力和客户优势不能兑现为调用量,这就只是另一个中间。降价百分之三十对开发者有吸引力。但目前大模型价格战已经白热化, ipc 把行业价格打到骨折之后,再降百分之三十的空间,还有多少利润?对于中国移动这种体量的央企来说, ai 转型的组织惯性和创新速度,才是真正的挑战。一九九四年,中国接入互联网, 一根电话线拨号上网。二零一三年,四 g 来了,移动互联网爆发。二零一九年,五 g 来了,万物互联开始。二零二六年, 中国移动说, ai 时代,我来修管道,三百个大模型,一个入口,万亿级 token 拧开即用。这不是一个产品发布,这是一家万亿级央企在赌下一个时代的入口。你现在每个月交上话费,也许三年后,你变成交 ai 了费觉得有用,点个关注,我来讲透每一条消息背后的硬逻辑!

看好了,宝子们,你们要找的移动 mua 最新版下载安装教程来了,多模型与智能体聚合工具,简单操作,一学就会,手机、平板和电脑都可以用。安装方法很简单,首先点视频右下角分享箭头,然后再分享复制链接, 接着打开这个蓝色小鸟,没有的去安装一个,打开后会自动弹出一个文件夹,如果没有弹,在首页搜百宝和资源也是一样的,然后打开资源合集保存安装就可以了。

我去看好了兄弟,中国移动最新发布的移动 moba 平台聚合平台,内置了三百家模型可供大家使用,还有很多小伙伴到现在还不知道这个入口在哪里了。今天这期视频主播来教会大家一次啊,让你们手机和电脑都可以去进行体验的,非常简单,现在主播把方法分享给你们, 首先呢我们先戳这个,之后再戳一下这个,之后打开这个没有的宝,咱们可以去装一个,咱们打开之后呢会跳出文件,点击立即查看,随后一定要去点保存啊,最后去下载跟着主播给你们的方法去进行使用就可以了,非常简单,咱们学会的宝子们咱们一起快去去试试吧!

今天来教大家如何调用 a p i, 在 浏览器里输入咱们的网址,然后查询, 这边我们就借用这个全国模糊车档查看 需要 e p i 网址的私信,然后复制一下咱们这个东西,复制一下咱们这个接口地址,复制好了,然后找到咱们这个模板,复制一下模板,再 复制过后,然后点击咱们的变异器,把模板先复制进去,空格空几行,然后输入咱们的, 输入咱们的这个 api, 然后这边一个 api 大 概是两两组数据,然后把这个问这边中间有问号,把问号删除 回车,然后把这些东西全删除,留一个 cp 等于, 然后把这个改成请输入请输入车牌号, 然后我们先复制一下这个 api, 然后来到这边找到这个 api, 请输入 api, 把这个变成 api, 然后再把这个树组改成 c p, 把这边改成请输入车牌号,这边树组我们因为这边只有一个一一个参数,然后咱们删除一个 改数组, 咱们这边还需要改下数组,因为这如果不改数组是保存不了的,改改一下, 然后把这些多余的删除,然后点击执行,然后这边输入咱们的车牌号, 这边拿一个大哥大的那个车牌号测试一下, 然后这边就是执行完成了,然后这边会保存两个结果,第一个是变异器里的结果, 变异器里的结果就是这个,然后第一第二个就是管理器,会保存管理器一个,这就是管理器里的结果,来去下管理器看一下保存的结果, 这边就是保存的结果。

大家好,这里是全小白,欢迎大家来到第四节课。上一节课中,我们学会了数据清洗与格式化的核心技巧,把读取的杂乱数据变成干净规范的干净食材。 在大家实操的过程中,大概率会遇到一些小问题,比如字断名写错、代码运行报错,这些都是正常的,就像我们刚学习办公软件的时候,会出现一些错误是很正常的,慢慢的大家就会熟练了。而且大家要记住, 我们学这些不是为了成为程序员,而是重点掌握逻辑,能解决实际问题就好。这节课我们就承接上一节课的内容,进入项目核心逻辑的第四步,调用基础 e p i 接口与请求方法。大家回想一下,前三节课,我们搭建了环境准备的食材,洗干净的食材, 现在要把处理好的食材交给后厨的专属厨师,也就是人工智能大模型,让他把我们完成专业的分析处理工作。那我们怎么把清洗好的数据、我们的请求指令准确地传递给大模型呢? 这就是今天我们这节课核心解决的问题。这里先给大家讲两个最基础的概念, api, 也就是数据接口, 就是你的代码和人工智能大模型之间的专属传菜窗口,也是你们之间的专属电话线。 api 给人工智能发送请求和数据,这个动作就叫请求,人工智能处理完成后,通过 api 给你返回结果,这个就叫响应。所以 api 调用的核心目的就是搭建我们的代码和人工智能之间的桥梁,把清洗干净的数据、我们的需求指令传递给 人工智能大模型,让它自动完成专业处理,再把处理结果反馈给我们。全程还是用我们熟悉的 py 叉代码,依然是固定的模板,核心逻辑不变,仅需要修改三个地方就可以使用,无需自己编辑复杂的代码, 零基础也能轻松跟上。这里我要强调两个大家最关心的点,第一,不需要懂 api 的 底层原理,就像你不用懂电话线的信号传输原理,只要会拨打电话就行。 我们不用懂 api 是 怎么开发的,只要会用固定模板把需求和数据传进去,拿到结果就可以。第二,我们全程用国产达模型的 api, 比如豆包通、一千问 deepstack 文信一言,不用翻墙,不用复杂申请,合规安全,个人就可以轻松完成,完全适配我们零基础的需求。讲完了 api 的 基础概念,很多同学可能会问我直接在豆包 chat gpt 里粘贴数据提需求也能拿到结果,为什么还要用代码调用 api? 这里我给大家讲清楚五个核心原因。第一个, 批量处理,解放双手,这是最核心的价值。网页端和客户端的操作,只能一条条粘贴数据 提需求。比如你有一千条清晰好的用户评论,要让人工智能逐条筛选负面评论,总结核心问题,需要粘贴几十上百次,花的时间比较多,当然也可以提交文件,但会存在幻觉问题。第二,自动化流程,用代码调用数据接口, 你可以把读取文件、清洗数据,人工智能处理保存结果,整个流程做成一套固定的代码,下次有新的数据,只需要修改一下文件路径,一键运行就能拿到最终结果, 不需要再重复操作。而网月端客户端每次有新的数据,你都需要重新提交需求,重复劳动比较麻烦。第三,定制化能力 适配你的专属需求。网页端客户端的功能是固定的,只能满足基本需求,但用代码调用 api, 你 可以自由组合功能。比如让人工智能处理完数据后自动生成 ppt、 自动发送邮件、自动更新到表格里,完全适配你的工作场景, 这是目前人工智能大模型做不到的。第四,人工大模型会产生幻觉模型对长对话上下文的有效注意力覆盖不足,信息解锁能力却是单纯依靠大模型的能力,输出的内容不完全可靠。代码调用数据接口是弥补大模型幻觉问题。第五,遗忘问题。 目前主流商用大模型不管是 chat、 gtp 还是其他的大模型,都已支持两百万词源的上下文,开源模型如千问、 ipsyk 等大模型也普遍支持一百二十八 k 到一兆左右的有效上下文。通过优化的位置编码、滑动窗口、注意力、分块注意力等技术, 大幅缓解了长上下文的中间遗忘问题。但复杂的项目设计以及每天重复的工作会突破这个百万级。对话使用的时间越长,越容易出现数据遗忘以及 放大模型幻觉的问题。请大家放心,我们今天讲的所有调用代码都是固定模板、复制、粘贴、修改三个地方,基本上就可以直接运行,不用自己编辑复杂代码, 基础也可以轻松上手。讲完了基础概念和核心价值,接下来我们就进行今天的实操部分,在讲模板之前,我们需要先做两个前置准备条件,第一步是获取我们的专属 api 接口密钥,第二个是安装所需要的工具库。接下来进行我们基础模板的 讲解,整套模板包含了七个部分,这里给大家简单讲解一下。首先固定的部分还是导入我们的工具库,呃,因为我们这里调用的是豆包的大模型,所以我们这里导入的就是他们官方给的工具库。第一步 就是出示化我们的客户端,这里就可以直接把我们所获取的那这个 k 直接复制粘贴到这个位置上就可以了,这个地址是固定的,然后我们只需要修改这里的 k。 第二个就是我们的模型名,模型名这里一定要跟我们接口的这个 key 是 一一对应的,这里不要写错了,如果写错了,你会发现它会报我们的数据接口无法调用之类的错误。第三个是需求指指令,这里需要单独讲解一下,大家看这里我写的内容是, 你是一个专业的用户评价分析助手,帮我完成以下工作,这些工作的需求是我给他写上去的。我相信大家在最近了解人工智能的时候,经常会听到一个词, agent, 也就是智能体, 这里我所写的这个内容就是所谓的智能体,我们可以根据自己的需求进行定制,让它完成什么样的内容。接下来我们再看第四部分代处理数据,把这个地方备注写错了,这个地方我为了让大家方便 直观的看到它的处理后的结果,所以我就直接写了四条用户评价,如果我们的需求是想要读取本地的文件数据, 我们就可以用另一个模板进行,前面这个地方是一样,导入我们上节课讲到的这个工具库,我们需要把读取文件的这段代码 放到前面来,把文件路径这里修改成具体路径就可以运行。然后第三步才是自定义我们的需求指令输出完的结果,我们只需要在最后的位置把文件路径改成我们想要保存的那个具体的文件路径即可, 跟上一节课讲的那个模板是不是也很像?然后这里我是为了让大家更直观更方便的看到它的运行结果,所以这里我是单独写的。 然后接下来我们就来看第五个部分,要用接口,这里我不多介绍。然后第六个部分让他进行打印,输出我们的结果,我们可以要求最后打印出来的结构是什么样子的, 根据自己的需求进行调整就可以了。第七部分就是打印结果,可以看到大模型处理完之后,它的结果是什么?讲完基础模板之后给大家运行看一下, 大家可以看到了,因为我们的要求是筛选出用户评论里的所有负面评论,并且每条都要总结评论的核心问题, 所以他把第二条负面评价和第三条负面评价提取出来,并给了核心问题的结论,这个结构就是我们第六部分所要求的这个结构大家完全可以根据自己的需求进行调整。给大家讲解完了基础模板之后,再给大家运行一下 读取本地文件的模板,我们把文件地址复制一下,把我们的文件路径这里换成我们 具体的路径。保存路径这里我希望它最后生成的是 ai 分 析结果的文件,我这里写的是 tst 文件格式,最终它会在这个目录下新建一个 ai 分 析结果的 tst 文件,然后运行给大家看一下效果, ok, 它显示把所有的问题都提取出来了,也保存到这个路径下,我们看一下这个路径下的内容, 好,这里生成了这个文件,并且他也把数据生成到文件里面了。讲完了整个模板,我再跟大家强调几个实操中最容易踩坑的注意事项,因为都是我自己实操出来的经验结果,跟大家分享一下。 第一,一定要保管好你的这个 a p i 的 密钥,绝对不能泄露,这个密钥就像你的银行卡密码,别人拿到了就可以用你的额度去调用数据接口产生费用。所以绝对不能把密钥发到公共的场合里面, 不要写在发给别人代码里面,自己一定要保存好,如果不小心泄露了,一定要立刻去平台里把这个密钥删除,创建一个新的。第二个点是注意需求指令的清晰性,不管是网页端还是客户端 写的提示词。第三个部分,需求指令这里就是你给人工智能下达的指令,指令越清晰越具体,这个智能体返回的结果就越符合你的预期。不要只说帮我分析一下数据,要告诉大模型你是什么角色,要完成什么任务,遵守什么规则,用什么格式输出。 这和我们平时在大模型里面写提示词逻辑完全是一样的。这就是为什么有些人做出来的 智能体,也就是 agent 好 用,而有些人写出来的智能体并不好用。第三个部分是控制单次输入的数据量,避免报错。大模型的数据接口 单次能接收的内容长度是有限的,也就是我们常说的上下文窗口。如果你有几万条数据,不要一次性全部传进去,可以进行分批处理,比如一次传一百条,一千条,然后让它进行 循环处理,这样就不会报错,速度也会快,会教大家分批处理的模板。第四个,遇到报错不要慌, 先排查四个核心地方,我们的数据密钥是不是填错了,或者没有开通对应的模型权限。最常见的会报错四零幺工具库有没有成功安装,如果报错没有这个模块,或者是没有找到什么东西,可能是这里的问题。 文件路径写错了,或者是字断名,或文件里的表头不一致,也会容易报错。网络不稳定,一般超时了他都会提示你啊,报送超时或者是连接失效之类的错误。模型名,模型端点 如果写错了,或者是提取结果的方式不对,他会报错。四零四四个报错是比较经常遇到的一些问题,这里我想再跟大家分享一下。我们学这个调用的模板,不是为了告诉大家如何去写它,而是为了告诉大家如何能解决实际问题。 后续大家在工作中遇到不同的需求,只要记住核心逻辑,我们用数据接口搭建代码,与人工智能大模型之间建立桥梁,把需求和数据传给人工智能, 在接受人工智能返回的处理结果,哪怕没有现成的代码模板,我们也可以让大模型帮我们生成相对应的调用代码,这就是我们学清代码思维的真正价值。接下来我们回顾一下我们今天重点学习的四个核心内容。 第一个是到底什么是 api 与请求数据接口,就是你和人工智能大模型之间的传菜窗口,专属电话线, 你给人工智能发送需求叫做请求,人工智能给你回应结果叫做响应,不需要懂原理,会用就行。第二个代码对用 api 接口的核心价值是批量处理、自动化、定制化,真正帮你从重复的劳动力解放出来,解决客户端、网页端无法满足不同的职场需求。 三个内容是调用人工智能的固定代码模板,核心代码模板不变,只需要修改三个地方就能直接运行。重点修改四个核心点,替换库、替换接口、替换模型名、替换 结果提取方式,解决了之前的报错问题。进阶模板,也就是读取文件数据和前三节课内容基本完成了闭环。第四个内容是 a p i 接口调用的闭坑注意事项密要保密,指令清晰,控制数据量,遇到报错先排查五个核心问题。整个课程的 核心转折点,从这节课开始,我们才算真正把新代码思维和大模型的能力结合起来了。前三节课都是我们所做的准备,把清洗干净的数据标准化交给人工智能大模型, 让大模型帮我们完成专业的分析处理工作。今天你成功运行的调用代码,就意味着你已经掌握了项目核心的能力。下一节课我们就在进阶一步,代码与大模型的结合进行批量任务自动化,我们用代码 批量处理成百上千条数据,自动完成重复的工作,真正实现一次写好永久使用,还是固定的模板,还是使用 pychum 进行操作。今天的这节课我们就讲到这里。

快来看宝子们,中国移动正式发布国内最大的大模型服务平台摸马,还有很多朋友不知道如何下载,接下来我给大家出个教程。 首先点击视频右下角这个箭头,我们选择分享或者复制链接,然后打开手机的应用商店,搜索这个,再打开,在这里我们搜索日记宝库, 点击下方立即查看,点进去找到软件三,找到我们的移动 moment 啊,我们点击下方保存,进行一个解压,然后再打开就可以了。

看好了兄弟们,中国移动也是在今天发布了某马 ai, 到目前为止呢,还是很多小伙伴不知道如何去获取的,今天呢,我来一个视频,手把手教给大家,满足你对 ai 的 一切幻想。首先点我视频右下角分享箭头,然后我们分享复制链接, 随后打开手机自带应用商店,在商店里面搜索这个软件,我们给他下好,并且打开它,这里会弹错框,我们点允许粘贴,随后这里弹出链接,我们点立即查看,没有弹出链接,我们在主页打搜索,弯弯爱玩点击搜全网是一样的,点立即查看, 点一下,然后这里找到其他资源。二、我们点进去取消全选,在这里找移动陌陌最新版,我们给他保存下载进行解压就可以了。

以后用 ai 可能真的和用自来水一样简单。中国移动刚发布了陌陌平台,一口气接入了超过三百款 ai 大 模型, deepseek、 统一千问豆包、 pmi, 还有移动自研的九天大模型全都在里面,一个统一接口全部调用。 最关键的是,它搞了个 token 即化模式,系统自动帮你匹配最优的模型,成本还能降三成,政府、银行、医院、工厂都能用上。 b i 的 门槛正在快速拉低,以后中小企业也能轻松用上顶级 ai。 你 们公司现在在用哪款 b i 工具?评论区说说。

一天一个强大的工具,今天要推荐的是移动陌陌 ai 大 模型,这是一款聚合三百主流模型统一调用的 ai 平台, 然而很多朋友不会下载,接下来我给大家出个教程。首先点击我视频右下角分享,选择分享链接,然后打开这个小蓝鸟,没有的去下一个。进来以后在搜索栏搜索星辰动画,点击立即查看,选择软件资源,找到这个移动陌陌,点击下方保存下载就好了。

哈喽,大家好,欢迎收听我们的播客。今天啊,我们要聊一聊这个最近火出圈的某马平台,这个平台呢,号称啊可以让我们这些普通用户也能够免费的使用三百款大模型, 我的天呐,这到底是一个什么样的神奇的东西啊?今天咱们就要好好聊一聊,这个某马平台到底是个什么东西,它有哪些让人眼前一亮的地方,然后它到底是怎么帮我们节省成本呢?以及它到底安不安全,靠不靠谱? 哎呀哎呀,我也特别期待这些内容,那我们就开始吧,我们第一个大块啊,就是平台亮点就是这个猫马到底是一个什么样的一站式的模型服务啊?咱们来第一个问题啊,就是这个平台在模型的丰富度和接入的便捷性上面到底有什么过人之处? 就是首先它是一个类似于模型的超市,它里面聚合了超过三百款主流的国产和一些开源的大模型。对,然后呢,它的种类也非常多啊,包括什么文本生成啊,语音处理啊,多模态理解啊,全都有,就是你想要的各种 ai 的 能力它基本都有。 哇,这这模型数量确实挺挺吓人的哈。然后最最方便的是它给你提供了一个统一的 api 网关,就是你只要集成一次, 你就可以用上所有的这些模型。对,你不用再去跟每个模型单独的去对接。对,那这个就对于企业和开发者来讲,就省掉了非常多的集成的成本和时间,对,非常的高效。 哎,那这个 mom 他 是怎么做到让这个智能路由引擎能够自动帮我们去挑选最合适的模型呢?就他的那个智能路由引擎,其实就像是一个非常聪明的调度员,他会去分析你每一次的请求, 他会去理解你到底要做一个什么样的任务,是要写文案,还是要做语音识别,还是要做图像加文字,这种多模态的他都能识别出来,就是他背后其实是能看得懂我们的需求的。对对,而且他会根据你的这个业务场景自动的去匹配。 他有三种策略嘛,一种是成本优先,一种是效果优先,还有一种是均衡,然后他还会全链路的去监控这个模型的健康状况,一旦这个模型出现了问题,他会在秒级的时间内自动的帮你切换到一个备用的模型, 对,保证你的业务不会中断。就是说这个很多企业在用 ai 的 过程当中会遇到这个成本很高,然后资源浪费的情况。那这个某马平台到底是用了哪些方法帮大家把这些开销降下来的? 首先它是一个 token 的 集约化的运营,它会把你的这个调用的成本整体的降低百分之三十以上,然后同时呢它会让你的这个资源的占用也会减少一半。 他是怎么做到的呢?就是他用了自己的自研的推理引擎,结合了国产的算力,再加上他的这个智能的调度, 所以他的这个性价比是非常高的。听上去是全方位的在帮用户省钱啊,对,没错没错没错。然后他还会有一些智能的缓存啊,上下文的复用啊, token 的 压缩啊等等的一些技术, 它的这个计费也是非常细的,就是你用多少就付多少钱,它的这个计费的延迟也是极低的,它是一个流式的计费,所以它不会出现说你一下子 扣很多钱或者怎么样,就是你的这个预算是非常可控的。好,那我们接下来就进入到第二部分,就是这个成本管控啊,那这个 moment 到底是用了哪些手段帮大家把这个单位 token 的 成本降下来的?首先它是一个类似于集彩的这种方式啊,就是它把大家的这个 token 的 需求都集合起来, 所以他就拿到了一个比较低的价格。然后呢,同时他的这个智能路由引擎会根据你的这个实际的任务 来给你分配最适合的模型,所以他不会让你花冤枉钱。就这个是他能够比传统的方式降低百分之三十以上的这个成本的一个原因。这听着像是在用团购的思维买算力,对,没错没错。然后他还有自己自研的推理引擎, 就是针对国产的这种算力做了深度的优化,所以他的这个硬件的开销也会减少百分之四十以上。 还有一些比如像什么智能缓存啊,上下文复用啊, toc 压缩啊等等的一些技术,所以他这个整个的这个系统就非常非常的高效,他这个规模上去了之后,就把这个成本又摊薄了嘛。 然后呢,这个谋囊到底是用了哪些办法帮大家把这个资源的占用和闲置都给降下来的?就是他的这个智能路由会把这些冷门的模型也都调度起来, 所以它就没有那种资源的浪费了,它这个资源的闲置率就可以直接减半,然后同时呢它的这个自研的推理引擎,配合上这种 prefill 和 decol 的 这种易购的分离,所以它这个昂贵的算力就可以去处理那些难的任务, 简单的任务就交给这种便宜的算力去做,所以它整个的这个资源的利用就会非常的合理。再有就是它的这个 token 压缩,在这种超长文本的这种情况下,它可以把这个内存的开销压缩到原来的十分之一甚至二十分之一, 所以就是通过这些技术啊,他就可以把这个资源的瓶颈和浪费都给你解决掉。然后呢这个 mom 还有一个很厉害的,就是他的这个实时流逝计费,这个到底有什么独特的优势?就他是一种按实际用量来进行扣费的,就你用多少就扣多少,然后他是秒级的计费的这个延迟, 所以你几乎可以认为你一调用他就已经计费了,所以你不会存在说我买了一个套餐,我用不完,浪费了,听起来对于那种流量忽高忽低的业务特别友好,对, 就是这样,你不管是流量突发还是说你的这个任务是非常短的,这种你都可以去精准的计费。然后同时呢它还有这种风控的机制和这个全链路的监控,所以你的每一笔消费都是可以查的, 就是让你彻底的告别这种糊涂账。我们要聊的第三个部分呢,就是关于安全保障的,那这个里面呢就有一个大家很关心的问题啊,就是这个猫马平台,它到底是用什么手段 能够确保这些政务、金融、医疗等等这些行业的敏感数据的安全呢,就这些行业的客户他的数据是特别敏感的,对,那模板就专门为他们推出了这个机密模型的服务, 就他会把这些企业的关键的数据和模型都锁在一个芯片级别的一个安全区域里面, 就这个数据是全程在密态下进行处理的。对,然后这个计算的环境是跟外界是完全物理隔离的 哦,所以说这个数据其实就是被锁进了一个保险箱里。对,对,就是所有的数据和模型的参数在网络传输的过程当中和在存储的时候都是加密的, 然后包括你这个模型的调用,什么密钥的管理啊等等的,全部都是细力度的审计和监控,就是保证每一步都是可追溯的, 同时呢它也满足等保二点零和 g、 d、 p、 r 等等这些合规的标准,所以说就是让企业可以彻底的放心。你能具体讲讲某满是怎么通过全链路机密计算做到让数据可用不可见吗?就全链路机密计算其实就是从这个底层的芯片 就开始做隔离,就他会用一些可信执行环境啊什么的,就把你的这个敏感的数据和模型都锁在一个硬件级别的一个安全区域里面,就这个数据是永远不会明文出现在内存里面的。 哦,等于说就是这个数据自始至终都处于保护之下。对,没错没错,就是数据在进入这个安全区域之前就已经被加密了,然后这个模型的推理也是在这个加密的状态下进行的, 所以说就是连这个平台自己都没有办法去看到这些原始的信息,就是保证了这个数据的绝对的隐私和安全。那你说在实际应用当中,哪些客户已经在用默认了,然后效果怎么样?现在已经有包括一些省级的政务部门,然后一些头部的金融机构,还有一些大型的央企 都已经用上了蒙马的这个机密模型的服务。这大家对于这个数据安全和这个合规性都是非常认可的,看来大家确实是信赖这个方案。对,然后他们也都反馈,就是说这个全链路的机密计算,让他们可以 大胆地去用这些 ai 模型,不用担心自己的数据会泄露出去。同时呢这个成本又可以通过这个 token 的 集约化的运营压下来,性价比是非常高的。对,今天我们聊了这个 mon 平台,从它的这个丰富的模型, 到它的这个智能的调度,到它的这个极致的省钱,然后再到它的这个超强的数据安全。是是是,确实可以看出来这个平台是 真的再让 ai 变得更简单、更便宜、更安全。是对,所以说未来的话这个平台很有可能会推动更多的企业和个人用上 ai, 实现真正的普绘化。我们这期节目就到这里啦,还有感谢大家的收听,咱们下期再见,拜拜。拜拜。

你们要的这个移动摸马官网入口,以及如何部署到手机电脑平板上的教程来了,还有很多朋友呢,不会,今天主播呢就出一期免费的教程教会大家,方法也是非常的简单啊。 首先呢,点我视频右下角的箭头,点分享链接,然后去应用商店下载一个这个,打开它,打开后会自动弹出文件包,点立即查看,没有弹出就在这里搜索大大愿望,我们点立即查看, 然后点进来打开最新软件合集,取消全选,找到这个移动木马最新版,保存下载就可以。