低价电力加开源大模型,中国 tocan 出口新机遇与阿里布局全景在全球人工智能产业高速发展的当下,算力成本成为决定大模型商业化竞争力的核心要素。 而中国凭借西部低价绿电资源与成熟的开源大模型技术,正走出一条电力转化为算力、算力转化为 tocan 服务的新型数字出口路径,重塑全球 ai 服务贸易格局。 从产业底层逻辑来看, ai 算力运行中电力成本占比超过六成。中国依照东数西算战略,将大规模算力中心布局于内蒙古、甘肃、青海、贵州等风光水电资源富集区域, 工业用电成本远低于欧美国家,叠加数据中心低能耗设计与能效优化,形成了全球领先的算力成本优势。 这一优势让中国企业得以将低价电力转化为高性价比的 ai 推理服务,以饕餮为载体,通过 a p i 接口实现跨境输出, 凭借零关税、低边际成本、无物理物流的特点,成为数字经济时代的全新出口品类。与此同时,全球大模型产业步入开元普惠阶段,中国科技企业凭借技术积累于生态建设,在开元大模型领域占据重要地位。 大量、轻量化、高性能、多语言的开源模型,面向全球开发者开放,精准匹配海外中小企业、创业团队、 科研机构的低成本 ai 需求,推动中国 toc 服务在全球市场快速渗透。作为中国科技企业的代表,阿里巴巴围绕开源大模型算力基础设施、自研芯片,构建了全站式布局, 全面承接偷看出口的产业机遇。在模型层面,阿里通一千万系列开源模型实现持续技术迭代,凭借高效的架构设计、优秀的多模态与多语言能力,成为全球下载量领先的开源模型家族,吸引海量海外开发者参与生态建设,形成了稳固的生态壁垒, 且 o p i 服务定价具备极致性价比,大幅拉开与国际同类产品的成本差距。在算力支撑层面,阿里云深度契合东数西算战略,在西部低价电力区域布局大规模算力中心, 有效降低算力运营成本,同时搭建覆盖全球的算力网络节点,为投垦跨境输出提供稳定高效的基础设施保障。飞天操作系统等自研技术则实现了跨区域算力的高效调度, 保障大规模 toc 推理的稳定性与吞吐量。在芯片技术层面,阿里平头哥自研 ai 芯片,针对开源大模型架构深度优化,在提升推理效率的同时降低功耗, 进一步压缩算力成本,实现模型、算力芯片的垂直协同,构建起从技术底层到商业化落地的完整闭环。在商业化落地中,阿里巴巴依照开源模型生态与全球算力网络,推动 toc 服务向海外市场持续拓展, 覆盖东南亚、中东、欧美等多个区域。同时将大模型能力与自身电商、云计算、本地生活等生态场景融合, 实现技术价值与商业价值的双向释放。低价电力赋予的成本优势,叠加开源大模型的技术与生态优势,让中国 ai token 出口成为具备长期潜力的产业方向。以阿里为代表的中国科技企业 通过全产业链布局与技术创新,正持续放大这一核心竞争力,在全球 ai 服务市场中占据愈发重要的位置,推动中国人工智能产业从技术研发走向国际化、商业化落地,开启数字服务出口的全新篇章。
粉丝93获赞389

你如果用这个 open cloud, 肯定会消耗很多 token, 那 最好的方法就是用免费的模型,这里它就会支持 onigravity。 千问还有 open code, 咱们这里就教一下怎么设置这个 onigravity。 用它里边的免费模型装上了之后就 out bought config, 这里边就点选 logo, 这里边儿选 model, 这个再选里边儿的模型。因为 onigravity 是 谷歌的,所以这里边儿选谷歌,选 onigravity。 当然你可以选这个 google gemini c l l, 这个也是因为 gemini c l l 也是免费的,但是 onigravity 它有更多模型,包括 cloud code 的 模型,还有 gemini 的 模型,所以这个 咱们选 onigravity, 它会跳一个网页让认证,所以这里你就选你的谷歌账号儿就可以了。 三音这很快就认证成功了,就可以选模型了。这里它选的模型比较多,所以就会需要一直往下拉, 它在谷歌 on the gravity 里边往下走,走走走,这是 coco 的 get up, 对, 这里就是大家可以看到谷歌 on the gradient。 我 这里边是把谷歌 on the gradient 下边的模型全都选了之后选,直接按空格就可以选和反选, 选完之后按那个回车就可以选定了,这里话直接跟 t 钮,然后它结束之后就可以自动地使用 anti gravity 模型了。这样 clubbot open cloud 就 可以免费使用 anti gravity 里边的 cocoon 了,就不用自己买 cocoon。 当然你可能配置完之后想选自己的首选模型,因为 integrative 里边儿有很多模型,咱们可以在这里边儿配置。在这个尼加目录点 cloud bot, cloud bot, 点 jason, 我 这里边儿直接打开,咱们就往下走,这里边儿你可以看 a 阵词,下边儿这有一个 default, 这就是你默认用的模型,这里有个 primary, 就是 它首选的模型。就是啊, google on the gravity 里边儿这个 color whoops, 四点儿五 thinking, 这个比较慢,所以我想要把它改成 gemini flash 这个模型,咱们呢? sun flash 对 这个模型会比较快,所以我想把它改成这个模型,当然你可以自己改,它就会首先尝试的模型是这个,如果不行,它会用 fallback。 这边的模型我现在已经改好了,之后我就可以保存重启一下 clubbot, 它就可以 clubbot play the gateway start, 我 又拼错,然后这就重启了,就可以开始用我新设置的这个 drama 三 flash 这个模型了。咱们看一下它具体的情况, 你就会看到你的模型已经开始用。呃,首选模型,这个有时候它算比较慢,但是总体来说它会遵循你的配置的。今天就到这来谢谢大家,希望可以帮到你们。

兄弟们,大家最近有没有被这只小龙虾刷屏名字从 cloud bot 到 multi bot 再到 open cloud 火爆全网,你们是不是也想拥有这样一个私人助理,每天早上打开飞书,让他整理 ai 圈发生的大事儿发送给我, 提醒我女朋友生日买花和订酒店,每天帮我关注和整理持仓动态,是否有重大利好利空等消息, 并且能够通过我常用的飞书给他下达指令,这就是 openclaw, 被称为真正能干活的 ai 助手。本期视频给大家带来 openclaw 的 保姆级教程,包含模型选择、安装部署、接入飞书以及如何配置使用 api 聚合平台 crazy router, 节省百分之五十的 token 费用。首先我们来看模型选择 opencloud 实现效果的核心在模型,虽然它支持很多模型,但是官方推荐使用 cloud ops 模型,效果比较好,建议使用。 然而 opencloud 非常费 token, 同时 cloud ops 四点五的官方 api 价格确实也让人生味。本期视频里也会教大家如何配置 opencloud, 使用 crazy router api 聚合平台,实现省钱百分之五十。调用 cloud ops 四点五。 接下来是安装部署,为了避免 ai 误操作导致悲剧产生,这里不建议部署在日常工作,电脑可以选择部署在云主机上,我这里用的是 a w s 送的半年免费云主机,大家可以根据情况自己去薅。 这里我们打开终端,直接登录到 a w s 的 云主机,输入 open c 号官方提供的一键安装脚本进行安装即可。 安装完成,进入初步设置向导选择模型,这里可以先跳过,后面会进行配置,选择 channel, 这里默认没有飞书也可以先跳过,后面会配置 skills 也可以后面根据需要再配置,后面一路 no 和跳过即可,之后根据实际使用情况再进行配置。 这里使用 openclaw gateway status 验证一下状态,再用 curl 看一下状态是不是两百,这样我们就完成了基础的安装配置。如果需要远程访问 openclaw 的 管理界面,还需要安装 x x 进行反向代理,这里可以使用 e r m 进行安装,配置文件可以参考我这个, 重启 n g s 即可。接下去配置 openclaw 信任代理和允许 http 认证, 然后重启 openclaw, 再获取认证的 token, 将 token 拼接在 url 的 后方,即可访问 openclaw 的 管理界面。接下来我们配置 ai 模型,这里使用 api 聚合平台 crazy router 提供的 api key 进行配置,它比官方 api 便宜近百分之五十。 模型使用这个 called open。 四点五,我们点击令牌管理来创建和复制我们的 api key。 接下来打开 openclaw 的 配置文件,找到 model 和 agent, 这里按照我这里面的配置完成 crazy router 的 api key 和 cloud ops。 四点五的配置,重启 openclaw, 完成配置。 最后一步,配置飞书渠道,飞书使用 webbed 长连接模式,无需域名和公网回调地址,配置简单,个人用户也可以免费使用。首先在开发者后台创建企业自建应用,然后获取应用凭证 app id 和 a p c secret, 同时开启机器人能力 开通相关权限。在 opencloak 中安装飞书的插件,设置飞书中我们刚才获取到的 app id 和 app secret 再次重启 opencloak 事件配置中使用长连接接收,同时添加事件和事件权限, 再创建一个版本并发布,就完成了飞书的配置。接下来我们实际看一下效果,看看 opencloak 能帮我们做些什么, 很快就帮我们生成了一份高质量的总结报告。 接下来可以给他布置一个任务,每天早上帮我们搜集持仓股票的动态信息,分析财报、产品发布、监管诉讼、高管变动等重大利好利空消息。这样他每天就会把详细的分析报告发送给我们,方便我们第一时间了解持仓动 态,也可以很全面地分析多个同类产品的情况。 最厉害的来了,可以让他给立即帮我们写一个专业的程序,然后运行这个程序,得到我们想要的运行结果。整个过程我们完全不需要关心代码文件和运行环境。对了,这里要配置下 a 阵字的权限才能使用编程代理, 他会直接把程序的运行结果给我们,结果也完全符合程序的逻辑和预期。 最后总结一下,我们首先进行了 opencloud 的 安装配置,接着配置使用 crazy router 的 api key 注册来调用 cloud opens。 四点五,使用飞书机器人作为接入渠道进行通讯。最后演示了几个常用的应用场景, 像 opencloud 这么全能的助理,每个人都值得拥有。再把我踩过的几个坑给大家分享一下。好了,本期视频就到这里,有问题留言问我。

上一期我们讲完的 ai 芯片是怎么生产出来的,今天我们讲 ai 芯片怎么变成 ai 酸粒。芯片生产出来了以后先要放到 pcb 板上面, 就类似于我们的 cpu 需要放到主板上面。 pcb 板的生产厂家有圣红科技,棚底控股,棚底以前的份额更大,但是把精力放到移动端的 pcb 板上面,结果圣红做的更好了,还有互电股份以及生意。像现在主流的英伟达、 gb 三百都是一颗 cpu, 然后两颗 gpu, 只不过每个 gpu 上面可能是两个带或者四个带。接下来不同的是 gpu 本身,如果是我们常说的四零九零、五零九零等消费级显卡,它的 散热芯片跟一二是不封装到一起的,围着在这个 gpu 附近。如果是像 b 两百、 b 三百这种 gpu, 跟 它的显存也就是 hbm 是 封装到一起的, hbm 就是 高速内存,相同大小的 hbm 是 我们硬盘价格的几百倍。能生产 hbm 的 目前主要是 s k, 海力士最多,其次是三星,随后是镁光。我们国家能生产 hbm 的 只有一家,叫长芯存储, 今年应该会上市,而他的兄弟公司叫长江存储。长江存储是生产硬盘的,长兴的难度会比长江高很多,价格也会贵很多,这个在课程里面会有详细的介绍。主板安装好了以后, 我们就到了高速互联部分,所谓的高速互联就是把服务器内和服务器外的高速显卡连起来,也就是把率连的起来。在内部有这个 叫网卡,网卡上面要插光模块,光模块呢要连线,或者有光模块跟线放到一起的,我们称之为 aoc 网卡里面比较有名的就是麦克斯的 ib 网卡 以及现在 c 叉九网卡, c 叉九网卡既支持 ib 互联,又支持以太互联。光模块里面大家都耳熟能详呢,就是中继续创, 然后新益盛还有天府通信,这两个是生产光模块,天府通信只生产光模块的主件, 线缆里面也就光纤线缆里面看着地图成飞光纤就可以了。而 aoc 还是光模块的厂商,当然还包括国内比较有名的光纤科技。主网完了以后就到了冷却,冷却里面大家都知道伊维克 现在是 t 一 级的供应商,然后还剩下了高栏股份,森林环境以及叶冷的曙光加入了冷却以后变就是这个电源,电源记住两个,一个是麦格米特,一个是提供淡化甲电源的璎珞赛科,接下来就是把它就组装到一起的整体集成公司。 工业互联,也就是富士康以及浪潮华山和超巨变,中兴通讯等等。在国外呢分为 o d m 和 o e m, o e m 就是 工业互联,广达,英业达等等。 o e m 就是 我们耳熟能详的超威,戴尔、 g 加、华硕、微星等,等到他们整机到他们组装完成以后就上架到云服务的厂商,像 阿里云,火山,腾讯等等,到这里就变成了我们的 ai 算力,或者说是 token, 我 们公司租的云算力就包括五六家,整个算力产业链就讲到这里,更多更详细的内容以及公司分析请看我的课程,谢谢!

在这个视频里,我将分享给你们看我昨天构建的项目工作了超过十七个小时,并花费两亿一千四百六十万扑克斯在刚刚发布的 jimmy 三点一 pro 上。首先我想谈谈这个模型的精准测试,我会向你们展示这些精准测试, 然后我还会展示我昨天用这个模型构建的东西。在花费了这么多 tokens 之后,让我们直接开始看看精准测试吧。我想说一件事,我对这个模型目前的表现感到非常震撼。我原本期待模型昨天发布,但我没想到它会这么好。这是从 gemini 三 pro g m 那 三点一 pro 的 巨大飞跃。看看它呗。 agi 二,看这个三十一点一百分之到七十七点百分之一可是抽象推理谜题的基本,人类最后的考试也是一样。百分之七和百分之六的提升。 live code 奔驰 pro 从两千四百三十九到两千八百八十七 suv bench pro 有 着巨大的提升。 之前是四点百分之四。 suv bench pro 确实比 oppo 四点六稍微低一点。但我想说一件事,这个模型在某些领域 编程方面表现出色。我会分享给你们看几个昨天我遇到的案例。这个模型表现在真实编程任务中极其出色。说到这里,朋友们,我确实有个目标是这个视频获得二百个赞。如果你还没加注互联网上增长最快的编程社区,请务必查看下方描述中的链接 以及置顶评论中的链接,加入 bridgemind discord 的 社区。那么让我们直接进入视频吧。首先我想介绍一些 bridgebench 的 结果,所以我让他通过了创意 h t m l 任务, 比如,这是它为太空侵略者掩饰做的,你可以看到这是它生成的。我想说,这个模型 ui 功能的编写能力,能够编写独特且现代的 ui 元素,这非常非常明显。 好的,你可以来这里看看,对吧?让我们看看熔岩灯。实际上我已经打开了。这是 jimmy 三点一 pro 的 熔岩灯。你们可以自己判断哪个更好,但我一眼就能看出,嘿,这个更好。 这是比这个更好的熔岩灯。这是欧帕四点六,对吧?现在,让我们继续往下看。你们可以去查看 bridge bench。 我 还没把它放到排行榜上。精准测试结果,我们把它通过了一百三十个编程相关的任务,但我已经把它放到创意 h t m l。 中。 你们可以去查看 bridge mind i i。 但我想展示我昨天做了什么,以及我如何花费所有这些 tokens。 首先,我让它完全重够了。大概我想说,大约二十到三十个网站页面,我将向你们展示几个亮点。首先,你们 看到这个视频了吗?这个视频是用 gemini 三点一 pro 创建的。用 gemini 三点一 pro 和 remote 创建的。我只需要用 cursor 说看看网站和 bridge mind 的 编程套件中的产品,并创建一个营销视频,准确呈现 bridge mind 的 品牌和主题。 它生成这个我想说,嘿,这正是你们可以看到的,随着模型变得更好,能力将超越仅仅是变成,对吧?我们正在创建营销视频了,这是它创建的一个东西。另一个东西是,我想去 bridge m c p。 向你们展示一个非常有趣的例子,如果你看到这整个 u i 都是由 jamming 三点一 pro 创建的。 如果你看这个,你们看到在使用 jammy 三点一 pro 之前,我没有这些品牌的实际品牌资源,只是占位符图标。那我告诉 gammy 三点一 pro, 我 希望你去互联网上 用实际获取每个公司的实际 logo, 然后创建一个独特的自定义主键,这就是它生成的,它能够实际从互联网上获取 logo。 我 认为这展示了远不止你知道。如果你回到 准测试那个例子展示了智能能力,他知道并能够理解。好的,我需要去这里,我需要你知道看看标题并获取你知道去品牌资源页面下载这个文件,然后我需要把它复制到项目中, 我需要把 p n g 放在这里,它完美完成了。你们可以看到这看起来很棒,对吧?它还能够创建另一个营销视频。这整个 u i 营销视频,你看到全部都是詹姆尼三点一 pro 这个动画 是用 gemini 三点一 pro 创建的,非常非常好的动画,反映了 bridge mind m c p 的 功能。让我们回到上面另一个,我想给你们展示的是,就像这些其他页面,对吧?看看它创建的这个动画,这用了三 g s, 它能够 创建了这个独特的动画来展示 bridge space 的 能力,以及并行运行十六个代理的能力。它在这里创建了这个独特的组建,用来给它一种清新,独特的外观。这是我们看到的来自 jamini 三点一 pro 在 样式方面的表现。 jamini 三 pro 已经很擅长样式设计,这是百分之百的提升。 我注意到了它的能力,这真的非常擅长样式设计,这是百分之百的提升,我注意到了它的能力,这真的非常擅长样式设计了,这是现在首选的模型用。

嗨,大家好,今天给大家分享下基于 openclo 搭建本地 ai 员工的部署教程,不用花一分钱托肯, 这次我们基于汪派能用为面板来搭建搭建完全本地化的 ai 员工助理,核心是部署欧拉曼本地服务以及 gpt 模型,再搭配 openclo 作为交互入口, 数据全程保存在自己的服务器,既省钱又安全,不管是日常办公还是个人使用都超方便。话不多说,咱们直接上实操。整个实操过程分为六步, 第一,准备 gpu 服务器。第二,运维面板万帕诺安装。第三, gpu 资源配置。第四,奥尔玛模型平台安装。第五,完成 gpt 模型加载。第六, open club 个人员工构建。 我们先来完成第一步,基于腾讯云申请一台带 gpu 的 云服务器,这里选择创建一个竞价实力进行操作演示。首先我们保证服务器为 gpu 架构,为本地模型提供算力。其次,磁盘记得设置为一百 g, 方便大模型下载到本地 并开通公网 ip, 方便后续访问。最后记得提前开通应用的默认访问端口,欧乐玛应用端口、 one panel 应用端口、 openquad 应用端口。服务器创建好以后,我们直接登录腾讯云服务器,默认会享 gpu 相关驱动。安装好首次登录需要耐心等待下,登录后,首先我们通过 sudio 命令切换到 root 用户下, 然后到 one panel 在 线文档中获取一键安装命令,直接复制执行即可。进入安装过程时,先检测完成 dawk 的 安装,需要确认安装目录并下载安装 dawk, 安装完成后,开始设置镜像加速器和面板访问参数,其中输入 yes, 完成镜像加速器配置, 面板端口号输入我们已开通的端口号,最后获取面板账号及面板密码即可。登录 one panel, 登录后我们确认下 gpu 卡的驱动情况,紧接着配置好面板访问地址,方便应用直接跳转访问。配置完成后,我们进入终端开始 gpu 资源配置,首先再次输入命令行,确认英伟达显卡驱动,然后逐个输入命令,完成英伟达容器镜像安装 配置 dolphin 镜像使用英伟达的 gpu 资源配置完成后重启 dolphin 镜像,这样我们就完成了 gpu 资源使用的配置。 到这里我们基本准备好了我们的资源,接下来我们开始欧拉玛的安装,我们进入应用商店,选择 ai 就 可以快速看到欧拉玛应用,点击安装输入相关参数即可。 这里我们需要确认好版本,零点一五点四当前最新版本端口号一一四三四开启端口外部访问,最后一定记得勾选开启 gpu 支持,其他保持默认,点击确认开始安装。这里安装包含镜像拉取以及应用安装两部分,大概需要一分钟左右, 这里我们快记下。安装完成后我们到已安装应用中确认欧拉玛已经正常运行, 点击链接地址页面显示欧莱玛 is running 即可。到这里我们就完成了欧莱美开源模型管理平台安装。下面我们急于欧莱玛完成开源模型 g p t 杠 o s 二零 b 模型的加载, 大家跟上节奏,在 one panel 中找到 ai 管理,进入模型管理,点击创建模型,在模型配置页面点击快速跳转进入欧莱玛官网, 输入 gpt 杠 o s 快 速搜索到模型,点击获取模型 id。 然后我们再回到 one pan 面板,输入获取到模型 id, 点击确认开始模型下载,该模型下载大概需要十到二十分钟,这里我们快速跳过模型,加载完成后,我们就为我们的个人 ai 员工准备好大脑了,我们通过模型先验证下能否正常对话,太棒了,可以对话哦, 这样我们就为 ai 员工准备好了大脑。下面我们同样基于 one panel 来安装我们最近特别火爆的 openclaw, 进入应用商店找到 openclaw 应用,点击安装完成参数配置确认,默认端口号已经开通,下拉选择欧拉曼模型供应商并输入相关参数,具体参见如图所示。其中 gptos 二零 b 对 应我们下载的本地模型 a p i t 输入任意字母 base u r i o 对 应我们部署的欧拉姆地址。最后同样记得开通端口外部访问, 其他参数保持默认,点击确认即开始安装。安装大概一分钟左右,我们同样快速跳过,安装完成后通过安装目录获取 opencloud 访问 token, 获取后与 ip 端口 token 等于 token 值,拼接后输入 web 访问地址中, 最后点击跳转,直接选择带 token 的 访问地址就可以体验啦。让 ai 助手帮忙创建一个文件清单,到服务器对应目录查看,完成操作啦。 接着我们让他网上查询一些信息,他也可以轻松帮我们搞定。到这里我们就完整构建了一个本地的 ai 员工啦,大家速来体验呀!完全可以用 one panel 作为 ai 员工的管理员,本地,重点是本地!本地就等于安全! 同时再也不用为 token 着急上火啦!小伙伴们快来快速构建,抓紧体验啦!

自己消耗了十亿头肯欧盟 club 国产热门大模型头肯消耗测评我来了,暂停,先看结果, 别着急,表格呢,我也已经整理好放在文档里面了,你们啊,全网都在找一些省钱的模型,我们就日常工作的场景就消耗和交付的结果来对比一下。先看一下这次参赛的选手,热门国产模型三喉结, gim、 mini max 和 dbic, 还有另外一位终极本地免费外卡选手奥莱玛。我准备了一个七千行的员工考勤表,让他去做本地的数据分析,最后产出一个可以汇报的文件发送到飞书。 ipsic 呢,响应时间很长,整个过程经过不停的催促和卡顿,花了挺长的时间。 mini max 挺利索的,五分钟左右吧,可观性呢,也很强。 glm 速度很快,可观性也很强,核心的动产部分展示更清晰, 沃达玛等了半个小时直接报险存,个人更偏向 g l m 五点零模型速度最快, ui 更简洁,观点也更清晰。头克数呢,也看了一下,基本上都是两百万到三百万之间,其中啊, g l m 两百万出头,另外两家都是三百万以上。 我们准备了一个三千字的会议资料,让他呢去提炼会议内容以及建议,并搜索网上的大模型数据进行佐证。生成一个可以汇报的文件发送到飞书。 deepsea 呢,响应时间依旧很慢,且一直有无效的回复。 mini max 呢,还是人狠话不多,直接就是干活。 gim 的 结构非常清晰好读,对比维度呢,也很全面。奥拉玛依旧等待半小时连接超时。在这里啊,已经可以看出 gim 五点零这次新出的模型已经拿出优势了, 在涛哥的消耗上呢,也依旧能省下百分之十五的领先表现。我们准备了一下常识逻辑的脚本题,去试一下他们的反应,看看 ai 们会不会看出零课时不加猫粮的反常识问题的反馈呢。这次很快,理论逻辑环环相扣,但是呢,他好像并没有考虑到常识上面的逻辑。 mini max 呢,由于接口问题,工具代用成功,但是不能回传,不支持本地脚本。 jim 五点零不错,最重要的常识逻辑呢,他会进行一个提示,他也发现了零课时不加猫粮的意图,他执行,但提醒你,这样的设定是不是为了洗猫粮盆 奥拉玛老规矩,连接超时。 deepsea 啊,在单文本任务上的反馈时间终于恢复了,不过呢,也仅仅只是停留在他只是一个还不错的执行者。最后,如果你的使用需求很大的话,需要他二十四小时不间断的工作。不管什么模型,都是推荐扣丁 plan 的, 月费小百元级别,轻松拿捏。 请做一些文员日常数据整理, ppt 内容输出。实际应用上来看啊,一个总结性的输出内容,各家用的 token 消耗都差不多。目前最新的 gim 五点零模型呢,有一点点的小优势。至于模型之间啊, deepsea 还是等四点零出来吧。现在这个状态呢,是不太理想的, 而且呢,也没有月费的制度。 mini max 呢,如果做一些 office 相关的工作的话呢,还是非常不错的,充钱呢,也比较灵活, 还有优惠。对于前面试的两个案例的总结啊,其实整体花费也就一块钱不到,最全能的呢,还是 g i m 五点零,想要一个一直在线的能写项目能聊天的全能助理,就看啊这小百元的月费和你的工作内容能不能匹配的。上了 省钱党的最终模型奥拉玛。这个呢,是真的有点失望了,错了很久啊,几乎是没有办法在大龙虾上指挥他干活。 oh god please no! 都说免费的才是最花钱的,有更多时间的玩家呢,可以继续去跟奥拉玛搏斗一下,想真正提升工作效率的话,找到合适的模型才是正确的选择。好,本期视频就到这里,希望对你有所帮助。我是阿瑞,我们下期再见。

用最简单不绕弯的话跟你说清楚 token 是 什么?在 web 三、区块链里, token 等于代币通证,你可以把它理解成区块链上发行的数字权益凭证。 最直白的比喻,现实里游戏币,门票、积分,股票、会员卡,区块链里头肯他代表价值使用权,所有权,投票权,收益权。 token 不是 什么,很多人搞混比特币以太坊是公链原生币, coin 链上发的,其他币叫 token 代币通证,比如以太坊上的 as, uni, shib 都是 token。 toker 能干什么?买东西支付手续费,投资投机,项目治理,投票代表某个 nft 资产权益。作为社区通行证。一句话总结, toker 等于区块链上的通用数字凭证,可以是钱票, 积分,身份权益。如果你愿意,我可以再用超简单的话讲 toker 和 coin 的 区别。 toker 有 哪几种? 我 app 三,不是单一加密技术,而是以密码学加区块链为核心,构建去中心化信任与用户主权的技术体系。 核心加密技术四大支柱,一、非对称加密,我 app 三、身份根基一、对密钥,公钥公开地址加私钥绝密控制权常用算法, x 比特币以太方 a d s a 减作用,身份验证 数字签名资产所有权证明关键私要等于资产丢失,无法找回。 二、哈希函数数据不可篡改的核心常用 sa 二五六 kekk 二五六特性, 单向不可逆固定长度,抗碰撞作用生成区块哈希交易 id mark 数,确保数据一旦写入无法篡改。 三零知识证明隐私加扩容双杀核心证明我有,但不泄露。我有什么应用隐私币 cash ck roloops ck sink startup 列下扩容价值,兼顾透明性加隐私性,提升吞吐量。 四、数字签名交易合法性保障用私要签名,公要验证,不可伪造,不可抵赖,确保交易是地址所有者发起。防止篡改 加密技术如何支撑 y f 三据中心化身份地用非对称加密做自主身份,无需平台账号数字资产安全,私要控制资产 恋上公开可验,不可篡改去信任交易密码学替代中介陌生人可安全交易隐私保护零知识证明隐藏敏感信息,同时保证合规。 一句话记 web。 三加密等于非对称身份加哈希,防篡改加零知识隐私加签名可信,共同搭建去中心化信任需要我用一个简单例子,比如比特币转账。

如果问二零二六年最具潜力的中国制造是什么?很多人会想到新能源汽车、光伏电池。但在另一条看不见的通道里,一种新的出口品正在形成规模。 这种出口品叫 token, 它不像汽车装进集装箱出海,而是通过光缆和数据中心,以 api app 的 形式进入全球的系统里。你可以把它理解为一种数字劳务,不是派工程师出海,而是输出可按需调用的算力与智能。 token 本质上是被封装的算力由三层构成。能源硬件算法第一,能源优势。西部巨大的风电、水电与光伏,让单位算力的能源成本占据绝对优势。 第二,极高的利用率。算力是重资产,国内采用全球轮转调度,让设备接近满负荷运转,摊薄了折旧成本。 第三,工程优化,简单任务少耗资源,复杂任务才火力全开,进一步压缩了单位 token 的 能耗。二零二六年, token 已经像电力一样,成为隐形的基础设施。它们不占集装箱,不交关税,却无处不在。 过去我们用衬衫换飞机,今天我们用 token 换回美元数据和影响力。只要世界的尽头还需要计算,中国的 token 就 永远有买家。因为在这个数字时代,廉价的算力就是绝对的权力。

二零二六,一种狠心的 token 出海正在悄然暴利。不出国不运货,靠家里的显卡做 token 出海,这门生意,今年或许真的能跑通。现在,美国硅谷正陷入一场前所未有的电力饥荒。 一边是 ai 算力的需求爆炸,一边是老旧的电网根本承载不了这么大的负荷。在弗吉尼亚州和加州,很多数据中心想要扩容并网,排队已经排到了两三年后。这种有钱买卡没电开机的窘境,正在推高全球的 ai 产业的底层成本, 而这恰恰给了一种全新的跨境贸易模式留出了巨大的套利空间。它不是简陋的倒卖硬件,也不是复杂的软件外包, 这本质上是一场利用两国资源禀赋差异进行的数字能源套利。我们来做一个最直观的对比,在美国,工业电价受限于能源转型和基建之后,很多核心地带已经涨到两三毛美金一度。 而在国内,一托完善的能源工业体系,我们的电费成本只有人家的几分之一。更重要的是人的红利。 同样一套分布式算力集群,美国聘请专业运维工程师的成本极高,而国内拥有大量懂架构、会调优的自动化和计算机专业人才。这种工程师配置的性价比是全球任何地方都比不了的。 你用最低成本的店,配上最高效率的人,跑的是国产最强的 mini max。 开源模型生成的 token, 通过云端 api 卖给对价格敏感的美国独立开发者。你在境内完成生产,他们在海外完成消费,赚回来的是真金白银。 算力正在变成像煤炭、石油一样的基础商品,美国虽然在芯片制成上领先,但是在 ai 竞争中拼到最后,拼的是单位算力的综合成本。未来,谁能把低廉的电费和高校的人才红利转化为全球通用的 api token, 谁就掌握了印钞机的摇杆。这种分布式数字出口,正在打破地理和政策的边界, 这不仅是技术的较量,更是能源效率和人才密度的对撞。当然,这种路子对一般人来说也是有门槛的,跨海传输的延迟如果控制不好海外客户的体验就会直接崩掉。美国最新的法案虽然复杂,但是只要搞清楚服务贸易和算力租赁的界限,空间依然很大, 更别说还有资金回笼时的合规审查,每一步都得踩准节奏。这门生意是留给一些既懂底层技术又懂国际贸易规则的国际数字玩家的。

大龙虾还没有明白,百万 token 先没了,别急,一起来薅老黄羊毛。无限 token 免费用。首先在英伟达这个网站用邮箱注册个账号,接着验证一下手机号,就能调用 api 了, 关键是支持国内手机号,不用绑卡。然后随便选一个大模型,进入聊天页面, 这里可以切换各种大模型试试,白嫖的人太多,热门模型可能响应很慢,找一个速度还过得去的,这里查看视力代码,可以直接复制模型相关配置。然后打开你龙虾的外部页面,修改配置, 保存之后建议重启一下服务,现在就再也不用担心托肯消耗了,之前配置好的飞书也能直接使用。

带你看看我用 oppo pro 两周之内的真实消耗,再告诉你一个技巧,让你的头壳消耗直接减少至少一半,这是谷歌官方的 api 基本系统,我们来看看这个月我是用了十二美元,我使用的模型主要是 java 三 pro、 nano 三 pro 和 sunflash, 我 用它做一切的流程,自动化、视频生成、图片生成、代码生成。再看看我们团队的差不多有三十人,这两周用了七十美元,算下来每天就是五美元,他们用文字、视频、图片的模型做类似的用途。这样算下来,我们每人每天用 java 的 模型差不多就是五到十块人民币, 这个费用远远低于大家在网上说的数字。那为什么我们能做到这么低呢?告诉大家一个技巧,首先打开你的电脑终端,确保你的 open class 是 正确安装的,然后输进去 open class skills, 这里面会告诉你你已经安装了哪些没有安装,哪些打了对号的是安装的。当你认真读清楚你安装的这些技巧之后,在你用旁边和 open class 对 话的过程中,在每次做任务的时候一定要加上一句话,就是用指定的技巧。比如在这里我让他帮我修改 pdf 的 时候,用到了 nano pdf skill, 如果你不指名的话,他会调度多个,一个一个去尝试,所以很多头衔就会浪费在过程中。 如果你已经安装部署的 oppo core, 赶紧去试一试这个技巧,你会看到明显的头壳消耗的下降。如果你还没有安装,或者你不知道怎么去本地部署安装 oppo core 的 话,我们正好有一个 ai 工具小组,里面有手把手的安装教程和进阶的 oppo core 落地应用教学。如果你感兴趣,可以看视频主页介绍,第一行会有专人给你提供更多的信息和介绍。

这周我们烧了十亿多的 token, 在 openclaw 上大概就是一千五百美金吧。呃,但是我觉得非常值啊,因为我们终于 figure out, 怎么去管理一个 ai agents 团队, 所以如果你是一个艺人公司,或者你想用 ai 来管理协调你的整个团队的话呢?那请看完这条视频,因为我们已经帮你省下了一千五百刀的学费。 整个 a i a 阵子团队的协调枢纽和核心呢,就是最近这个特别火的 openclaw, 他 只要被调教好了,就是一个非常完美的项目经理。但也像所有刚招进团队的同事一样, openclaw 本身并不是一个开箱即用的 数字员工,我们需要去培训,他就是什么事情能做,什么事情需要让其他的人类同事或者其他的 agence 搞定进度该怎么汇报?有哪些规则要遵守?那么这些规则呢?在 open core 里其实就是一个叫做 agence 点 md 的 文档, 这个文档就定义了 ai 的 所有行为准则,它是一个配置文件,基础的配置就非常简单,就像一个没有被培训过的新员工一样。但是在过去一周的时间里,我们不断的去优化这个配置文件,让他成长到了可以帮我们去协调其他 六七个 a 公司的一个项目经理。那我们其实主要增强了他在以下三个方面的核心能力吧。第一个就是主动性, 因为很多人说 agents, 大家觉得他只是一个工具,只是一个机器人,那是因为他们是被动的,就是你给他一个指令,他就去执行一次, 然后你推一推他,他就往前走一步,他并不会主动的去想办法解决他遇到的问题,也不会主动的复盘和思考说怎么样把一件事情做得更好。 那如果 aids 只做到这样的程度呢?它确实只能当一个螺丝钉,但是 open course 不 一样的,它本身有一个心跳机制,就是 heartbeat 会定时去检查哪些项目卡住了,然后哪里遇到了它自己解决不了的问题,并且主动跟我们去汇报。 当然只做到这个程度的话,肯定还是不够的,所以我们在 a 证点 m d 里呢,就配置了更多的规则,让它能够做到不需要我去问任何一个项目的进度,它就可以完全汇报给我。 第二是可重入性,可重入性其实就是说这个 a 证它能不能稳定的靠谱的把一个很长期的东西干完, 它并不是说这个 agents 可以 百分之一百的在线,永远保持 up time, 因为项目的推进总是会出现问题的,然后网络即便再好的网络环境也会有意外的中断,所以我们要的其实是 它能够在项目中断,网络断掉了之后,当它重入的时候,能够从断掉的地方稳定地继续向前推进,它甚至可以去 fix 去解决为什么会断掉了这个问题。 openclaw 的 工作记忆管理,呃,其实是被动进行的,也就是说如果他认为和你对话当中没有涉及到什么重要的任务,没有涉及到什么重要的内容,他是不会主动记录到他。当他的工作日记当中 就导致比如说你重启了 gate 位之后,它就忘记了它在干嘛,所以我们在调试的过程当中呢,就优化了它去主动压缩上下文,主动刷新 session 的 这个配置,让它能够在横跨多天的非常长的任务或者是对话当中,依然清楚地知道啊不同的项目应该怎么样去推荐。 然后第三点,我们对它的改进,我觉得可以称之为 a gentle thinking, 就是 像 agent 像 ai 一 样去思考。因为很多人觉得调教 ai 来进行人机写作,应该是像 agent 像人类一样思考,但是我觉得恰恰相反,因为归机生物就应该用他们自己最熟悉,他们自己干的最好的方式来解决问题。我举个例子,大家肯定都让自己的 agent 去做过一些很简单的自动化,比如说去帮你发一条推特,去帮你在 tapp 上面呃 发一个 issue。 那 这个时候 a 正题有很多技能是可以用来干这个事情的,比如他可以像人类一样去操作浏览器,模拟人类的点击和思考,模拟人类在浏览器的输入框中,用键盘输入 来完成这条帖子的发送。当然呢,他也可以直接写一段呃 js playwrite 的 脚本,调用这个脚本来实现刚才的这个任务。但是最高效或者说最省钱最快速的方法, 肯定显然就是他直接去调用呃相关平台的这个 api。 那 么在刚才的这个任务里,比如说发帖子,在所有他可用的方式里,最慢最浪费投坑的方式其实就是模仿人类的这个方式。所以我们在给 openclaw 定的这个行为准则当中呢,就明确规定了 他在不同工具托 use 的 一个优先级,优先级高低吧,就不仅是当他自己要去解决问题的时候,应该以一个什么样的方式思考,什么样的方式去用工具,包括当他要和其他的 agents 交互的时候该怎么办?比如我们团队当中的 ai 工程师就是 cloud code, 那 open code 跟 cloud code 去共享一个项目 context 的 时候呢?它根本就不需要像人类一样,两个 agents 那 边开会聊天,它只要把自己在这个项目上的工作记忆日记直接把那个路径开放给 cloud code 就 可以了, 它们就直接可以完成整个工作 context 的 共享。除了上面的几个主要配置优化呢,我们还做了很多在细节层面的调整。呃,我也把这个版本的配置文件 留在评论区了,大家可以直接把它发给你自己的 agent, 他 就会自己根据这个文件里的指示完成所有的升级。 all right 我是 v a 七,现在在做一家 ai 加跨境的公司,如果你也想探索 ai agents 或者是相关的业务领域的话,欢迎来一起交流。 have a good one。

有人说 openclaw 是 ai 出现以来与大家最相关的一次,它超出了传统以往的人机互动的模式,这才是 ai 带来的便捷性的技术。那么我们今天来配置一下 openclaw, 因为其实我可以预计到在未来的一年甚至五年的时间之内, 会有很多的 ai 的 账户会涌入到我这个云里面,甚至有些个别的云里面的账户,我应该会把它配置到本地的呃账户里面去,所以目前会先暂时的先小试牛刀,先测试一下它是怎么样的效果把。 本来用 ai 主要的目的呢,是想让他帮助我去处理一些日产事务性的工作,比如说早上要给我发一些汇报性的一些总结的文案,以及是呃昨天的销售的情况,然后去统计啊过去这一周 发生的事情大概是怎么样子,然后并且去合理的分配给我的每一位同事和包括我自己,也就去收集一些啊外网发生的一些信息,比如说关于这些电商,关于这个抗衰行业到底发生什么样的变化,然后第一时间同步给我,然后与其我这样子,我就可以去看现现现今的这些技术,然后成分, 然后可以迅速的跟得上这个时代的变化。现在是二十二点五十九分,我们来看一下我们大概多久能把它部署完毕。常见的配置 open core 呢?可以有一个本地的服务器,然后再加上 token, 或者是一个云端的服务器加上 token。 我 呢一般比较喜欢用腾讯云,所以我就直接买腾讯云了。国内目前的各种云其实把 open core 已经研究的非常透了, 我们打开了腾讯云之后,直接到它的服务器里面买一个最普通最常见的六十八块钱, 个人认证完以后就可以享受一年的费用六十八块。然后我们直接就买好,购买成功直接去长按服务器。好,现在看到这个服务器直接点进去就行了。然后呢,我们就可以根据腾讯云的 opencloud 配置模型跟通道一个一个来配置。 这里面说一下,因为我点进来之后,我选的模型是统一签问的,所以下面有个链接会让我去到阿里云,阿里云里面注册,并且去创建一个新的 key 就 可以。然后我创建新的 key 呢?其实是在这里,然后在描述里面我可以写上就说是 open 啊,然后就点击确定 一样的,飞书那边也有非常详细的这个啊, api 跟 secret 那 个调配的文件,然后直接把它复制过去就可以。比如在腾讯云上它就有个专门的 open cloud 啊,快速进入飞行飞书的指南,然后上面有非常详细的教程,我们再来快速的做一下。 好,现在我的资料都添加成功了,千万跟飞鼠都已经是配置成功了。 skill 我 现在暂时先不弄,目前是打了过去了八分钟的时间,然后一件比较好玩的事情,我在腾讯的教程里面看到了他同时用了用了两个 channels 和两个 models, 所以 我也来尝试一下,我是不是把混元也能加上去。 好,我现在把混元也加上去了,看他有没有成功。哎,果然他可以在同一千万跟混元里面可以加入多个, 那我可以自行把飞书给它加上去。企业微信,现在呢,我根据提示把抽签还有 encoding 的 这个 key 给它填进去,并且把 url 填进去。但是它提示我说域名的主体 未通过,需要配置主体与单件企业相同的或关联的域名。那我大概就明白了,就是说我的腾讯语音其实是个人的账户,然后我的企业微信是 啊,公司的账户,所以他两个其实是不同的主体,所以他暂时不能够通过。也就说如果我以后要用企业微信的话,那我应该用企业微信的域名去注册,这样应该能够打通。好了,现在大概二十几小半个小时时间,我已经把这个 open call 已经配置成功了。 中间还有个小插曲,就是中间这个企业微信的配置,如果没有的话,大概二十分钟就能搞定。现在在飞书上我已经跟他对话了,看一下 发了信息之后,他已经回复了, all right, that's good, hello, how can i assist you today。 现在配置完了之后,我第一件事情就是开始跟他去介绍一下我自己,就像一个博主讲过的,把它当做一个同事和员工来处理。 如果你刚开始认识了这个人,你是不是马上就跟他出去吃个午饭,互相再认识一下?所以我现在在做了。就这件事情,我现在要马上告诉他我的从事的行业以及我希望跟他是怎么合作,并且我跟他命名叫 claire。 且我告诉他的第一件事情是从明天开始让他去收集一些网络上面的信息,按照我的要求,每天早上九点钟发给我,我们期待明天早上九点钟是不是能够收得到他的信息。

这是我们一个 h 两百的整机巴卡部署一个 deepsea 的 模型,这里我看看到险层占用基本上已经全部分给了这个 deepsea, 然后我们来看一下跟他的一个聊天,这里的话可以看到 deepsea, 我 们来问他一个问题啊, 没看到他在疯狂的刷一个个小字,这个小字其实就是我们说的 token, 待会给大家说下什么叫 token, 其实我们可以看到这里每个字的科技格局,英伟达占据着极其核心和战略性的地位,这每一个小段就知道一个 token, 我 们是测试测他每秒钟能产生这样的 token, 那么我们在后台部署就是这种黑框很不方便,所以说我们一般会搭建一个前端,那我们搭建了一个前端页面之后,像这样的了,这样就更方便,我们直接去跟他对话,还是问同样的英文,介绍一下英文哪家公司, 他就很快的就能给出一个答案,这个时候我们就可以去训练自己的模型,把我们自己企业的支付户喂给这个 ai, 那 么就可以帮我们做很多这种文字性的工作了,对这个感兴趣的我们可以评论区聊一聊。