朋友们,今天一大早,科技圈就爆出了一条重磅消息,这条消息可能会彻底改变未来几年 ai 行业的竞争格局,甚至直接影响你我的投资方向。就在今天,全球社交巨头 mate 和芯片霸主英伟达联手宣布了一项史无前例的长期合作协议。 简单来说,就是 mate 要花一笔天文数字的钱,从英伟达那里买下数百万颗最先进的 ai 芯片来武装自己的数据中心。 这笔交易到底有多大,有多疯狂?背后又隐藏着哪些不为人知的行业秘密?更重要的是,我们 a 股市场的投资者该如何抓住这波由大洋彼岸巨头掀起的算力浪潮?别急,今天我们就来一层层拨开这个科技大事件的神秘面纱。 我们先来看几个关键数字,感受一下这场合作的超能力。第一个数字是一千三百五十亿美元,这是 met 在 今年一月份公布的二零二六年资本支出预算上限, 这几乎是它去年总支出的两倍,比很多中小型国家的全年 gdp 还要高。扎克伯格这次是铁了心要把公司未来压铸在人工智能上。第二个数字是数百万克,这是英伟达将要供应给 mate 的 芯片数量, 这里面不仅包括当前最火的 blackwell 架构 gpu, 还有下一代代号为 rubent gpu, 以及一个更关键的 gpu。 第三个数字是首秀,这次合作最大的亮点, 这是 met 将成为全球第一家在数据中心里大规模单独部署英伟达 grace cpu 的 公司。以前 grace cpu 通常是和 gpu 打包在一起,放在同一个服务器里, 而这次 met 要把它独立出来,专门用于处理 ai 推理和智能体任务。这相当于英伟达的 cpu 业务拿到了一个世界级的样板工程,意义非凡。有分析师估算,这笔多年期协议的总价值可能高达五百亿美元。 消息一出,资本市场立刻给出了反应。 met 和英伟达的股价在盘后交易中应声上涨,而他们的竞争对手 amd 股价则一度下跌超过百分之四。一涨一跌之间,市场的态度已经非常明确。那么,这两位科技巨头到底在下一盘怎样的棋呢? 从 meta 的 角度看,这完全是一场军备竞赛。扎克伯格的目标很清晰,就是要为全球数十亿用户打造个人超级智能。要实现这个宏大的愿景,光有算法和模型是不够的,必须要有世界上最强大的算力基础设施作为底座, 而英伟达无疑是这个星球上最好的军火商。从英伟达的角度看,这则是一次完美的生态绑定和战略验证。黄仁勋在声明里说了一句很关键的话,目前还没有哪家公司能像 metta 一 样大规模部署人工智能。 通过绑定 metta 这样的超大规模客户,英伟达不仅锁定了未来几年的巨额订单,更重要的是,他向全世界证明了其全站式战略的成功。从 gpu 到 cpu 再到网络交换机,英伟达能提供一整套解决方案。 而且这次合作还透露了一个重要趋势, ai 的 战场正在从训练转向推理。训练大模型就像造火箭,虽然难,但一次成功就行。 而推理则是让火箭每天无数次的精准发射,服务海量用户 meta 采购的大量 grace cpu, 正是为高并发、低延迟的 ai 推理场景准备的,这说明 ai 技术真正大规模商用的时代已经近在眼前了。 当然, mate 也留了后手,他并没有把所有鸡蛋放在英伟达一个篮子里,他同时在自研芯片,也在使用 a、 m、 d 的 产品,甚至还在考虑引入谷歌的 t、 p、 u。 这种多供应商策略。在英伟达芯片持续供不应求的背景下,是巨头们保障自身供应链安全的必然选择。 好了,分析了这么多大洋彼岸的故事,最关键的问题来了,这跟我们 a 股投资者有什么关系?机会在哪里?关系太大了! 全球 ai 算力需求爆棚就像一场海啸,它的浪花一定会拍打到全球每一个相关的产业链角落。 metta 和英伟达的千亿级投资,无疑给整个算力产业链打了一针强心剂。 而 a 股市场上有一批公司正处在这条高景气赛道的关键位置,我们可以沿着算力基础设施这条主线去寻找投资机会。首先是算力租赁与云服务商直接受益于需求暴涨。当巨头们都在疯狂建数据中心时,算力资源变得愈发稀缺和昂贵。 今年以来,国内已经有多家云服务商宣布涨价,这个板块的公司直接承接 ai 爆发带来的算力需求。首都在线尤克德是弹性算力租赁的代表企业。就在近期,尤克德发布公告,宣布自三月一日起对全线产品与服务进行价格上浮调整。 首都在线也在近期收获了涨停,它们业务遍及全球,能够灵活适配爆发式的 ai 推理算力需求。 数据港深度绑定阿里、腾讯等国内互联网巨头提供定制化的数据中心服务,订单增长确定性高。其次是光通信与 c p o 共封装光学,这是算力网络的高速公路, 数据中心内部成千上万的 g p o 需要高速互联,数据流量巨大,这对光模块和光通信技术提出了极高要求。 c p o 技术被认为是下一代解决方案。天福通信是国内光模块龙头,股价近期连续创下历史新高, 是 c p u 板块的核心标杆。风继续创是全球光模块领域的领先企业,同样深度参与高速光模块的研发与供应,获得大量机构调研关注。第三是液冷服务器与散热,解决能耗之痛。 ai 芯片的功耗越来越大,传统的风冷已经难以满足散热需求, 叶冷技术成为新建数据中心的标配,英伟达的下一代 rooting 平台就将采用百分之百全叶冷方案。英维克是叶冷服务器散热领域的龙头,股价在消息刺激下重回百元大关,其技术路径与全球叶冷巨头维 d 技术类似。 而维 d 技术作为英伟达官方合作伙伴,近期财报超预期,股价暴涨,这位 a 股同类公司带来了强烈的比价效应。 高栏股份、深林环境同样在夜冷技术领域有深入布局。第四是数据中心建设与电力设备,这是最底层的基石,建数据中心首先需要土地、厂房和稳定的电力供应。 ai 算力中心的耗电量极其惊人,直接拉动了对变压器、输配电设备的需求。 思源电器四方股份是电网设备领域的优质公司,股价近期表现强势。中科曙光是国产算力龙头,不仅涉及高性能计算,在数据中心、业冷技术方面也有深厚积累。 面对这样的机会,我们该怎么操作呢?要聚焦龙头,业绩为王,在行业高警惕度下,要选择那些有真实订单、业绩能兑现的龙头公司,避免纯粹的概念炒作,要把握趋势,看长做短。 ai 算力需求是长期的刚性需求, 短期波动不改,长期向上趋势,可以采取逢低布局的策略,但也要注意短期涨幅过大后的回调风险,同时也要注意风险。需要警惕的是,部分个股近期涨幅已经较大,估值不高。此外,行业竞争激烈,技术路线变化快, 公司的技术能力和客户关系直观重要,同时也要关注全球宏观经济和地缘政治可能对产业链带来的不确定性。 总而言之, met 和英伟达的这次联手不仅仅是一次简单的商业合作,它更像一声发令枪,宣告了 ai 基础设施军备竞赛进入了一个全新的、更激烈的阶段。 算力已经成为数字时代最硬的硬通货,这场由硅谷巨头主导的改革,其联一正扩散至全球,也为敏睿的 a 股投资者带来了清晰的结构性机会。关键在于我们能否沿着正确的产业链脉络,找到那些真正具备核心竞争力的卖水人。
粉丝13.8万获赞49.6万

一分钟教你英伟达的免费 a p i 怎么样去接入 cloud code。 我 们先来到英伟达的开放平台,在这里呢,我们先注册一下账号,输入你的邮箱就可以了。然后呢我们生成一个 a p i key, a p i key 的 名字可以随便填,生成好之后呢,我们把它 a p i key 复制一下。 然后呢我们来到 github 下载一个软件,叫 cc switch, 找到这个软件,然后进行下载, 这个软件呢可以很方便的帮我们去管理我们的 cloud code 的 配置。然后呢打开主页之后,找到这个 releases 啊,找到第一个,然后呢下拉下来,选择我们平台对应的下载包,比如说我这边是 windows 的, 就可以选择这一个, 把它下载下来,打开这个软件,然后呢我们可以看到右上角有一个新增供应商,选择自定义配置,我这里呢不重新配置了,看一下我是怎么配置的。首先呢,供应商名称可以随便填,然后呢 api key 填一下,看看你在公官网申请的那一个 api key, 然后呢请求地址填我这一个。然后呢 api 格式这里要注意啊,一定要选第二个 open ai 的 一个格式。然后呢模型名称我选择了 kimi 的 k 二点五,然后进行保存,这时候呢就配置好了。 然后呢我们打开 cloud code 来尝试一下,给他发信息,刚刚我们配置的供应商要记得起用一下,不然的话会不生效。然后呢可以回来 cc switch 里面看一下刚刚的使用统计。下拉下来可以看得到刚刚请求产生的 token 输入和输出分别是多少。 在英伟达的开发者平台里面呢,是支持很多种模型的啊,你可以按自己的喜好来选择,只要在右上角优酷里面点开这个,查看具体的模型型号,准确的填写,就可以切换模型了。 因为是完全的免费使用的人会比较多,有时候呢会比较卡顿。如果这条视频对你有帮助,记得点赞收藏关注。

大龙虾还没有明白,百万 token 先没了,别急,一起来薅老黄羊毛。无限 token 免费用。首先在英伟达这个网站用邮箱注册个账号,接着验证一下手机号,就能调用 api 了, 关键是支持国内手机号,不用绑卡。然后随便选一个大模型,进入聊天页面, 这里可以切换各种大模型试试,白嫖的人太多,热门模型可能响应很慢,找一个速度还过得去的,这里查看视力代码,可以直接复制模型相关配置。然后打开你龙虾的外部页面,修改配置, 保存之后建议重启一下服务,现在就再也不用担心托肯消耗了,之前配置好的飞书也能直接使用。

大年初二,新年好,去拿一个国际大厂英伟达的 ai 证书吧,这个可是英伟达官方的证书,有总监签名,赶紧去拿一个,不仅可以学习 ai 知识,还能拿一个大厂证书,不会操作也可以找我帮忙。第一步,搜索找到官网。第二步,完成几个单元的学习后,就能获得这个英伟达官方的人工智能证书啦。

英伟达最新动作引发 ai 安全新思考。这家芯片巨头刚刚发布了一份关键指南,教用户如何在本地硬件上运行 火爆全网的 openclaw ai 智能体。这项技术突破背后隐藏着惊人风险。最新数据显示,目前全球已有超过四万个 openclaw 实力存在安全漏洞,其中一点二万个甚至可以被远程攻击。这些暴露在互联网上的 ai 系统 不仅可能泄露 api 密钥,还可能让黑客获取 telegram、 机器人令牌等敏感信息。英伟达特别推荐使用配备一百二十八 gb 内存的 d g x bark 工作站 来本地运行大型语言模型。该公司强调,本地运行不仅能避免高昂的云服务费用,更重要的是能保护用户隐私数据。通过设置三万两千七百六十八个 token 以上的上下文窗口,用户可以获取最佳性能。令人担忧的是,随着 opencloud 的 爆红, 一个全新的托管服务市场正在快速形成,目前已有超过三十家服务商提供从免费到每月数百美元不等的托管方案。 但专家警告,即使采用英伟达建议的安全措施,也无法完全消除所有风险。这场 ai 安全与便利性的博弈正在上演。美国成为受影响最严重的国家,其次是中国和新加坡,在享受 ai 便利的同时,已经成为摆在每个用户面前的重要课题。

教你接入英伟达提供的免费专业四点七大模型。我们先来到英伟达的开发者首页,然后呢,点击右上角的登录,输入一下你的邮箱地址,获取验证码进行登录。 登录之后呢,点击右上角获取 api key, 点击新建一个 api key, 随便输入一个 a b i t 的 名称,你可以选择过期的日期,我这里选择默认。然后呢,复制一下 a b i t, 等会我们要用到这 a b i t。 然后呢,我们下载一个 cherry studio, 下载一个 windows 版本, 我们打开 cherry studio, 然后呢,点击右上角的设置按钮,然后找到英文答,把刚刚我们的 api key 填进去,然后呢,这个 api 地址填写我这个。然后呢,我们添加个模型,填写质朴的 gm 四点七,我这里已经有了,就不重复添加。 然后呢,我们点开首页测试一下。先选择一下我们刚刚添加的大模型 gm 四点七,然后呢,问一下你是谁? 然后呢,他思考之后回复告诉我们,就是质朴的大模型证明我们接入成功了。在英伟达的开发者首页,不单止有 g i n 四点七,还有 kimi 的 k 二 thinking 以及 dipc 的 v 三点二,还有 mini max 的 m 二,这些都是可以通过 a b i 接入的。如果视频对你有帮助,记得点赞收藏关注。

你敢信我现在手里拿着的这是前段时间老黄送给马斯克那台英伟达 d g x spark, 你 别看它个头不大,这可是目前地表性能最强悍的桌面级 ai 超算了!今天我将在英伟达办公室为你解读 ai 如何正在从云端特权变成你的桌面级能力。 首先,这台 d g x spark 的 核心架构相当强悍,它配备了一百二十八 g b 的 统一内存, cpu 与 cpu 通过 nv link c to c 进行高宽带低延迟直连。 这并不是简单意义上的堆显存,而是英伟达最新一代共享内存架构,让计算和显存真正成为了一个整体被调度。所以你看,这么一台小设备,直接部署上了满血版的千万二百三十五 b 模型,不依赖云端,实现了本地离线推理,并且响应速度还快的离谱。 更夸张的是,当这两台 d g x spark 互联之后,算力直接可以翻倍,模型规模可以继续往上扩,但重点不在能跑多大,而在于它真的能干活,我在现场尝试用它跑。 com 视频八 k 输出复杂节点组合同 同样的工作流,旁边这台 m 四 pro 高配版的 macbook 已经开始显存,吃惊了!你看 d g x spark 这边,稳定跑完四十秒左右就出结果。 这意味着你现在可以在本地把整个 ai 创作链路一次性跑通了,让模型不出内网,数据不上传云端。你可以在公司、在家里、在任何地方用它部署一套完全属于你自己的 ai 大 脑, 从模型调参到微调验证,再也不需要每一次都丢到桌面端,那么游戏体验也开始被 ai 重写了。因为拿新一代 d i s 四点五技术太离谱了, 你看它在左右及其相同硬件配置下,四 k 全特效全光追环境下运行黑神话悟空。当开启 d l s。 四点五多帧深层技术后,已 经不是单纯的拉分辨率了,你可以注意到右边这个鼠标快速移动产生的拖影。在开启 d l s。 四点五之后,利用第二代 transforem 模型,你还会重新理解画面中的运动趋势和光影关系,稳定性明显增强。而且不光是清晰度更高了,多帧深层技术直接带来了最高六倍的性能提升。而且英伟达这次直接把 d l s s。 四点五其中的超分辨率技术下 放到了 rtx 二零到四零全系显卡,并且已经支持了四百多款游戏。但最科幻的是, ai 现在已经开始进入游戏逻辑层了。像 tableware 里的这个有 nvidia ace 技术驱动的 ai 顾问,注意,这个角色不是预设的台词,而是实打实的植入了端侧模型,让它有了真正的灵魂,并能基于占据状态玩法给你时时建议,这意味着游戏开始会思考了。 接下来一个问题就绕不开了,这些 ai 技术到底跑在哪?答案不是云端,正是前面这些真正的 ai pc, 因为它的策略不光是对信等,比如实时四 k 视频增强本地四 k 视频深层模型、 nvidia hyperlink ai 辅助视频搜索,这些 ai 能力把原本需要反复折腾的流程直接压缩成在本地,完成,让你的整个工作娱乐创作流程。第一次可以在一台电脑里闭环 骑士和开头介绍的 d g x bug 是 同一套逻辑, d g x bug 解决的是谁能把模型和数据真正留在自己的手里。 r t x a i p c 解决的是当算力足够普及,更多人能不能真的用上 ai。 所以 从 d g x bug 到 r t x, 从本地大模型到游戏到创作到 pc, 因为达其实在做同一件事,把 ai 从云端特权一点点下放到了个人桌面。而当 ai 真正成为了一种桌面及能力的时候,改变的就不只是性能,而是每一个普通人第一次真正拥有了算力的主动权。 ok, 关注赛文乔一只,为你分享前瞻科技。

最近大模型这么火,那跑 ai 大 模型要什么硬件?今天来介绍一下一整个全家福。首先是大家最熟悉的办公电脑, 那么这个电脑它的缺点是拓展性比较低,只能插一张卡,然后只内存条两到四条,一个 cpu。 但是呢,如果你选用一个好的显卡,比如说像三零九零、四零九零,或者说专业卡的 a 四千, a 五千, 把它放上去跑一个七 b 三十二 b 的 模型还是轻轻松松的,但是当这个小模型没有办法满足你的需求之后,可能就要上了这种工作站了,工作站可扩展性更强,比如说显卡,它可以上四张, cpu 呢也升级到了两个,然后内存条插槽也升级到了十六根,可以跑中等大小的所有主流的模型。那显卡一般我们会搭配,像 a 三零、 a 四零,甚至说你有预算充足可以搭配 h 一 百、 a 一 百这种战略巨无霸。 另外的话呢,我们把它扩展成了夜冷的一个结构,这样的结构噪音非常低,而且使用寿命非常长,也不用占用你额外的机房空间, 而且在这里也是可以使用 mvink 的。 这个我们的方案是 h 一 版,这样的配置,跑二百三十五 b 的 千万,或者说三百四百 b 的 大模型都是非常轻松的。再往这边就要上升到服务器水平了,服务器它的扩展性更高,可以插八张显卡, 然后它的内存条扩展来到了三十二条内存条,而且这个 cpu 也是双路的。像这种服务器呢,一般搭配的是也是三零九零四零九零五零九零,当然预算充足也可以上到这种 a 一 百那么八卡, a 一 百会有六百四十 g 的 显存,这样的话跑满血版的 dsp 六百七十一币都可以带动的。 然后这个也是一个服务器,但是它是一个四卡的一个结构,也是可以跑很多大模型,可以上专业卡,也可以上这种算力卡。 再到最后就是目前最主流也是最烧钱的,也是大厂最多的方案。就像这种 我们看到它的卡都跟普通的卡不一样,我们普通的卡叫 p c i e 插槽,就拿这张 a 一 百来举例子,它是用这种 p c i e 插槽,然后插到这个服务器里面,但是当我们的卡需要很多,比如说我要需要一千张,一万张卡的时候, p c i e 的 传输效率是不够的,所以说 已经单独定制为了这种叫 sm 的 整机的模组,那么我们会把这个整机模组插到这个非常大的机箱里面,最后才能组成一个像 h 一 百, h 两百, b 两百, b 三百等等 我们大家非常熟悉的这样的机器了。所以说具体你的需求需要配什么样的机器呢?不能盲目的决定,要根据你的项目还有预算,如果说你有具体的需求,可以在评论区私信我。

趁假期教你们白嫖一个英伟达人工智能 ai 证书,世界名企背书, ai 领域含金量非常高,不会操作可以找小木帮忙。首先进入官方注册,登录 首页搜索课程名称,然后呢,在详情页当中根据课程大纲开始学习,内容重点是对人工智能知识的深入理解,包括理论知识 和技术学习完成之后呢,你还需要通过相关的考试,考试通过就可以获得这个英伟达人工智能 ai 证书了,趁现在还是免费的,建议抓紧拿下。

兄弟们,英伟达和 mate 签署了一份多年期全站式 ai 基础建设的战略合作协议啊,非单纯的采购合同啊, 核心是 mate 大 规模的部署英伟达的芯片与技术啊,共建超大规模 ai 数据中心啊! mate 预计采购部署数百万颗英伟达 ai 芯片啊,订单金额预计高达数百亿美元,从单一的 gpu 采购升级为 cpu 加 gpu 加网络加软件加安全全平台合作啊!这个消息啊,兄弟们觉得是否值得挖掘啊!这肯定是利好英伟达的供应链啊!在英伟达供应链的兄弟们有福了!

英伟达的 qq 技术遭遇了重大挑战。一项最新研究显示,海外知名 ai 克劳德仅用三十分钟便成功将一套完整的 qq 后台代码完整移植至 md 的 lcm 平台。 这一过程无需任何中间转换层,即可直接实现与原生 code 相当的性能,这一成就令人震惊。开发者指出,尽管英伟达耗时二十年构建了 code 这一技术壁垒,但其优势可能在六个月内被颠覆。此外,该开发者还称,在整个 ai 编码过程中,没有人工干预,完全由 ai 独立完成。此事件已引起 m g 软件副总裁的关注, 预测未来 gpu 编程将由 ai 主导。此消息一经公布,无疑为 ai 行业注入了一剂强心针。然而,对于我们而言,这并非利好消息,因为随着 ai 技术的不断膨胀,存储设备如内存和硬盘的价格下降的可能性将越来越小。

我靠,刚做完这个断网屏,最新时长增加了百分之一千一的这个英伟达,没想到现在 metta 又跳出来了,感觉这这几天都是英伟达的新闻,就根本说不完。你看 metta 计划与英伟达完成万亿级别的芯片合作, 你看具体怎么说的?美团公司与半导体领军企业英伟达于当地时间周二正式签署一份为期多年的深度战略合作。 美塔将在未来数年通过自有实体数据中心及云端设施,大规模大规模部署百万颗英伟达高性能 ai 芯片。哎呀, 看到这个没有?我靠,太夸张了。这个真的是太夸张了。 mate 宣布将首个成为大规模独立部署英伟达 cpu 的 超大规模客户。我靠,全是英伟达的消息。

哈喽,大家好,我是阿金志。近期这个 open club 的 龙虾项目非常的火爆,对于短时间热度过高的项目,我一般都是谨慎对待。这个 open club 的 部署教程其实一早就有粉丝提出来让我来做一期了, 我当时的话简单的攻略了一下,发现两个问题,一个是这个项目的使用场景有点伪需求,但这个不是纯伪需求,而是对于大多数人而言, 因为目前的话,大多数人他可能会想到用来编码爬虫、搜索资料等等, 但这个项目的核心内容其实不是这个,或者说以上提到那些功能,其他的方式都可以实现。第二点的话,他的安全风险比较高。 我觉得这个项目的核心功能就是他拥有一个高权限,可以执行需要命令以及读写文件等系统级别的操作, 所以这个伴随着很高的一个风险。当时我给他的回复是可以查找一些风险相关的文章, 然后目前的话只适合尝鲜使用。那今天这期教程的话,就是来教大家如何安全的部署并免费的尝鲜这个热门项目。 ok, 我 们先到我的博克这边来看一下整个文章,做一个简单的介绍。好吧, 这边的话我放了 open club 的 一个官方项目地址,大家有兴趣的可以去官方地址看一下。目前的话最新版本是二点一三,也就是昨天刚出来的一个版本, 但是这个版本目前是有问题的,我后面会给大家提到具体的项目内容的话,我这里就暂时不多做介绍了,有兴趣的可以去看一下。好吧,因为我的频道小白的粉丝会比较多一点,所以我做一个简单的介绍啊。 这个项目的话不是单纯的一个机器人聊天,他是作为一个网关的属性,简单来说他作为一个网关可以去命令多个 ai 工具来帮你去完成各种任务的操作。那这里的话肯定就不局限于聊天, 他甚至可以读写系统文件以及调用命令等等需要高权限的一些操作。所以为什么提到他的风险比较高,就是因为他有极高的一个权限。 然后这里的话我也去攻略了一些风险资料,然后这里的话也给大家放了几个案例,可以参考一下。这里的话点击可以查看一些详情,这个的话我也不具体做介绍了,大家有兴趣的可以去看一下,因为这里的话比较简单,具体的话可以去搜索一下啊。 在整个实操教程之前,我们可以先来看一下效果。好吧,当前我是把我部署的龙虾项目关联到我的 t t 上面的,我们可以来简单看一下。这里的话可以看到我简单问了一下他是谁,我们再来问一下他能帮我做什么。 ok, 我 们这里看到他做了一个回复,然后告诉我们他能做很多东西。然后这里我们可以看到我这里测试的话是英伟达最新发布的这个 gm 这个模型,新模型,然后本期教程的话也会用英伟达的免费 a p i 来做一个教程分享。 ok, 这里我们可以看一下。当前我是部署在我本地的一个讯影机上面,我讯影机安装的话是乌斑图的一个系统, 大家可以参考我这个方案,当然了这个迅影机的话是随便你可以安装到哪边,我的话为了方便直接通过本地的迅影机软件安装,你可以安装到任意闲置的电脑上,设备上都可以, 好吧。然后整个迅影机的部署和安装的话,大家可以参考之前的一些教程,我这里都有给大家放相关的链接。最需要注意点的是欧奔卡拉官方源的话,他可能需要一个网络的需求, 所以这里在很多的教程中,我都会给大家提到一个软路由的东西,这个的话是非常建议大家去做一个部署的, 可以解决到很多情况下的网络问题,这里整个环境的部署我就不过多做介绍了,好吧。然后我们虚拟机部署完成之后,我们只要通过我们 ss 软件去连接它就可以了,这样的话整体的操作会方便很多, 因为本次教程的话主要是以安全为主,建议大家在驯养鸡或者当客中去运行,这样的话可以做到一定的隔离, 不建议大家在自己的主服务器或者说生产环境中去安装和使用。然后这里讲一下最新版本,我们刚刚看到的二点一三的最新版本,它目前的话是有一个比较严重的 bug, 就是 你最新版本无法去选择对应的一个模型, 它是缺少这个引导流程的,但是我们可以通过手动修改配置文件来添加模型来使用。然后下面的话我就给大家来实操演示如何来去安装。好吧, 因为目前我这个服务器上的话是已经安装了,所以我先给大家演示一下如何去卸载,好吧,我们拉到最下面,我给大家放了一些常用命令,我们通过这个命令可以先来做一个卸载,我们在这里复制卸载命令, 然后这里的话会选择一些我们安安装的东西,我们直接回车确认就可以了。 ok, 它这里的话基本上就已经卸载完了,但这里我们可以看到 c l i 这个东西仍然安装着,对吧?然后我们通过这个命令来把它删掉,我们来复制这个命令来删除这个 c l i, ok, 删除完成了,对吧?然后我们回到最开始,我们来重新安装它,我们复制这个官方的命令,这个是快速引导安装的一个命令啊。 ok, 这里的话他就开始安装了,但这个的话是安装的最新版本,可以看到吧? 我会先安装最新的版本,然后来教大家如何来修改这个配置文件,然后正常的使用我们的模型。最后的话也会来教大家如何来更新和回滚到一个指定的版本, 这样的话我们即使更新到了最新的状态,发现了问题之后,我们还是可以回滚到老的版本继续使用。好吧,这整个过程的话可能会比较慢一点,大家要耐心的等待一下。 a few moments later, ok, 这里可以看到我们已经安装完成了,然后它自动跳到了一个引导模式,对吧?进入引导命令之后,第一项是风险提示,对的话我们必须要确认这个,我们已经知道了这个风险,然后手动确认 yes, 然后回车, 然后进入一个快速开始,然后这里我们可以看到它是直接进入到了我们的渠道选择,并没有进入一个模型的选择,对吧? 正常的流程是应该宣让你选择一个模型提供商,但是这里没有,那我们先不管 当前这个渠道的话,大家根据自己的去选择就可以了,然后本期教程的话,我以这个梯机为例,好吧?然后我们直接回车,这的话我们也可以先不设置,我们先跳过,因为我们后面还是要重新设置一遍的,因为我们要修改一下配置文件,我们这里先跳过好了, 然后这里的 skill 的 话推荐,这里虽然是推荐,但是不建议大家来安装,我们即使选择这里的默认推荐之后,这里还是可以跳过的,我们直接选择跳过就可以了。然而这里的相关的 key 的 话,直接默认 no 就 可以了,这里的钩子的话也默认跳过, ok, 这里的话也默认去孵化, 这样的话基本上整个部署就部署完成了,但是我们因为没有选择一个模型,对吧?它这里是没有任何的信息的,都是不知道的,对吧?现在的话我们就要去修改我们的配置文件来让它可以选择一个模型, 这里的话我们就需要下拉到我们这个配置文件,这里默认的配置文件的话都是在这个路径下面,我们可以通过我们的软件直接去访问它的一个配置文件,你也可以手动通过这个命令 来去修改。这里的话我们重新打开一个,然后进入这个文本编辑的命令,我们回车,这样的话就会进入到我们当前的一个配置文件里面, 大家有看到吗?但是目前的话是默认模式,我们不可以编辑,我们必须进入字母按,大家可以看到这边可以进行修改了,是吧?我们但是这里面修改的话不太方便,我们这里如果你修改完成之后按 esc, 然后退出编辑之后我们冒号 q 就 可以退出了,如果你正常保存的话就是 wq, 好 吧,这只是给大家做一个操作演示。然后我们这里为了方便的话,我们通过这个文件直接来修改,这里的话我可以直接双击它,在本地打开它。 这一打开文件之后,我简单给大家说明一下,我们重点需要修改这个 a 帧子。还有一个 model, 这里因为新版本 bug 的 问题,我们看到我们找不到 model 这个关键词,是吧?这的话我们直接可以通过伯克里给到的一个模板来去进行一个修改,我们直接复制这一个 model 一个模板, 然后我们直接在这里回车粘贴一下就可以了。这里的话注意一下这里的 api key, 我 们需要修改为自己的一个 key, 好 吧。然后这里模型的话,我这里默认给大家配置了 k 二点五和这个 gm 五, 但是因为新版本无法去选择一个模型,那我们这里不能放两个,这个两个的话可以在后续正常选模型的时候我们再去放进去,所以我们这里先要把另一个删掉,我们先删掉这一个这里的逗号,如果不小心删掉了,记得加上去啊,不然会有语法错误,这里要注意是英文逗号。 然后我们下面把 ages 改掉,我们也直接通过这个模板来修改就可以了,我们直接复制,然后改掉它。这里的话同样要先把这个模型给删掉, 然后这里的话我们还要做一个修改,我们要把它这个固定锁定它统一改成这一个格式, 这样去修改的话,我们在当前这个有 bug 的 模型中就可以正常的去使用这个模型了。这里刚刚报错了,我刚才把这里的括号多删了,然后我们重新复制一下,改一下 它这样的颜色才是正常的,然后我们重新把这个删一下,我刚刚把这个多删了,现在这个应该是正常的,我们重新保存一下, 然后我们重新上传一下,我们重新打开一个 执行这个命令,我们重新进入引导试一下。 ok, 现在正常了,我们重新进入引导,这里的话就快速操作一下,然后这里的话我们需要配置一下梯机, 这里的话我们跟着我们的这个步骤,然后去获取到它的一个 talk。 这里大家注意一下,不要用到一个假的机器人,一定要认准这个官方的提示,然后它这里的每月用户活跃数一定要匹配上,好吧,一定是这个很多人的。 然后我们这里正常进入一个创建一个新的机器人,然后他会让你输入一个命名,然后这里的话不能重复,最后的话他会输出一个 api 给你,然后我们直接点击这个复制就可以了,然后我们粘贴到这里面,我们直接回车, 回车之后这里的话我们直接忽略,然后我们直接跳过,然后我们重新 这里的话还是默认。 ok, 这里完成之后, 我们把这个之前的关掉,我们这里再重新打开一个界面,然后我们要回到机器人这里,我们回到机器人之后要进行一个 start 操作,我们要授权一下,我们输入 start, 然后他会给你一个授权码,我们直接去运行这个授权命令,我们复制一下粘贴, ok, 这里的话就授权成功了,然后这里我们再重启一下网关, ok, 重启成功,我们再回到这个界面, ok, 我 们可以看到当前的模型已经识别成功了,对吧?然后我们尝试在这里发个消息, ok, 它这里就可以正常的回复你了,那说明我们这个就部署成功了。 ok, 到这里的话就是整个最新版的一个部署就完成了。下面的话我来教大家 如何来去回滚,以及在正常的模式下面我们如何去配置我们的英伟达的 api, 然后可以做一个模型切换的一个操作。 ok, 这里的话我们需要用到我们的一个回滚命令,我们直接来复制它,我们直接来执行这个命令, 因为这一个版本的话是我昨天测试的时候是正常的,所以我们直接回滚到这个版本就可以了,我们直接回车, 这整个回滚的话基本上跟安装差不多,所以我们也要等比较久的一个时间。 a few moments later, ok, 这里的话我们可以看到这里的话已经更新完了,整个更新的话基本上就相当于重新安装了一次,然后我们重新进入引导模式,看一下, ok, 这里的话他就正常的进入了,我们选择模型的一个键面,对吧你如果你是对应这里面的提供商的话,你去选择对应的去 使用你对应的 key 就 可以了。但是我们这边英伟达的话是不在这个范围里面的,所以我们这里直接点击这里跳过,然后我们可以在这里面找到我们配置的英伟达的选项,我们往下拉一下,这里看到我们配置的英伟达的一个模型, 这可以看到我们这里配置了一个 k 二点五,对吧?那我们直接回车就可以了,然后这里的 t g 的 话还是原来的 t g, 所以 我们不用去改它,我们直接跳过,然后这里还是跳过也跳过,然后我们直接重启就可以了, 这些操作的话跟之前的操作是一样的,没有问题,但是我现在给大家看一下如何去放多个模型,好吧?我们这里可以把之之前的关掉,先 让我们回到这个配置文件,我们仍然打开我们的簿刻,然后把我们这个复制进来, 我们把这个一整个替换, 然后把这个也一整个替换, ok, 直接保存,然后这里重新上传一下,然后这里我们重新打开一个窗口,然后执行我们的一个引导命令, 我们这里还是选择我们的英伟达,这也可以看到有两个模型的,对吧?然后这里我们选择我们刚刚新配置的一个 gm 的 模型,我们选择它,然后这里应该配置过了,我们直接跳过就可以了, 对,全部跳过,然后重启一下, ok, 这我们可以看到它的模型已经切换到 gm 了,对吧?然后我们尝试问一下这个机器人它当前的一个模型, 这里的话可能是当前这个模型用的人比较多,所以我等了一会他才反应过来,这是他回复过来的,然后我再问他一下, 这我们可以看到这里的话是同步的,它会在这里输出完成之后再反馈到我们这个窗口这里来, ok, 它把这里所有的信息都反馈到这里,大家可以看到,是吧? ok, 到这里的话整个 部署就全部完成了,然后也能去正常的切换模型了,是吧?然后我们也可以正常的去使用英伟达的一个免费 api。 最后我再提一下这个英伟达的免费的 a p i, 因为它的算力是共享的,所以当用的人多的时候肯定会出现比较慢的情况,那这个我在之前提过了,只适合你用来做一个尝鲜的使用,不适合你去做一个生产环境的使用,好吧? 另外在整个部署过程中,如果涉及到其他的相关操作命令的话,大家可以通过这个链接直接到官方的一个文档去做一个参考,好吧, 这里的话有官方详细的一个教程说明,这里的话可以切换成中文,然后这里的话有很多的教程文档,大家有什么问题都可以到这里来找一下,好吧? ok, 那 今天的教程基本上到这里就结束了,如果你觉得这些视频对你有帮助的话,记得一定要给这个视频点赞、评论、转发,好吧,最后如果你还没有关注我的话,一定要盯我的频道哦,那今天的视频就到这里,下期见,拜拜。

这会是周三晚上,彭国提到英伟达近期又有大动作,并分析了半导体板块的走势。文章关键词,英 dono 丘奥卡塔埃尔斯顿 就说,因为美国本土的数据中心呢,已经趋于饱和了,同时呢,咱们国内的市场呢,英伟达又进不来。所以呢,英伟达就把目光投向了印度,决定呢,和印度的两家顶级科技公司 u 塔还有 e 图 e 合作, 其中呢,优塔呢,一口气就投资了超过二十亿美元,买了英伟达两万颗 blackwell 芯片。 呃, blackwell 芯片就是英伟达目前研发出的最先进的 gpu 芯片,算力呢,大概是 h 两百的二点五倍左右。而且 ai 领域一直就是赢家通吃的游戏,谁能够先拿到足够多的顶级的 gpu, 谁就能先推出更强的模型占领市场。 所以能否获得 ai 龙头英伟达的产品就直接决定了企业的竞争力。所以彭博分析,这次合作呢,将直接推动印度成为中国、日本之后的亚洲第三大算力中心。 同时因为建设 ai 数据中心呢,需要海量的存储芯片,所以对韩国的三星 s k 海力士乃至亚洲的存储芯片板块都会形成向上的推动作用。 ok, 最后彭博提到黄金在反弹,并分析了阻力位,一会带大家看下,有消息聊拜。

朋友们今天聊聊英伟达的天花板产品, g b 三百服务器。这可是 ai 算力界的天花板,专为超大规模 ai 工厂打造的旗舰款。 它搭载七十二颗 blackwell ultra gpu 加三十六颗 grace cpu 核心,基于 blackwell ultra 架构,直接把算力和效率卷到新高度。 硬件配置拉满, gpu 总显存二十 tb, 总高速内存三十七 tb, 显存待宽飙到五百七十六 tb 每秒, f p 四算力高达一千四百四十 p, 对 比 g b 两百密集 f p 四性能提升一点五倍, 注意力机制性能直接翻两倍。处理 deepseek rae 模型,响应时间从一点五分钟缩到十秒,采用全液冷机架式设计,完美适配数据中心,还搭配八百 gb 每秒超高速网络和第五代 nv link 多卡携同零延迟, 配套 mission control 软件,能智能调度算力,企业部署超省心。不管是万亿参数大模型训练,还是代理式 ai、 物理 ai 的 实时推理,它都能轻松拿捏,更是全球顶级企业构建 ai 工厂的核心利器。

今天带来一个重磅消息,英美达已经把生成式 ai 编程工具全面部署给了公司内部的三万名员工。 结果呢,直接让他们的代码产出量提升了三倍,而且代码 bug 居然保持平稳,没有增加。这件事的来源很靠谱, coco 的 官方博客都报导了 英伟达呢,这次是跟旧金山的一家公司合作,定制了一款基于 ctrl 的 集成开发环境。 ctrl 大家可能都听说过, 它本身就是一款非常火的 ai 编程工具,能够通过自然语言帮你去生成、调试、优化代码。现在英伟达把它深度优化,专门适配企业级的研发场景, 变成了工程师手里的超级助手。你想想啊,英伟达的 gpu 驱动、游戏技术、 ai 训练和推理这些核心产品, 对代码的质量和安全要求极高。他们不是随便用 ai 就 完事了,而是对 ai 生成的每一行代码都进行了严格的审查和大量的测试,确保既提速又保质,所以漏洞率没涨,反而产出翻了三倍, 这数据实在是太硬核了。其实呢,英伟达玩 ai 辅助研发已经不是一天两天了,早几年他们就用内部的超级计算机优化了 d l s s 技术 部分的芯片设计也靠 ai 工具去辅助。现在呢,干脆把 ai 彻底融入了全流程,从代码生成到测试部署, 全链条自动化。那这事对咱们程序员意味着什么呢? ai 不是 取代人,而是让人把精力放到了更高价值的创新上。英伟达用实际行动证明, ai 能让顶级工程师的效率翻倍甚至三倍, 未来的开发工作可能真的会进入到 ai 主导人来把关的新阶段,你们觉得呢? ai 会让程序员更强还是会改变这个行业?欢迎评论区大家一起来聊一聊。关注我,每次聊点不一样的。

等一下, ai 这把火可能还没烧到顶。今天盘后,英威达突然拉升,梅塔也跟着涨。 发生什么事?梅塔宣布和英威达达成多年战略合作,要全面扩建 ai 基础设施。简单说一句话,梅塔未来的 ai 算力大量压住英威达。 消息一出,英伟达盘后上涨超过百分之一, mate 也涨了接近百分之二。但有意思的是, amd 却跌了。 为什么?因为这不只是一个合作,这是站队,谁能提供最稳定、 最成熟、最大规模的蒜类生态,谁就能吃下长期订单。现在市场给出的答案还是因为的。别忘了, mate 不是 小客户,它是全球最大 ai 投入公司之一, 从大模型训练到数据中心扩张,都是百亿级别资本开支。这意味着什么?意味着 ai 算力需求还在加速, 而且是长期。但问题来了,如果所有巨头都继续加满, ai 资本开支会不会过热?如果未来盈利增速跟不上算力扩张速度,那现在的高估值还能成多久? 今天这条新闻,表面看似利好,但深层逻辑是, ai 进入拼资金、拼资源、拼生态的阶段,强者更强,弱者被边缘化。 英威达现在还在王座上,但市场永远不会给任何公司永久或成盒。所以重点不是追涨,重点是观察 ai 资本开支周期会持续多久。 如果这段投资周期延续两年以上,那英威达的故事还没讲完, 如果开始降温,那高位震荡,那会可能会更剧烈。记住一句话, ai 没有退潮,只是开始风化,这才是真正的关键信号。