00:00 / 01:10
连播
清屏
智能
倍速
点赞25
00:00 / 05:04
连播
清屏
智能
倍速
点赞2921
00:00 / 01:56
连播
清屏
智能
倍速
点赞12
中美AI南方国家卡位战,中企出海最新的机会在AI。越来越多的迹象表明,在AI上一较高低,就是美国现在最重要的战略选择。AI竞争,本质就是:谁来定义未来的国际体系。 今天又看到一个新闻,美国打算重启和平队,并对和平队的运作机制和功能进行全面改造。就是把和平队的功能全面转换,用来向全球南方,输出美国的AI技术。 和平队其实这是冷战时期的产物。1961年,肯尼迪总统创立,核心使命有两个:一是向欠发达国家提供援助,二是推广美国的文化和价值观。那个时候,美苏两大阵营之间强烈对抗,争夺第三世界成为重点,和平队就是一个重要工具。 和平队主要向发展中国家提供教育、农业、医疗等方面等服务。由国会拨款,每年有几亿美元的预算。招募有专业特长、有意愿当志愿者的年轻人。服务期限为27个月,其中包括3个月的培训和2年的服务。政府会报销路费和提供基本生活费用,但没有薪酬。服务结束后,会提供就业和入学方面的一些补贴。 但总体上这是美国推广其软实力的一个非常重要的组成部分。这个机制也争取到了非常多年青一代的亲美情感。冷战结束以后,这个机制相对就衰落了,愿意去的人越来越少,国会的拨款也越来越少。尤其到了疫情期间,志愿者基本都撤了回来,所以基本上处于一个半瘫痪状态。 所以这一次的重启,就是因为他们觉得,如果不赶紧在AI领域里,在全球南方国家有所动作,就会被中国抢占先机。因此,这回他们派遣的,完全是在STEM领域里有理工科背景的志愿者,要到这些国家去推广美国的大模型、云服务以及AI应用。目的非常明确。 中国的大模型由于开源模式,所以具有轻量化、低成本且不附加政治条件的特点,这更符合发展中国家的真实需求。 全球南方国家拥有全球三分之二以上的人口,所以它有最大的用户基数、最丰富的应用场景和最完整的AI应用生态。未来几十年大国输出的是:你的AI大模型,你的数据规则,你的算法体系。AI会悄然无声地渗透到其他国家的各个领域。 所以,对于中国出海的企业来说,现在是一个非常好的时机。关键在于如何将中国的AI应用推广到全球,尤其是全球南方国家。你能否在自己擅长的领域里,建立出海全流程的智能体,并在出海过程中进行全面应用?这对于你的企业来说是一个非常大的机会。为什么这么说?市场有巨大需求,更重要的是显然国家也需要你去这么做。#和平队#中美AI竞争#
00:00 / 05:15
连播
清屏
智能
倍速
点赞34
00:00 / 06:43
连播
清屏
智能
倍速
点赞29
00:00 / 03:12
连播
清屏
智能
倍速
点赞6
00:00 / 03:15
连播
清屏
智能
倍速
点赞15
00:00 / 05:47
连播
清屏
智能
倍速
点赞10
AI浪潮下的生存之道 如果你认为裁员全是AI的错儿,那你就天真了。 2025年这波全球裁员潮,背后其实有 “三股力量”在同时发力: 1、经济压力:高利率、增长也放缓,企业首先要先活下去; 2、战略调整:企业砍掉不赚钱的业务部门,聚焦核心; 3、技术替代:AI浪潮下,它确实能取代一部分岗位。 上面的因素叠加轮动, 就让AI成了那把“最快的刀子”。 那我们普通人该怎么办? 第一就是看看自己在不在“危险区”里。 AI最容易取代的岗位,有这几个特征: 流程固定、操作重复(比如客服、数据录入) 依赖固定知识库、回答标准化(比如技术支持) 中间环节、信息搬运(比如部分中层、助理) 体力重复、动作固定(比如流水线工人) 如果你中了其中一条,就要早做准备。 第二就是准备那些AI暂时还取代不了的技能 凡是需要这些能力的岗位,目前还相对安全: 情感交互(比如心理咨询、儿童教育、医患沟通) 复杂决策(比如战略规划、管理层协调、政治谈判) 创造创新(比如顶尖艺术、原创研究、品牌策划) 伦理判断(比如法律裁定、道德审查、AI治理) 请大家务必记住一个关键词:“人味儿”。 因为, AI强在“效率”,人强在“判断”“创造”和“共情”。 未来是“人机协作”时代! 未来不是“AI取代人”,而是 “会用AI的人”取代“不会用AI的人”。未来的竞争,不再是“你会某个技能”,而是: “你能不能把AI变成你的智能副驾” 那普通人该怎么学?怎么变? 我有三条接地气且不花钱的建议: 1、立刻去自学AI,多用AI 不要等到公司培训,现在就去用: DEEPSEEK、ChatGPT等等 哪怕从最简单的“帮写周报”“生成PPT大纲”开始。 你的目标不是成为AI专家,而是成为“会用AI的普通人”。 2、强化你的“人本能力” 沟通、协调、共情等等这些软实力,AI十年内还学不会。 你要抬起头,从今天起,主动去和人打交道、去推动项目、去展现你的领导力。 3、关注“AI+你的行业” 不要盲目转行,而是思考: 怎么用AI改变你的行业? 如果你是做设计的,AI出图了,怎么用它提升创意? 如果你是做教育的,AI能备课了,怎么更关注学生个性化? “AI+你”才是你的未来竞争力。#ai#裁员 #生存 #秦岭之道 #创作者扶持计划
00:00 / 07:50
连播
清屏
智能
倍速
点赞89
00:00 / 02:59
连播
清屏
智能
倍速
点赞1
00:00 / 02:31
连播
清屏
智能
倍速
点赞8
00:00 / 03:31
连播
清屏
智能
倍速
点赞946
00:00 / 02:56
连播
清屏
智能
倍速
点赞0
这可能是今年很重要的AI新闻,只做一件事的AI芯片 这可能是今年最重要的AI新闻,但中文互联网还没什么人聊。 昨天,一家成立不到三年的多伦多芯片公司扔下了一颗核弹。他们不是做大模型的,不是做应用的,而是做了一件听起来很复古的事:把AI模型直接刻在芯片里。 这家公司叫 Taalas。他们做的芯片 HC1,运行 Llama 3.1 8B的速度是 17000 tokens/秒。作为对比,目前业界最快的 GPU 也就 2000 左右。十倍差距。 但这还不是最疯狂的。最疯狂的是,这块芯片只能跑这一个模型。不能换,不能改,不能升级。你买回家,它就永远只会做这一件事:以光速运行 Llama 3.1 8B。 Taalas 的赌注很简单:在这个所有人都追求灵活性的时代,他们选择了绝对的不灵活,换取绝对的效率。 要说清楚这件事为什么重要,得先理解过去几十年芯片发展的主线。从 CPU 到 GPU,再到各种 AI 加速器,所有人都在做同一件事:造一个通用的计算平台,然后用软件在上面跑各种模型。 这条路走到今天,遇到了一个硬边界。模型越来越大,内存带宽成了瓶颈。你把几百亿参数从显存搬到计算单元,这个过程消耗的能量和时间,已经比计算本身还要多了。 Taalas 的思路是:既然你每次都算同样的东西,为什么还要搬来搬去?直接把权重存在晶体管里不行吗? 他们真的这么做了。HC1 芯片里没有显存,没有 HBM,没有复杂的缓存层级。模型的每一个权重都对应着芯片上的特定晶体管,矩阵乘法通过电路的物理连接直接完成。你输入一个 token,电流流过这些预先设计好的路径,输出就是下一个 token 的预测。 这就像录音带和现场演奏的区别。传统芯片是每次都要重新演奏,Taalas 是把演奏录在磁带里,播放就行了。 这种设计带来了几个惊人的结果。 第一是速度。17000 tokens/秒意味着什么?你几乎感受不到延迟。不是"很快",是"瞬间"。有测试者说,按回车的瞬间,答案就已经完整出现在屏幕上,甚至看起来像是预先准备好的。 第二是功耗。传统 GPU 运行 AI 推理需要液冷,一个机柜动辄几十千瓦。Taalas 的芯片只要空气冷却,十张卡加起来才 2.5 千瓦。他们号称能效是 GPU 的十倍。 第三是成本。制造这样的芯片,他们说是传统方案的十分之一到二十分之一。 但代价也是真实的。 这块芯片出厂那一刻,它的命运就已经注定。
00:00 / 08:50
连播
清屏
智能
倍速
点赞4
00:00 / 06:40
连播
清屏
智能
倍速
点赞5