手把手教你用Higgsfield 网红工作室打造爆火虚拟网红 过去想当网红,拼的是长相、资源和城市。现在这些门槛正在被快速拉平。 AI 创作达人 ADIL 将手把手教你,用 Higgsfield 的 AI 网红工作室,创造出爆火的虚拟网红。 做之前一定要记住,虚拟网红靠的不是一张 “完美脸”。你要创造的是一个有背景、有性格、能持续输出内容的角色。在 Higgsfield AI 网红工作室中,你可以从最基础的性别、肤色、年龄开始设定,还可以进一步控制皮肤细节、身体特征、风格,甚至加入那些并不 “完美” 的元素,比如疤痕、白癜风或机械义肢。记住,算法并不偏爱 “完美脸”,它更在意有没有 “记忆点”。 ADIL 反复强调一件事,不要创造 “第 n 个好看的人”。真正有机会被记住的,是看起来像一个真实的人,而不是一个模板。因此,ADIL 建议你生成同一个角色在不同人生阶段的样子(现在通过 Nano Banana Pro 可以轻松实现这一点),比如童年、高中、成年,再把他们放进不同场景里。这些内容拼在一起,就构成了一个持续更新的身份,而不是一次性的图片。 另一个关键是动作。很多虚拟角色的失败在于一动就像假人。ADIL 建议用真人动作来驱动角色,你可以用自己的身体表演,再把动作迁移到虚拟人物身上。通过夸张停顿、节奏控制,角色会更像真人在思考和反应,而不是在执行指令。 ADIL 还分享了一些运营虚拟网红的关键技巧。例如,他提到不要希望靠一个完美视频就能爆火,而是靠持续产出和清晰定位。虚拟网红 Dolly 能火,不是因为她像真人,而是因为她有明确的态度以及戏剧性的表现,像一个真实存在的博主。虚拟身份反而给了创作者更大的发挥空间。 在商业层面,AI 网红的优势也很明显。品牌方不想等档期、凑团队、全世界飞。虚拟网红一个下午就能在不同城市 “拍” 完素材。他们不会累,不会翻车,形象高度可控。这也是为什么越来越多广告和 UGC 内容开始用虚拟人完成。 简单总结一下,Higgsfield 的虚拟网红制作工具并不是在教你 “伪装成别人”,而是在降低创作的门槛和风险。有了这样的工具,你不需要有那些 “天生的条件”,甚至不需要出镜,不需要从零学拍摄,只需要想清楚你要塑造的是谁,以及她/他为什么值得被关注。你就能创造出属于自己的理想中的网红! #虚拟网红 #Higgsfield #AI教程 #打造网红 #科技先锋官
00:00 / 11:07
连播
清屏
智能
倍速
点赞35
如何制作一部高品质 AI 电影预告片 这两天看到的一部融合了科幻与西部片的 AI 电影预告片。影片的设定、画面、音乐和音效都非常出色,堪比好莱坞科幻大片。而且影片的制作者 Lionel 将影片制作的完整流程分享了出来。即便你从来没有制作过 AI 影片,这部教程动能帮你快速入门! 为什么是太空西部片? 这个类型其实并不新鲜,《萤火虫》《星际牛仔》都是经典。但拍这种片子很贵,场景、特效都要钱。Lionel 说他这个想法憋了快十年,以前根本没预算做,直到有了 AI 才让这事变得可行。 他的设定是一艘人类寻找新家园的飞创坠毁在沙漠星球上,幸存者用飞船残骸建起了新的文明。这星球有两个太阳,所以有些镜头能看到双重阴影。整体风格混搭了意大利西部片、赛博朋克、沙漠朋克和蒸汽朋克。 实际怎么做的? 先在 Midjourney 里画角色设计图(Midjourney 依然是制作电影分镜的首选),但他加了个技巧,提示词里写的是 “概念艺术” 而不是 “真人照片”,这样反而能得到更有创意的分镜画面。 设计图做好后,导入 Higgsfield 平台,用里面的 Nano Banana Pro 模型把概念图转成真人形象。Higssfield 的 Creator 会员可以无限使用 Nano Banana Pro 和 可灵2.6! 接下来是关键帧。他的思路跟做动画差不多。AI 生成视频本质上也是 CGI,属于动画范畴。所以他先把每个镜头的静态画面都生成出来,按顺序排在剪辑软件里,用静态图预览整个片子的节奏。这步做完再去生成视频,避免浪费算力。 生成关键帧时有个窍门。Lionel 准备了两套 “风格模板”,一套描述户外烈日场景,一套描述室内昏暗氛围。每次写提示词都套用这些固定描述,保证视觉风格统一。具体格式是:场景内容 + 风格模板 + 不要改变的部分。 视频生成的细节 Lionel 全程用的是可灵 2.6 模型。这个预告片对白比较多,所以先做有台词的镜头。 写对白提示词有讲究。直接写 “角色说:某某某” 效果一般,更好的办法是写得像小说:“老妇人倾身向前,严肃而自信地说:我有比钱更好的东西。"”多给点动作和情绪描述,AI 才知道你要什么表现力。 …… #AI一人制片厂 #AI短片 #AI故事 #AI视频 #人工智能
00:00 / 08:14
连播
清屏
智能
倍速
点赞61
如何在 Antigravity 中使用和创建 Skill 技能(Skill)已经成为各大编程 IDE 的标配。开发工程师 Rod 介绍了如何在 Antigravity 中创建和使用 Skill。 在 Vibe Coding 时,一个常见问题就是上下文膨胀。项目越大,越不可能把全部代码一次性塞进模型上下文。Skill 的作用,就是把特定能力拆分成独立模块,在需要时再加载。 在 Antigravity 里创建 Skill 很简单。先在项目中建立目录,例如 agent/skills/html-3d-canvas,然后在其中新建一个 skill.md 文件。文件开头用三条横线标记 Front Matter,写上 Skill 的名称和描述。Agent 会根据这些信息判断当前任务是否需要加载这个 Skill。 Skill 不只是说明文字,还可以包含代码示例、脚本和相关资源。比如可以为 Three.js 和 WebGPU 写一个 Skill,封装窗口大小监听、动画循环等常用逻辑。也可以为新特性如 Tiny Shader Language 单独做一个 Skill,让 Agent 在生成代码时有更明确的参考。 当 Skill 准备好后,开启新的聊天,让 Agent 完成具体任务,例如构建一个3D 太阳系的网页。Agent 会先制定计划,然后自动读取相关 Skill 再生成代码。如果需要新增能力,比如做成游戏或添加 HTML GUI,只要继续添加新的 Skill 即可。 Skill 可以跟项目一起管理和分享。别人打开项目时,Antigravity 会自动发现这些 Skill。通过这种方式,项目经验可以被结构化保存下来,也能持续复用。 #氛围编程 #AI编程 #Antigravity #人工智能
00:00 / 04:05
连播
清屏
智能
倍速
点赞5
00:00 / 04:19
连播
清屏
智能
倍速
点赞3
不会剪辑也能做音乐视频了 Vidmuse 正把复杂流程变简单 想做一支像样的音乐视频,可预算不够、不会剪、也没有团队,怎么办? AI 创作博主 FILM CRUX 介绍了一款专门用来制作 AI 音乐视频的工具:Vidmuse。它不是单纯给你几个模板,而是先 “听懂” 你用来制作 MV 的歌。你把歌曲传进去,不管是 MP3 还是 AI (例如 Suno)生成音乐的链接,它都会先分析节拍、速度、响度和段落,甚至能识别主歌、副歌、桥段这些结构。这个步骤很关键,因为音乐视频最难的地方,往往不是单个画面好不好看,而是画面能不能跟音乐真正合上。 接下来,只需要用自然语言告诉它,想做什么风格、什么感觉的视频。它会根据音乐类型和整体氛围,去生成镜头、分镜、视觉风格和视频内容。对普通人来说,这种体验有点像把“导演、分镜、美术、剪辑”压缩进了一个界面里。你不用先学一整套专业流程,也不用在不同工具之间来回切换。 它的另一个实用点,是把创作过程拆得足够细,但操作又不复杂。你可以先快速出一个草稿,也可以切到更高质量模式做正式作品。画幅能选横屏,也能直接做成适合短视频平台的竖屏。风格上,既可以从现成热门视觉风格里挑,也可以自己慢慢调。某种程度上,这比“全自动生成” 更靠谱,因为真正好用的工具,不是替你做决定,而是让你能持续改,持续试。 Vidmuse 最有价值的地方,不在于它能生成多少炫酷画面,而在于它把音乐视频创作里最耗时间的那部分流程打通。过去做这类内容,常见问题不是没想法,而是想法落不了地。现在如果一个工具能把音乐分析、镜头设计、风格统一、批量修改和节拍剪辑放在一起,它就不只是一个生成器,更像一个面向内容创作者的制作台。 尤其是它支持批量编辑这一点,很适合实际创作。很多工具的问题在于,改一处要回到单张图、单条视频里反复处理,最后时间都花在复制提示词和切页面上。Vidmuse 把生成内容集中管理,还能实时预览整支视频顺序,再自动做音乐驱动的剪辑,让画面尽量卡上节拍。对想做音乐宣发、短视频内容,或者低成本试验视觉概念的人来说,这比单点能力更重要。 当然,它也不是没有门槛。比如大幅修改整体风格,往往意味着要重新生成素材,所以怎么控制修改节奏、怎么节省点数,仍然需要一点判断。但这反而说明,AI 工具真正进入实用阶段后,比拼的不只是生成能力,而是能不能让创作流程更顺。 #Vidmuse #AI音乐视频 #AI视频 #AI教程
00:00 / 04:45
连播
清屏
智能
倍速
点赞10
一张图,十种镜头,如何让AI从“碰运气”变成“收放自如” 大家都知道,用 AI 做图像和视频,就像抽卡。不停生成、碰运气,偶尔出一张不错的,但很难稳定复现,更谈不上掌控镜头。 在这期视频中,AI Master 分享了一套方法,把 “碰运气” 变成 “可控流程”。从一张图出发,精控每个拍摄角度,制作一部精致的影片。 思路很简单,只需三步。 第一步,做一张 “主镜头” 图像。(可采用任何图像生成模型) 这不是随便一张图,而是整个项目的基础。角色长什么样,穿什么,场景在哪,光线是冷是暖,整体是写实还是风格化,这些都在这一步确定下来。后面所有角度、所有视频,都从这张图衍生。 关键点不在于提示词有多复杂,而在于你是否真的想清楚自己要什么。先把角色和风格锁死,再继续往下走。如果这张图你自己都不满意,后面只会不断返工。 第二步,用参考图生成 “无限角度”。(须使用 Nano Banana Pro、Qwen Image Edit 这类图像编辑模型) 很多人生成不同角度时,会把原来的描述再写一遍,例如,4K、电影感、真实光影……其实没必要。把第一步的主图作为参考图上传,AI已经能读取角色、风格和光线信息。你只需要告诉它,我要什么角度。 比如: 特写、广角、鸟瞰、低角度、高角度、荷兰角、微距、过肩、手持。 你会发现,只改变摄像机角度,其他元素基本保持一致。角色没变,衣服没变,环境没变,光线没漂移。这就是参考图提示的价值。把“风格控制权”交给图像本身,而不是每次重新用文字描述。 不同角度不只是视觉变化,它们自带叙事功能,例如: 1. 特写让观众贴近情绪 2. 大特写放大冲突 3. 低角度强化力量感 4. 高角度让人物显得孤立 5. 鸟瞰建立空间关系 6. 广角交代环境 7. 荷兰角制造不稳定 8. 手持增加临场感 当你开始从 “镜头语言” 角度思考,而不是只想着 “生成一张好看的图”,创作方式就变了。 第三步,把图像变成真正的镜头。 这一步用的是带首帧、尾帧控制的视频模型,比如可灵3.0。最简单的方式,是上传一张图,让它做一个缓慢推进或轻微运动。画面会动起来,但结构还是单镜头。 更有意思的是首帧+尾帧控制。上传两个不同角度的图,模型会自动生成从A到B的转场,比如从虚焦到清晰,从广角推到特写。你不用手动剪辑,它会补齐中间的运动过程。 再往上,就是多镜头模式。
00:00 / 18:29
连播
清屏
智能
倍速
点赞11
传奇音乐制作人 Poo Bear vs Suno 当AI越来越会写歌,机器会不会有一天比歌手更能打动人? 传奇制作人 Jason Boyd “Poo Bear” 在 Ted 演讲现场与 AI 音乐生成工具 Suno 进行了一次 “副歌创作对决”。 其实,Poo Bear 并没有把 AI 当敌人,也没有把它神化。在他看来,音乐行业从卷轴录音机走到 Pro Tools、Auto-Tune,再到今天的生成式 AI。每次新技术出现,都会先被质疑,最后又变成创作者默认会用的东西。AI 也是一样,先别急着反对,它首先是个提高效率的工具。 但他也表示,自己现在用 AI,更多是进行概念发散、信息检索和主题筛选,而不是直接替自己写旋律、和弦。原因也很简单,真正能打动人的部分,往往不是 “写出来的”,而是经历了“心碎、犹豫,和遗憾”。AI 可以模仿它们的表达方式,却无法真正体验和理解它们。这也是他反复强调 “人类灵魂” 还在音乐里起作用的原因。 对于 AI 音乐创作,Poo Bear 关注的,不只是 “AI能不能写歌”,而是它会先影响谁。Poo Bear 并不太担心已经成名的艺人,反而更担心新的词曲创作者和制作人。因为成熟创作者已经有自己的风格、行业位置,而新人还没来得及建立自己的声音,就先要和低成本、高速度的 AI 竞争。技术把门槛拉低了,但也让辨识度更难建立,这对创作生态是个很现实的冲击。 还有版权问题。如果 AI 可以快速学习某种风格,再生成一首 “像某位制作人写的歌”,那被模仿者该怎么保护,原创素材该怎么追踪,行业规则显然还没跟上。技术跑得太快,法律总是慢半拍,这种错位在音乐领域会越来越明显。 有意思的是,Poo Bear 对未来并不悲观。他觉得技术发展总是循环的。新工具刚出现时,大家会兴奋地拥抱效率,过一阵又会开始怀念真实乐器、现场表演和那种不完美但有温度的声音。就像合成器和鼓机曾经重塑流行乐,最后人们还是会回头寻找 “人味”。这也是为什么他判断,AI会继续渗透制作环节,但现场音乐和真实演出只会更重要。 现场对决也说明了这一点。同样围绕 “重新开始”这个主题,Suno 很快生成了一段完整副歌,速度确实惊人,但 Poo Bear 现场写出来的版本,哪怕更粗糙、还有试错过程,反而更像一个人真正唱给另一个人听的东西。 …… #Suno #AI音乐 #TED
00:00 / 33:11
连播
清屏
智能
倍速
点赞8
P一个人如何在几个月内做出 OpenClaw 一个人,真的能在几个月内做出一款全球爆红的 AI 产品吗? 放在一年前,这几乎不可想象。但现在,确实有人做到了。 OpenClaw 的创作者 Peter Steinberger,并不是横空出世的 “AI 天才”。他原本深耕传统软件领域,早年开发了 PSPDFKit,从发现需求、创业、把公司做大到最终出售,走过一条典型的开发者创业路径。后来,他停下来休息了一段时间,坦言自己有些精疲力竭。再次出发时,他没有回到熟悉的苹果生态,而是选择跳进发展迅猛中的 AI 领域。 在 OpenAI 的一次访谈中,他提到,真正改变他的,并不是读了多少技术文章,而是一次亲手实验。 他把一个半成品项目方案打包成一个庞大的 Markdown 文件,交给模型生成规格说明,再交由 Claude Code 自动构建。模型跑了几个小时,却在第一次尝试时崩溃了。后来他接入 Playwright,让系统自己测试、修复、重试,最终成功跑通。那一刻他意识到,AI 带来的变化不仅是 “写代码更快”,而是 “我几乎可以做任何东西”。 从那以后,他几乎停不下来。 OpenClaw 并非突然出现的爆款,而是过去九到十个月里持续试验的结果。他在 GitHub 上一年提交了九万多次代码,做了一百多个项目。大量功能、工具链和想法,在反复尝试中逐渐沉淀,最终汇聚成 OpenClaw。 它本质上是一个个人 AI 助理,可以接入 WhatsApp、访问本地电脑、调用各类 API,甚至修改自己的源代码。Peter 说了一个让他印象深刻的故事。有一次他给 Agent 发了一段语音消息,而这个功能他根本没有实现。模型自行识别出音频是 Opus 格式,用 FFmpeg 转码,再调用 OpenAI 接口完成转录。整个流程,是模型自行拼接完成的。 这件事让他突然顿悟,AI 不只是 “写代码更快”,而是 “它会自己想办法”。 后来,他把 Bot 直接丢进 Discord,让几百人自由测试,有人故意尝试提示注入攻击。Bot 一夜之间回复了八百多条消息。醒来时他一度有些崩溃,但仔细检查记录后发现,模型基本按预期运行,没有泄露敏感信息。 OpenClaw 的爆红,也揭示了一个更大的趋势,个人开发者的生产力边界正在被推高。
00:00 / 31:28
连播
清屏
智能
倍速
点赞9
把 AI 视频创作和协作放进同一个画板 现在用 AI 制作短片已经有了不少成熟的个人工作流。不过,一旦涉及团队协作,或者需要频繁和客户沟通,流程就会变得复杂。图片用一个工具,视频用另一个工具,文件要不断下载再上传。团队成员要通过网盘或聊天软件来回传文件,版本也越来越混乱。时间经常浪费在整理素材和确认版本上。 AI Master 介绍了一款专门解决这一问题的 AI 创作工具:Topview Boards。 Topview Boards 的思路很简单。它把整个 AI 视频流程放进同一个工作空间里。打开后看到的是一块画板,所有生成的内容都会出现在这里。 你可以在画板里生成图片,平台内置多个模型,比如 Nano Banana、Seedance、可灵等。生成好的图片可以直接继续生成视频,也可以用可灵 3.0、Google Veo、Sora 等模型做动画效果。整个过程都在同一个画板上完成,不需要下载和重新上传素材。 画板也是协作的中心。团队成员可以给素材打星评级,快速筛选出合适的版本。也可以直接在图片或视频上做标记,在具体位置留下评论。所有人看到的都是同一份素材和反馈。 平台还提供数字人功能。用户可以创建一个虚拟人物,让它拿着产品进行展示,再输入脚本生成讲解视频。这类内容在电商和产品宣传中比较常见,也适合快速做多版本测试。 这种工作方式对几类人会比较有用。比如同时管理多个客户项目的营销团队,批量制作产品视频的电商品牌,以及需要多人协作的内容创作团队。每个项目对应一块画板,素材、版本和评论都集中在一起。 很多 AI 工具都在强调模型能力,但在实际工作中,流程和协作同样重要。像 Topview Boards 这样的画板式工作空间,本质上是在把创作过程重新组织起来。对需要多人参与的项目来说,这种方式可能比单个工具更省时间。 #AI技术 #TopviewBoard
00:00 / 11:40
连播
清屏
智能
倍速
点赞3
AI 创作工具的节点模式,真的已经过时了吗? 国外 AI 创作博主 Bilawal Sidhu 发现生成式图像和视频工具都有一个趋势,到处都是 “节点”。从 ComfyUI、Runway、Krea.ai 到各种新平台,大家都在用节点把模型、流程、参数连接起来。看起来很专业,也很强大。 但问题是,节点真的是创作的未来吗? 节点的优势很明显。它像可视化编程,把不同模型和操作串联起来,不用写代码,也能完成复杂流程。在图像处理、合成、特效领域,这套方法早就成熟。Houdini、Nuke、Blender 都是这么干的。对于“管道搭建”这件事,节点确实高效。 可是在生成式 AI 时代,创作方式变了。 今天我们做内容,很多时候是在“盲飞”。写几段提示词,加几张参考图,点一下生成,然后等结果。即便你搭好了复杂的节点图,本质上还是在不断点击“生成”按钮,反复试错。节点给了你控制感,但不一定给你真正的可视化控制。 问题出在哪?少了一个“视口”。 如果你用过 3D 软件,会明白视口的重要性。你能看到场景,移动摄像机,摆放角色,调整光线。点渲染之前,你已经知道画面大概是什么样。现在的生成式流程更像拉老虎机,结果出来才知道好不好。 很多人觉得 3D 太难,要调摄像机、角色、灯光,门槛高。但现实是,他们却愿意面对一张复杂到看不懂的节点图。两种复杂性,其实只是换了形式。 更关键的是,创作不仅是流程管理,还涉及空间和时间。图层适合做线性叠加,时间轴适合做动画和节奏控制,节点适合组织逻辑。但如果缺少空间表达,创作者始终没法真正“进入”场景。 这也是为什么一些人开始提“空间优先”的思路。比如在 3D 场景里搭好环境和角色,再用生成模型去填充细节。角色只建一次,场景只建一次,然后从任意角度取景。镜头运动可以直接规划,而不是靠提示词猜摄像机位置。 这和 Unreal Engine 的逻辑有点像,需要节点时用节点,需要时间轴时用时间轴,但核心是有一个可操作的空间。创作者看到自己在做什么,而不是等待模型随机给答案。 现在的一些实时视频模型,已经开始支持摄像机角度输入、空间浏览、对象操控。但它们仍旧缺少“空间记忆”。每次生成,都要重新喂参考图,靠人去维护上下文。系统本身并没有真正理解你正在构建的世界。 …… #AI技术 #探讨AI #人工智能
00:00 / 11:42
连播
清屏
智能
倍速
点赞37
调用大模型的成本总降不下来?问题或许在“提示词缓存” 为什么使用大模型的时候,同样的提示词,一次要花 3 毛钱,另一次只要 2 毛?为什么有的请求几乎秒回,有的却越来越慢?答案或许不在模型本身,而在一个很多人忽略的机制:提示词缓存! 在这期 Build Hour 里,OpenAI 和 Wrap 的两位技术专家系统地讲解了提示词缓存(Prompt Caching)的运行机制,以及在开发智能体系统时的使用技巧。 所谓提示词缓存,本质上就是 “算过的不再算”。当多个请求拥有相同的前缀(系统提示词、工具定义、已有对话历史、图片或音频等)内容时,模型不需要重复处理已经计算过的部分,只对新增内容继续推理。这样可以同时降低延迟和成本,而且不会影响模型的智能水平。输出不会变,只是少做了重复工作。 很多人以为缓存是 “存下文本”。其实不是。缓存存的是模型在注意力机制(Transformer)里计算出来的一堆中间向量,也就是所谓的 KV cache。只要前缀完全一致,顺序也一致,这部分计算就可以复用。 这里有几个关键点。 第一,缓存从 1024 个 Token 开始生效。不到这个长度,是不会触发缓存的。如果你的系统提示词是 900 个 Token,可能反而在浪费机会。实际测试表明,把提示词扩展到超过 1024 个 Token,一旦开始命中缓存,整体成本可能反而下降。 第二,前缀必须完全一致。哪怕多一个空格、多一个时间戳、换个顺序,都会让缓存失效。有的用户只是因为在提示词里加入动态时间信息,缓存命中率直接变成 0%。很多缓存问题,都是工程细节造成的。 第三,缓存是自动触发的,不需要额外代码。但如果你的请求量很大,可能会被分发到不同机器,影响命中率。这时可以使用 “提示词缓存键” 这个参数,把相关请求有意识地路由到同一组引擎。实测案例里,有团队把命中率从 60% 提升到 87%,带来大幅的成本下降。 缓存带来的收益到底有多大? 在 GPT-4o 上,缓存 Token 有 50% 折扣,在 GPT-4.1 上是 75%,在 GPT-5 系列上高达 90%。实时语音场景下,音频缓存的折扣接近 99%。对于长对话或长上下文应用,这不是小数目。 …… #大模型 #提示缓存 #人工智能
00:00 / 56:03
连播
清屏
智能
倍速
点赞14
2026 年 AI 发展趋势预测 去年年底,IBM 技术专家对 2025 年 AI 的发展趋势进行了预测。 1. 智能体(AI Agent):AI不再是工具,而是行动者 2. 推理时间计算:AI 开始学会 “慢慢来” 3、4. 超大模型与超小模型:AI 的两极化趋势 5. 新用例爆发:AI 不再只是 “客服小哥” 6. 无限记忆:AI 将变得“更懂你” 7. 人机协作的下一步:AI 和人类实现真正的默契 除了第6点,无限记忆之外,其他基本都得到了验证。现在他们对 2026 年的 AI 发展再次进行了预测: 1. 多智能体协同:多个智能体(AI 系统)分工合作,组队完成复杂任务,互相检验和补充。 2. 数字员工:自主完成多任务的数字化员工,能多模态理解任务,并与系统集成,实现自动化办公。 3. 物理 AI:可以理解和操作真实世界的智能体(如机器人),通过模拟和训练,更智能地应对物理环境。 4. 社交计算(集体智能):人和智能体在共享网络中协同互动,信息和意图自由流动,催生共情力和群体智慧。 5. 可验证 AI:受欧盟新法规影响,AI 系统将更加透明、可审计和可追溯,强调合规与数据溯源。 6. 量子实用化普及:量子计算与传统计算协同,开始在实际工作流中解决现实问题,提高优化和决策能力。 7. 边缘推理小模型:小型 AI 模型具备推理能力,可在本地设备独立运行,提升效率并保护隐私。 8. 无定形混合计算:AI 模型架构和云基础设施深度融合,多种芯片和新算法协作,实现更灵活高效的计算环境。 你认为哪些能够实现,哪些会失败呢? #2026年AI发展预测 #AI #人工智能 #2026预测
00:00 / 11:28
连播
清屏
智能
倍速
点赞234
AI 时代,什么职业最赚钱? Replit CEO Amjad 的答案不是程序员,不是产品经理,而是创业者。原因很简单,他关注的从来不是薪水,而是所有权。 在他看来,真正积累财富的方式不是拿工资,而是持有股权。工资只是收入,股权才是资产。工资会花掉,股权如果押对公司,可能在多年后放大几十倍。 他刚到美国时,在 Code Academy 工作。这家公司后来以 5 亿美元被收购,但他当年的年薪只有 7 万美元,在纽约几乎算是紧巴巴的生活。他和别人合住单间公寓。但在谈条件时,他做了一个选择,只要够吃饭的薪水,其余尽量换成股权。 Amjad 认为,年轻的时候,时间、体力和抗压能力都在高位,能承受低工资,但换来的可能是未来的长期收益。二十多岁可以吃苦,可以睡很少,可以把生活成本压到最低。用短期的不舒服,换长期的可能性。 所以他建议,最直接的方式是自己创业,其次是加入有潜力的创业公司,争取股权。哪怕你不是创始人,也可以成为早期成员,或者用自己的能力换股份。 甚至如果你是网红,和创业者合作时也可以谈股权,而不是只拿一笔合作费。现金收入会被高额税收削减,而且很容易花掉,而股权可能在几年后变成真正的财富。 当 AI 降低了技术门槛,创业的成本也在低,真正稀缺的反而是参与增长的机会,以及敢于承担不确定性的那一点勇气。 #AI时代 #AI创业
00:00 / 01:57
连播
清屏
智能
倍速
点赞129
Fed10, 一款帮企业管控政策风险的 AI 工具 有些公司业务做得不错,却因为监管政策的变化功亏一篑。是否有办法管控这种风险呢? Fed10 是 YC 的一个创业项目 。它做的就是通过 AI 帮企业提前感知监管风险。它的核心思路,就是先充分理解一家企业的经营内容,再去追踪和它有关的政策变化。无论是公开备案、行业数据,还是内部资料,它都会拿来分析,先整理出这家公司真正该关注什么。然后再去扫描(美国)联邦、州、市各层级正在推进的法案和政策,从海量信息里找出哪些真的有关,哪些只是噪音。 它和传统政策咨询最大的区别,不只是告诉你 “有新法案出现了”,而是进一步判断这件事会怎么影响你的业务,到底是风险,还是机会。很多企业以前依赖顾问和游说团队,花钱不少,但拿到的信息还是慢,等消息传到公司内部,窗口期可能已经过去了。尤其在 AI、医疗、教育这类变化快的行业,政策往往比产品迭代更能决定一家公司的生死。 例如,去年伊利诺伊州一项法律直接冲击了 AI 心理咨询市场,很多深耕这个方向的公司知道时已经失去应对空间。这说明,如今企业面对的难点,不是没人关注政策,而是政策太多、太碎、更新太快,靠人力很难持续追踪。Fed10 的价值,本质上就是把原本靠经验、关系和大量人工完成的事情,变成一个更快、更连续的系统。 我认为,虽然 Fed10 目前聚焦的是美国市场和当地的监管体系,但它背后的产品思路并不只适用于美国。凡是政策法规对市场影响大的国家和地区,都有类似需求,这也为 AI 工具开发者提供了一个值得参考的创业方向。 #AI创业 #科技监管
00:00 / 01:43
连播
清屏
智能
倍速
点赞16
OWASP 公布的 LLM 十大安全风险榜单 最近 OpenClaw 真的太火了,各家大厂几乎都推出了自己的 Claw 产品。这些新的 AI 助手看起来越来越 “聪明”,能主动帮我们写代码、查资料、处理文档,但在真正把它们用到日常工作之前,我们也有必要了解它们可能带来的安全风险。 事实上,大模型一旦进入真实环境,风险往往比想象中更多。OWASP(开放式 Web 应用安全项目)每年都会发布一份 “LLM 十大安全风险” 榜单,梳理当前最常见的威胁。了解这些问题,能帮助我们在使用这些工具时做到心中有数。 最常见的一类风险是提示词注入。为了规范模型行为,系统通常会设置一段系统提示词,例如要求模型不要泄露敏感信息、不要提供危险内容。但攻击者只需要换一种表达方式,就可能绕过这些限制。比如不直接询问危险问题,而是通过看似合理的上下文一步步引导模型给出答案。更隐蔽的情况是,攻击甚至可能被藏在文档里,用户只是让模型总结一篇文章,但文章中早已埋好了指令,模型在阅读后就可能执行这些隐藏的命令。 第二个越来越受到关注的问题是敏感信息泄露。很多企业会用内部数据来训练或微调模型,例如客户资料、医疗记录或商业数据。如果缺乏严格的访问控制,攻击者就可能通过不断提问逐步“抽取”模型中的信息。理论上,只要查询次数足够多,就可能拼出原本不应该公开的企业知识,这种方式也常被称为模型逆向或数据抽取。 第三类风险来自供应链。现实中很少有团队从零开始训练完整的大模型,更多时候是基于开源模型或现成组件进行开发。但这些模型和依赖往往规模庞大,很难逐一审查。无论是训练数据来源、模型权重、插件扩展,还是底层基础设施,每一个环节都可能成为潜在的攻击入口。 还有一个容易被忽视的问题是数据和模型投毒。如果训练数据在过程中被悄悄篡改,模型就可能学到错误甚至恶意的信息。随着时间推移,这些偏差会被不断放大,最终影响系统决策。即使采用 RAG(检索增强生成)这样的技术,如果外部知识库被污染,同样会把错误信息带进系统。 在实际应用中,另一个常见隐患是对模型输出的过度信任。有些系统会直接把模型生成的内容用于代码执行或网页渲染。如果输出中混入恶意内容,就可能触发跨站脚本、SQL 注入,甚至远程代码执行等传统安全问题。 …… #AI安全 #OWASP #AI技术 #LLM
00:00 / 25:11
连播
清屏
智能
倍速
点赞8