开源图片大模型,改变AI应用范式! 
家人们出大事了!媲美GpT 4o图像生成能力的超强模型,FLUX.1 Kontext [dev] 模型现在开源了!当然这个是他的开发者版本,但是图片生成效果已经很强了! 拥有 12B参数,具备 接近专有工具的图像编辑能力,关键是,他可以在消费级硬件上运行。
一个可在本地运行,无需联网,媲美GPT4o可生成和编辑图像。你敢想象吗? 
这个版本最大的特点,就是解决了角色一致性的问题,要知道,AI生成图片,一直以来的问题,就是生成的角色与真实的人差距太大。 
而现在一个能解决角色一致性问题的开源图片模型,可以让我们在真实的人、物的基础上,进行任意的编辑。 比如说,我们看几个很实际的应用方案。我们随便拍一张T恤的图片,可以把他变成商拍级的水平;我们找一个普通人模特,可以给她增加品牌新品很自然的植入。 
我们可以说,在电商领域,这个开源模型,已经拥有了可交付结果的能力。 
这让我想起了Linux基金会创始人说的那句话:AI基础模型注定全面开源,战场只在应用端。 
所以说我们看为什么OpenAI创始人奥特曼,最近的采访中,已经在说OpenAI目前的重点可能不是追求AGI 了,而是更快地让目前的用户再翻一倍,达到10亿的月活用户。 
所以可以回想一下我昨天的视频,为什么open AI要进入金主微软更擅长的AI办公领域? 第一,更普世的办公软件可以让OpenAI更早达到10亿用户; 第二,OpenAI大模型在多个层面被google的Gemini2.5超越,某种程度上,基础大模型已经不再是壁垒。 
AI应用的范式完全变了,用AI的方式重做所有传统软件的时代到来了。 
用AI逻辑抢夺更多基础软件的地位,拿到用户更多的行为数据,10亿的月活,几亿用户的日活,完全能媲美现在互联网巨头的地位了。 
不过我想,接下来这种路径已经不再只适合OpenAI,而是适合所有做AI应用的创业者了。一个更有利于agent创业者的时代到来了! #人工智能 #Agent #OpenAI #AI #flux
00:00 / 02:34
连播
清屏
智能
倍速
点赞20
Qwen3-Coder技术解析:开源代码大模型的性能突破与实践价值 作为近期开源领域的重要进展,Qwen3-Coder系列模型在代码生成与开发辅助领域展现出显著优势。本文将从技术特性、性能表现、训练逻辑及应用实践等维度,系统解析这一模型的核心价值。 一、模型核心特性与版本信息 Qwen3-Coder系列中,当前旗舰版本为Qwen3-Coder-480B-A35B-Instruct,采用混合专家(MoE)架构,总参数量达480B,激活参数量35B。该模型原生支持256K token上下文窗口,通过YaRN技术可扩展至1M token,在Agentic Coding(智能编程)、Agentic Browser-Use(浏览器协同)及Agentic Tool-Use(工具调用)场景中实现开源模型最优(SOTA)效果,性能可与Claude Sonnet4等专有模型对标。 二、性能基准与对比分析 在多项权威代码能力基准测试中,Qwen3-Coder-480B-A35B-Instruct表现突出: - 在SWE-bench系列(软件工程任务)、Aider-Polyglot(多语言编程)、Spider2(数据库操作)、BFCL-v3(代码逻辑推理)等测试中,其性能显著优于Kimi-K2 Instruct、DeepSeek-V3 0324等开源模型; - 与Claude Sonnet-4、OpenAI GPT-4.1等专有模型对比,部分核心指标已实现接近或持平,验证了开源模型在专业编程场景的实用性。 三、训练体系与技术优化 模型性能的突破源于系统性训练升级: - 预训练阶段:构建7.5T规模训练数据(代码占比70%),扩展上下文至原生256K并支持1M扩展;通过Qwen2.5-Coder对低质数据进行清洗重写,提升训练数据质量,强化代码基础能力。 - 后训练阶段:深化Code RL(代码强化学习)训练,聚焦真实场景代码任务;拓展Agent RL(智能体强化学习)至可验证环境,在SWE-bench Verified测试中斩获开源模型最优成绩,强化实际问题解决能力。 #计算机 #Ai应用 #大模型 #Qwen3 #代码编程
00:00 / 05:59
连播
清屏
智能
倍速
点赞347
🚀OpenAI重磅开源gpt-oss系列模型!本地部署+客观深度测评!开源模型中的王者gpt-oss-120B和gpt-oss-20B!从幻觉测试到代码生成,从逻辑推理到文档分析,全面碾压现有开源模型 🚀🚀🚀视频简介: ✅【客观测评】OpenAI开源gpt-oss-120B和20B全方位对比测试:谁是真正的开源之王?117B参数模型性能逆天,20B小钢炮表现惊艳,免费使用Apache 2.0协议! 🔥本期视频详细演示了OpenAI史无前例发布的两款开源大模型gpt-oss-120B和gpt-oss-20B的全方位性能测试! 📊 我们从多个维度进行了深度评测: ✅ 幻觉测试:6道精心设计的题目全面验证模型真实性 🧮 数学推理:空瓶换饮料、青蛙爬井等经典难题挑战 🧠 逻辑分析:农夫过河史上最难推理题完美解答 💻 编程能力:Bootstrap响应式导航栏一键生成 🗃️ 数据库操作:复杂SQL查询语句精准输出 📄 文档解析:大语言模型论文深度分析 🎯 测试结果令人震撼! 🔥120B参数模型单卡H100即可运行,20B小模型在某些任务上甚至超越大模型表现!两款模型均采用Apache 2.0开源协议,支持Ollama、LM Studio等多种部署方式,128K超长上下文,可调节推理级别。 🔥🔥🔥时间戳: 00:00 开场介绍 - OpenAI发布史无前例的两款开源大模型gpt-oss 00:35 模型规格详解 - 120B和20B参数版本技术规格对比 01:14 部署方式演示 - Ollama、LM Studio等多种部署方法 01:34 幻觉测试环节 - 6道题目全面测试模型真实性表现 03:23 数学推理能力 - 空瓶换饮料和青蛙爬井经典难题挑战 05:14 空间推理测试 - 正方体数字推理题验证逻辑能力 05:44 代码理解能力 - 斐波那契数列识别和功能分析 06:10 农夫过河难题 - 史上最难逻辑推理题终极挑战 08:09 编程实战测试 - Bootstrap响应式导航栏完整代码生成 09:33 数据库SQL能力 10:51 文档分析能力 11:41 提示词遵循 12:43 综合评价总结 #openai #gptoss #gptoss120b #gptoss20b #ai
00:00 / 13:02
连播
清屏
智能
倍速
点赞156
全民AI 编程的时代或将到来! 这两天很有默契的。 国内AI编程一哥,字节旗下的Trae,发布了SOLO模式,是一种类似全自动编程直给结果的模式,编程能力可谓是站稳了国内第一的位置;阿里开源了最强 AI 编程模型 Qwen3-Coder,性能跑分对标Claude 4的最新模型;腾讯CodeBuddy,也开启了面向媒体的内测会。 AI 编程的发展如火如荼,未来的软件编程可谓是越来越简单了。在某种程度上,互联网、移动互联网、包括人工智能之类的技术发展,就是在不断地让更多用户掌握原本专业小众的一些技术能力。 比如说最早的电商,能在淘宝开店的人只是一小部分。后来在微信群用群接龙、快团团团购个水果,或者随便开个微信小店或者抖店,就能开始卖东西,门槛基本降到极低。 最早能在抖音拍短视频的,也是极少一部分人群,现在绝大多数人,拿起手机就能拍。阻挡大家拍视频的已经从工具,变为了心理上的门槛。 接下来,AI coding更是把原本只存在于程序员世界里的编程工具,门槛降到极低,当然,完全成熟的AI Coding,可能还需要一段时间调优的过程,需要前后端完整的全栈开发框架,都准备就绪,才能够达到这样的程度。 我最近刚查了一个数据,2025年中国程序员的保有量是900万人,大概占全世界的30%左右。 我想在AI coding软件的加持之下,国内的这个数字可能至少要往上翻几十倍。900万翻10倍就是9000万,翻几十倍的话,我觉得中国在未来3-5年左右至少要有3亿人。或多或少会使用或掌握AI coding的能力。 因为编程,在之前是需要至少掌握一种高级编程语法,才能制作精良的软件,但现在其实只需要掌握一些逻辑逻辑,就能通过汉字、这种自然语言去编程,去实现一个原本不敢想象的软件。 如果自然语言编程,再加上模块化的前端或者后端能力,是不是就可以让普通人做出媲美现在这些成熟软件的产品呢?我觉得完全可以。 所以说,字节的Trae、腾讯的CodeBoy,阿里的通义码编程工具,都在往这个方向发展,尤其是字节的工具,走得更快一些,已经实现了完全自动化的 solo 模式。 目前已经有大V评测说字节的TREE的coding能力,目前只是在前端领域做得比较完美,后端的自动化模块化能力还要差一些… #AIcoding #trae #通义灵码 #codebuddy #AI编程
00:00 / 04:03
连播
清屏
智能
倍速
点赞60