00:00 / 01:02
连播
清屏
智能
倍速
点赞0
00:00 / 00:50
连播
清屏
智能
倍速
点赞8
Tony沈哲1周前
Google 发布首个基于 Gemini 架构的原生多模态 Embedding 模型 Gemini Embedding 2,现通过 Gemini API 与 Vertex AI 以 Public Preview 状态开放。该模型将文本、图像、视频、音频及文档统一映射至单一向量空间,支持 100 余种语言,适用于 RAG 及语义搜索等任务。技术规格上,模型文本输入上限为 8192 tokens,视频支持 120 秒,音频无需中间转录。输出维度默认 3072 维,可利用 MRL 技术缩放以平衡成本。官方称其在多模态任务中达 SOTA 水平。 Tencent AI Lab 在 GitHub 开源 LeVo 2(SongGeneration 2)音乐生成模型,定位为面向商业级质量的开源音乐基础模型。 JetBrains 推出多 Agent 并行开发工具 Air Preview 版。该工具支持 Codex、Claude Agent、Gemini CLI 与 Junie 在同一工作流中独立运行。其核心采用“任务级隔离”机制,用户指定任务后,可通过 Local Workspace、Git Worktree 或 Docker 容器配置独立环境,实现互不干扰的并行执行及代码审查。 2026年3月10日,智谱正式上线 AutoClaw(澳龙)。这是一款面向本地部署的一键安装版 OpenClaw 客户端,支持 macOS 与 Windows 双平台,预置 50+ Skills。 产品支持飞书等即时通讯工具一键接入,并兼容 DeepSeek 等第三方模型 API。技术层面,AutoClaw 内置内测中的 Pony-Alpha-2 模型,针对工具调用与任务推进优化;同时集成 AutoGLM Browser-Use 能力,支持多步骤浏览器自动化操作。 Yann LeCun联合创立的AMI Labs完成10.3亿美元种子轮融资,投前估值35亿美元。该轮融资由Cathay Innovation等领投,英伟达、三星等参投,被称为欧洲史上最大种子轮。 #Google #Gemini #JetBrains #OpenClaw#抖音养虾人俱乐部
00:00 / 02:50
连播
清屏
智能
倍速
点赞7
00:00 / 02:23
连播
清屏
智能
倍速
点赞41
谷歌新模型让AI第一次真正"看懂"你的视频 今天凌晨谷歌悄悄放了一个东西,技术圈已经炸了,但品牌圈几乎没人注意到。 它叫Gemini Embedding 2,是全球第一个多模态嵌入模型。 翻译成人话:过去的AI理解内容,靠的是读文字。你写了什么关键词,它就匹配什么。图片?视频?音频?它基本靠猜。 Gemini Embedding 2不一样。它能同时理解文本、图片、视频、音频、甚至PDF,把所有这些信息压缩成一个统一的"语义指纹"。 这意味着什么? 意味着未来小红书、抖音的推荐算法,不再只是看你的标题和标签。它会真正"看"你的图片构图、"听"你的视频配音、"读"你的产品详情页,然后判断这条内容到底跟用户需求匹不匹配。 对品牌方来说,这是一个分水岭:过去你可以靠堆关键词骗流量,未来你的内容本身必须是高质量的——因为AI真的能看懂了。 大可AI的内容生成模型,训练数据来自小红书和抖音9000万条真实内容。它输出的不是关键词堆砌,是符合平台审美和用户偏好的完整内容。当推荐算法越来越聪明,内容质量的护城河只会越来越深。 谷歌发布全球首个多模态嵌入模型Gemini Embedding 2,可同时理解文本、图片、视频、音频和PDF。这意味着平台推荐算法将从"读文字"进化到"看内容",靠堆关键词骗流量的时代正式结束。品牌方的内容质量将直接决定流量分配。 当AI能看懂视频内容,你的笔记还敢靠标签骗流量吗?👇 《2026平台算法升级趋势解读:品牌内容质量自检表》 #谷歌Gemini #多模态AI #推荐算法 #内容质量 #人工智能发展
00:00 / 01:21
连播
清屏
智能
倍速
点赞5
00:00 / 00:30
连播
清屏
智能
倍速
点赞1022
00:00 / 02:32
连播
清屏
智能
倍速
点赞4224
00:00 / 00:36
连播
清屏
智能
倍速
点赞0