Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
OpenClaw每天多少token
模圣试用版自动编程教程
豆包大模型会拉黑指定ip吗
kling登录后api key在哪
智谱autoclaw怎么扩展他权限
腾讯小龙虾可以部署本地模型吗
腾讯云codeplan支持哪些模型
codex能出来文件吗
skill可以放在gpt里吗
opebclaw本地布署教程
C哥聊科技
1周前
深度学习2.0要来了?Kimi新论文为啥火了 解读Kimi团队最新论文Attention Residuals,用注意力机制替换了统治AI界10年的残差连接。这不仅是底层架构的创新,更让马斯克、Karpathy等大佬集体惊叹。一起来看懂这篇可能开启“深度学习2.0”的重磅研究。 #AI #Kimi #大模型 #深度学习
00:00 / 06:52
连播
清屏
智能
倍速
点赞
9567
飞天闪客
6天前
深入解读 Kimi 爆火论文,马斯克都转了!什么是注意力残差 #ai新星计划 #kimi #transformer #注意力残差
00:00 / 08:00
连播
清屏
智能
倍速
点赞
NaN
老林白话财经
6天前
月之暗面Kimi新架构,震惊硅谷圈
00:00 / 06:53
连播
清屏
智能
倍速
点赞
44
壹览商业
5天前
月之暗面杨植麟:既然都想砍大模型的柴,我就先来磨磨刀 在今年GTC大会上,杨植麟直指大模型底层:12年未变的Adam优化器,被MuonClip替代;核心Attention升级为Kimi Linear;连ResNet时代的残差连接也被重构。可以说,Transformer的地基被整体翻修。为什么现在动手?因为算力与评测体系成熟,让老技术迎来新突破。至于未来,他给出方向:更大规模、更高维度,以及智能体集群。#AI #大模型 #GTC大会 #英伟达 #杨植麟
00:00 / 01:41
连播
清屏
智能
倍速
点赞
6
壹月茶馆
1周前
17 岁少年炸翻 AI 圈!Kimi 论文 = 白捡上万张英伟达显卡#人工智能 #kimi
00:00 / 01:52
连播
清屏
智能
倍速
点赞
91
茉莉AI
6天前
注意力残差 #人工智能 #kimi 深度解读Kimi火爆论文,注意力残差,马斯克都转发了!
00:00 / 03:52
连播
清屏
智能
倍速
点赞
25
模型之美
1周前
Kimi底层重构与范式跃迁
00:00 / 05:30
连播
清屏
智能
倍速
点赞
2
EasyShip.AI
1周前
Kimi 最新论文讲了啥?让马斯克直呼Impressive! #马斯克 #chatgpt应用领域 #ai研究 #AI人工智能 #月之暗面kimi
00:00 / 02:18
连播
清屏
智能
倍速
点赞
68
Lau博士的云组会
6天前
颠覆10年共识!马斯克叹服!Kimi——AttnRes 一份来自Kimi团队的论文《Attention Residuals》,打算挑战“残差连接”这个使用了整整十年的'铁律'。 OpenAI的'推理模型之父'Jerry Tworek看完后激动地说:'我们可能需要重新思考一切。' 就连马斯克都表示惊叹! 而且,你可能想不到,这份可能开启'深度学习2.0时代'的论文,第一作者,竟然是一位17岁的高中生。 这个故事,要从一个看似简单的问题说起:为什么越深的神经网络,反而越难训练? #AI新星计划 #大模型 #马斯克 #Kimi #transformer
00:00 / 08:29
连播
清屏
智能
倍速
点赞
NaN
Agent创世纪
1周前
月之暗面 AttnRes:重构残差连接 本视频深度解析月之暗面发布的 Attention Residuals (AttnRes) 技术。针对传统 Transformer 架构中残差连接因固定权重导致的层贡献稀释与 PreNorm 陷阱问题,该研究提出利用 Softmax 注意力机制替换简单的加法聚合,使深层网络能够根据输入内容动态提取前序层表征。为解决大规模训练中的内存与通信开销,团队进一步设计了 Block AttnRes 方案,通过区块化处理将系统复杂度从 O(Ld) 降至 O(Nd)。实验证明,该架构在 Kimi Linear 上实现了 1.25 倍的算力等效提升,并在数学、逻辑推理和代码生成等任务中表现优异。报告还详细讨论了该机制在流水线并行训练中的落地策略及边界,为大模型底层架构演进提供了新思路。#人工智能 #机器学习 #科学发现 #科研解读 #大模型
00:00 / 08:21
连播
清屏
智能
倍速
点赞
62
leenotes
4天前
马斯克点赞17岁少年,入行一年改写AI历史#AI #KIMI #马斯克 #Transformer
00:00 / 01:32
连播
清屏
智能
倍速
点赞
57
颜dvf
1周前
别老龙虾了,学点 AI 干货吧 Kimi 的注意力残差网络attention residual,让中国再次定义深度学习范式 #ai #attnres #kimi
00:00 / 15:03
连播
清屏
智能
倍速
点赞
118
晓辉博士
6天前
Kimi最新论文注意力残差带来的创新突破 看到马斯克点赞的Kimi 团队最近这篇 Attention Residuals 挺有意思,它动了 AI 圈沿用十年的老规矩——残差连接。简单说,以前大模型每一层的信息都是一股脑往后堆,现在他们给每一层加了个“筛选器”,让模型学会回头看,只挑最有用的信息带走。 这件事给我的启发不仅在技术上,更在决策逻辑上:我们在处理复杂问题时,往往容易被最近的、琐碎的信息淹没,而丢掉了最初最关键的洞察。这篇论文用数据证明了,无论模型还是人,真正的深度思考不靠信息堆积,而靠对关键信息的精准回溯。这种回到地基去解决问题的视角,确实比单纯卷算力更有启发。#AI #注意力残差 #Kimi #第一性原理 #跨领域迁移
00:00 / 08:15
连播
清屏
智能
倍速
点赞
6310
电车课代表
1周前
Kimi发布最新技术报告? 改进模型颠覆十年共识!马斯克:令人印象深刻 #Kimi #马斯克 #Ai #人工智能
00:00 / 01:04
连播
清屏
智能
倍速
点赞
8
巴别情报站
1周前
#AI #科技资讯 #科技新闻
00:00 / 00:53
连播
清屏
智能
倍速
点赞
31
荒野芯智观察
5天前
Transformer 架构沿用至今的残差连接,本质上是一个 30 年前的设计—— 每一层的输出被无差别地累加,早期层的关键特征随深度指数级稀释, 模型被迫选择"做宽而不做深"。 Kimi 团队在 2026 年 3 月发布的 Attention Residuals(AttnRes) 从一个优雅的数学对偶性出发:序列维度上 RNN 被 Attention 替代, 同样的事情为何不能发生在深度维度上? 本期视频深度解读这篇论文: · PreNorm Dilution 问题的本质与量化 · Full AttnRes 与 Block AttnRes 的设计逻辑 · O(Ld) 通信灾难如何通过 Cross-Stage Caching 破解 · 为什么 AttnRes 将最优架构从"宽而浅"推向"深而窄" · 与 mHC、DenseFormer 的横向对比 48B MoE 模型、1.4T token 预训练验证: GPQA-Diamond +7.5,HumanEval +3.1,训练开销增加不足 4%。 这不是一次性能微调,是 Transformer 深度探索的范式转移。 #科技下一站 #有用利他 #知识分享
00:00 / 26:05
连播
清屏
智能
倍速
点赞
34
大司马聊科技
6天前
深圳高中生干翻全球AI大神?这届中国少年太猛了! 震撼!17 岁深圳高中生陈广宇,联手 Kimi 团队破解 AI 十年底层难题!全新注意力残差技术革新大模型架构,训练速度提升 25%、算力开销大幅下降,获马斯克、前 OpenAI 科学家疯狂点赞。少年自学 AI 一年多,便以共同一作登顶世界顶刊,彰显中国 00 后硬核科技实力! #硅基智能 #司马华鹏 #OPC创业找硅基 #数字人智能体领导者硅基 #Kimi
00:00 / 03:24
连播
清屏
智能
倍速
点赞
622
不搞技术的老许
1周前
Kimi Attention Residuals 马斯克点赞的attention方法
00:00 / 01:18
连播
清屏
智能
倍速
点赞
3
海晏清的阳光海洋
1周前
各位朋友,月之暗面搞了个大动作——Attention Residuals(注意力残差),直接升级Transformer的“神经骨架”!传统残差是每层输出简单相加,像大水漫灌,浅层关键信息容易被淹。AttnRes的革命在哪?它把加法变成智能筛选!每层通过一个“注意力开关”,动态调取前面所有层的精华信息——好比开会时精准@专家提问,而不是全员朗读纪要。关键突破有二:1、Full AttnRes:每层用注意力加权历史输出,彻底告别信息稀释;2、Block AttnRes:为提速,把层分组处理,组间用轻量注意力交互,计算量直降80%!结果?同等算力下性能飙升! 数学推理涨7.5分,代码生成涨3分!马斯克亲自点赞:“这才是大模型该有的进化!” 一句话:AttnRes让深层网络学会“按需回忆”,从此告别傻瓜式累加。#人工智能 #机器人 #马斯克 #奥特曼 #黄仁勋 @尹烨 @红衣大叔周鸿祎 @雷军
00:00 / 01:03
连播
清屏
智能
倍速
点赞
14
景逸
1周前
Kimi掀翻残差,模型新纪元!#AI #kimi #08
00:00 / 04:03
连播
清屏
智能
倍速
点赞
12
聊AI的小乐匠
4天前
Deepseek&Kimi 先后出手,都盯上了同一个底层问题 前两天,kimi发了一篇新论文,被马斯克赞了。有意思的是,2个月前,DeepSeek 也在两个月前刚发了一篇‘神作’,这哥俩不约而同的研究了同一个东西。神经网络中的“残差连接”。为什么两位国产大模型的‘顶流’,都盯上了这事?为什么在这个大模型卷算力、卷上下文,顶级团队反而回过头去‘修地基’?我周末读论文时悟到了一点东西。 接下来的内容可能有点烧脑和抽象,但是注我或者能刷到我的朋友,应该都是勤于思考的聪明大脑。如果你对AI底层原理有关注,那下面的内容还是有趣的。#人工智能 #大模型 #AI #Deepseek #Kimi
00:00 / 04:57
连播
清屏
智能
倍速
点赞
116
杜雨说AI
1周前
杨植麟Kimi新论文炸场,"深度学习2.0"时代来了! #kimi #深度学习 #人工智能 #杜雨 #杨植麟
00:00 / 04:22
连播
清屏
智能
倍速
点赞
619
你没活干吗
4天前
昨晚直播切片:KIMI的注意力残差 #注意力残差 #注意力机制 #attention #残差网络 #KIMI
00:00 / 03:00
连播
清屏
智能
倍速
点赞
341
老诸Ai的小助理
4天前
马斯克点赞!中国少年改写AI架构#Kimi #深度学习2.0 #陈广宇 #第一性原理 #老诸的Ai学习圈
00:00 / 01:49
连播
清屏
智能
倍速
点赞
5
牛油果Tech
5天前
中国大模型Kimi底层大突破 2026 GTC黄仁旭亲邀、马斯克罕见转发,谁在创造模型最新智力?订单暴增8280%的Kimi ,来了。 #Kimi大模型 #人工智能 #杨植麟 #科技前沿
00:00 / 05:48
连播
清屏
智能
倍速
点赞
3229
AI-码上疯
1周前
Kimi也掀桌子了,不过这次的桌子是大模型底层。 #ai #kimi #transfomer #高中生
00:00 / 01:31
连播
清屏
智能
倍速
点赞
21
AI工具笔记
1周前
月之暗面Kimi推出新架构AttnRes,马斯克都忍不住点赞 #热点 #月之暗面 #抖音玩法合伙人计划#马斯克 @DOU+小助手
00:00 / 01:07
连播
清屏
智能
倍速
点赞
3
张礼立
5天前
马斯克点赞!17岁深圳小孩哥,破解AI底层难题 #kimi #AI #科技 #算力 #陈广宇
00:00 / 03:52
连播
清屏
智能
倍速
点赞
1025
边山李博士
5天前
注意力残差AttnRes机制: 潜在问题分析 Kimi团队 新发布的 注意力残差AttnRes机制设计: 潜在问题分析 #KImi大模型 #注意力残差 #AttentionResiduals #AttnRes #人工智能大模型
00:00 / 02:05
连播
清屏
智能
倍速
点赞
11
杨博士说AI
8月前
Kimi-Dev横空出世! #AI #Kimi #Dev #编程优化 #Agent
00:00 / 02:50
连播
清屏
智能
倍速
点赞
52
AI邓布利多
4天前
Cursor承认Composer 2基于月之暗面的Kimi
00:00 / 01:16
连播
清屏
智能
倍速
点赞
20
景逸
1周前
注意力残差:重塑AI的记忆网络#kimi #AI #08 《ATTENTION RESIDUALS (AttnRes)》
00:00 / 09:33
连播
清屏
智能
倍速
点赞
18
边山李博士
6天前
马斯克点赞的 注意力残差 机制到底是啥? 大家好,今天聊一个最近很火的,甚至被马斯克点过赞的 Transformer 架构改进——来自 Kimi 团队的 Attention Residuals,简称 AttnRes,中文叫: 注意力残差或者残差注意力机制。 它做了一件非常关键的事: 把“+”变成了“attention” 也就是: 当前层可以自己决定: 哪些历史层重要,那就多加这些层的历史信息 哪些不重要,少加甚至忽略来自这些层的信息 本质上,它引入了一个新维度: 基于深度方向的注意力” 以前 attention 是: token 和 token 之间 现在变成: 层和 层 之间 这是一个非常优雅、很有“物理直觉”的设计 #注意力残差机制 #AttentionResiduals #残差注意力机制 #AttnRes #大模型Kimi团队
00:00 / 03:04
连播
清屏
智能
倍速
点赞
11
Qiuming
1周前
17岁中国高中生改写AI底层架构,马斯克点赞Kimi技术突破 17岁中国高中生改写AI底层架构,马斯克罕见点赞Kimi技术突破 导语: 日前,国产AI独角兽“月之暗面”(Kimi)发布的一篇名为《Attention Residuals》(注意力残差)的硬核论文,颠覆了统治AI领域七年的Transformer底层架构,引发了全球科技界的震动,甚至连“硅谷钢铁侠”埃隆·马斯克都亲自下场点赞。 核心突破:17岁少年的“神来之笔” 这篇论文最引人瞩目的,是其第一作者竟然是一位年仅17岁的中国高中生——陈广宇(Guangyu Chen)。他凭借一种近乎直觉的简化思维,解决了困扰学界多年的“PreNorm Dilution”(信息稀释)难题。 传统AI模型在处理信息时,就像一场漫长的“传话游戏”,越往后原始指令越模糊。而陈广宇提出的“注意力残差”机制,相当于在模型的数百个层级间安装了“智能电梯”,让深层网络能跳过噪音,直接回溯并抓取最关键的原始信息。这种将“注意力机制”从时间轴转向深度轴的创新,极大地提升了模型的效率和逻辑能力。 惊人效果与行业反响 实测数据显示,应用该架构后,Kimi的48B模型在同等算力下训练效率提升了25%,在数学推理和代码生成等复杂任务上的表现更是大幅暴涨。 这一成果不仅让马斯克在X平台评价“令人印象深刻”,更被业界视为“深度学习2.0”的开端。Kimi官方也幽默回应马斯克:“你的火箭造得也不错。” 深层意义:中国AI的“后浪”时刻 这不仅是一次技术胜利,更象征着中国AI从“应用跟随”向“底层创新”的转变。在一个论资排辈的行业中,月之暗面公司敢于让一名高中生担任第一作者,展现了“只问实力不问出处”的极客精神。正如网友所言:芯片可以封锁,但智慧无法封锁。 这位17岁少年的背影,正把“少年强则国强”这句话刻在了AI的历史上。 Http://nathanchen.me/
00:00 / 02:16
连播
清屏
智能
倍速
点赞
6
AI.Tommy
1周前
国产AI又出圈了!连马斯克和AI大V Karpathy都点赞 #ai #kimi #月之暗面 #马斯克 #注意力残差
00:00 / 00:40
连播
清屏
智能
倍速
点赞
20
御界
5天前
探寻真相背后的隐藏线索 #kimi #悬疑 本故事纯属虚构 不涉及真实人物及事件#瓜子二手车
00:00 / 20:20
连播
清屏
智能
倍速
点赞
NaN
硅基智能
3天前
500亿硅谷独角兽“套壳”中国模型?马斯克都忍不住补刀! #大模型 #AI #马斯克 #kimi #cursor
00:00 / 03:33
连播
清屏
智能
倍速
点赞
197
张锡峰
4月前
AI写论文,如何实现真实文献+顺序编码+APA格式实测#kimi #ai论文写作 #论文写作 #大学生 #毕业论文
00:00 / 03:05
连播
清屏
智能
倍速
点赞
2789
人工智涨Ultra
1周前
KIMI太牛逼了 Attention residulas 论文改变了Transformer 的基础结构…… 直接去掉了深度残差…… 通用性和颠覆程度远超Deepseek的mHC 好牛逼的创新呀…… #KIMI #Deepseek
00:00 / 02:38
连播
清屏
智能
倍速
点赞
361
杜雨说AI
4天前
中国一开源,美国就自研 #kimi #cursor #人工智能 #马斯克 #AI
00:00 / 05:17
连播
清屏
智能
倍速
点赞
236
寒冰巨魔
4天前
300亿美金的Cursor,自研模型全是中国的 #Cursor #Kimi #月之暗面 #AI编程 #开源模型
00:00 / 02:57
连播
清屏
智能
倍速
点赞
405
创业邦
4天前
腾讯、吉利开抢中学生,AI时代狠狠奖励实战派 17岁高中生改写大模型底层?这次,连 埃隆·马斯克 都点赞了。Kimi一篇技术报告刷屏,核心作者之一竟是17岁的陈广宇——一年前还不懂Transformer,一年后直接优化Attention结构。AI时代正在改规则:不拼学历拼实战,不看履历看作品。当同龄人还在备考,有人已经在改写行业。未来的入场券,正在变。#ai #科技 #马斯克 #腾讯
00:00 / 03:01
连播
清屏
智能
倍速
点赞
231
一碗机智的糖浆
7月前
Kimi K2炸场 万亿参数大模型直接用 糖浆AI文档 搜索关键词:kimi k2 #kimi #大模型 #ai #waytoagi #ai新星计划
00:00 / 01:22
连播
清屏
智能
倍速
点赞
20
宇潇爸爸
1周前
马斯克点赞Kimi新架构!17岁高中生一战成名 马斯克点赞Kimi新架构,17岁高中生作者一战成名!破解AI底层难题,注意力残差机制让训练效率提升25% #大模型 #kimi #马斯克 #人工智能 #教育规划
00:00 / 00:30
连播
清屏
智能
倍速
点赞
5
未来博士wepon
1周前
Kimi 第一次动摇了大模型的根基马斯克赶来点赞! 这两天AI圈发生了一件大事,不是新产品和模型,而是更底层的研究架构。 Kimi 刚发了篇论文,叫“注意力残差”。Musk 非常罕见地评论了一句:“Impressive work from Kimi。”他其实很少这么直接夸别人家的技术。 我看完论文之后,有种去年刚看到 DeepSeek 论文时的感觉。不是说技术相似,而是有一种很像的劲儿:当别人都默认一条路走通了,它偏要回头看最底下那层,问一句——这个地方,到底是不是非这么做不可? Kimi 这次动的,就是这种东西。#人工智能 #KIMI #注意力残差 #马斯克 #残差连接
00:00 / 04:39
连播
清屏
智能
倍速
点赞
2591
刻意练习
4天前
马斯克为何独宠Kimi?背后真相不简单#互联网资讯 #马斯克#AI应用
00:00 / 08:02
连播
清屏
智能
倍速
点赞
10
极AI速报局
4天前
中国AI底层突破!Kimi打破Transformer十年瓶颈 #月之暗面 #Kimi #Transformer #国产大模型 #字节跳动
00:00 / 00:32
连播
清屏
智能
倍速
点赞
43
AI 启示录🇨🇳
4天前
Cursor 自研模型竟藏 Kimi 内核 Cursor 新模型 Composer 2 刚发布就翻车,宣称自研却被扒出基于国产 Kimi K2.5 打造!马斯克一句话把这事推上热搜,其实它已获正规授权,但刻意隐瞒基座引全网质疑。这波争议背后,藏着国产大模型的全球崛起密码!#科技 #科技科普 #Kimi #AI #马斯克
00:00 / 08:27
连播
清屏
智能
倍速
点赞
23
听听爱生活
6天前
Kimi团队论文谈教育 #kimi #家长必读知识分享 #雅思 #深国交 #知识科普
00:00 / 05:42
连播
清屏
智能
倍速
点赞
170
口罩哥直播号
4天前
cursor居也用kimi了!
00:00 / 01:08
连播
清屏
智能
倍速
点赞
1768
程序员晓刘
5天前
Cursor实锤了!Composer 2竟然用的是Kimi #Cursor #编程 #AI #大模型 #kimi
00:00 / 01:39
连播
清屏
智能
倍速
点赞
93
极客微栋
4天前
17岁深圳高中生炸场AI,重构残差连接,马斯克都对论文点赞 #残差 #残差连接 #deepseek #马斯克 #大模型
00:00 / 00:28
连播
清屏
智能
倍速
点赞
8
量子位
4天前
Cursor自研模型光速打脸,被爆套壳Kimi,马斯克吃瓜 Cursor自研模型Composer 2光速打脸,本来还在高调声称性能超过Claude,结果被曝套壳Kimi K2.5,马斯克也下场吃瓜:“是的,是Kimi 2.5!”#Cursor #Kimi #AI #马斯克 #吃瓜
00:00 / 01:28
连播
清屏
智能
倍速
点赞
1495
HelloAbby
3天前
KIMI估值超1200亿元!20天营收超2025全年,Kimi是如何找到大厂之间的生存法则的#kimi#AI#融资#创业 #IPO
00:00 / 02:02
连播
清屏
智能
倍速
点赞
5
老何的AI内容实验田
3周前
无语! #AI #Kimi #Kimiclaw
00:00 / 01:58
连播
清屏
智能
倍速
点赞
111
先来一个小目标吧
5天前
Cursor 致歉承认用 Kimi 基座 AI 赛道的估值逻辑正从 “纯自研故事” 转向 “技术整合能力 + 生态落地能力”,底层技术的商业价值被重新定价。#AI #kimi #Cursor
00:00 / 02:16
连播
清屏
智能
倍速
点赞
33
小牛聊AI
1周前
Kimi技术路线图首秀:2倍效率、1M长上下文如何实现? 杨植麟GTC演讲揭秘三大核心技术突破与智能体集群 小牛说:月之暗面创始人杨植麟在英伟达GTC大会完整披露Kimi K2.5技术路线图,核心围绕Token效率、长上下文和智能体集群三大维度。通过MuonClip优化器实现2倍Token效率,Kimi Linear将1M上下文解码速度提升5-6倍,并引入注意力残差重构基础架构。视觉强化学习反哺文本能力提升1.7%-2.2%,同时布局原生联合视觉-文本开放模型。你觉得这些技术突破中,哪个可能改变AI行业格局? #AI #智能体集群 #杨植麟 #Kimi #大模型
00:00 / 00:07
连播
清屏
智能
倍速
点赞
34
Simeon朱|AI 训练师
8月前
月之暗面kimi k2发布 国货当自强 kimi的k2 也是再次重磅出击了#ai #ai大模型 #人工智能 #大模型
00:00 / 03:00
连播
清屏
智能
倍速
点赞
31
洛克AI
1周前
马斯克狂赞Kimi 击穿Transformer 十年铁律 等于免费送1.25倍算力#Ai#万万想不到 #干货分享 #Kimi
00:00 / 00:06
连播
清屏
智能
倍速
点赞
337
李老师数学思维
4天前
详细介绍了深度学习领域从Transformer架构诞生到Kimi Linear创新的演进历程。核心内容涵盖了2017年改变AI进程的注意力机制(Attention)奠基之作,以及月之暗面(Moonshot AI)近期推出的Kimi Linear混合架构。该新架构通过引入KDA(Kimi Delta Attention)和线性注意力技术,显著降低了长文本处理的计算成本,并在推理速度与内存效率上超越了传统模型。此外,文中特别提到了名为Attention Residuals的突破性技术,它通过将注意力机制应用于模型深度维度,进一步提升了训练效率。这些资料不仅展示了线性注意力作为下一代大模型架构的潜力,还记录了包括17岁高中生在内的科研团队在底层算法优化上的卓越贡献。
00:00 / 07:20
连播
清屏
智能
倍速
点赞
10
晓艽的大脑研习社
4天前
免疫组化kimi版 #从疾病到产品 #肺癌
00:00 / 08:06
连播
清屏
智能
倍速
点赞
3
三七
11月前
4月7日 不会用ai和会用ai而不用是俩回事,得慢慢了解AI为我所用#deepseek王炸组合 #曼波配音 #kimi #AI #ppt教学
00:00 / 03:52
连播
清屏
智能
倍速
点赞
3373
速石科技
10月前
一家汽车零部件客户找到我们,说是从DeepSeek过来的。。 #deepseek #kimi #Genai #大模型 #新一代融合智算研发平台
00:00 / 01:41
连播
清屏
智能
倍速
点赞
30
老商短谈
2周前
3月6日 实测:Kimi 2.5多模态大模型 集成 汉得AIGC平台 快速实现 其他系统到汉得飞搭低代码平台的单据复刻#kimi k2.5
00:00 / 07:02
连播
清屏
智能
倍速
点赞
21
简介:
您在查找“
Kimi设计的残差连接是怎么实现的
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-03-23 08:17
最新推荐:
白玉兰花怎么吹
翟潇闻新剧化身纯爱战神
谢七为什么一会夫人一会樊娘子
你们三个忧郁雷霆呢
如何做任何事情都头脑清楚
正宗的柴火锅
活猪喂老虎全过程
魔力先生拍灯数量最多的歌曲
巴克什扫码任务在哪
水源里有抗生素意味着什么
相关推荐:
桌面副本物语出怪设置
桃黑黑是肖战粉丝吗
洛克王国四个ID怎么选择锁号
懂7 years吗
水滑肉怎么串好吃
slit door是什么
四巡开场词都说了什么老薛
2000年后中国参加了哪些战争
红米note14副摄像头怎么开
大连踢海港教练为什么出来
热门推荐:
鸣潮爱弥斯键盘原型是哪个
龙虾机器人如何建群
悟空浏览器出杂广怎么办
扣子工作流key修改步骤
17pro配置
paperpure可以降英文吗
全折叠屏手机
大疆mini3怎么查rid
绝区零fairy和360
岚图泰山ultra发布会时间