00:00 / 00:16
连播
清屏
智能
倍速
点赞125
00:00 / 03:26
连播
清屏
智能
倍速
点赞1006
00:00 / 01:36
连播
清屏
智能
倍速
点赞1028
00:00 / 01:52
连播
清屏
智能
倍速
点赞6
常俊月1周前
Facebook你真的会用嘛? [喝奶茶R]基础介绍: Facebook(简称FB),我们常称为脸书、脸谱、面簿。 CEO:马克·扎克伯格 母公司:Meta Platforms Meta 产品其共有: Facebook、Instagram、WhatsApp、Reality Labs,Threads 。 [害羞R]Facebook名称来源: 是源于美G 的社交网luo服务及社会化媒体网站,总部位于美国加州圣马特奥县门洛帕克市。成立初期原名为“thefacebook”,名称的灵感来自美国高中提供给学生包含照片和联系资料的通讯录(或称花名册)之昵称“face book”。 [萌萌哒R]脸书是用来干嘛的? Facebook 是一个社交平台,用户除了文字消息之外,还可发送图片、视频、文档、贴图和声音媒体消息给其他用户,以及透过集成的地图功能分享用户的所在位置。 人们可以在Facebook 上通过社群功能与亲友保持联系,发现新鲜资讯,分享生活故事 [萌萌哒R]功能板块介绍: 1.主页界面: 现在Facebook首页增加了短视频、视频、图文功能。 Reels板块也就是短视频功能。首页可以看到算法推给你的视频,同时你也发送视频分享内容。 主页页面点击右上角“对话框icon”即可查看好友聊天信息和群组记录。 2.Video界面: 可浏览长视频、Reels短视频、直播 3.Friends界面: 会根据大算法向你推可能认识的朋友,当然也可以搜索朋友。 4.个人资料界面: 这个界面会展示你发布过的动态、你的个人简介和你的朋友。这也是一张个人名片,别人能通过看你的主页来了解你。所以填写好有趣详细的资料更容易交到朋友哟~ 5.设置界面: 右上角的“三" ,点击即可查看所有相关内容。加群组都在里面哟。同时设置权限等都是在这个板块里面。 #facebook运营 #facebook推广技巧
00:00 / 00:15
连播
清屏
智能
倍速
点赞2
00:00 / 01:24
连播
清屏
智能
倍速
点赞15
00:00 / 28:18
连播
清屏
智能
倍速
点赞1
00:00 / 03:14
连播
清屏
智能
倍速
点赞35
Deepseek 梁文锋署名开源「记忆」模块 DeepSeek与北京大学联合发布论文《Conditional Memory via Scalable Lookup》,将开源名为Engram的条件记忆模块。这项研究旨在解决大语言模型的核心缺陷:虽然混合专家(MoE)通过条件计算实现了参数规模的稀疏化扩展,但Transformer架构本身缺乏原生的知识查找机制,只能通过计算过程低效模拟检索行为。 Engram架构:静态记忆与动态计算的解耦 Engram模块的设计目标是将静态模式存储与动态计算过程分离。 Figure 1| The Engram Architecture 显示,该模块通过两个阶段增强主干网络:首先对当前位置的后缀N-gram进行提取压缩,通过哈希机制以O(1)时间复杂度检索静态嵌入向量;随后通过上下文感知门控动态调整检索结果,实现记忆与当前隐藏状态的融合。 U型扩展规律:重新定义稀疏性分配 研究发现神经计算(MoE)与静态记忆(Engram)之间存在U型权衡规律。 U型扩展规律与内存扩展效应 显示,将约20%-25%的稀疏参数预算重新分配给Engram可获得最优性能。在270亿参数规模下,Engram-27B在等参数、等FLOPs条件下全面超越纯MoE基线,不仅在知识任务(MMLU提升+3.0)表现优异,在推理(BBH提升+5.0)和代码数学(HumanEval提升+3.0)领域提升更为显著。 系统级优化:实现计算与存储的高效解耦 Engram的确定性寻址机制支持训练阶段通过模型并行将嵌入表分片至多GPU,推理阶段采用预取-重叠策略从主机内存异步加载嵌入。 系统效率优化策略 展示了这种硬件-算法协同设计如何实现近乎零开销的记忆扩展。 结合此前发布的mHC技术,DeepSeek V4的架构轮廓已清晰可见:通过Engram条件记忆模块与MoE条件计算的互补,构建下一代稀疏大模型的核心范式。该研究为解决LLM的知识查找效率问题提供了全新思路,标志着AI模型架构从单纯参数扩展转向更精细的稀疏化设计。
00:00 / 12:35
连播
清屏
智能
倍速
点赞3
嘉鑫5211周前
Facebook的母公司Meta,刚刚豪掷近 25亿美金(约合180亿人民币),买下了一家AI公司。 但这不仅仅是一个“造富神话”,更是一个让中国科技界“五味杂陈”的故事。 因为这家被美国巨头疯抢的公司——Manus,它的母公司叫“蝴蝶效应”,而它的出生地,就在中国北京的海淀区。 如果说ChatGPT是你的“军师”,只会动嘴皮子;那么Manus就是你的“数字替身”,它是有手有脚的。这就是现在最火的概念——Agentic AI(智能体)。举个最简单的例子:你想查特斯拉的财报。 以前的AI: 给你扔个链接,“亲,你自己去下,自己去看哦”。Manus的操作是: 听到指令,它会在云端瞬间启动一台虚拟电脑,自己打开浏览器,登录SEC官网,下载PDF,写代码分析数据,最后直接甩给你一份做好的图表报告。听懂了吗?它不是在回答你,它是在帮你干活。 在衡量AI实操能力的GAIA测试里,Manus得分86.5%,吊打GPT-4。靠着这种“云端沙盒”的独门绝技,它在短短10个月里,年收入就突破了1亿美金。 最终,Meta出手了。但条件苛刻:彻底切断与中国的一切联系。服务关停、数据搬走、核心团队去硅谷。这直接引发了咱们商务部的出口管制调查。 但这事儿给我们的教训太深了: 用户痛,顶级工具没了,只能用平替。 产业痛,这叫“逆向人才流失”,咱们高校培养的人、中关村孵化的技术,最后成了美国的资产。 Manus的故事,是一场商业的胜利,也是一次产业的无奈。 未来的创业者,可能只剩两条路:要么死磕国产适配,要么彻底变成“外国人”。 如何让顶级的智慧能安心留在自家土地上开花结果?这才是这只蝴蝶飞走后,留给我们最值得深思的问题。 宝子们,下期见 #AI#Meta#Manus#芯片#物理AI
00:00 / 02:43
连播
清屏
智能
倍速
点赞7