00:00 / 00:34
连播
清屏
智能
倍速
点赞177
00:00 / 07:02
连播
清屏
智能
倍速
点赞194
00:00 / 01:42
连播
清屏
智能
倍速
点赞34
00:00 / 07:31
连播
清屏
智能
倍速
点赞84
OpenAI背刺大股东微软,入侵AI办公!
今天AI行业最重磅的消息,莫过于OpenAI与微软要在协同办公领域展开竞争了。
要知道,微软可是OpenAI最大的外部机构股东,之前还在奥特曼被公司开除,最艰难的时候,挺过他。在这个AI竞争白热化的当下,OpenAI和微软的蜜月期并没有太久,反而嫌隙越来越大,这是为什么呢?

其实,对于所有ChatGPT用户来说,「文档协作」功能是一种非常自然的功能延伸。比如我们让AI起早了稿件、或者合同,其实就想直接在AI所生成的大偏文稿的基础上来做编辑。或者在当前页面直接产生分享与协同。这是很自然的一种交互行为。
 可以说「协作工具」和「文件存储」功能的加入,就可以迅速将ChatGPT从单一对话工具,转型为综合性的生产力平台。 
未来,不用跳出ChatGPT,或许就可实现类似Google Doc的实时文档编辑,或诸如微软Teams的团队沟通效果。
对于那些习惯了AI协助办公的用户来讲,如果能够在一个产品上完成所有工作流,体验本就会更好。 
但这显然是冲击了Google 文档以及微软赖以生存的办公软件市场。

不知道大家还记不记得,上一次奥特曼的采访中提出说,很多人其实已经将AI视做一种新时代的操作系统。

如果是操作系统的话,第一代电脑操作系统时代是属于微软的。微软在统治了pc之后,就做了word、excel,并收购了PPT。然后做了免费的IE浏览器。

但因为战略的短视,给了Google做搜索引擎的机会,这让微软后悔莫及。

那这次,ChatGPT的AI操作系统之路,必然也会复制微软和谷歌的道路,把AI搜索引擎、AI浏览器、AI办公软件、甚至是AI社交全部在一个用户体系下做掉。要知道,已经有越来越多的用户离不开ChatGPT的超长记忆能力了!

AI发展到现在,巨头之间的竞争持续白热化,稍有不慎就会掉队,甚至错失一个时代,已经不是以某个人的意志为转移了。想要竞争成功,就需要在所有基础软件领域让AI大包大揽。通过MCP等方式连接一切有价值的软件。

就像我们在之前视频里面分析的,在未来,不接入MCP标准的传统软件,全都会被边缘化!#人工智能 #OpenAI #微软 #mcp #AI操作系统
00:00 / 02:42
连播
清屏
智能
倍速
点赞7
00:00 / 11:49
连播
清屏
智能
倍速
点赞1604
00:00 / 00:35
连播
清屏
智能
倍速
点赞326
00:00 / 12:06
连播
清屏
智能
倍速
点赞76
2916250809月前
如何使用微软Azure Al Studio和OpenAI模型 玩 Azure AI Studio!想在这用 GPT - 4,先登录账号进仪表板,创个 “Azure AI Studio 演示示例” 项目,选 GPT 模型部署,就能进主仪表板。 主仪表板的演练场,左边设 AI 系统,中间聊天,右边调参数。特别的提示流功能超赞,还能在 “数据” 部分管理数据。我设了个编码助手 AI,加个 “languages” 变量设为 JavaScript,用双大括号引用更新模型。问 “你好,你是什么?”,AI 按设定回是解释 JavaScript 问题的助手。顶部能设 AI 语言等,右边参数默认就行,右上角能切换模式,“显示 JSON” 能看 API 原始数据,方便复制到代码。 提示流可自定义,右边可视化输入输出,左边能改后台代码。还能创建不同类型提示流,像 “与维基百科聊天” 那个,用 Python,能看它从提问到给 AI 回复的完整流程。 给模型加数据,选 “添加你的数据”“添加数据源”,我演示上传文件,选好 Azure 订阅等,输入索引名就可上传,还能选关键词或语义搜索,语义搜索要收费哦。我上传 Next.js 手册后提问,AI 给了代码示例还引用了文档。上传的数据能在 “组件” 下 “数据” 部分查看、管理。 部署模型,在 “部署” 选项卡,我想部署 GPT 4,要先向 Azure OpenAI 团队申请访问,获批后就能创建。在演练场能切换模型、启用增强功能。 最后讲 API,从 “部署” 拿 URL 和密钥,演练场 “查看代码” 有代码示例,不同语言有不同格式。我想用 JavaScript,就在 Azure 仪表板找到实例拿密钥和 URL,在 VS Code 新建项目,安装@azure/openai包,创建.env 文件填好密钥等信息,部署好模型,获取相关信息填到文件。回到代码文件,引入相关常量,设置好环境变量,定义提示,写好异步函数调用聊天补全操作。最后在终端运行node./index.js,就看到 API 补全句子啦,超酷!#AzureAIStudio #技术探索 #人工智能 #AI开发 #技术分享
00:00 / 09:07
连播
清屏
智能
倍速
点赞14
AI享科技11月前
OpenAI遭背刺,铁杆盟友英伟达微软支持DeepSeek 微软和英伟达宣布支持 DeepSeek-R1,引发行业关注。DeepSeek-R1 作为开源推理模型,具备与闭源模型 O1 竞争的能力,并采用 MIT 许可证,允许商用。这使得“技术平权”和“技术民主化”得以实现,让初创企业、科研人员和普通用户都能以较低成本获得前沿 AI 技术。 英伟达宣布将在 Nvidia NIM 微服务中提供 6710 亿参数的 R1 模型完整版,而微软则发布了 基于 NPU 优化的 DeepSeek-R1 蒸馏版,可在 AI PC 上运行,并已上线 Azure AI Foundry 平台。 DeepSeek 公开的蒸馏技术,使大模型能够在普通设备上运行。微软已率先让 高通 ARM 版 PC 支持本地蒸馏版模型,而苹果在投资者电话会议中也提到,DeepSeek 在优化 V3 训练与运行成本方面展现出色的创新力,并强调提升效率的创新值得关注。 微软的行动意味着大模型可以在 ARM 版 PC 上运行,而苹果未来也可能推动 MacBook 和 iPhone 端侧 AI 计算的发展。这一趋势可能促使大模型加速下沉至各类智能设备,推动 AI 技术的普及。 此外,海量电子设备的使用将带来庞大的数据反馈,为大模型提供训练数据,缓解当前 AI 领域的数据短缺问题。这也将影响开源与闭源大模型的竞争格局,使开源生态进一步壮大。 前百度首席科学家吴恩达在达沃斯论坛上对 DeepSeek 给予高度评价,称其“进展令人印象深刻”,能够以经济高效的方式训练模型,并在开源权重模型方面作出重要贡献。 DeepSeek-R1 的推出及其获得的广泛支持,标志着开源大模型正在全球技术竞争中发挥越来越重要的作用。未来,随着开源模型的影响力扩大,AI 技术的普及和应用创新将进一步加速。 #AI #deepseek #openai #微软 #英伟达
00:00 / 02:24
连播
清屏
智能
倍速
点赞1220