今天真是喜大普奔的这个 cloud code 终于支持语音输入了,而且也是原声支持,只要在 terminal 里边加那个 slash voice 就 可以使用了,咱们看它这个视频就加了这个,之后按空格就可以直接语音输入了。我已经期待这个功能很久了,就像之前那个 open cloud 那 个作者说的,他说 这个语音输入的效率是文字书的几百倍,咱们也可以提升效率了,直接用这个。之前我用这个 honey 也好用啊,不过它的识别准确率还有点差,现在它原声支持之后,咱们的效率可以指数级的提升了,大家赶快去试试吧。不对,现在只有百分之五的用户发布了, 不过咱们可以等大概一周的时间就可以大家都用上了。好了,今天就到这里,希望可以帮到你,谢谢大家。
粉丝6162获赞3.5万

大家好,今天给大家分享 cloudco 创始人在推特上分享的他们的团队是如何使用 cloudco 的, 他总共分享了十三个小技巧,我觉得非常能提升你使用 cloudco 的 效率。那废话不多说,我们直接来看看。 那他给的第一个建议是并行处理多个任务,他一般来说会在终端里面开五个 tab, 然后开启系统通知,当某个任务需要你的输入的时候,你再切换打开。 而且除了本地之外,他还在网页端同时跑五到十个的绘画,然后通过一些操作让多端进行协调,当你在终端运行命令加上 end 之后,就可以把本地的绘画接管到网页端,一整个的效率就拉满了。 第三个是他推荐所有的工作都用 up 四点五,并且开启思考模式。虽然 up 比其他的模型更大更慢,但因为这个模型它需要更少的引导工具的使用能力也更强,最终几乎总是比用小模型更快, 当然最近就是已经有了 up 四点六。呃,我觉得整体的核心逻辑就是我们要用高阶的模型,省去您很多修改 prom 的 时间。 第四个是他们整个团队会共享一个 cloud md 的 文件,每当看到 cloud 做错了什么,就加到 cloud md 里,这样 cloud 下次就知道不要这样做了,这就形成了一个良好的循环。第五个是在 covid review 的 时候,通过 app 机器人的方式,让 cloud 自动把一些信息记录到 cloud md 文件里。这是一种利用 ai 自动维护项目文档的技巧,你不需要离开浏览器回到本地去修改文档, ai 会自动帮你更新规则。 然后第六个是它建议大多数的任务都要从 plan 的 模式开始,这也是我在过往的 ycode 顶的 教程里面推崇的一种方式。我们要先把计划做好,再让 cloud 进行开发,会减少很多来回修改的一个过程,在终端里面按两次 shift 加 time, 就 会进入到 plan mode 的 模式。 第七个技巧是 boris 会对每天重复做很多次的一个内循环的工作流,用斜杠命令放在 cloud commands 目录下,比如 boris 和 cloud 每天都会使用几十次 commit push pr 这个斜杠命令正常,你给 ai 说帮我提个 pr, ai 可能需要思考, 然后再调用工具,然后再去获取结果,然后再思考。那每一次提交一个 pr, 你 都要进行一次这样的循环,会消耗大量的 token 跟时间。 那你提前设置好这个斜杠命令, ai 就 不需要思考。用斜杠调起这个命令之后, ai 就 直接操作,就减少了你输入 prom 以及也减少了 ai 的 思考时间,直接可以快速的执行。 那第八个是用子代理来做流程的自动化,它会专门让 cloud 去调用一些专门的子代理去处理一些单一的任务。它这里展示的是它现在目前最常用的一些子的代理,比如说像这个就是专门负责重构用于代码的一个子代理。 呃,第九个是用 post to use 钩子来格式化 cloud 的 代码,大家写代码最烦的就是格式错误导致 ci 挂掉,那创始人 boris 的 绝招就是使用 post to use 钩子。简单来说就是在 cloud 刚写完代码的瞬间,后台它会自动静默地执行一遍格式化工具, cloud 负责搞定百分之九十的逻辑钩子负责最后百分之十的细节, 这样不仅你的代码会比较整洁,更重要的是它建立了一个自动验证的一个防线,不让低级错误来浪费你的部署时间。这个就是 boris 它在后台配置的一个 post to use 的 一个脚本。 第十个技巧是,当我们在用 cloud 的 时候,它经常会停下来申请去获得一些操作的权限,可能为了快速,或者说也比较懒,然后没有认真的去看,就会无脑地给权限或者跳过,那可能会有一些安全的问题。 boris 就 建议我们可以对一些常用的进行 预先授权,只要输入斜杠 permission 就 能进行操作,而且它大部分的操作都会和团队去共享,这样就可以开通一次权限,全团队都不需要再重复开间距了,效率也保住了安全。 那第十一个技巧是,它会用 cloud 去调用不同的工具,比如它会让 cloud 去抓报错日期,然后直接根据日期去修 bug, 修完顺便发一个 flag 告诉老板,这样 cloud 变得更加强大。 那第十二个技巧是,当你处理长任务的时候, ai 会经常停下来问你接下来去干嘛, 如果你不能及时响应,反而会耽误 ai 生产的时间,那它给的建议就是它会提示 cloud 在 完成之后使用后台代理去验证 ai 的 工作,然后再使用 agent stockhook 进行更确定性的验证,或者去安装一个插件,他推荐这款插件,这个插件会让 cloud 自动 继续,直到任务彻底完成,这个会让你的长任务处理变得更加的自动化。那最后一个技巧是 boris 认为最为重要的一个建议,给 cloud 一个验证工作的方法,如果 cloud 拥有这种反馈避反,它最终结果的质量将会提升两到三倍。 简单来讲就是 ai 写完代码之后,需要运行在线上看一看,让 ai 自己能够看到这个结果,然后去判断这个结果是否合适,然后再做一些正常的调整。那 boris 的 方式是对于提交到 cloud ai 或者 cloud code 的 每一项改动,它都会通过 cloud chrome 扩展程序进行测试,它会自动打开浏览器去测试 ui 界面,并且不带的迭代。只要代码能够正常运行,且用户体验良好,那在不同的领域,其实验证的方式都各不相同,它可能简单到只是运行一条命令, 或者是运行一套测试主键。那像 boris 的 话,它是运行了一个浏览器的主键来自动打开 ai 写的网页,然后让 ai 去看这个网页是否能够正常运行哈,再做正常修正。那这个就是 cloud code 的 创始人在 twitter 上分享的十三个小技巧,我觉得 每一个都非常的实用,希望能够帮助到大家。

cloud code 能用语音写代码了?昨天 ansorepic 宣布 cloud code 开始微度上线语音模式,目前百分之五的用户可以用了。用法很简单,在终端里输入斜杠 voice 就 能开启语音模式。然后直接说帮我重构一下认证模块, cloud 就 会执行。 你可能觉得语音写代码有什么用?手打不是更精准吗?但想想看,当你在做饭的时候,突然想到一个 bug 怎么修 语音一句话就能让 cloud 去改。当你躺在沙发上懒得坐到电脑前,语音一句话就能让 cloud 帮你写断代码。语音模式让写代码这件事 不再需要正经微坐在电脑前了。目前只有百分之五的用户有,接下来几周会逐步开放,你有吗?评论区告诉我。

编程进入对讲机时代, code code 上线语音模式,长按空格,说话松开,完成输入。语音转入 talk, 完全免费。我是文强,带你拆解编程交互革命背后的投资逻辑。 code code 的 语音怎么用?很简单,输入 with 命令, 开启语音模式,长按空格键,说话松开,完成输入。语音转出来的文字会直接在光标位置实时流势输出。 关键不是替代键盘,是补充键盘。你可以先手打一半提示词。遇到复杂逻辑,懒得打字了,长按空格切到语音吐槽那一段难以描述的逻辑,松手,再继续打字,无缝连接。 早期测试者反馈,在在调试涉及多层回调嵌套式的 bug 时,语音描述的效率比打字提升近十倍。还有一个大力好 语音转录的 talking, 完全免费,不计费,不扣额度。有意思的是, openai 的 几乎同时推出了类似功能,两家几乎同时出招,这不是巧合,是共识。编程工具的下一个战场,不再是模型有多聪明,而在交互有多自然。从我们角度看, 这个功能释放了三个深层次信号。第一个信号,人类说话的速度大概是打字的三到四倍,大概是每分钟一百五十次, 打字呢,大约是四十次。这这意味着,语音编程理论上可以提升同等时间内的代码产出量。当 ai 模型的代码生成准确率逐步触达天花板,提升人际交互的效率将成为新的突破口。 第二个,信号编程的主要瓶颈已经从写代码变成了表达意图。从 tab 键自动补全,到 ai n 自动编码,再到语音输入,编程正在经历一次输入革命。键盘不会消失,但未来的编程一定是多模态的 键盘,语音甚至手势和演奏都会成为编程的输入通道。第三个信号编程门槛正在被彻底打破。以前写代码需要熟练掌握语法,现在你只需要会说话就能表达需求,未来可能出现需求描述师这类新职业, 专门通过语音与 ai 写作完成软件开发,这对整个行业来说是颠覆性的。给零到一的客创家三个启示,第一,关注交互创新,不要只盯着模型能力,当模型能力趋同于同质化时,交互方式是差异化。 语音编程只是一个开始,未来会有更多颠覆性的交互方式涌现。第二,理解混合输入的价值。语音编程不是要完全取代键盘,而是与键盘形成互补。最佳实践是 自然语言部分用嘴说,精确代码部分用手打。第三,思考开发者体验的每一个细节。编程工具的用户是最挑剔的一群人, 他们对延时、准确率、稳定性的要求极高。如果你也在做开发者工具或 ai 应用,需要优化产品体验,或者对接产业或者创业资本,我可以帮你链接评论区留言编程工具,获取我的专属对接通道。我是文强,你的领导,一科创伙伴。

大家好,欢迎收看新一期的视频。 cloud code 最近迎来了一次重磅更新, 我相信很多人都会爱上这个新功能。 ansorepic 已开始在 cloud code 中原声内置语音模式, 目前约有百分之五的用户已经可以使用该功能,并在接下来几周内逐步推向所有用户。获得权限后,你会在欢迎界面看到相关提示,届时只需输入 voice 即可开启该功能。 接下来我来解释一下为什么这项更新意义重大,而绝非花拳绣腿。 cloud code 的 语音模式采用了按键通话的交互方式, 按住空格键说话,说完松开就行,就这么简单,文字会实时流逝,输入到光标处。这个设计非常聪明,你可以先打一半提示词, 中间不好描述的复杂部分直接用嘴说,解释完复杂逻辑再接着打字。 它不会覆盖已有内容,只会在光标位置直接追加。这功能确实挺赞的,毕竟要是让你手打一段长篇大论,还得详细解释重构需求的提示词, 或是该如何重写身份验证中间件,你就知道这有多费劲了。有了语音模式,你直接自然地说出来就行, 描述你想要的架构、要处理的各种边缘情况以及需要遵循的具体模式,这些都会直接转化为你的提示词,不用来回切换应用,也不用从别的工具里复制粘贴。你可以换个角度来想,当你和 ai 进行结对编程时, 其实就是在跟它交流对话。你会说,好现在把这个函数移到独立文件里,或者给这种情况加个错误处理, 就是 api 返回四二九报错的时候,这才是人类最自然的思考和交流方式,要把这些全打出来,反而显得很不自然。语音输入让整个交互过程更像是在面对面聊天, 理应如此。接下来才是最有意思的地方,这也是我最想聊的部分。包括我在内的很多开发者一直在用一些工具, 比如用 whisper flow 在 写代码时进行语音输入。 whisper flow 确实是个好工具,别误会,它支持 mac 全系统调用,随处都能语音输入。但有个问题, whisper flow 是 要花钱的, 专业版每月大约十美元。虽然这钱不算多,但如果你已经订阅了 cloud code, 加起来也是笔开销。不管你是专业版、 max 版还是其他什么版本。所以, ansore pick 直接把语音模式内置到 cloud code 里, 意味着你不用再额外花钱买语音转文字工具了,至少在编程时是这样。据 anthracad iii 介绍,语音模式是免费使用的, 而且语音转录的 token 不 会计入你的速率限制,这一点直观重要。这意味着你不会耗尽额度,仅仅是因为跟 cloud code 说话。 语音转录基本是免费的,在您现有订阅的基础之上,并且适用于 pro max team 以及 enterprise 计划,目前阵逐步推行,所以几乎所有 cloud code 的 用户最终都能用上它。客观来讲, whisperflow 的 用途不只限于代码听写,它支持系统级调用,无论是 slack、 邮件还是文档,随处可用。所以,如果你在整个工作流中重度依赖语音转文字, whisperflow 或类似的工具仍有其用武之地。 但如果你之前专门用它来输入 cloud code 提示词,我想很多开发者确实都有这个习惯。内置语音模式让你不再需要这类工具, 而且总的来说,这种开发者体验也更好。语音输入直接内置在工具中,意味着在常用工具里无需切换上下文。你不必再确认第三方听写工具是否在后台运行, 也不用担心它有没有选对窗口,一切都以原声集成,按住空格说话,松开即可 搞定。另外,还有准确性的问题,像 whisper flow 这类工具属于通用听写工具,它们表现不错,但并未针对编程术语做过专门训练。比如我有时说使用 try catch 快, 结果它识别出来的完全是另一回事。而 cloud code 的 语音模式,我希望它的转路能更懂开发者的语言, 毕竟它本身就是为编程工具打造的。不过我目前还没法进行全面测试,因为还在等权限。但按理说,它对函数名、酷名 以及技术术语的处理应该会比通用听写服务更精准。对了,有人在评论区问到智能体 s、 d、 k 是 否也会支持语音模式, carry q 表示目前还没有这方面的计划,所以目前这只是 cloud code 的 专属功能。这也很合理,因为智能体 s、 d、 k 更多是编程接口, 而语音输入本质上属于人机交互。我认为这还预示了一个有趣的趋势,即 encyclopedia cloud code 的 产品定位与远近方向,它们不仅是要打造一个更强大的编程助手,更是要构建一个更优秀的 ai 协助交互界面。 语音输入、全新的后台任务子智能体。这些功能的结合正让 curlcode 发生蜕变,使其更趋于完整的开发环境,而非单纯输入提示词的命令行工具。 在我看来,更多的 ai 编程工具都应该朝这个方向发展,凡事都要逐条手动输入指令,在快速迭代时,靠打字真的太慢了。有时候你只想说, hey, 重构下这个组建,改用新的 context provider 模式, 确保测试依然通过,然后直接执行。这比全部手打出来要快得多,尤其是当你正处于深度心流状态,完全不想被打断思路。总的来说,我觉得这是 cloud code 一 次非常给力的功能升级, 它能帮你省下购买第三方工具的费用,而且完全不需要额外付费, token 消耗也不会计入你的配额限制,它能直接融入你现有的工作流程。 anthropic 这波更新确实很出彩,总的来说,整体体验非常不错。我们下期视频再见,太在拜拜。

一分钟看今日 ai 大 事!没想到通过文本描述就能在虚幻引擎里创建三 d 场景。你可以自由地用鼠标调整位置,再让它再加点植被,就能将角色植入。 nigro 是 一款虚幻引擎, ai 助手可以通过文本描述进行 pcg 环境创建,智能地实现资源放置,明目张胆撬墙角了! cloud 上线记忆导入能力输入这段提示词,就能从别的 ai 把你的偏好、项目背景一键搬到 cloud 里。还能在设置里格式化编辑,不用做过多沟通, cloud 就 能懂你 现在通过自然语言描述,就能生成对应情绪的语音。另外,有冇计划 𫪈? 中国海外物业组合嘅占比提高至几多嘅水平?还能从零设计音色与场景声模拟, 比如输入下面的提示词,设计疯狂反派的语音声线就能阻止我吗?太天真了! 或加入场景描述来渲染语音的沉浸感,尝尝他家这个新品,味道挺特别的。不再依赖固定标签。阿里放出语音合成加音色设计双模型组合拳。 其次,阿里把大模型名字彻底统一,中文为千问,大模型英文为千问,避免之前多个名称混淆。今日还有以下信息值得关注, ever ai, 每天带你了解 ai 新鲜事!



一边是制裁风声,一边是疯狂更新。当你还在手动敲代码的时候, cloud code 已经能用嘴写代码了。 刚上线的语音模式输入我已开启,按住空格直接说话转录内容,自动填进输入框。目前虽然限量推送,但这功能一旦全量开放,开发效率直接起飞。你觉得语音写代码靠谱吗?关注我,带你了解更多 ai 资讯!

当今的程序员已经不再需要紧盯键盘敲代码了,而是像与人对话一样,长按空格就能随口说出逻辑调试 bug, 编程的边界已经被重新定义了。近日, appropic 正式为旗下命令行 ai 编程工具 coco 上线语音模式,一句 voice 指令即可激活 长按空格键说话松开即完成输入,语音转录实时流入光标位置,与键盘无缝切换。更关键的是,语音转录 token 完全免费,不计费、不扣额度,彻底打破了语音编程的成本壁垒。很多人将其简单理解为语音转文字加编程的总和, 但这背后却藏着 ai 编程交互的底层变更。当大模型在代码生成准确率上逐渐触达天花板时, 编程的下一个战场早已从模型智商转向交互自然度。而 clark 的 这次出手,正是打响了多模态编程时代的关键一枪。市面上的语音转文字工具早已普及,但为何克尔扣的语音模式却能引发开发者圈如此强烈的反响呢? 核心在于它跳出了替代键盘的思维,转而成为键盘的完美补充。如此强大的功能,主要依赖于以下两大突破性技术的支撑,第一是流逝实时转录技术实现说及所得的无延迟体验。与传统语音工具说完再转写的批量输出不同, 可拷的语音模式采用流逝处理,用户说话的同时,文字会实时逐字显示在光标位置, 无需等待完整语音结束。这种设计的核心价值是及时校验,即开发者可以一边说一边确认识别准确性,一旦出现偏差,可立即中断语音进行修正, 避免了说完才发现错误重新输入的低效循环。更关键的是,这种转录并非简单的文字堆砌,而是深度适配编程场景的语义理解。 比如你随口说在第三层回调中添加静态条件检测系统,不仅能准确转写文字,还能理解编程语境中的专业表述,避免将回调、静态条件等术语误判为普通词汇。这背后是 anzopik 针对编程场景优化的语音识别模型, 结合 cooke 本身的代码理解能力,实现了语音意图到代码语义的直接映射。第二是键盘与语音的无缝衔接,打破输入边界。 不同于第三方语音插件切换繁琐、易覆盖内容的痛点, qq 的 语音模式可以在打字过程中随时调用, 你可以先手打一半提示词,遇到复杂逻辑、懒得打字时,长按空格切到语音,随口描述那段难以梳理的逻辑, 松手后继续打字,内容不会被覆盖光标,无需手动调整。这种混合输入模式精准击中了编程的核心痛点。人类擅长用口语描述混乱场景,而键盘擅长精准输入变量、 u、 r、 l 代码片段,二者互补,才能实现效率最大化。 比方说,你需要调试一个涉及三层回调嵌套加进开条件的 book, 如果只使用键盘组织语言描述问题,光梳理逻辑、敲击文字就要五分钟, 而使用语音只需要三十秒就能描述清楚。这种人类岁岁念是的上下文信息,打字时往往难以完整呈现,但配合语音描述后,就能让 ai 快 速捕捉核心问题,这就是语音交互的天然优势。此次语音模式最引人关注的亮点除了交互体验, 就是语音转录 tocan 完全免费。这并非简单的营销手段,而是按 zopik 布局多模态编程生态的战略考量背后藏着两层核心逻辑。从用户层面看,免费 tocan 彻底打消了开发者的使用顾虑。 在此之前,无论是第三方语音编程工具,还是部分 ai 编程助手的语音功能,都存在按 tocan 计费的问题。开发者在使用时会刻意控制语音时长, 不敢畅所欲言,反而限制了语音交互的自然性。而 cloud 后的免费政策,让开发者可以毫无负担地用语音描述逻辑、讨论架构、调试 bug, 真正实现想说多少说多少,降低了语音编程的使用门槛,让更多普通开发者能够尝试这种全新的交互方式。从行业层面看,这是 izoopik 在 圈地多模态编程的生态入口。 当前, ai 编程工具的竞争已经进入白热化阶段,当 gpt 四、 core 三等大模型在代码生成、 bug 修复的能力上的差距逐渐缩小时, 交互体验就成为了差异化竞争的关键。 anzuopic 通过免费 token 降低使用门槛,本质上是在培养开发者的使用习惯。当更多开发者习惯用语音与 ai 编程工具交互时, core core 就 能占据用户心智, 进而围绕语音模式构建生态,比如接入更多 id、 适配更多开发场景,形成语音输入、代码生成、调试优化的完整闭环。不过值得注意的是, cross code 的 这一动作并非孤立, 几乎在同一时间, openai 的 codex 零一百零五点零版本也推出了类似功能,采用 whisper 语音引擎,支持长按空格录音、松开转录,但需要手动修改配置文件起用,且仅支持 mac os 和 windows 系统, linux 用户暂无法使用。 两家巨头几乎同时出招,绝非巧合,而是行业共识的体现。编程的未来必然是多模态交互的天下,而语音正是最贴近人类自然表达的交互方式。尽管科奥扣的语音模式带来了诸多突破,但我们必须清醒的认识到, 语音编程目前仍处于补充键盘的阶段,尚未能完全取代键盘,其核心价值在于重构编程效率,而非颠覆传统输入方式。从优势场景来看, 语音编程在三大场景中的表现尤为突出。一是低 bug 阶段,口头描述 bug 比打字快数倍,且能自然带出更多上下文信息,让 ai 更快定位问题。二是架构讨论阶段, 快速传达设计意图,比如让这个 api 用注做认证, access token 十五分钟过期, refresh token 七天再加一个刷新端点,说出来仅需十秒钟,打出来却要一分钟。三是特殊场景, 比如进食喝咖啡、手部受伤获得了剑桥延时,语音输入就从锦上添花变成了刚需,让开发者在无法使用键盘的情况下依然能保持编程连续性, 但短板同样明显。对于变量名、 u、 r、 l、 代码、片段等需要精确输入的内容,语音识别的准确率仍不够稳定,尤其是对 komo case 下划线命名和各种缩写的识别容易出现偏差。 此外,在编辑复杂算法逻辑时,语音描述的精准度不如键盘输入,容易出现语义歧义,导致 ai 生成的代码不符合预期。因此, 当前语音编程的最佳实践的是混合输入,用语音处理自然语言部分逻辑描述需求表述、各吞吸, 用键盘输入精确代码部分变量名语法参数。这种模式既保留了语音的高效,又确保了代码的精准性,真正实现了一加一大于二的效率提升。 这也印证了一个核心观点,技术的进步从来不是非此即彼的替代,而是优势互补的融合。 如果我们把视角拉远,就会发现,科奥扣语音模式的上线不仅是一次工具升级,更是编程范式改革的起点,它正在推动编程从手动编码向意图表达转变,从程序员向编程导演转变。最后,我们不妨思考一个问题,编程的本质 从来不是敲击键盘,而是表达意图。人类最自然的表达意图的方式是说话, 当 ai 终于能听懂开发者的话,并将其转化为代码,编程才真正回归了为人服务的本质。 cross code 的 voice 命令只是一个起点,但这个起点足以开启一场编程交互的革命,而这场革命才刚刚开始。

今天偶然发现 mac 向微信的语音输入可以全集使用,想象一下,如果和 ai 一 起用,效率太高了。长按 fn 键,任何 app 都能直接调用微信语音输入。 不管是写文档、发邮件,还是在 cloud code 里给 ai 写长提示词,直接开口说识别超准,还自带标点, 说完了松手就生成了文字,可以继续说下一段。 设计方法,保证微信语音输入开启了快捷键,系统给了微信权限就行了。 这不就是罗老习的 t n d 吗?

大家好,欢迎回到我的频道。 antisorbike 最近给 cloud code 的 用户带来了一个超酷的更新,这个功能叫做远程控制功能。简单来说,你现在能直接用手机操控 cloud code 绘画了。没错,你没听错, 你可以在电脑上开启编程任务,然后起身离开,随后通过手机或任何设备随时随地接手。而且最厉害的是,所有程序依然是在你的本地电脑上运行,数据完全不会上传到云端。如果你一直关注我的频道, 应该对 open cdo 并不陌生。 open cloud 今年非常火爆,这款开源个人 ai 助手,支持 whatsapp、 telegram 等, 几乎包含了所有主流通讯平台,让你在手机上就能直接使用 ai 模型。 很多开发者专门使用 open cdo 在 手机上远程控制 cloud code, 官方并没有提供这样的功能。很明显, anthropic 注意到了这个需求,因为远程控制本质上就是官方版的 open c claw, 至少在编程工作流上是这样。 咱们直接进入正题,如果你用过 cloud code, 肯定深有体会,你在终端启动了一个任务,比如让 cloud 重构某个模块,或是开发一个新功能,然后你就得守在桌前,等它运行完, 你没法直接走开,因为 cloud 的 随时可能提问,或者需要你授权进行某些操作。 opencloud 的 做法是将操作接入即时通讯应用, 你只需在 whatsapp 上给 cloud 发消息,它就会自动处理任务,你就能腾出手来忙别的了。但 open c 的 问题在于,配置过程非常繁琐,你得准备 api 密钥,还要配置通讯平台适配器。最关键的是, 它还存在严重的安全性隐患。事实上,它曾存在一个远程代码执行漏洞, g c v 一 二零二六二五二五三这引发了广泛的担忧。 由于 opencloud 是 自托管的,安全维护完全得靠你自己,而有了远程控制 antropics 相当于在说 我们提供同样的移动端体验,但拥有原生集成、端到端加密,且彻底告别安全隐患。 远程控制的原理是建立连接在本地 cloud code 绘画中,与 cloud 移动端 up 或 cloud ace rush code 网页端之间建立连接, 这样你的终端就会保持运行状态。 cloud 会继续在本地执行任务,并拥有文件系统的完整访问权限,以及你的 m c p 服务器工具、项目配置等所有资源。 但现在你直接在手机上就能查看并操作该绘画。说实话,这功能确实非常强大。接下来我们看看具体该如何使用。开启远程控制绘画共有两种方式,第一种是在终端中运行 cloud rc 指令, 这也会启动一个全新的绘画,你还可以根据需要添加 sandbox 等参数。第二种方法是输入 r c。 在 现有的 cloud code 绘画中,这样做的好处是它能保留当前的对话记录。如果你真用 cloud 处理任务, 只需输入 s c, 就 能直接在手机上继续当前绘画。相比之下, opencloud 还需要去设置整个消息桥接,配置 api 凭证,还要安装特定平台的依赖,如 signal c l i 用于 signal or telegram 机器人令牌。 而远程控制功能真的只需一条指令。启动远程控制绘画后, cloud code 会直接生成一个绘画链接,并在终端中同步显示二维码,只需用手机扫描该二维码,即可在 cloud app 中直接进入绘画, 或者在任意浏览器中直接打开链接。又或者,如果你已经打开了 ipad, 就 能直接在绘画列表中找到它,这体验真的很赞,整个过程非常丝滑。 下面这个功能我特别喜欢。即便你的电脑进入了休眠状态或是网络断开了,绘画也不会就此消失,它会在后台持续运行,并在电脑恢复联网后自动重连, 这样你就不必担心进度丢失了。 open globe 通过持久化记忆来解决这确实很酷, 但两者的实现思路完全不同。 open globe 能跨绘画记住数周前的上下文,而远程控制功能则是让当前的实时绘画保持活跃,所以它更像是一种直连而非基于记忆的系统。 接下来我们聊聊配置要求,这一点非常关键,而这正是 openclaw 的 优势所在。 openclaw 是 完全免费的软件,本身不需要你花一分钱,你只需支付所调用的 api 费用。 如果你想彻底实现零成本运行,还可以通过欧莱玛运行莱玛四或 kimi 二点五等本地模型。所以如果你是学生或者预算比较紧张, open source 依然是一个非常靠谱的选择。 其次,你需要将 cloud code 更新至二点一点五二或更高版本, 只需运行常规的更新命令,这样就可以了。第三步,确保你已处于登录状态。如果还没登录,只需在终端运行 cloud, 并执行 logon 命令,通过 cloud a a 完成登录。 随后,你还需要通过工作区信任验证,在项目目录中至少运行一次 cloud, 并确认接受工作区确认提示。上述操作全部完成后,这就大功告成了。 此外,还有几个非常实用的人性化功能,在开启远程模式前,你可以先给绘画命名, 只需在输入四二 c 之前先运行 shirinium 命令。这非常有用,因为在默认情况下,系统会自动用你的最后一条消息作为绘画名,或者是像远程控制绘画这种笼统的名字, 如果你同时开启了多个绘画,很快就会让人傻傻分不清楚。你也可以设置自动为所有绘画开启远程控制, 只需在 cloud code 中输入 config, 然后开启为所有绘画启动远程控制功能的选项, 这样就不用每次都手动输入 glc 了。对了,如果你还没安装 cloud app, 可以在 cloud code 里输入 mobile, 屏幕会显示二维码,扫码即可在 ios 或安卓端下载。这个细节做得挺贴心的,现在我来客观对比一下远程控制功能和 open c 了, 毕竟这才是大家最关心的干货。如果你只想操控 cloud code, 在 写代码时用手机,那远程控制绝对是首选。 原声支持安全稳健,一条指令即刻部署,开箱即用,省心省力,无需安装第三方,依赖安全维护,无需操心。 但若你想要一个全能个人 ai 助手,其功能远不仅限于编程, meloppico 人是更优之选,它能接入五百多款应用 管日历、上网、控家居、发邮件, 在通讯软件里就能一站式搞定。远程控制功能仅针对 cloud code 的 绘画,它并不是那种生活助手,它更像是一个编程专用遥控器。 所以两者之间其实并不存在竞争,它们解决的是不同的需求。但如果是为了通过手机控制 cloud code, 也就是许多人之前使用 open c log 的 主要原因。 antropic 现在提供了一个更安全、更官方的替代方案,接下来我分享一些数据,能让你更直观地了解现状。截至目前, cloud code 的 年化营收已突破二十五亿美元, 照今年年初增长了一倍有余。据统计,全球 github 公开提交的代码中有百分之四现在都出自 cloud code 之手,这简直不可思议。随着远程控制功能的加入, ansorepic 基本上是让开发者无论身在何处都能更轻松地保持高效产出。 我觉得这是他们近期发布的最实用的功能之一。它不是博眼球的跑分提升,也不是发布了新模型, 而是一个非常精妙的体验。优化功能能够切实地解决痛点。你先启动一个任务,然后去喝杯咖啡,手机上就能随时查看进度,随手点下确认, 等你回到工位时,活已经干完了。总之,这功能确实挺酷,我们下期视频再接单机,拜拜。