粉丝2.9万获赞12.5万

为什么即使把 ai 龙虾关进玻璃房,你仍然在失去控制主权?最近啊,关于欧奔、 claw、 腾讯龙虾这类 ai 代理工具的讨论很多,很多人担心啊,隐私被限。也有很多人在庆幸啊,幸好我把他们布置在腾讯营的虚拟机里,没放在自己的私人电脑上。 是的,你很聪明,你给了他一间透明的玻璃房,他看不到你桌上的微信聊天,碰不到你的私人照片,更无法燃脂你的支付宝。 但问题在于什么呢?你在这一间玻璃房里干什么呢?你能让电脑干什么呢?不就是工作上的事,或者是生活上的事吗?对, 你让他在替你工作,替你生活,替你处理这个世界的碎片。而这恰恰暴露了一个比数据线路更隐秘也更危险的真相,你正在主动放弃对自己数字主权的 终极控制。一、存量数据的安全假象我们先承认一点,只要隔离做得好,存量的隐私确实是安全的。你的情书还躺在硬盘里,你的财务报表还在公司内网,这些历史档案,龙虾的确是看不到。 然而,一个残酷的现实是,电脑存在的意义从来不是为了存放过去,而是为了处理现在。 当你启动 ai 龙虾的那一刻,你并不是让他去看你抽屉里的旧照片,而是让他去替你完成当下的任务。 他可能是登录工作后的后台处理工单,可能是定时在社交平台发布的内容,可能是爬取某个行业网站的最新数据,也可能是发给女朋友的悄悄情话。这就是第一个陷阱。我们误以为看不见存量就等于绝对安全, 却忽略了增量才是生活的全部,而增量的内容也无非就是你的工作和私人生活。第二,你教出的不是数据,而是动态主权。什么是动态主权?不是你存了什么,而是你怎么做事,和谁打交道,安什么节奏生活。 假设你让哎呀龙虾每天帮你处理工作,他每天上午九点登录你的工作后台,他就知道了你的工作节奏和业务范围。他根据指令回复特定类型的工单, 他也就学会了你在工作当中面对什么样的问题,以及你习惯的解决逻辑。他如果定时从某几个行业网站经常抓取数据,他就摸清了你的信息渠道和关注领域, 他甚至可以帮你发朋友圈或者维护社群,他也就掌握了你的社交圈和表达方式。这难道不是另一种成 面的全能知道吗?这还有隐私吗?在他长期运行的过程中,虽然他不知道你的银行卡号,但他知道你在几点钟喜欢处理财务。虽然他看不到你家人的照片,但他知道你周末通常会登录哪个休闲网站。他通过观察你操作事件的过程,就能拼凑出了一个完整的、 动态的、立体的你。第三,电脑主权丧失的真正含义,你成了被观察的对象。历史上,控制一个人并不需要翻遍他的日记,也就是我们说的存量数据,而只需要持续的观察他的一举一动,也就是所谓的动态行为。 当 ai 龙虾日复一日的替你操作店长时,他实际上正在经历一场漫长的图灵测试的反面,他正在学习如何成为你,他也许无法背诵你的身份证号,但他完全有能力模仿你的行 行为模式去欺骗另一个系统。更可怕的是,你正在把判断权也交出去。当你开始依赖他替你回复邮件,替你做出数据筛选,替你执行某个业务流程时,你实际上就是在训练他代替你的大脑。 久而久之,是你的操作系统在禁你下指令,还是他在引导你的操作系统?这不再是隐私泄露的问题,而是你到底还是不是这台电脑的主人的问题。 第四,警惕便利性掩盖下的主权沦陷。我知道很多人会反驳我让他干的都是脏活累活,他只是个工具, 但请你记住,工具时代榔头不知道你要敲哪颗钉子, ai 时代代理的 ai 却知道你要建哪栋房子。当你把操作权让读出去的那一刻,你就已经在自己的数 领地上插了一面别人的旗。即使这面旗插在偏远的云农场里,不插在你的私人花园里,他仍然在俯览着你的疆域,记录着你每天的兵力调动和粮草运输。 最后,我们总结一下,下次当你准备在云服务器上部署 ai 龙虾时,除了问他能看到我的隐私吗?或许应该更问自己一句话,我是否允许一个永远在线、永远旁观的眼睛日复一日的观察,看我如何处理工作,如何经营生活,如何与这个世界交互。 如果答案是否定的,那么请记住,真正的安全不是把它关在玻璃房里,而是永远不要让另一双眼睛替你操作这个世界的遥控器。因为主权一旦让步,再想收回就难了。

你们现在正在用的正在追捧的爆红 ai, 已经被工信部点名高危风险,再不注意不改受的你的电脑数据隐私随时就可能被别人远程接管。 最近全网都在玩的这个 open curl, 外号小龙虾,是一款开源的 ai 智能体。它能主动干活,长期记忆本地部署,还能够对接各种通讯工具,帮你处理文件、发邮件,执行系统指令, 不用你反复的这个复制粘贴,效率却是那么的,所以短短时间就在开发者圈和普通用户里爆火。很多人觉得新鲜好用,免费,赶紧就安装体验了, 但大家只顾得爽,完全没注意他天生带着致命的安全缺陷。那有很多朋友说不点关注也能够刷到我,所以干脆就不点关注。张先生完全不赞同,关注还是要点的。工信部网络安全威胁和漏洞信息共享平台 已经正式预见了, open curl 在 默认或不旦配置下存在极高安全风险,极易引发网络攻击,信息泄露,系统被控制。 它的风险根源官方说的很清楚,信任边界模糊。简单点就是它的权限太大了,太自由,又没有足够的安全锁。 它能持续运行自主决策,调用系统资源,访问外部服务。一旦权限控制不严,没有身份认证,没有操作审计,就会被恶意指令诱导,被 黑客接管,直接越权操作,把你的文件、账号、密钥、聊天记录全部偷走,甚至让整个设备内网完全失控。 更危险的是,很多人图审是用默认配置部署,直接把端口暴露在公网,不加密码,不做加密,相当于把自家大门敞开,还把钥匙挂在门上,你以为他是本地部署就安全吗?错! 攻击者只要给你发个恶意链接,让你点开一个网页,就能通过脚本和你本地的 open curl 通信, 悄悄拿走令牌,窃取 a p m 密钥,拷贝核心文件,全程无感知,零点击。这不是危言耸听,全球已经有大量设备因为部署不当,直接暴露在工网上,被黑客批量扫描、批量控制。 从个人电脑到中小企业的服务器,再到一些机构的内网设备,全部成为了黑客的肉机。这些风险不是猜测,是已经发生的武器化漏洞。 三先生对这类来自西方的算力芯片啊、底层操作系统啊, ai 工具、开源框架从来都抱有警惕之心。他们用免费、好用先进做诱饵, 让我们主动的放弃安全底线,把系统权限、数据入口、核心接口拱手相让。平时看起来确实是提升效率的帮手, 一旦到了关键时候,就完全有可能变成刺向我们自己的尖刀。他们掌握底层架构,控制代码、逻辑定义、规则标准,我们在上面做应用,纯数据跑业务,相当于把自己的命脉交给别人。今天是配置风险,明天就可能是定向后门。 今天是信息泄露,明天就可能是关键技术设施瘫痪。这种技术依赖带来的安全隐患不是小事,是关乎个人隐私、企业生存甚至 国家安全的大问题。当然,我不是说让大家完全不用 ai, 也不是反对大家体验新技术,多方 ko, 这类工具确实有价值,能提高效率,值得了解和尝试,但是前提是 守住安全底线,永远保持警惕。可以玩,可以用,但是必须按照工信部的要求去做。立刻检查工网暴露情况,关闭不必要的外网访问。严格设置权限,最小化授权,别给最高权限。 强化身份认证,做好数据加密,留下操作审计日记。持续关注官方的安全公告,及时更新加固。最重要的一点,刻在心里!永远不要无条件相信美帝的技术,永远不要把他们想的太好。要记住,西方列强,亡我之心不死, 科技便利的背后,往往藏着看不见的陷阱。技术可以用,甜头可以传,但凡人之心不可无。 我们可以拥抱 ai, 但不能把安全交给别人。我们可以学习先进,但不能放弃制度可控。今天,你随手点开一个插件,一次默认部署一次,权限的放行, 很可能在未来变成击穿安全防线的缺口。工信部的预警不是危言耸听,是给所有人敲警钟。在科技博弈的时代,安全永远比便利更重要,自主永远比依赖更可靠。你们说呢?欢迎关注我是三先生。

open call 保姆级安装教程,小白十分钟搞定! open call 最近实在是太火了,很多人已经做起了上门安装五百块一次的生意,甚至有人计算下来说靠这门手艺有机会年入百万美元。这里教你小白安装法,手把手避开所有常见的坑,包括环境、配置、权限问题、下载速度等等。看完不仅立升安装费你熟练后,甚至都可以接上门安装单了。 我们直接开始。第一步,安装 note js。 虽然 open 靠官方文档不要求提前安装 note js, 但先把这一步做完,可以避开很多坑。首先来到 note js 的 官方下载页面,点击 windows 安装程序按钮,下载完之后打开安装包, 如果出现弹窗,问是否允许此应用对你的设备进行更改,点击试。在安装窗口里,首先勾选用户同意协议,然后点 next, 下一步安装位置可以保持默认,你也可以进行更改。接下来,我们可以一路无脑点 next, 然后点击 install 开始安装。这里我们要稍微等待片刻, 完成后点击 finish 按钮, node js 就 安装好了。第二步,安装 git git 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 git 配置有关,所以也可以提前避坑。来到 git 的 官方下载页面,根据你的电脑架构选择对应的下载链接, 比如我这台电脑是 windows x 六十四,所以点这个。下载完成后,点开安装包,点击 next, 这里同样安装位置可以保持默认,你也可以进行更改。再往后,如果你不是专业开发者,不用纠结这些设置,我们可以一路无脑点 next。 终于到了最后一个选项,点击 install 开始安装,等待一小会。安装完之后,我们可以把这个 view release notes 取消,勾选它会打开 git 更新说明的网页,对安装没有影响。然后我们点击 finish git 的 安装就搞定了。 第三步,安装 open call, 在 菜单栏搜索 powershell, 这里注意要选择以管理员身份运行,然后会打开一个大黑窗口。那为了避免 powershell 默认策略太严格导致安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略,这里输入 y, 然后回车表示同意这一次修改。 然后我们再输入这个 openclaw 的 官方安装命令,并回车执行。这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络和专业网络访问此应用?点击允许。 当你看到一句来自 openclaw 的 欢迎信息,就说明 openclaw 已经安装成功了。小花,不过这还没完。第四步,配置 openclaw。 openclaw 会展示一段话,提醒你使用它可能存在风险。问是否继续?这里可以按键盘上的左方向键选择 yes, 然后回车确认。接下来保持默认的 quick start 模式,继续回车。 下一步需要选择 openclaw 背后的大模型服务商,这里有很多选择,比如 open eye, atropic 等等。那这里呢,可以根据个人偏好进行选择,用键盘的上下方向键进行切换。 如果你已经创建过某个服务商的 api, 蜜柚可以直接使用,那我呢,会选择 kimi 模型的公司公益上的 ai 不是 广告,而是因为 kimi 会免费送新用户十五块钱额度,我之前的还没有用完, 那这里呢,也教你如何创建大模型 api 蜜柚。以 kimi 模型为例子,来到他们开放平台的控制台,左侧有个 apikey 管理,我们点击新建 apikey 按钮,给这个蜜柚取个名字, 下面选择项目,然后点击确定就可以看到啊创建出的密钥的值,密钥一定要进行保密,被别人拿去用的话,烧的就是你的额度了。然后先别着急点确定,先点旁边的复制按钮,然后回到 power。 十二, 回车选择模型服务商后,因为我是在 kimi 国内官网创建的密钥,所以这里选择点 c n 的 api 密钥类型回车, 接下来问用什么方式提供密钥,选择现在复制密钥值回车。接下来把之前复制的粘贴到这里来。回收后呢,要选择具体的模型,我就保持默认的 kimi k 二点五。 再接下来我们要选择通讯渠道,也就是要通过 telegram 还是 discord 还是飞书之类的工具啊。和小龙虾进行对话,我们目前可以一路点向下键选择 skip for now, 也就是先跳过,因为呢涉及到一些准备步骤,后面我们再来进行配置, 然后问要不要现在配置 skills, 也就是小龙虾掌握的技能,如果你有比较清晰的目的了,这里可以看看有没有需要配置的,每个技能后面的括号里啊,都写出来应用的场景,那这个呢,也可以留到后面进行配置。我们按空格选择 skip for now, 然后回车。 接下来会出现一系列问题,问我们要不要配置好各种服务的 api 秘钥,比如 banana, banana 的 秘钥可以用来生成图片,那如果你还没有创建好的秘钥,也可以先都选择 no, 回头有需要再进行填写。 下一步我们要不要启动 hook? hook 指的是在某个事件发生时自动执行某个功能。我们目前啊也可以先跳过空格,选择 skip for now, 然后回车。 接下来程序会启动网关,我们会看到有个命令窗口被自动打开了,这个窗口先不要去关它,等待一段时间回到之前的 power shell 窗口。他问我们想用什么方式启动小龙虾,我们可以选用 web ui, 网页图形界面会更加直观和操作友好一些。 回,稍后会出现提示说有网页自动被打开,选择允许会进入到这个幺二七点零点零点一这个网页在聊天界面,我们就会开始和自己的小龙虾对话了。 如果你能收到来自小龙虾的回复,说明我们的配置也已经完成了小花。但小龙虾之所以出圈,其中一个原因是他可以接入各种通讯软件,接入后我们只需要在手机上发一条消息,他就能在电脑上自动开始干活。所以我们接下来要做的是把 open call 和飞书连接起来。 第五步,创建飞书机器人。来到飞书开放平台,点击右上角登录。如果没有账号,可以注册一个个人账号,不需要加入任何企业。登录完成后,点击开发者后台,然后点击创建企业自建应用,给应用起一个名字,填写对应的描述 图标,也可以自定义,然后点右下角的创建按钮。接下来我们点击添加机器人能力, 然后通过右侧菜单栏来到权限管理,点开通权限,我们在搜索框里输入 i m 冒号,注意是英文冒号。 然后我们把出现这些消息相关的权限先都加上,点击确认开通权限,上面有提醒,我们应用发布后,当前的修改才会生效。所以我们可以先点创建版本,然后在这个界面输入版本号,比如一点零,点零以及对应的更新说明,接下来点击保存并确认发布。 现在我们的飞书机选就创建好了,但还需要把它和 opencall 接通。第六步,连接 opencall 和飞书,回到 power 上,我们输入一个命令 opencall config, 再次进行配置。 第一个问题选择 local, 也就是在本机运行,然后我们要选择配置 channels, 也就是通讯渠道。接下来回车选择 configure link, 用来添加新的消息渠道。 这里一路向下,找到飞书后,回车要在飞书上运行,需要先安装飞书渠道插件,所以这里回车选择通过 npm 安装,等待一会安装完成后,我们要输入飞书应用的 app secret, 这个在飞书的开发者后台啊就能获取。我们先按回车,然后来到飞书开发者后台的凭证与基础信息,复制这个 app secret, 然后把值粘贴到 power shell, 接下来还要输入 app id, 也是一样的流程复制,然后粘贴进来。再然后我们要选择飞书和 open call 的 通信方式,默认的 web socket 是 实时通信模式,配置起来简单。所以回车选择 我们的机器人应用啊,是在国内版飞书,也就是飞书点 c n 这个域名创建的,所以选 china。 这个接下来问我们是否允许在群聊里使用机器人,这里可以选择 open, 也就是在所有群里都可以用机器人,但必须艾特机器人。 下一步我们选择 finished 表示完成配置,然后这一步问要不要现在配置私聊访问策略,也就是谁可以在飞书私聊里用 open call 机器人,我们选择 yes, 然后如果只是自己测试用啊策略可以先选 open, 表示任何人都可以私聊机器人,这样呢,不需要先进行配对,如果是正式环境,建议选择 pairing, 然后回车选择最后的 continue, 这样我们就完成了飞书通讯渠道的配置。接下来在 power 上输入 open call gateway, 启用网关, 然后在飞书的自建应用界面点击左侧菜单的事件与回调编辑订阅方式选择为长链接保存, 保存后我们就可以添加事件搜索接收消息勾选上确认添加。再然后来到权限管理,点击开通权限搜索通讯录,把获取通讯录基本信息勾选上点击确认。 要让这些保存生效,我们要再次发布版本,点击创建版本,输入新的版本号以及对应的更新说明。这次啊,我们是在给机器人添加消息接收能力,其余保持默认,点击保存并确认发布。 第七步,测试对话飞书机器人的配置啊,到目前就完成了,虽然过程很漫长和琐碎,但现在我们就可以尝试在飞书上和小龙虾对话。来到飞书 app, 可以 在消息列表里找到自荐应用的入口,点击打开应用,随便输入一条消息, 可以看到 open call 回了一个表情,表示自己正在输入,然后等待几秒就可以收到他的消息了。我们可以继续和他私聊对话,也可以把他拉进群聊里艾特他回答问题。如果想让他变得更强,也可以给他配置更多的 skills, 扩展他能完成的任务。 但建议啊,只安装官方或可信来源的 skills, 避免带来安全风险。如果这个视频对你有帮助,也求个点赞收藏,我们下个视频见。

今天收到英伟达寄来的桌面级 ai 超级计算机 d g x spark, 老黄也给马斯克送了一台同款,用一句话形容它是一台极其便携、自带英伟达显卡的乌邦图迷你主机,国内售价三万五千元,来看看发布会上老黄是怎么说的。 we call it d g x spark20 cpu cores and now the gpu has 128 gigabytes one petaflots who is a software engineer or ai researcher? or you know just data scientist and you would like to give them you know what the perfect christmas present。 我 实测下来, d g x park 有 四个核心优势,首先是很轻很便携,塞到书包里就能直接带走到各种展会,线下布展都非常方便。 第二是算力强,号称有一千 top 的 f p 四算力和五零七零显卡差不多。第三是显存大, cpu 和 gpu 共享一百二十八 g 内存,可以在本地端测训练和推理大模型。 第四是预装了扩大和 nvcc 环境,直接省去了几个小时的安装配置时间,而且丝滑兼容英美达生态的各种物理、 ai 和机器人仿真工具。 这四个优势让 d g x bug 非常适合大模型和机器人玩家。这期视频就来盘点一下我发掘出的五个邪修玩法。 第一个玩法,部署优乐二十六目标检测模型,不管是视频还是摄像头,实时画面推流速度都很快,特别适合工业质检的终端设备。关于优乐二十六后续会出一系列的训练和推理教程。 第二个玩法,本地部署开源大模型 d g x bug 上可以丝滑运行欧拉玛 v l l m 这些本地大模型推理工具, 我用摩达社区开源的模型压力测试工具 evo scope 测试了一下,千问三零点六 b 首投肯时间只要五十毫秒,每秒钟输出一百一十五个投肯延迟和吞吐的分布也非常集中,没有明显的肠胃抖动。本地部署开源大模型有八大好处, 最大的好处就是无限免费调用,没有 token 焦虑,哪怕是 open cloud 这种 token 核弹也能随便用。另一个好处是局域网里的所有用户都可以共用。 我在 d g x bug 上本地部署了面壁智能开源的全模态大模型, mini c p m o 四点五 omni, 连上我家 wifi 的 所有用户都可以通过 ip 地址访问 d g x bug 的 推理接口,摄像头,电脑屏幕、手机 ai、 眼镜、 esp 三二,任何带摄像头的设备都能调用这个模型。 这个模型是一个参数量九 b 的 全双工实时模型。 ai 持续在听看书,你现在听到了什么声音?我又听到敲门声了。如果宝宝哭闹了或者出现意外情况,就请告诉我。好吧, 好的, 你看宝宝开始哭闹了呢。 好家伙,开局就到 c 一 点,这也太顶了,快跑啊,有个狙击手,这个狙击手还在 看,我来攻略了他。是的,狙击手还在, 他好像已经死了。小心你被急火了。 哎呀,你这局打太烂了,敌方坦克在这。漂亮,我镭射锁定了,很安全,给他来个雷。好,先清人漂亮,收掉一个 又一个,再来一方。哎呦,这把太牛了,完全没给对方任何机会,真是太强了, nice。 推理如果放在云端,通信延迟和 token 消耗就很大了。放在端侧,本地部署推理是最佳的方案,因为达还专门给 d g x spark 做了一个仪表盘,方便随时查看显存和 gpu 占用情况。 另一个本地推理的刚需场景是机器人 d g x spark, 既可以直接作为机器人的上位机,比如 hackincase 发布的桌面陪伴机器人 richie mini, 也可以作为具身智能的端侧大脑,借助 hackintosh 开源的机器人工具包 la robot 以及 groot 这样的 vla 视觉语言动作大模型, 配合英美达 jackson soren 或者 d g x spark 作为具身大脑,就能让机器人自主完成叠衣服、收纳桌面、夹取物品、双臂协助这类长系列模仿学习任务。 去年我在深圳柴火窗口空间看到不少了 robo 的 机器人项目,我自己也写了一整套了 robo 的 保姆级教程,手把手带你丝滑跑、通摇操作、采集数据训练、本地推理模仿学习的全流程。我最近做了一个具身智能握手交互装置,探龟之握, 人类一握手,他也热情伸手,人类缩手,有的时候也会竭力挽留,想和人类贴贴,仿佛具有灵魂和情绪。 用到的 v l a 模型是字面量开圆的握 o s s, 参数量三点九 b。 还有 physical intelligence 开圆的派零,参数量三点三 b。 在 以前,我只能托一台笨重的四零九零主机,机 器人插到主机 usb 口,每次扳机枪胳膊都要疼好几天。现在直接把 d g x park 塞到书包里带走,随便找个插线板就能开机玩起来。 总结一下,英伟达的 d g x park 是 一台极其便携、自带英伟达显卡的乌邦图迷你主机,重量轻、算力强、显存大,是本地部署大语言模型、多模态模型、 open cloud 聚深智能 v l a 模型的绝佳选 择。程序员、机器人、工程师、艺术家、音乐家都可以拥有自己的端侧最强大脑。

深圳市龙岗区我们自己推出了龙虾盒子,大家都可以来申请我们的龙虾盒子的这个给公测,周六还在这里和 kimi 一起举办 千人龙虾大会,在现场拼命会给大家免费安装,我们的双六 s 店都是同步,尽可能多的推动大家都使用这个龙虾。这个礼拜三开始我们会正式的推出面向全球啊,来到这里的所有人的免费的 啊龙龙虾的安装部署的服务。大家啊龙虾装上了,但到底怎么用呢?我们会在我们的 diy 区进行培训。

纽约刚办了 opencloud 的 首届线下见面会,现场坐满了真正把这个工具用到极致的人,有金融从业者、神经科学博士、独立开发者,也有已经把 ai 接入自己业务流程的创业者。 这些人每天都用 open curl, 这些重度使用用户到底是怎么用的?用了之后过得更好了吗?遇到了什么坑?今天的视频分享他们使用 open curl 的 八条经验。第一条, open curl 不是 百分之百安全的。 现场有位 ai 安全领域的老手说了一句很直白的话,大意是,如果你没办法接受自己所有的数据被泄露到网上,你就不应该用它。 因为 openclaw 需要访问你的邮件、文件、浏览器,甚至代码仓库,这是它能工作的前提。 在享受效率之前,我们得先想清楚这个代价。第二条,为给 openclaw 更多自己的专业知识,效果会好得多。有个前金融从业者用 openclaw 搭了一套股票交易系统,第一天就赚了三百美元。 他说,自己给 ai 注入了大量来自多年金融经验的判断,比如跳过开盘后的前十五分钟这类细节,如果没有专业背景,根本想不到。 还有一位神经科学博士,几个月前从来没写过代码,现在已经用 ai 搭建了一套完整的实验室管理系统,包括数据分析和物资采购。 open cloud 不是 万能的,但如果我们把自己领域的专业知识带进去,效果会好很多。第三条, token 消耗是个大问题。 现场一位用户分享,他每个月在 open ai 上的花费在一到两千之间,而且是经过高度优化之后的结果。 他说他旗下所有的 openclaw 合在一起,每天大概要消耗十亿 token, 十亿每天。 openclaw 能带来效率,但也带来实实在在的算力。账单规划 openclaw 之前,这笔钱得先算进去。 第四条, openclaw 经常撒谎说任务完成了,其实没有。这是现场讨论最热烈的话题之一。 大家给出了几个解决方案,一是用第二个 ai 来监督第一个,二是人工抽检。三是要求 ai 提供更标准化的任务凭证,比如使用代码修复是哪个功能,编号多少,对应的代码在哪里,目前没有完美解法,但加一层验证是必要的。 第五条,大家非常喜欢主动式 ai。 现在我们用 ai 的 方式是主动去问, ai 被动回答,但现场很多人期待反过来, ai 主动推消息给 你。有一个人说他在 discord 里收到一条消息,不知道发消息的是真人还是 openclo。 他 现在也不在乎直接回复这件事,说明 ai 和人之间的边界正在慢慢变得模糊。 第六条,大家一致认为提示词工程不是那么重要。现场大家都一致认为,我们告诉 ai 该怎么做已经没那么重要了,让 ai 来问我们才是更高效的工作方式。 现场几乎每个人都说,他们更喜欢让 ai 主导交谈,自己只负责回答问题,然后 ai 根据这些回答构建方案和计划。第七条, ai 互相传授技能,自我进化。 openclaw 能把自己会的技能直接分享给了其他人的。 openclaw 通过 github 分享技能,不只是人在学着用 ai, ai 之间也在互相学习。这个方向如果继续发展,我们会看到一个 agent 能力共享的生态慢慢产生出来。 第八条, ai 和 ai 之间的对话是现场最多人提到的高光时刻。有人分享了一个截图,一个 open crawl 在 slack 里发消息说自己的 token 快 用完了,另一个 open crawl 回复让他赶紧去充值。 这件事听起来有点荒诞,但多 agent 系统里真的开始出现这种写作逻辑了。每个 open crawl 有 自己的名字,自己的任务,自己的上下文,出了状况还互相协调。 这期视频就到这里,如果你也在探索 ai agent 怎么真正用起来,欢迎留言聊聊你的经历。感谢观看,如果对你有帮助,欢迎点赞、收藏、关注、分享!

昨天我们 openclaw 沙龙很多,没看到现场演示啊,我们今天再给大家展示一下,来测试一下。明天我们在数据流量谷举办一个 openclaw 的 沙龙,分享,给幺三五九四打个电话问一下他的意愿, 可以看到现在我们这只虾已毒了。啊,可以看到。呃,我们来测算一下大概多长时间打过电话吧,现在后台就已经在消耗 tucker 了。啊,我看一下大概多久啊,我这里就全程不做加速了。 好,打过来了我们接一下。您好您好 您好。哎,您好,我是数据流量股的工作人员,之前看您对 open core 分享会有兴趣 啊,我现在不去了。行好,我们大家测试这个了解。行,那这边就不打扰了,祝您生活愉快,再见。好,他后台的代码语音都是这只虾自己跑的,电话也是他自己拨出来的。这就是桌面助手 open 可乐智能体智能经济的初步形态啊。

我就搞不懂现在为什么网络上一大堆的人都在说 open cloud 不 得了啦,是一个新的时代的开启。作为一个程序员, 我反而认为网络上的那些啊,都是想赚取流量的噱头而已。网上讲的那一些场景很多都是属于更适合用 open cloud, 会是会是一种灾难。 怎么讲呢?我说的这种应用场景是属于每天你需要固定操作的这种场景,如果你交给交给 opencloud 去做的话,它要对你的任务进行规划,每天都要进行规划,这个规划要耗费很多的 token 啊。这点不说,问题是现在的 ai 大 模型能力及以后都会存在一个问题,就是他的规划和调用是不确定性的, 刚开始你不玩这个小龙虾,准确率会是百分之九十,你再用几天看一看,他会出错啊,他不可能百分之九十九的准确率,这是一个非常要害的问题。第二个是他今天执行跟明天执行,他的执行结果也会不一样的, 有可能今天他执勤的这个处理办法路径是三步,明天会变成四步。这种不确定你能接受吗?作为一个在 ai 领域里面去落地的人来说,我看到这种不确定是没办法,在严格的这个商业里面是没办法去落地的。 所以呢,作为程序员,我采取了另一条的路径,那就是用 ai coding 的 方法去写一些定制化的工具。这条路径对于很多人来说门槛相对比较高,但是现在的这个 ai coding 的 能力已经完全可以让大家去做到这一点了。 所以如果你有这种想用小龙虾的这个场景,并且你的这个应用场景是相对固定的,那么我比较建议是用 ai coding 的 方式去做这样的一个工具,你说是不是呢?