昨天我录了一个视频啊,讲了一下我对龙虾产品的一个想法啊,就是让用户通过浏览器去访问啊,然后再去通过浏览器的 api 直接访问用户本地文件, 这样子呢,就是一方面避免了问用户在本地部署龙虾的这个安全问题,然后另一方面呢,也避免了就是纯云端部署的话,就是你需要上传文件的这个问题啊,我自认为想的还是不错的啊,但是今然后今天就去跟大家聊如何实现的问题 啊,就出现问题了,因为龙虾它的代码是一个纯厚短的代码,它是针对个人用户对吧?用的设计的,它是纯厚短代码, 那么实现你要不然把它部署在云端,然后呢再去客户端通过黑客访问用户文件,这个可以实现啊,但是中间还是会有文件传输的问题啊,我用户访问到,我访问到用户的文件了,我还是得把文件发送到服务器上去,发完了那边处理,处理完了再返回结果 啊,如果文件一旦变大怎么办啊?文件一旦变大怎么办,对吧?这个使用体验我觉得还是应该会比较差的,因为你不停的还是在上传和下载文件。 呃,在这种情况下呢,还有一个问题,还有个问题就是如果我希望用户用自己的 api k, 对 吧?用户自己去买模型,客户很去他用自己的 api k, 那 么 如果你把它部署在服务器上,那么用户自己的 api 可以 就是必须要去发送到服务器上去, 这个呢就是你怎么去获取用户信任呢?对吧?你获取不了用户信任的话,那那你只能自己用自己的 api 去激活,这个对于个人开发商来说呢,前期的成本压力会比较大,那 怎么讲呢?对吧?然后 ai 给出的方案呢?就跟我之前开发那个 agent 好 像类似的,还是把 agent 的 核心循环直接放在后端啊?核心循环直接放后端, 但是这就又又出来一个非常非常难受的问题啊,因为我之前一直觉得,哎呀,龙虾的代码写的真好,对吧?我们在龙虾的代码基础上开发就行了,但是它是一个后端代码,如果要把龙虾瑞典的核心循环放在客户端,那就意味着龙虾的代码没办法用 整个全部重新开发啊,整个核心循环啊啥的全部重新开发, 哎,很难受啊,现在就这样。然后同时还有那个技能的问题啊,技能的问题 啊,如果用户的本身,他自己的数据我都放在用户本地了,然后通过源源区访问,那么技能你放在哪, 对吧?用户如果想干个啥,他下载下来的技能啊,他搞过来的技能我放在哪?你也放在本本地吗? 就是可能一堆技能啊,全放本地也可以啊,也可以,但是这个如果越来越大的话呢,他还是会面临一些问题。同时呢,我如果我希望就是说很多技能如果能共享出去的话,那是不是更好?在这种想法下,技能放在云端是不是一个更好的选择呢? 如果把技能放在云端,那么你的 a 人的循环在客户端,那你掉技能的时候要跑到营云端去找技能,然后再下载下来,这个过程也很难受。 看来就是说在设计上扯实践上,产品啊?这个就是产品跟开发为什么要打架呢?对吧?设计上跟实践上他总是需要做一些取舍, 同时需要做一些趋势,这个还是得再好好想一想吧。
粉丝488获赞3215

提到养龙虾,大家首先想到的就是繁琐,又是本地部署环境,又是找大模型对接 api 密钥,还得折腾机器人绑定还没有开始就已经被劝退了。别急,本期视频给大家带来轻松上手使用的方法,不用写一行代码,不用对接一个 api, 几分钟就可以轻松实现养虾自由。这就是阿里云刚推出的 j v s club, 下面我来实操分享使用方法,我们一起来体验一下。 我们通过左侧进入 clobos, 然后选择顶部的创建 clobot, 然后进行个性化设置,然后我们就可以做风格设定,根据应用场景选择对话语气,然后预装能力,这里就是我们经常听到的 scale, 都是直接帮我们安装好的,就可以直接使用,然后资源节点类型,这里我们就选择默认的,然后我们选择底部的创建 clubbot, 即可成功创建,全程无需任何复杂的操作。 当创建好之后,我们就来到对话这里,当我们来到对话界面,这时候它会有分屏显示,左侧就是我们的对话窗口, 右侧就是一个实时的桌面预览它这个用户体验是非常好的。在这里我们可以上传一个数据表格,然后我们选择文件传输,然后选择上传,在这里我上传一个模拟的收入统计, 通过一段提示词让他帮我们去生成格式化图标。上传好之后,我们在这里给他一段提示词,就是在我上传的模拟收入统计表格中插入折线统计图,然后我们直接发送, 可以看一下,现在帮我们处理好了,他是有文件处理能力的,文件读取和文件修改,这时候如果我们不想找目录,我们就可以和他讲,直接提供给我文件内容,我保存到 本地,然后我们发送好了可以看一下,如果我们不找路径,直接让他提供给我们也是可以的,然后我们选择保存到本地, 然后我们保存啊,这时候我们打开帮我们处理好了带图标的文件,我们来看一下,这就是帮我们处理好的文件,帮我们插入了折现统计图表,还有也帮我们汇总了数据统计, 这些任务他都是可以轻松胜任的,这也是他其中一个使用优势。这样我们在云端我们不用考虑本地电脑的数据安全,我们需要处理的内容就可以直接上传上去就让他去处理, 这样是非常安全的。在我深度体验之后,我花时间了解了一下这个云端龙虾,它每次都特别丝滑的可以完成任务,是因为它有一个超级强大的心脏, gps cloud 是 基于阿里云无影云电脑构建的,它的运行环境和你本地的电脑是完全物理隔绝的,也不用担心影响本地的电脑系统安全和文件内容。物理复杂任务它的算力也是足够的, 底层可以直接释放 emd 高性能 cpu 的 多核并行能力,不管是复杂的逻辑推理还是大量的数据处理,它都能稳稳的去扛住。下面我们一起来看一下它复杂推理和大规模数据处理以及高病发任务的调度能力。 下面我直接给他一个任务,就是帮我获取一些今日 ai 热点内容供我学习,需要你跨自媒体平台搜集信息,还要总结观点,最后提供给我整理好的核心内容,提供给我学习即可。然后我们直接发送 好了,可以看一下,这时候他就帮我们从多个平台搜集了内容,最后帮我们去汇总去整理,这就是他的复杂推理,大规模数据处理及高并发任务的一个调度能力的一个体现。 但这个 gps 可绕除了它的性能优势,还有一个非常出色的功能,就是云端文件与本地文件可以自由传输,解决了云端生成文件无法直接使用的问题。他做到了无缝衔接文件双向传输,云端到本地,本地到云端,这样可以打破数据孤岛。 这里我们选择默认式图,它这里就会分左右两屏,我们也可以选择 alt space 全屏模式,然后在这里有一个绿点,我们鼠标指上来,然后我们点一下,然后选择文件传输,刚刚这是我们上传的这个表格数据, 在这里我们选择上传文件,比如我把这个带图标的再上传上来,我们选择它就会自动去上传,上传好之后这里就显示了出来。 如果我们想从云端保存到本地,同样也是支持的,我们可以看一下右上角这里有一个文件传输,然后再通过右上角这里我们再找到我们保存的目录,这时候就看到了我们上传上来的内容, 然后我们直接打开可以看一下,这时候就可以保存到本地了,这就是它的文件传输的功能,体验是非常好的。 下面我们进入下一个实操分享,就是创建 scale, 像这个 scale 我 相信大家最近都是经常去听到的,我们来看一下这段提示词,就是我们在日常使用 ai 创作的时候,就是我们每次都新建一个对话, 都需要重复输入这段提示词,那么我们就可以把这段提示词制作成属于自己的 scales, 下面我来实操一下, 我们直接把题日词粘贴过来,然后我们再给他一段指令,就是以上是我创作内容的一些题日词,帮我创建一个写作的 scales, 当我提供给你关键词发送帮我创作文章指令的时候,就要调用这个 scales, 然后我们直接发送 好了,可以看一下写作技能创建完成,这里我们轻松对话,就可以创建自己的专属 skills, 打造自己的附用技能,然后还有技能说明,还有使用方式,还有输出格式。 在这里我们调用一下我们刚刚创建好的技能,来让它生成一篇文章,我们看一下它的生成效果是否符合我们的要求,这时候我们给他提示词,就是以普通人如何学习 ai 为题帮 我创作文章,然后我们直接发送,那这个 skills 的 作用就是我们直接提供给他标题,让他帮我们创作文章,就是我们不用再输入特别长的提日词,好了可以看一下现在帮我们输出了,我们再回顾一下给他的提日词,然后字数三百字左右, 然后还有就是提供三个备选标题,然后备选标题三个,还有在文末列出三个可能互动的话题供读者讨论,然后互动话题,这就严格遵守了我们给他的提日词的要求, 这个优势就是我们封装好 scales 之后,就是我们的附用技能,在我们日常使用的时候,要善于创建自己的 scale, 可以 节省我们大量的时间,提高效率。这款龙虾既能云端使用,又能本地传文件,这才是真正懂打工人的智能体。 这个对于普通人很友好,我们只需要和他说人话,就能帮我们打工人干活,告别繁琐的配置,劝退养虾。好,我们本期内容分享就到这里,我们下期再见。

hello, 大家好,我的 opencloud 装在这台乌邦图上面,需要怎么在我的另外一台电脑上面可以访问呢? 先说一下不行的方案,我本来想着这个都是在同一个局域网,我直接通过局域网的 ip 去访问, 但是没搞定 opencloud 这里好像有安全的限制,你就得用 h t p s 或者 local host h t p s 就 得搞证书什么的比较麻烦啊。找到第二种方案, 直接啊通过端口的转发来配置。大概的逻辑是只需要在我这台想访问的电脑上面,通过转发的这个命令, 登上我的乌邦图的端口之后就可以在这里访问了。 那第一次访问需要把这个网关的 token 给配上来,这样就 ok 了。我这台电脑是不需要再去装 opencloud 的, 然后直接可以控制另外一台,也可以登上这里那个乌邦图的 dashboard。 然后如果每次登录输密要输密码麻烦的话,可以通过这个 copy id s s h copy id 把 t copy 过去,这样每次我只需要运行把这个放在一个脚本里面,每次我只要运行它就可以了,可以设置开机自启动。

今天聊一下鲫鱼龙虾做产品的话呢,这个产品形态的问题啊,因为龙虾它本身是针对单个用户来设计的,就是你用户自己把它部署到电脑上啊,然后呢,你自己去用它是这么一个设计的 思路,所以它的架构啊,它的产品架构呢,也是这么来的啊,这就导致你自己如果会部署啊,会用龙虾,那你这个可能就用的很爽,对吧? 啊?但是如果你说我想把龙虾部署在云端,对吧?给大众提供服务啊,这个事怎么弄呢啊?比较简单的一个做法呢,就是我部署到云端之后,对吧?你用户来了,然后我给你开,每一个用户开一个单独的,龙虾的一个实力 啊,也能这么干,对吧?但是这么干呢?只有大厂能这么干。首先呢,因为他部署在云端的话呢,他龙虾自己操作的那些文件,啥也全部都是在云端, 对吧?他需要大量的人服务资源,需要存储空间等等,这些东西啊,对我们这些普通开发商来说就没有意义了, 但是这种产品模式我个人感觉也不太好,不太好?为什么呢?因为龙虾大家觉得他为什么好用方便,因为他不数到本金之后,他可以操作你的所有点,你电脑上所有东西,对吧?他可以直接操作啊,你想让他干啥,他直接就干了, 如果在云端,那就意味着啥?你要让他去帮你处理一个文件,好,没问题,那你得把文件传上去,对吧?你就不停的上传文件,上传文件, 那么在这种情况下呢,你用龙虾跟你用一个就是机座模型服务商自己提供的那个客户端,对吧?比如 deepsea 啊,比如豆包,这些东西有什么区别呢?对吧?你去让他处理文件,你还是把文件传上去,然后他再给你处理, 所以这个便捷性,我个人感觉就是你把龙虾如果部署在云端的话,其实没有什么特别大的意义啊,没有什么特别大的意义啊,当然对大厂来说可能不是大厂,因为比如你用飞书,比如你用企业微信、 钉钉,对吧?这些东西,那你本身的可能一些工作的内容,你本身就是存在他们的服务里的, 比如飞书呀,有飞书表格,对吧?多维表格或者飞书文档,什么东西,你的工作内容全在那个上面,哎,那好,那飞书提供这个服务就很爽,对吧?你可以直接用龙虾去操作你的那些有文件的内容啊,这个是很好的, 但是呢,对于可能更多的用户来说呢,你的大量的工作内容啊,共产生的文件啥的,可能还是本地存的更多一点,对吧?那在这种情况下呢,就还是不太行啊,云端的龙虾我觉得还是不太行。 那么第二种产品形态呢?其实就是说我自己把龙虾还有龙虾的安装环境,对吧?我打个包做一个一键部署的这种东西出来 啊,这种产品呢,就跟自己会部署龙虾一样,它只是解决一个部署的便捷性问题。如果对于普通人来说,我个人感觉你自己不懂电脑啊,不懂这些东西,你去部署一个龙虾确实有一定的危险性啊,对吧? 最近也有一些新闻公网上暴露了很多龙虾的手,然后呢,如果有别人,对吧?能够通过某种方式去连上你的龙虾,那么他就可以直接去操作你的整个电脑,那这种情况呢,我觉得 对于大多数人来说真的是一个很危险的事情,所以这种产品形态我觉得也是不行的啊。然后我之前自己开发 a 阵的时候,我思考的一个产品形态长啥样呢?就是 还是以浏览器为眉节啊? chrome 浏览器呢,它有一个 api 接口,是可以通过这个接口去直接访问本地文件的,但是这种访问是一种有限制的访问,它不是说可以访问你的整个电脑上所有文件,对吧?它可能只能访问一个目录啊, 而且这浏览器本身它会有一些安全的功能在这,所以我当时的想法就是说进入浏览器,对吧?用户还是通过浏览器来访问龙虾,然后呢就再通过这个接口啊,去访问本地的一些文件, 这是我认为一个未来可能会比较主流啊,会比较重要的一种产品形态,我接下来的产品呢,也会朝着这个方向来开发啊。

嘿,大家好,今天咱们来聊一个特别酷的话题,怎么给自己打造一个属于自己的七天二十四小时在线的 ai 私人助理。我们会一步步的拆解,告诉你怎么用一个叫做云电脑的东西来实现这个想法。你放心啊,就算你完全不懂技术,也能轻松跟上。 你有没有想过,能拥有一个永远不会累的 ai 助手?就是那种能帮你处理工作,给你创作灵感,而且随时随地都在线的超级伙伴。行,今天咱们就把这个想法变成现实。 好,那我们先来搞明白一个最核心的概念,到底什么是云电脑?其实啊,你完全可以把它想象成一台专属于你的性能超强的个人电脑。唯一的区别是啥?它不是放在你的桌子上,而是活在互联网上。 这就意味着,不管你是在用手机、平板,还是随便哪台电脑,随时随地都能连上它,使用它。 听到这,你可能会觉得要配置一台电脑那肯定很复杂吧,但实际上呢,整个过程比你想象的要简单的多的多。这一切都得归功于一个特别神奇的工具,我们马上就来看看 这神奇的工具形化叫镜像,我觉得有个比喻特别贴切,你就把它想成是一个精装修、拎包入住的公寓。 所有那些复杂的软件呢,驱动啊、配置啊,都已经有专家帮你提前装好调试好了,你根本就不用操心那些寄宿细节,只要拿到一把钥匙就能直接搬进去用。 那这把钥匙是什么呢?说白了就是一个很简单的代码, open claw, 你 记住这个名字大小写都得一模一样,它就是我们通往这个预设好了一切的密钥。 那么具体怎么上手呢?这里有两条路给你选,如果你是纯新手,那最省事的办法就是直接购买那个包馋了 openclaw 的 套餐包,里面你需要的东西都齐了。 当然了,如果你手上已经有一台云电脑了,那操作也很简单,就用咱们刚才说的那个 openclaw 镜像码,给你现在的电脑换个新装修就行了。 好了,到这一步,咱们的精装公寓算是准备就绪了,但是一个 ai 助手最重要的部分他的大脑还没接上呢,所以接下来咱们就来解决这个问题。 这问题就来了,这个机器人他到底是怎么进行思考的呢?他的智商是从哪来的?答案就是这个东西, 百炼 a p i k 它就像什么呢?就像一张特别的图书卡,有了这张卡,你的机器人就能随时进入阿里云百炼大模型服务这个巨大的支持殿堂,也就等于说它获得了连接到一个超强 ai 大 脑的权限。 操作起来呢,也特别直观,你只要把申请到的这个 a p i k 复制一下,然后粘贴到云电脑桌面上的 cloud bot config 这个配置工具里就 ok 了。 对,就这么简单,大脑就连接好了,基础工作都完成了。现在咱们就进入最激动人心的实战环节,我来手把手的教你怎么把这个 ai 助手接入到我们平时常用的办公软件飞书里去。 第一步,咱们得先在飞书里创建一个应用,你只要登录飞书的开放平台,点一下创建企业自建应用,然后给你的机器人起个好听的名字,比如说就叫我的 ai 助手。 最后呢,在功能列表里找到机器人这个能力,点一下添加就行了。第二步是授权, 一听到这个词可能有点头大,但别怕,咱们有捷径,你只要在那个权限管理页面找到一个叫批量导入的功能,然后把我们提供好的一段配置代码直接粘贴进去。 没错,这里的关键点就是你完全完全不需要去理解那段代码里到底写了些什么,它其实就是一张权限清单,你唯一要做的就是复制粘贴,这样一下就把所有复杂的授权设置给搞定了。 好,最后一步,获取凭证就跟办身份证差不多,你在飞书后台的凭证与基础信息里复制 app id 和 app secret 这两串字母。然后呢,回到我们云电脑上的那个配置工具,把它们粘贴到对应飞书的区域,点一下保存。大功告成, 配置全都完成了,接下来就是见证奇迹的时刻了。不过呢,在庆祝之前,咱们还得讨论一个非常实际的问题,怎么让他真正做到七天二十四小时在线,以及这背后要花多少钱。 当你在飞书后台把应用发布了之后,很快啊,你就会收到一条通知,这时候试着给他发你的第一条消息,比如就简单的发一句你好,然后等着看他回复了。就从这一刻起,你的专属 ai 助手就算正式诞生了, 但是要想让他能够随时随地响应你,实现真正意义上的七天二十四小时在线,我们还需要做一个非常关键的设置, 这里咱们就得聊到一个概念叫核实。默认情况下,你一断开联结云电脑,为了省钱省资源,他就会自动休眠。要想让他二十四小时都醒着,你就必须在管理后台把那个断联后自动关机或休眠的选项给关掉。 但这里我这特别提醒你一下,一旦关了这个选项,你的云电脑就会持续不断地消耗核时。所以啊,你一定要确保你的套餐里有足够的核时来支撑这种模式。我们推荐的那个套餐里不是包谈两千个核时吗?就是为这个准备的。 好了,现在你已经拥有了一个全天候为你待命的 ai 助手了,那么他到底能为你做些什么呢?咱们来看看你都解锁了哪些强大的能力。 你现在拥有的可不仅仅是一个聊天机器人这么简单,它可以帮你一键总结任何网页的内容,还能根据你的几句话描述就生成图片,甚至还能帮你写代码,自动创建 ppt。 除此之外,什么监控、股票行情啊也都不在话下,而且你还可以给它安装更多的技能。这就意味着,很多过去你得花好几个小时做的重复工作,现在都可以交给你的 ai 助手自动完成,让你能把精力放在更有创造性的事情上。 那么,既然现在你已经拥有了一个完全属于自己的七天二十四小时在线的 ai 大 脑,你想让他为你做的第一件事会是什么呢?

一键给你的 ai 龙虾接入阿里云盘,拯救你爆满的电脑硬盘一天曝光一个强大的 scale, 今天要曝光的是阿里云 pds, 你 的 opencloud 是 不是也这样,让它批量处理视频,生成海报,动不动就是几十个 g, 把你的 c 盘直接干红。想发给客户还得用微信慢慢传,急用时手机上根本找不到文件。今天 这个匿名 screen 安装后,自动给龙虾接上阿里云盘,这个远程硬盘,所有 ai 生成的文件直接秒传云端,彻底告别硬盘告急,还能手机一点就分享给客户。还是和上期一样, 国内 qsl、 默里卡之类各种本土龙虾也都能接入。复制粘贴就能一键安装。 skill 安装同样也非常简单,首先我们打开 cocool, 然后进入 skill 商店,再搜索框输入 pds 就 可以找到这个 skill, 点击它就能查看详细介绍。 点击右侧,通过你的 agent 添加,点一下就能一键复制。接下来粘贴到自己的平台,我这里以默里卡为例,粘贴给他就自己开始安装了。等读完条,你的龙虾就进化完毕了,以后 ai 生成再多文件也不怕了,自动同步到你的所有设备。

我刚看到一个非常可怕的东西,这些都是暴露在公网的小龙虾界,也就说任何人他只要访问这个链接就能访问到这个小龙虾的实力。呃,这个网站是一个 公网上开放的,可以看到之前因为一些漏洞或者是一些其他渠道暴露是出来的一些 opencolo 泄露的一些地址,然后这些地址里面有的是, 呃已经泄完全泄露了自己的 gay v token, 还有一些是没有被泄露的,这些服务器加起来大概有接近三千左右,可能这上面主要是一些版本比较老的,然后他会存在一些历史上,就是 open pro 被别人给爆出来的一些安全问题,就是大部分可能是基于这些安全问题导致他们的风险比较高。是所有装了 opencolo 的人都会被暴露在公网上吗?这倒不是,有一些版本他安装的时候可能会是绑定的监听所有的地址,这种情况下有可能会暴露在公网上。如果你在本地装的话, 大部分用户应该都是没有公网 ip 的,如果你在自己的电脑上用过内网,穿透一些软件,类似于远程桌面的这种,就有可能会被攻击。然后另外一个风险比较大的就是你在云服务器上不服,你要 访问,从本地访问过去的话,一定要走公网的啊。当然在现在的版本,即使我们把它暴露在公网, oppo pro 它自己其实还是有做一些防御的,就是有一些健全。呃,通常是需要我们去输入一个账号密码或者是 tok 后才能够正常的去使用它。

之前我们大概现在有三四个小龙虾在跑了,跑完之后呢,全部都去调用的是外网的接口调用的,千问钓的,阿里云也有钓迷你麦钓了很多。然后我想想我们来布一个本地的算力,看看到底他能跑多少。本地的算力核心是为了数卷子, 我们本地的这个算力盒子我们布了三个模型,一个是千问的一百二十二 b 的 和千问的三十五 b 的, 还有一个我们的图形是 模型,这三模型已经报好了,这个盒子呢大概是我数一下一二三四五六七八四八三十二盒的 cpu, 这个是 md 的 一个 cpu 一 百二十二 b, 现在我们也能跑得起来,但是哪个最快,哪个跑的最好,然后我们后续完完全全的测出来之后,再跟大家汇报一下。本地上例有什么好处啊?现在有这么多小龙虾出来以后,不如用本地的上例呢,有一些文件呢,你放在本地它就会很安全, 比如说一些表格,公司自己核心的资料,那你放在本地去做预算的时候,你不会放到外网里,那谁让你大模型给他任何的一个资料,你只要换到大模型,你实际上 你资料就泄露了,那你放到本地算力永远在本地就无所谓了。那当你需要调用外部算力的时候,你再切换到外部算力,哎,这个来回就是弹性的去切换,这点非常好。至于后续的这个盒子到底是性能如何,我们持续关注啊。


嘻嘻,我也开始养龙虾了,正在醒来试一下 kimi curl。 hello, 大家好,我是一个设计师,呵呵。呃,今天我也呃装了一个龙虾,然后就想国外的 open curl, 嗯,配置起来比较麻烦嘛,所以我就简单了呃,直接呃, 就是买了一个 kimi 月月套餐的会员一百九十九,所以就装了 kimi ko, 呃,当然我身边的朋友也有给我推荐推荐, 然后我我装的时候还是挺开心的,但是在做的时候我就发现他的问题好多呀,我本来我就想着我我就是他装的过程还挺简单的,就是一键就基本上就安装了,然后完了之后他不是需要关联一个企微,我弄了个企业微信,我想的还特别美, 我给我的企微就是整了四个机器人,然后有做设计的,做开发的,还有就是呃 ai 资讯的,还有理财的, 然后完了之后我就想让他就是呃跟那个 kimi, 然后连到一起,然后他们各做各的事情啊,就是就是多 a 整套并行任务,就这样子,然后折腾了一下午都没有折腾出来, 完了之后我就跑到了那个呃,就是官方那边去问他不是有专门的那个群吗?可以艾特 kimi 小 助理,然后我就问我说你们这个呃,怎么就是怎么就是能关联到四个,四个就是 ai 机器人,然后让他们就是并行任务,他说还不行 呃,一个账号只能关联一个 a 整他意思就是说你你你那个什么你的一个 kimi kra, 然后你关联呃,微信聊天,你只能关联一个机器人, 完了之后这个机器人你可以给他呃,就是安装很多 cues, 但是这样子不会很乱嘛?我本来我想的还挺美的,我就觉得,哎,我弄一个专门搞设计的,然后再弄一个专门搞开发的,然后再弄一个资讯一类的,理财一类的,然后我就是他的 ceo, 我 就让他给我去去去搞 没有搞好,搞明白没有搞出来,然后问了官方才知道他只能搞他的一个 kimi, curl 只能只能对接一个企业微信里面的机器人,这有啥意思啊?这跟那个我平时用呃 vs code 的 呀或者是 cloud code 的 做东西都差不多嘛, 就觉得没有任何用啊。完了之后,呃,我还科学上网,科学上网就是想想想,因为我经常看一些国外的那种呃跟技术或者是设计相关的一些视频嘛,比方说是 youtube 吧,我就给他了一个地址,我说你帮我汇总一下这个视频吧, 他还不能连到国外的网站,他他还连不上,对我就觉得他有什么意义啊,就觉得好坑呀, 反正,反正今天对那个 kimi ko 我 还挺失望的。嗯,完了之后他还不能,就是好像是云端的嘛,所以他不能访问我的本地电脑,我还说你帮我把下载里面的文件,因为我我电脑上面下载的那个文件夹就比较乱嘛。我说你帮我把那个下载的呃那个文件文件里面的那些东西规整一下, 然后也量不上,也规整不了。它既不可以呃多 a 整它并行任务,也不可以看外网的一些视频汇总,就说会呃,就是看外网的视频,然后把视频汇成汇总成 pdf, 然后还不能呃 访问本地,我就不知道它有啥用。然后就是能装个 skills。 那 现在很多大模型它可都可以装 skills, 然后完了再跟它聊天,我就, 哎还搞出来个可绕,我都不知道他可绕的是啥,好失望。我也不知道是我不会玩还是还是怎么样,就希望有懂的朋友能够指点迷津。谢谢。

太震撼了,这个由阿里出的 gvs 可乐竟然给你配备了单独的移动端,而且在手机端就可以查看电脑的桌面。来,废话不多说,我们来带大家一起安装体验一下。现在注册的话,登录还需要验证码呢,然后我们输入验证码 直接创建,创建进来之后,然后就可以看到我们整个的一个界面,第一个就是我们 clubbot, 第二个就是技能,然后第三个是个人中心,然后可以看到他内置了很多的一些技能,然后个人中心里可以看到他有五千的一个额度,有效期十三十四天。 那我们先来创建一个 bot, 哎,风格我们就选严谨专业技能,这里我们就直接给它全选了, 然后体验版下一步勾选协议,然后这里不用动,直接创建,创建的时候会显示在排队啊,因为这个还在内测,所以比较火。 好,那创建完成之后,然后我们就可以直接点击兑换,然后来进行使用了,那我们现在先让他按照他默认的,直接让他来做三个他的三个热点,哎,这里有一个图标,那我们点开这个图标之后, 我们是可以看到电脑的一个界面的,看到没有?我们是可以看到他电脑的一个界面的,直接在手机端就能看到他的一个界面,我们直接可以在手机上就能看到他的在电脑上的操控的画面,是实时同步的, 这个真的是体验非常非常好,可能未来真的是我们在手机上说一句话,然后他就可以实现在电脑上帮我们把所有的东西全部实现了,而且我们可以看到他的画面,可以看到他在干什么啊?这是手机端的第一次啊,第一次的一个 启动啊,第一次启动的一个任务,现在我们可以看到他在电脑端的话是卡在了知乎的这个登录页面,我们看放大看一下。啊 啊?他这个画面还可以放大,但是他还不是适配的,感觉还不是很好啊,是有一个验证的,我不管他啊,不管他,看一下他怎么来操作的。这样,然后他把这个热点给到我们了,关注我,我们一起养虾。

云端龙虾和本地龙虾有什么区别?零基础小白应该怎么选?买书学 ai 是 不是智商税?已经安装了龙虾如何通往高手之路?一个视频给你讲清楚云端龙虾的三个致命痛点。 痛点一,伪自言。很多所谓的大厂 ai, 本质是开源模型套个壳,这种云端龙虾限制多版本,旧既能落后且无法更新,是被锁在笼子里的。由于它在云端,它根本没法直接访问你电脑里的资料,你想让它处理本地文件,得一张张上传,然后再一张一张下载回来,这谁受得了? 痛点二,挤破头的大锅饭。别以为云端资源无限,实际上是几百上千人共享一台云端服务器,高峰期卡顿不说,有意是共享环境,你的指令排队是常态,配置不如十年前的旧电脑。痛点三,霸道的掏坑收割机。 掏坑就像手机卡流量,大厂前期让你用得爽,后期疯狂计费,这种捆绑式消费让你没有退路。如果用云端龙虾是智商税, 那买书买课学龙虾简直就是误人子弟,有病乱投医了。因为一本书生产出来,你是要跟造纸厂对接,书的封面大纲内容,纸张规格,这至少要一个月。 这时龙虾都已经更新几个版本了, openclo 官方数百上千位开发者,每天都为龙虾更新成千上万行代码,功能多到你不睡觉都看不完。你拿书上的旧命令 clubbrot 执行新版龙虾的安装命令, oh clubbrot 这驴唇不对马嘴的命令,根本就不可能安装成功。 所以这就是误人子弟走弯路。下面介绍已经安装了龙虾如何走向高手之路?一、多 a 展切磋工作。不要让一个模型干所有活,负责策划的,负责产品的,负责设计的,负责研发的,打造一人公司,你就是 ceo。 二、强制检查点为什么有时候 ai 会失忆或者走偏?利用强制检查点可以像单机游戏存独档一样,锁定 ai 的 逻辑状态,一旦聊歪了,直接独档,极大节省算力和时间。 三、外挂大脑记忆持久化,与本地相联库。无论云端还是本地 ai, 都有上下文窗口限制,聊久了他必然会失忆,忘了前面说过啥,云端大厂解决这个问题的办法是让你花大价钱买超长上下文。四、技能自生长 小白用 ai 是 ai 自带什么功能就用什么功能。高手用 ai 是 让 ai 自己给自己造工具。比如你遇到一个很奇葩的文件批量重命名需求, open curl 自带的技能库里没有,你可以直接命令它用 python 写一个处理这个需求的脚本,测试运行,如果成功了,把它保存为你的永久技能。装 ai, 认准微软码工。

看了央视的龙虾安全警告啊,是不是吓得想把 ai 卸载了?别急,作为一个资深的养虾户啊,教你三招保命指南,让你的龙虾既听话又安全。第一招,不要用工作机,用一个闲置的电脑,让龙虾自己折腾去,折腾坏了也不心疼。第二招,砍权限, 他要做 ppt, 你 就只给他访问 ppt 文件夹的权限,相册啊,通讯录,短信通通锁死,密码自己输,别让他记住。第三招,盯住他,打开操作日记,他几点几分,干了啥,修改了哪个文件,全记下来, 记住这三招啊,科学养虾,觉得有用的转发给你的冤种朋友,别让他一个人啊,把雷踩完了!

这几天呢,我把几款热门的国产龙虾全都测了一遍,今天呢,纯干货分享,不吹不黑,直接告诉大家哪款能用,怎么用,帮咱们律师啊,省时间避坑。先给大家做个分类啊,这些龙虾工具啊,就分为三种, 第一种呢是本地龙虾,它是直接装在你电脑上的,比如腾讯的 workbody qcloud, 适合处理本地的案件资料。第二种呢是这个云端的龙虾,它是部署在远程服务器上的,比如 kimi cloud, 还有阿里云的 opencloud。 还有一种是中间态的,他需要在本地的隔离环境中运行,比如三六零的安全龙虾。那咱们律师的核心工作呢,是处理案件资料,写法律文书,所以本地龙虾就比较适合,因为这种龙虾呢,他可以直接访问本地资料,不需要上传。 腾讯的两款本地龙虾呢,我觉得还是比较初级啊,算是个大玩具吧,还成不了稳定的伴养工具。先说这个 qq, 它有个超级实用的功能,就是能够对接咱们的本地浏览器, 在 crab 浏览器上装个 relate 插件啊,你手工登录好,需要这种扫描啊,或者是输入账号的网站,比如这个北大法宝,然后你再把控制权交给他,他就能帮咱们去自动浏览网页,查判例,找法条,特别贴合办案需求。 美中不足的是,这个浏览器操作比较好,偷看啊,免费额度不够用,查不了多少内容。那还不如我手工查了 再看这个 wikipedia, 它最大的缺点是没法对接本地的浏览器啊,它只能用它内部的浏览器浏览那些不需要登录的网站,这点就比较受限了, 你想想,这个能查法条查判例的网站,是不是基本都需要登录才行啊?但是 wikipedia 呢,它能够访问本地的案件目录,你可以建一个工作空间,挂接一个案件工作目录,它就能够便利目录中的所有文件进行案情分析, 然后写文书。这个功能倒是挺实用的,但是这个最终结果啊,一定是律师要把关啊,最好和他进行多轮的交流, 让他呢先分析案件的基础事实,然后呢,你再让他履这个法律程序,最后呢,你再引导他按照要求写法律文书,这样质量才比较靠谱。还有这个三六零的安全龙虾,本质它也是 open club, 但是运行在本地的 linux 沙箱中,安全性更高,功能也更强, 但是安装时间就比较长啊,而且付费才能使用,门槛比较高。如果说你清晰的知道你让龙虾帮你干什么啊,你再考虑用它,否则你费劲装上了,钱也花了,但是不能产生任何效益,那也是白白浪费时间。 总结一下啊,这几款 ai 工具,它各有优缺点,但目前呢,我觉得还都成不了咱们律师真正的稳定的生产的工具啊,只能是尝试着玩一玩。那现在真正能够帮我提升效率,出高质量法律文书的还是这个豆包, 用法就一个核心,就手动喂它材料,然后跟他多轮聊天沟通。虽然呢,多花点时间,但是咱们能够全程把控案件的细节,写出来的这个文书呢,结果可控,质量还高, 这才是最贴合律师办案需求的。最后呢,给大家提个建议啊,咱们律师千万别让 ai 直接根据大量的案件资料就生成文书结果,因为这样的话,你就对这个案件情况掌握的不扎实。这些资料按理说啊,都是应该你去 研究去过脑子的,最后开庭的是你,担责任的也是你,你对案件资料掌握的都不透彻,你就拿个 ai 生成的质证意见呢?辩论意见呢?去去开庭去了,这风险太大了。 ai 再强,县级段他也就是一个强大的工具,只能辅助我们办案,不能够越组带跑。 我是北京刘有明律师程雪元出身, ai 办案的深度使用者,关注我,带你吃透 ai 工具,提升办案效率,守住职业底线!

大龙虾发出来的文件名是路径怎么办?我还真把这个问题给研究明白了,网上说修改那个配置文件太复杂了,咱可以不用改,你看啊,我是怎么发现的呢?你看 他发送这个 skill, 也就是他自己文件夹子是能发的,我突然意识到他可能只有这个权限,或者是飞出这个插件,就只让他允许访问这个目录文件。那这就好办了, 我直接跟他说,我说你在你的这个目度里面在建立一个临时文件夹,然后你把你要发的文件首先复制到这里去,然后正常调用发给我,然后发送成功后再删除这个,你看他立刻就成功了,但是他认为他发了个路径, 我说大哥你已经成功了,我说大哥你已经成功了,记住这个流程,然后他就记住了,就一二三四。然后大家如果想让自己的龙虾也拥有这个能力,就直接按照这个给他发过去就妥了,然后他就拥有这个发东西的能力了。

最近 ai 圈最火的一件事就是养龙虾,字节,腾讯、百度、阿里、京东、小米全部下场了,抢的都是同一个东西。 opencloud, 一个能让 ai 从只会聊天变成能干活的开源框架。 今天我实测了阿里云刚上线的 jvscloud, 我 让它帮助我自动搜索每天的 ai 新闻,每天十点发送给我当日 ai 的 新闻简报。这个任务全程不到一分钟,我只发送指令。先说一个我觉得 joscloud 做的最聪明的设计,它有一个独立的手机端 app。 为什么这件事很重要?你用过其他的 open cloud 产品就知道,大部分都需要你去绑定绿泡泡飞书,或者是通过各种中间工具去跟 ai 对 话,配置流程非常繁琐。 jvs cloud 不 需要,你只需要下载 jvs cloud 的 app 注册就能搞定, 不用配节点,不用填 api 密钥,不用绑定任何第三方工具。打开 app 直接跟你的龙虾对话,手机上随时随地指挥他干活,苹果、安卓都有。进去之后你会看到一个对话框,这就是你的 ai 员工,你可以自己给他起名,你直接跟他说话就行。 我对他说了句,帮我搜索今天最新的六到八条 ai 新闻,每条配三张图,写成文,他立刻开始干活了。这个里面有个很关键的设计,你能实时看到 ai 在 干什么。 jscloud 有 一个叫 cloud space 的 云操作空间端,就是云端部署,相当于 ai 在 云端里有一台属于自己的电脑,它的每一步操作,做的每一个动作,你都能看到 这个云端部署跑在阿里云云无影云电脑上,跟你自己的手机和电脑完全隔离,数据安全有保障。底层用的 amd 高性能 cpu, 专门针对 ai agent 的 这种需要复杂推理和多任务并行的场景做了优化,所以跑起来非常流畅,没有卡顿, 中间遇到了一个卡点,就如果你需要登录某些社交平台的账号,这个时候 ai 会自动暂停等你操作,你手动登录它才能接着继续改。 这个设计很重要,涉及到你个人账号和隐私的操作,它不会擅自做处理,会停下来,等你确认操作完后,它会自动连上剩下的步骤。 j v s cloud 还有一个我觉得特别聪明的功能,叫做万能 skill。 如果你让他干一件他目前没有预设技能的事,你只要说一句,如果你没有这个技能,请搜索并创建,他会自己去找,自己安装,自己学会,相当于请了一个员工,他不会的东西自己去学,然后回来帮你干。说实话,最近养龙虾的产品我试了好几个。 gps cloud 让我觉得最方便的就是那个独立的手机端 app, 不用折腾绿泡泡、飞书和小飞机这些中间工具,打开手机 app 就 能跟你的龙虾直接兑换,或者在网页端直接进入,没有繁琐的安装流程,这一点目前方便很多。这是阿里新上线的 j v s cloud, 这是我目前认为零学习成本的龙虾机器,毕竟是大厂的东西,感兴趣的大家可以下载试试。

朋友们,是不是你的龙虾装好了,但是还不能干活?今天手把手带你安装这三个 skills, 让你的龙虾真正能从能聊天进化成能干活。 技巧一,本地文件读写从二零二六年三月二日版本开始, openclaw 默认对本地文件访问权限做了限制,所以如果你想让它读取甚至进一步操作你电脑里的文件,要先把对应权限打开。操作很简单,打开 openclaw config set tools profile, 副命令回车执行。把 openclaw 的 工具权限切换成完整版,运行后还需要重启网关,让配置生效。对应的命令是 openclaw gateway restart。 搞定以后, 你就可以让 openclaw 做各种文件读取和修改的操作了,比如批量从命名、文件整理、桌面分析、硬盘空间占用等等。技巧二,定时任务 openclaw 支持通过 cron 创建定时任务,不需要额外安装 skill。 比如你可以直接对 openclaw 说,每隔五分钟汇报某只股票当前的价格, 它就会创建一个定时任务,然后按设定的间隔自动运行,帮我们实现对骨架的监控。所以啊,不管是每天早上七点发资讯,还是二十分钟后提醒浇花这类定时任务,你都可以直接交给他。技巧三,技能查找 opencloud 的 skills 很多,但真正麻烦的是不知道该装哪个。这里推荐两个实用 skill, 一个负责找 skill, 一个负责审 skill。 第一个是 find skills, 它的作用就是根据你的需求去查找合适的 skills。 安装方法和前面一样,直接把链接发给 openclaw, 让他自己安装就行。 装好之后,我们可以对 openclaw 说帮我查找邮件自动化相关的 skills, 他 就会推荐合适的 skill, 这样你就不用自己去技能市场里一个个翻了。以上就是三个关于龙虾的 skills, 关注我,让你在 ai 时代不掉队。

大家好呀,我们来看看我的 open cola 里养的两只龙虾员工是如何写作的。这个是我的文件夹,里面有两个 workspace, 对 应的是两个 agent。 我 们进入其中一个,可以看到有不同的 skills, 这里我写了一个 linking skill, 通过调用浏览器访问 linking 来抓取信息。 我们再来看一下我的 open color 配置文件,我有两个 a 阵台 id, 分 别绑定了本地欧莱玛运行的千万模型和云端的 mini max 二点五。然后我们再看一下 channel 的 绑定关系。我这里会用飞书来控制云端模型的员工,用 webchat 来控制本地模型的员工, 而且他们两个也是可以相互交流的。然后我们打开飞书,让他帮我查个人微软 ceo。 接着我们就看第一个员工的表演了,他会用浏览器来搜索 阅读被调查人的 linkedin profile, 然后给我返回这个人的履历和学历信息卡。我特意要求我的龙虾一号帮我估算被调查人的年龄。然后我们让飞叔龙虾指挥我的本地模型龙虾,要求本地模型龙虾新建一个桌面文档,然后将刚刚收集到的履历信息解入到新建的 t x t 文档里。这样飞出云端模型 龙虾就不要操作我的本地文件了。我们可以看到本地龙虾已经开始拼命工作了,因为我用的是 amd imax 三九五处理器笔记本,所以加载八零 b 的 抠的模型还是很快的。我们来检查一下,果然桌面文档建好了,也把正确内容写进去了。好了,我们再见。