粉丝65获赞386

兄弟们,我终于养出了一只会做三 d 模型的龙虾,而且是大龙虾!我可以用一句话,生成三 d 模型。我可以用一张图生成三 d 模型, 我还可以用一张图纸生成三 d 模型。今天一分钟教会你。首先,你需要给你的龙虾准备一个擅长做三 d 模型的 vip, 比如牛肉 forty, 它的空间吸出注意力机制生成的模型不仅快,而且细节没毛刺,不需要你手动修补,能让你快速生成高精度的三 d 模型。其次,给你的龙虾配置一个做三 d 模型的 skill, 比如我这个祖传的 skill, 不 仅能纹身三 d, 涂身三 d, 甚至还能图纸 升三 d。 最后还可以转换成三 d 打印和游戏开发用的各种格式。最后一步是把这个 skill 放到龙虾的 skill 文件夹里,然后让你的龙虾帮你配置需要的解析工具,并且把之前准备好的 a、 b、 a、 k 发给他就搞定了。你看,把这个图纸发给他,他会先根据图纸做出二 d 效果图,然后再生成三 d 模型。是不是很屌? 以后不管是做游戏,搞三 d 打印,只需要动动嘴,我就有个全年货待命的三 d 效果图。专家为我服务了,帮我把这个图转成三 d 模型。 skill 和使用方法我都准备好了。点赞关注,轻松获得!

今天给大家介绍一个 open 可乐和可乐的扣子的绝配神器 cc switch, 这个工具太屌了, get 上狂揽四十 k star, 能实现一键切换各种大模型五大核心功能,让你的工作效率直接翻倍,直接看操作, 我们来看一下它有哪些核心功能。第一个能够同时支持 cloud code、 codex、 gemini、 open code 和 open cloud 五大平台的可持续化管理, 非常厉害。第二个能够支持一键添加 api k, 这里选择大模型的供应商,然后在这里选择相应的 k, 点击添加就可以完成配置,这然后在主界面点击启动,就可以实现这个软件下的 api 的 一键切换,非常方便,包括龙虾的啊。 然后第三种功能就是 skr 的 管理,它支持这个 skr 的 格式化,你看这里是你所有安装的 skr 以及所有的介绍,在这里支持删除,还有添加。 第四个 mcp 的 管理,对于 cloud code 的 这种 ai 编程呢,大家需要外接 mcp, 在 这在这里就可以实现一键托管。 还有第五个,这个是非常有趣的一个功能,就是可视化查看历史对话,在这里可以查看你的所有历史对话,并且支持恢复对话和删除对话,包括龙虾的,还有可捞的扣子的,这个工具非常全面。

今天给大家介绍一种可以免费养虾的办法,我们打开这个网站, 然后你要先登录,好吧,想办法登录这个网站,然后我们骑到模型这里, 我们找到一些免费的东西。好,现在有那个千玺三点六 plus 的, 有今夜星辰的三点五 flash, 还有这个英伟达的,质朴的都有。好吧,就看你想用哪个。那比如说我们想用前面三点六,那么我们就切到这个 ipi case 密钥这里。 这个我先不管他,现在我们新建一个,你就建一个名字吗?好, 这是蜜柚。好吧,我们点击复制就复制好你的这个蜜柚,之后你可以放到你的那个龙虾那里。好了,我们直接用这个 cherry studio 来验证一下,看行不行。 这里是。呃,首页,然后到设置这里,然后我们在这个模型这边找到 open loop 就 行了,然后我们刚刚刚复制进来了,我们检测一下能不能行。 这里有个免费的。这个 好,这里显示连接成功,我们这里有个三点六,如果没有的话,你就是 点击这里获取模型,你搜一下这里,然后他这里就会有一些他出来的这个带免费的这个后缀的这个模型三点六,然后但还有其他的哈, 看你想要哪个。那 mini max 二点五。好,我们这里我已经给它加上来了, 我们测试一下,我们对话测试看一下。 嗯,随便添加个默认助手,有段时间没用了哈,我们切换成这个模型,我们直接打个字吧。 好,它是能够正常回来的哈, 那同理,你把刚刚复制的这个 api, 你 把这个 api 复制到咱们的那个龙虾的面板上, 配置就能用了。好吧,但是这个免费的模型他有个有个问题,就是说他可能会应答,会超时,以及你的数据是可以被他用来训练的, 这个需要注意一下,但这个只是用来就是咱们想免费体验一下怎么养虾,好吧?至于你要拿来做 webcody 啊,也可以,但是还是建议上国产的那些 open plan 或者 coding plan 付费,但是你可以先免费去体验一下,感受一下什么是养龙虾,什么是 webcody。 哎,可以简单去 去试用一下,你要觉得合适的话,你再再付费就好了。好吧,今天就这个视频就到这里。

前面讲了, ar 终端,如果你装过以后发现用不了,那恭喜你,肯定是没有配 ipi k, 那 这个 k 的 话可以在很多地方去申请, 首先是三个云平台,阿里云、百联,火山引擎,还有腾讯云啊。然后再是国产 ar 大 模型,他们的官方网站 kimi, 迷你麦克斯还有 gim 优先推荐大家先去云平台申请一个 ipi k, 因为它们都会集成不同厂家的 这些大模型供你去体验。先免费用过以后,看一下哪个大门型比较符合自己的使用习惯去用一下就可以了。这下面他们三家的肯尼普兰啊都比较实惠,量大管饱,也都可以去了解一下。

兄弟们,上期教大家怎么在 nas 里面一键部署 openclaw, 以及怎么进入控制中心,以及目前默认使用的大模型是什么?那就有好兄弟要问了,我就不爱用免费的,我就爱用收费的,收费越贵我越开心,怎么办呢?好办,在配置里啊,找到 models, 点击第四个 model providers, 第一行呢,有个 enter, 点它到了下面这里啊,有个 customer 杠一名字,你可以随便改啊。 model provider api adapter 这里啊,选择付费大模型对应兼容的接口协议工具,然后在这里输入你付费大模型的 api key base url 啊,这里输入你的套餐专属连接,然后呢,在这里点击 add。 api, 同样选择付费大模型对应兼容的接口协议工具啊。 id 这里点击 add。 如果你的付费大模型指的是文本和深度思考啊,那就选择 text。 如果这是文本深度思考和视觉啊,那就再点一下 add, 选择 image 名字这里呢,就随便填写一下。然后呢,将 resending 打开,然后回到聊天啊,检查一下模型状态,输入你现在有哪些模型,看它的回复后啊,输入切换到 ok, 你 的收费模型就切换好了。为什么不输入给他,让他自己配着呢?因为这个模型啊,他可能有一点傻,他不一定会按照你的要求去输入你想要配置的模型 id, 可能会自动调用免费的 id, 然后呢,就导致小龙虾直接崩溃。那如果模型设置错了,小龙虾崩溃了怎么办呢?哎,别急,下期告诉你。

cloud 安装完成以后,我们需要对它进行配置,首先要配置的就是对 cloud 进行连接的大模型,我们这里以国内的 deepsea 为例进行演示,打开 deepsea 的 官网,在这里点击 api 开放平台,然后我们点击这里 api key, 我 们点击创建 api key 名称呢,随便填写,编辑完成以后,点击创建就可以返回一个 api key。 返回 api key 以后呢,我们需要把这个 api key 给到大模型,它才能连接 deepsea。 对 于大模型 api key 的 管理呢,我们推荐 c c switch, 点击添加,我们在这里可以看到 cloud 可以 对接的大模型有 这么多,我们找到 deepsea, 然后往下直接把 api key 粘贴在这里,点击添加,下面我们去终端测试一下,我们在命令行的终端敲 cloud, 然后我敲回车,它会提示我们说我们是否信任当前的文件夹,我们选 yes, 否则呢,也无法使用 cloud。 这里可以看到呢,我接的是国内的 deepsea 大 模型,我并不是用的 asteroid cloud, 官方的它的自费,那到此呢,我们就可以在我们的命令行可以正常地使用 cloud 了。

抖音二十万播放被踢爆的插件安装教程,它来了,想看低某了解产品的可以看主播上一个视频。哈喽,大家好呀!百度云连接下载这个文件,这里就下载好,然后解压到一个文档里, 我自己是新开了一个单独的文件存,然后我们去到插件 extensions 里面,去到 com 左上角点这个,然后选你刚刚解压的 folder, 你的插件就在这里多刷新几次。然后我们随便到一个图片网站, 随便选个图,这里打开设置,设置 api, 按照提示写着网址和 api t, 国产的大模型也可以, 只要能填上这些,下面都写了提示了的。最关键的就是这个 api t, 它是能让整个系统运作起来的东西。我这里选的是 google 的 gemini, 我 的 api 就 不分享了,因为要花钱,哈哈。 复制好了以后就回到刚刚的网站,把 api 复制进去,请一定记得刷新下插件和网站, 第一次运行的就稍微慢点。我这里快进了下提示词就出来了,这里有中文、英文和 jason 的 格式, 我们再选一张图, 这次就快多了, 快慢取决你的 a p i 和网速。我这里用的国外的大模型,所以就会慢点。这里有个很实用的功能,就是可以照着图片改提示词,你可以尽量描写清楚。 这个功能真的是懂的都懂,非常好用。我已经上传了枯荣插件,要审核几天才能免费下载,现在就非得急着体验的可以找我拿百度网盘,希望可以稍微打赏主播下, 就当是给主播做视频的幸苦费吧。如果还是有很多人不会用 api 器,而大家反响强烈,很需要这个插件的话,我会做一个不需要 api 的 插件,那大家就敬请期待吧,谢谢大家。

今天跟大家分享一个 openai api 插件,让你不辜负各大平台的免费 token。 首先可以通过 manager 来安装插件,在节点管理中搜索 openai api, 然后点击安装完成后重启即可。现在一起来看一下具体怎么使用。空白处双击搜索 openai api, 找到 chat completion 节点,通过必选输入端口推导出 api client, 节点 重试次数和超时时间。很好理解,我们要搞清楚的实际只有 base ur l 和 api key 两个参数,简单理解就是我们调用的是哪个大模型服务,以及唯一身份标识是什么。接下来我演示两个案例来进一步说明。首先看一下 oproute 平台,我们可以在这里找到很多免费的大模型, 比如我们熟知的 g m l 四点五和 mini max m 二点五,我这里就用 mini max m 二点五来演示吧。点击进入模型详情页,切换到 api 这里,就可以从视利代码中找到 b c u r l。 当然你也可以通过右上角 box 去文档中心获取 复制 b c u r l, 将其填写到节点中,然后继续解决 api key 的 问题。回到刚才的详情界面,视利代码上方一点点有个醒目的 create api key 按钮, 点击之后就来到了 apikey 管理界面。点击右上角的 create 按钮就可以创建 apikey 了,通常只需要取个名字就行了,到这里要注意提示关闭后就看不到了,所以最好备份好, 将生成的 apikey 复制到 comfyui 节点中。最后还需要指定使用的模型 id, 这个可以从搜索列表直接复制过来, 也可以在模型详情页的头部或视力代码中找到。现在就一切准备就绪了,简单填写一下对话内容,添加一个文本展示节点来查看模型回复的内容,直接运行工作流,七秒钟左右响应还是挺快的,无需消耗 g p u 资源也能唱完文本大模型。 更厉害的是,只要是兼容 open n i 规范的服务都可以使用。比如百联平台最近上架的千问三点六, 给每个账号提供了一百万免费 token, 也可以通过该插件直接使用,方法和前面演示的一模一样。从视力代码找到 b、 c、 u、 r、 l 和模型 id, 然后创建百炼平台的 a、 p、 i、 t, 将这些参数分别填入 comf、 u i 节点即可。但需要注意的是,不同服务可能对参数要求不一样,百炼这里就要求 temperature 参数需要为浮点数,这种情况只需要通过 options 端口将参数补上即可, 再次运行就没有问题了。大家还知道哪些提供免费 token 的 平台?欢迎评论互利、点赞关注,下期更精彩!

ok, 大家晚上好啊,然后昨天晚上的时候,阿里发布了千问三点六 plus 的 预览版,并且限阶段是完全免费的,然后我今天试用了一下,感觉效果是非常不错,然后, 呃,所以想跟大家交流一下。当然我是没有经过非常专业的测试的,但是就我个人使用的体感上来说,我觉得, 呃它和我之前比较喜欢用的呃 gemini three preview 版本其实是呃相差不大的。先来聊一下这个模型的参数啊。 呃,这次发布的千万三点六 plus 呢,它支持一百万 token 的 上下文窗口,呃,如果换算成中文的话,它大概就相当于七十万到八十万字。 呃,那么也就是说,你现在直接给他扔一本小说,或者说是几百页的法律文书,他都是可以一次性读完并且理解的。呃,那么这个一百万 tokon 的 上下文水平放在呃行业里也是现在比较领先的了啊。现在支持一百万 tokon 的 这个模型其实屈指可数啊,包括像呃 jammer 它是最早支持的,然后 cloud 它是今年二月份开放的,嗯,然后还有就是 gbt 五点四, 呃,然后呢,现在还就新加了一个千问。呃,然后它的第二点,它是官方说它的推理能力是显著提升的,在呃复杂问题的解决、前端开发和代理编码的这些场景下, 呃已经持平甚至超越了市场上顶尖的旗舰模型。呃,并且呢,就是它的 agent 行为更加可靠了。 然后这一点我觉得是非常重要的。为什么 agent 的 可信这么重要?就是我在之前的视频里也聊过一些 ai coding 的 工具啊,就是 说它最让我惊艳的地方就是程序失败的时候, ai 会自己去思考为什么失败,然后再去修正,再测试,再修正啊,直到这个程序能够正常运转,那么这个过程其实就是一个 agent 的 行为。 呃,但是之前的模型在这个自主修正的过程中,其实非常容易跑偏啊,比如他修了一个 bug, 然后会引入两个新的 bug 啊,然后或者说是就选错工具,传错参数。嗯,这些这些错误在简单的任务里并不明显,但是在一些复杂的任务流程中,它会特别影响效率。呃,那么 这个三点六 plus, 它把 a 型的可信作为核心的升级点说明,呃,阿里已经意识到一件事情,就是,呃,模型的竞争,它已经从谁更聪明,进入了谁更靠谱的阶段。呃,这其实是一个非, 我觉得是一个行业趋势啊,就是二零二四年的时候,大家模型之间比的是参数量,呃,精准的一个测试分数,对吧?然后到了二零二五年的时候,嗯,大家开始比推理深度和思维能力。呃,那么到了二零二六年呢,竞争焦点就 变成了谁能够更加稳定可靠的去完成一些复杂任务,能够 真正成为一个比较可靠的数字员工了。哦,就是有一个非常直观的体验,模型之间的差距其实在日常对话中已经不太明显了。你就是问一个简单的问题,呃,无论是 gbt、 cloud、 deepsea, 还是天文豆包,他们给出的回答, 呃,其实可能都是 ok 的。 呃,但是一旦你进入到复杂任务,比如说你分析一个,呃几万行代码的项目,或者是处理一份呃比较长的合同文件, 那么这个时候差距就体现出来了。嗯,包括它的上下文长度、推理深度,呃 agent 的 可信,这些 硬指标会真正在这个时候决定谁能够帮你干活啊,而谁只是一个聊天机器人。呃,那么在单个问题上,呃,就算一个模型的表现再好,如果它不具备 呃上述的这些底层能力,其实它就很难形成稳定的一个生产力壁环。呃,那么最后就是如果大家想体验这个新模型的话,可以现在 赶快去 open up 上申请一个 api, 然后抓紧时间薅一下这个羊毛啊,谢谢大家。

集成第三方大模型时,如何避免 a p i k 在 客户端泄露?近期需要请端面试的同学,近来领取一份面试宝典,八股文,性能优化工程化场景题都有,一共九份合集,每道题都有代码思维和详细的讲解。 看下这个演示,核心思路就是中间人模式,不让浏览器直接和大模型对话,而是找个服务器,浏览器只管发业务请求,服务器收到请求后去掉大模型,最后把结果传回来。 原理其实就是身份置换。前端请求后端时,带的是用户的登录凭证,这是临时的。而后端去请求大模型时才使用 api k。 看下代码, 这里是通用方案。 load gs 转发层使用点烟位文件存储 api k, 并通过 s 读取。在 api chat 接口处 先交易用户的动态,只有合法用户才能触发。后端去调用大模型,后端使用 access 或发起构建新的请求。此时的 overrink 头部是在后端服务器拼接的,后端可以设置 hold 白名单,只允许你自己的前端域名访问,进一步防止接口被盗刷。

ok, 大家好,上一步我们完成了相城派 airpods 系统上路,然后这一期我们来教大家,嗯, 获取一些比较便宜或者说免费的 api 吧。然后我这里收集了有四家,呃, mini max、 英伟达六 api 和智普 api。 首先是迷你 max 它的 api 吧,它新用户注册是直接送十五块代金券啊,可以直接消费。呃,你前期测试的话还是比较合适的。然后是英伟达 api, 英伟达它模型非常多,呃,它大概有四个常用模型, 嗯,他是直接免费,但是说他一分钟调用不能超过四十次,然后这就是他主要的限制,而且他免费,我觉得这一点非常棒啊。然后我也用过这个,感觉挺不错的。然后是智普的 api k, 智普的话他是新用户,送两千万的托肯体验包,但是我们主要用的就是呃, glm 四点五 ar 这么个包,他有一千两百万的托肯也是差不多够用。 然后这个六 a p i 他 家,他家 a p i 比较稳定吧,然后模型比较多,然后最近的话他家做那个活动,它 grog 的 模型是直接免费的,免费调用。然后我们这次就来看一下具体怎么操作。我们先复制这个链接,然后取到浏览器, 然后你会发现他这里会说什么什么什么,立即进入 a p i, 我 们直接点登录 a p i 开放平台就好了。然后我这里就直接登录一下吧。 小姐,请问一下有没有卖半岛铁盒?有啊,你从前面右转的第二排架子上就有了。哦,好,谢谢。不会, 然后我们这里就可以看到你的一个基础的账户信息,然后我们直接看这个代金券记录, 他就会跟你说你现在有十五块的代金券可以直接使用的,然后代金券也是有这个有效期的,他这个有效期是两个月,两个月足够你用完的十五块了。那我们再看下一家 英伟达的模型, 英伟达其实提供了非常多的模型,他这里提供什么? kimi 二点五、英伟达三,呃,迷你 max m 二点五和智普的 g i m 五模型,它们这四个模型就是最经常用的模型。然后它相比来说, 如果说你用的不是很频繁,那么用他可能是最合适的了,因为他免费吗?然后一个小一分钟四十次调用,如果你没有很大的需求,用它完全足够。然后这里我就不登录了,然后就可以看一下他到时候会有一个 api k 的, 然后是智谱的模型,我们也去复制一下。 然后可以看到他这里是注册就送两千万的托肯体验包,我这里就不登录了,他这里注册之后,他就会直接到你的资源包上,根据那个文档直接调用就好。 然后是这个六 api k, 他 家也是我经常用啊,感觉非常 ok 啊 啊,特点就是模型多,价格便宜。然后最近那个戈尔肯模型免费调用嘛,性价比直接拉满。 呃,我也,我登录一下吧, 那你看到我这里还有十九块钱啊,很少了很少了。然后看一下他控制台, 那最近这个 gogfu 还是免费的,那这些模型全都是免费的,现在那就对于我们来说比较友好了,那聊天生产力也是足够了。然后 这四款 api 就是 我收集的一部分,然后大家选择其中一款进行调试也可以,或者说你也可以找到其他的 api 来进行。嗯, 给你的小龙虾注入灵魂。然后下一步我们就可以安装一下 opencloud 的 相关依赖和环境搭建了,然后这期就到这里。

我们的爱迪威 r k 三五八八系列主板现已全面完成 jam 四本地大模型端侧部署,再对接 opencloud 龙虾机器人,无需再使用 apikey, 外接云端大模型,消耗大量 token, 实现本地化 token 自由,不仅大幅降低长期运营成本,同时本地部署跟安全将数据闭环于设备端,从根本上杜绝隐私数据泄露风险。感兴趣的开发者和老板欢迎来聊。

嘿,欢迎来到这期视频,今天我们来聊一个让很多小白头疼的话题, open core 的 配置文件,别怕,我保证讲完你也能搞定。 首先, open core 的 配置文件叫做 open core 点杰森,默认藏在你电脑的用户目录下,路径是 open core 斜杠。 open core 点杰森拨浪号代表你的家目录。 这个文件用的是杰森 five 格式,比普通杰森更友好,你可以在里面写注是末尾,多一个逗号也没关系,而且这个文件不是必须的,如果没有 open class 会用默认配置自动运行。 配置文件主要分四个模块,第一是 agents, 用来配置 ai 助手的行为。第二是 channels, 配置接入渠道,比如飞书 telegram。 第三是 gateway, 配置网关的端口和认证方式。第四是 session 管理绘画策略。 重点来了,模型配置在 agents 里面,你可以设置主模型和备用模型格式式,提供 entropic, cloud senate 四五, 还可以配置一个模型白名单,只允许用户切换到指定的几个模型。注意, api key 绝对不能写在配置文件里,应该用环境变量,比如设置 andropic 下划线 api 下划线 key, 或者运行 openclaw configure 命令来安全的存储密钥。 opencloud 支持热加载,也就是你改完配置文件不用重启,大部分改动会自动生效。但如果改了端口号这类关键配置,还是需要重启网关,运行 opencloud gateway restart 就 行。 修改配置有四种方式,第一直接编辑文件。第二用命令行,比如 openclaw config set 来改某个值。第三,打开控制台界面,访问本地一万八千七百八十九端口。第四,运行 openclaw config 交互式向导最适合新手, 如果你要同时运行多套配置,可以用环境变量 openclaw 下划线 config 指定配置文件路径, openclaw 下划线 profile 指定环境标识,这样状态目录会自动隔离。 好啦, openclaw 配置文件的核心就这些,记住配置文件放在斜杠, openclaw 斜杠用杰森 five 格式, apikey 用环境变量大部分改动热加载生效有问题评论区见,我们,下期再见。

最近 ai 圈有个大新闻,阿里千问的新模型 q 问三 uplus 上线仅仅一天,就在全球最大的 ai 大 模型 api 调用平台 openrouter 上登顶日榜榜首, 单日掉用量突破了一点四万亿 token, 刷新了该平台的全球记录。这个成绩的含金量非常高,因为 open router 汇聚了全球所有主流大模型,包括 cloud、 gpt、 千问、 deep seek、 glm 等。它的榜单完全基于开发者和企业真实消耗的 token 来排名, 可以说是大模型市场的实战成绩单。那么,为什么千问能取得这样的突破呢?核心逻辑在于它找到了技术和商业的平衡点。一方面, q n 三点六 plus 在 编程能力上表现突出, 在国际权威评测中已经达到了中国区第一的水平。另一方面,它的定价策略很有竞争力,每百万 token 输入最低只要两元,显著低于 cloud 等国际竞品。这种便宜又好用的特点让全球开发者用脚投票, 上线后调用量直接暴涨了百分之七百一十一。这背后反映出一个重要趋势,大模型的竞争已经从单纯比拼参数规模,转向了实际应用价值和商业化能力的较量。这个突破对整个 ai 产业链都会产生积极的带动效应。首先最直接受益的当然是阿里自身, 千万的成功证明了其技术实力和商业化能力,但影响远不止于此,整个国产大模型生态都会因此受益。比如同样在 openreader 榜单上表现优异的质朴和 minimax well, 它们和千万一起构成了国产大模型的第一梯队,共同推动着国产 ai 技术的商业化进程。 更重要的是,大模型应用的爆发会向上游传导,带动整个算力产业链的需求。当千万这样的模型日调用量突破万亿级别时,对算力的需求是巨大的。这就利好那些提供算力基础设施的公司, 比如在光模块领域有技术积累的中润光学和波长光电,它们在市场上近期已经有了不错的表现。还有 ai 芯片领域的核心企业,像鑫源股份、韩五 g、 海光信息这些千亿市值的龙头, 他们为 ai 计算提供着关键的硬件支撑。随着大模型从会聊天向能办事演进, ai 智能体时代正在加速到来。千问三点六 plus 本身就强调智能体能力,这意味着 ai 应用层将迎来更大的发展空间。一些已经深度布局 ai 应用的公司值得关注。 比如中控技术,它较早接入了大模型基座,利用大模型的推理能力,为工业智能化注入了新活力。还有每日互动,它的智能工作站深度集成了大语言模型,推动着多场景应用落地。 尤克德 w 则完成了对大模型的全系列适配,通过自身的云平台输出服务能力。从逻辑来看,千问的这次突破,验证了国产大模型的商业化路径正在走通。 当开发者愿意为 a p i 调用付费,当企业开始规模化应用,整个 ai 产业的商业模式就逐渐清晰了。 这不仅仅是技术突破,更是商业模式的突破,意味着 ai 产业正在从技术验证期迈入价值兑现期。 当然,任何投资都有风险, ai 技术迭代速度极快,今天的领先可能很快被超越。行业竞争愈激烈,市场格局存在不确定性, 相关公司的业绩增长能否持续也需要时间验证。投资者在关注机会的同时,也要充分认识到这些风险因素,理性决策,谨慎投资。