粉丝31获赞295

现在已经晚上的啊,十一点十一点三十二分了,然后发这个视频呢,就是来吐槽一下啊,就是发生什么事情呢?就是我让 mini max 这个模型去调整 workspace, 哦,我知道这个模型它的能力很差,但是没有没有想到它差到直接把我的 workspace 给直接干没了。就是整个 workspace 里面的东西,就包括我之前 啊生成的一些脚本,还有创建的一些项目,包括所有的 memories, 全部都没有了。 那么,呃,这边是十九号的,然后二十号的,因为,呃他们中的这个问题嘛,所以他创建了这个明天就二十号的这个文件,但十九号之前的所有的记忆全没有了。那 但是好好就好在他没有把 open cloud 的 这个根目录给清空掉,所以,呃,他里边我之前做的这个项链的内容有十八兆啊,十八点七兆的这个项链化的 东西,我看看能不能够把它恢复出来。经过这一次的这个这个教训了以后呢?我, 呃,从我个人观点,我今后我是不会再推荐大家去使用这个 mini max 这个这个这个模型,但是其他的模型我因为没有测,所以我没有,我不会去做任何的评价。呃,现在呢,我是订阅了智普他们的 glm 啊,就是有效期订阅了他们的这个 pro 套餐,三月十五号 我去试一下,我看看,但是,但是我不会教,教给他一些非常非常核心的一些任务,我是不会再再让他们去做的, 因为大模型上市公司的话也就这么几家,对吧?那么我最最近质朴的这个股价的话也上涨的挺厉害的,所以我我就用一下他们家的这个模型吧。 啊,这边有七张的啊,这边有五张的这个七天使用卡。如果说大家有需要的话呢,也可以在评论区里面留言啊,我会把这个邀请链接的话呢分享给你们。 ok 啊,现在心情挺复杂,就所有的东西被一个 我可以非常确定的事情,就是如果我使用其他的模型,他在 做覆盖的动作之前肯定会向我确认的,因为他是在我的提示词里面有强强制性的约束的。我不知道为什么 mini max 没有约束住我不知道他们的服务器到底是因为。呃这个这个 在做调整去降了算力还是说他,呃,他出现了什么问题,反正我是不会再去订阅他们的这个模型了,就这样吧。

我可能是全网唯一一个这么快把大龙虾装好,跑通之后又这么快卸卸载它的人。啊,什么原因呢?不是因为大龙虾不好用啊,反而是因为它, 嗯,过于好了,过于好用了,我随时随地都可以,不管在哪里,随时随地都能跟他聊天,让他做一些我想做的东西, 嗯,相反让我陷入了一个深深的焦虑的过程中。尤其是过节的,过春节这几天,和家人在一起,和嗯不在工作的地方,也不在电脑旁边,就是随时随地想打开手机,去用我的技术信息 去跟他对话,然后让他做一些我想做的东西啊,然后让他给我搜索一些热点啊。相反的,我觉得 这么多反而大大浪费了我自己的。就是一些思考的时间,一些。嗯,调整方向的时间。 其实就是人工智能真正活下来之后,我觉得它是一个很好的生产力工具,很好的一个嗯,提升效率的工具。但是如果说你之前在用人工智能时间,每天的工作时间可能是八个小时,十个小时,反而你用了它之后,你 跟他一直对话,其实这也是在工作,你反而工作时间变长了。而且你就算在家里,在别的一些场合中,也是随时随地想去跟他对话,你不然你这个机器开着,你总想让他干点什么,这是一个很 很微妙的心理。我觉得我相信很多人跟我一样啊,就是有了他,现在网上很多人问有了他怎么去,呃,知道让他能干什么,对吧? 还有还有的问,就是你当时很火,他也想想装一下,但是装完之后,嗯,也不知道要他干什么,就是很焦虑,我觉得这是大家普遍的一个心理状态。嗯,到了现在这个阶段,我觉得就是 还是需要一个真正纯粹的一个工作时间来去,你在电脑前面去把一些你说的工作流程啊 跑通之后效率提升过来,上来之后你才你才能真正享受到这个就是 ai 时代你这种生产力的给你带来的变化,而不是说你随时随地就就去 一直在跟他对话,你越对话越焦虑,越对话越焦虑。反而你在一个固定的工作时间,比如说你用 ai 之前工作时间八个小时,用 ai 之后工作时间每天五个小时,那,那这样的话我觉得这是一个很很有用的点,很出色的点。

兄弟们, opencloud 的 中文版出来了,现在有人已经开源了我们这个 opencloud 的 中中文版的,然后就不需要梯子,然后通过这个命令就可以直接安装,然后这个启动,然后这个做配置 像安装是非常简单了,然后涉及到就是密钥的配置,就是我们英伟达免费 api 的 配置,这个之前也讲过了,然后就是后面补充了飞书对接的这个,呃,文档,然后一步一步也这个文档,一步给它弄好了, 怎么配置,然后最后怎么添加上去啊?因为在最后连接的时候会有一个问题,其他配置都比都是蛮简单的,这个配置按照步骤执行下来就可以了,就是到最后一步。呃,这个会提示一个报错 啊,这里会提示一个应用未建立长连接,如果你点击保存的时候会报这个错的情况下要怎么解决?就是 这个,因为你前面一定要先把这个配置连上,能够对话,能够对话之后,然后你就把你的这个问题反馈给 open call 的, 他就可以帮你解决。解决之后,然后你再点保存就能保存上啊,这个保存上之后你再发布新版本 啊,发布新版本之后,在你的你的那个飞速上去搜索你那个机器人的名称,然后给他发了一条消息,他就会给你反馈一个配对码,你再把配对码啊复制之后再发给 ai 助理,然后他就可以完成这个整个对接了。

大家好,这里是最新的 openclaw 更新快报。 openclaw 刚刚推送了二点二三版本,这次更新在国产大模型支持和本地服务器防护上带来了重要升级。首先, kimi 正式迎来了全方位的原声支持, 系统不仅完善了基于 kimi 的 联网搜索和精准来源引用,还一步到位地接入了 kimi 的 原声视频理解能力,长文本与长视频处理变得更加得心应手。其次, api 调用的缓存机制迎来了精细化升级, 你现在可以为不同的 agent 单独调优 prompt 缓存策略,大幅降低复杂对话的 token 开销。同时系统修补了底层推理过程的展示逻辑,彻底杜绝了深度思考标签在聊天软件中的意外泄露。最后是直观重要的本地稳定性提升, 系统引入了绘画清理的绝对瓷盘容量上限控制,彻底根除了长时间运行导致服务器硬盘爆满的隐患。并且底层浏览器的网络请求策略变得更加严格,默认阻断高危网络访问,立刻去终端执行更新,加固你的 ai 生产力环境吧。感谢收听我们下个版本,再见!

一键完成 openclaw 的 部署,三句话把它塞进飞书,适合小白们的大龙虾方案来了!今年呢, openclaw 爆火,中国公司的嗅觉啊,都超级的灵敏,借机打了一场翻身仗。 tucker 卖的飞起云方案也是家家都有这口龙虾肉啊,是真香。 最近呢, mini max 也在自家的 agent 平台上推出了 max curl, 这个真的好用吗?跟其他云端的 open curl 有 什么区别呢?咱们就来测试一下。我点开网页充了会员,不到一分钟啊,就部署完成了。要知道呢,我之前在本地部署的时候,整整折磨了我两天。这个对编程小白啊,确实友好, 想要把大龙虾部署到飞书里呢,也超级简单,反正我只跟他说了三句话就实现了。第一句是我想要连接飞书里,创建新应用才能实现,还管我要了应用专属的 id 和密钥。 这个和本地部署基本是一样的,都得在飞书上啊。操作完最后,你只需要跟 ai 说一句,我弄完了它就会自动把 open color 配对到你的飞书里,整个操作啊,连三分钟都花不了。我用 windows 系统的同事啊,也是靠它才头一次用上大龙虾,再也不用经受本地部署的折磨了。 我也让他试着帮我处理了一些工作。这个是黄仁勋的一段采访视频,我让他帮我啊,总结要点,你看,他总结的还很到位,甚至还总结了三个核心观点的原话。不过呢, max clock 目前还不能直接看视频,所以呢,还需要我导出文字记录,他才能阅读。 下一个的任务呢,是直接难度升级,让他帮我抓取网上最新的 ai 趋势,直接写一个短视频的脚本,咱们直接看结果,这个趋势调查做得还不错,给了一些有悬念的标题和主流的观点。 视频脚本写的也是有模有样,显然是做了一个剪辑像的方案,甚至呢,还给我做了四张可以用的配图,整体感觉可以打八十分了。不过这个方案呢,他给我生成的是一个网址,我想要的呢,是一个 word 版本,就让他帮我解决。 结果啊,他没有费劲巴拉的帮我转 word 格式,而是教他我两个投机取巧的方式。一个呢,是让我把网页文件直接另存为 word 文档,这个啊,确实解决了我的问题。然后呢,他又告诉我,想要更快速的话,直接自己粘贴复制就行。好家伙,这个解决问题的逻辑跟人类确实一样了。 然后我睡觉前呢,还让他帮我监控夜间新闻,早起发给我,他就直接设定了一个定时的任务,我早起一看呢,嘿,新闻简报还真来了,一共列了十五条,还给到了数据员。整体用下来啊,我感觉 maxclock 特别适合没有用过智能体的小白用户。他的沟通呢,十分简洁,不少 skills 都部署好了,可以直接用 任务,执行能力也不错。除了我实测的这些例子,它也能执行生图、抠图或者部署应用的任务。但实话实说呢,它其实是 opencloud 的 青春版,能力上呢,确实跟本地部署啊有一定的差距,而且有的时候涉及到大量的文字或者图片信息,飞速端就显示不出来了,还得去 maxcloud 的 网页里呢,找答案稍微有点麻烦。 当然呢,这个方案还有一个好处就是便宜。大家都听到过啊, openclaw 的 传言什么?三个问题,烧掉了十美元,一夜干掉了两百刀,软件免费的,但是烧 token 贼贵。 我自己算了一下,用咱们国内的模型,其实一个问题可能只用花到一毛钱,一个复杂的任务呢,只用几毛钱还是非常便宜的。所以呢,如果你一直搞不定 openclaw 的 本地部署,或者被添加的账单劝退了,那完全可以来试试 maxclaw 这类的产品,毕竟啊,能用起来比啥都重要。

网上现在全都在吹 open club, 今天我不吹也不黑,不吹也不黑,不吹也不艾特你作品,哈哈,就简单跟你聊聊我自己真实经历。 这玩意刚发布的时候我就盯上了,但我一直没部署下来,硬生生拖到了跨年前最后四分钟,我才终于在自己的电脑上把它部署完。 先说结论,不否认 opencloud 的 价值,它确实很智能。我弄好之后就跟他说了一句话,他就自己动鼠标帮我清理 c 盘整理文件去了。 这种电脑在那全自动干活,那种感觉确实非常舒服, 科技感一下就拉满了。但是这几天体验下来,发现他也没有网上那些吹的那么神乎其神。一方面,对于绝大多数人来说, 现在这个东西其实也就是拿来玩一玩,你真有什么复杂的工作难题,你真的敢靠它去解决吗?至少我现在真不敢。另一方面,我要跟你们说个最实在的问题, 我后台接的是 kimi 的 模型,那你们猜怎么着?他好头肯是真的呢?我就让他干了点啥,除了清理 c 盘 整理文件,就只让他帮我做了两个小程序,就这么点事,直接干掉我差不多八万多的投款,烦死了,也就是百分之三十的额度,一下就没了。 所以说这东西代表着未来的方向。一句话让电脑干活确实爽,但线阶段去弄,他更像是个有点费钱的赛博玩具, 大家自己搞个本地的普及体验一下就可以,反正不要被网上的焦虑带偏了。

很多人都在想 opencloud 该开发怎么呃具体的应用去改变什么行业,创造一个什么什么样的一个产品极致化的一性原理,他们说的都没错,也都走在了正确的方向。但是从我的角度上来说,我研究了 opencloud, 然后云端的部署和本地的部署,其实对于我这个普通人来说非常的多的这个 bug 其实卡在了这个东西怎么样顺利的起步,也就是说如果就是拿开车来说的话, 呃,我最重要的是现在有驾照 open cloud 的 很多的这个应用和研究,对于我这个小白来说,我觉得最重要的是首先我云端部署跑一遍没啥问题, 我更重要的工作接下来就是把它部署到本地上来,能够顺利的用起来,因为用起来对于我这种普通人来说,他已经超过了可能百分之八九十的人。那么 对于跟我一样的小白用户来说,我给的第一个建议就是先可以用云端的部署自己试一下这个流程怎么样和飞速打通,然后 接下来就去像我现在这样的去慢慢的把本地化的部署做到极致,然后把本地化的部署做好了,并且可以应用的话,那么我觉得你的这项技能就可以帮助到很多的这个呃小白用户,并且能有一定的收益。

最近一段时间,我相信很多朋友都关注到一个名叫大龙虾,英文叫 opencloud 的 ai 产品。 opencloud 本质上是一个 ai agent, 也就是智能体,它跟某宝、某包这样的聊天机器人最大的区别是不仅能聊天,还能干活, 正是这种实用性,让他刷屏了。龙虾的大火,代表了 ai 已经从聊天机器人时代进入了智能体时代。龙虾只是一种智能体,未来会有越来越多针对不同场景的智能体出现。但是我自己,包括我身边所有用过龙虾或者其他类型智能体的朋友们,都会抱怨一个事,太费钱了, 每次龙虾干活的时候都会消耗大量的 token, 如果模型的 token 费用还比较高,龙虾就成了碎钞机。你可能想问,为什么不换个便宜点的模型呢?因为便宜的模型性能又差点意思。那有没有性能足够强,价格也足够低的模型呢?之前没有,但现在有了。 二月十六日除夕当天,阿里正式开源全新一代大模型千问三点五 plus, 性能媲美 gemini 三 pro gbt 五点二等顶级闭源模型,登顶全球最强开源模型。 同时每百万头肯输入价格低至零点八元,是 g p t 五点二的十五分之一, g m n i 三 pro 的 十八分之一。价格这么实惠,性能真的能打吗? 我第一时间就对千万三点五 plus 做了测试,这次我们测试的重点是这个模型的 ag, 也就是智能体能力。 为了让大家好理解,我先介绍一下智能体的工作原理。智能体主要包含两部分,一个是 ai 可用的工具,当智能体接收到一个任务的时候,大模型需要先拆解任务, 形成工作计划,在调用工具一步一步的完成工作计划。所以所谓的测试大模型的智能体能力,就是测试它拆解任务推理并且正确调用工具的能力。可以说智能体能力的测试相当于是大模型的铁人三项,是个综合能力的测试。但是想要深度测试一个模型的智能体能力 并不容易,你需要有足够多的 ai 可以 用的工具才行。正好我们自己做的 reportify 是 商业研究智能体里面已经有一堆商业研究会用到的 ai 应用的工具。为了这次测试,我专门把大模型换成了这次最新发布的千文三点五 plus, 做了一个基于千文模型的商业研究智能体。 那接下来我们就用这个智能体做测试。第一个任务,对比一下未来理想小鹏二零二四年全年和二零二五年前三季度的利润,做成表格和柱状图。 我们看这里千万模型。首先拆解任务生成了代办事项,这个代办事项生成的是比较合理的,然后就开始调用工具干活了,比如要调用财务数据查询工具来查这三家的利润。 其次还要做一些计算,因为我的要求是对比二零二五年前三季度的利润,所以模型需要把查到的二零二五年前三季度的利润做个加总。最后还要调用图标生成工具来生成柱状图,结果不错,数据和图都是正确的,速度也挺快。 第二个任务,请列出美光、三星电子、 s k、 海力士三家存储龙头公司的核心产品,以及过去半年的涨价幅度,最近不是存储行业大火吗?我相信很多关注 ai 的 人都对这个问题感兴趣,还是同样千万三点五 plus 先是把这个任务拆解成了代办事项, 然后调用各种搜索工具搜索相关信息,一项一项完成代办事项,结果也不错,数据正确,内容详实,也给出了所有数据的出处。 第三个任务,请帮我下载过去三个月纳斯达克指数的价格数据,保存到 excel。 经常做商业研究的朋友们应该对这个任务不陌生。过去你需要在某德这种数据软件里各种点,选标地、选指标、选日期,操作难度不低,而且很麻烦。有了 ai, 你 就直接说你要啥数据就行了。你看 千万三点五 plus 模型,理解了你的需求之后,会选择正确的工具,填写正确的参数,最后还会写程序,把所有数据写到 excel 里。之前 reportify 装的大脑是那种性能很好但很贵的模型, 这次换上千万三点五 plus 这个大脑之后,成本大幅下降,同时它的干活能力并没有打折。那为什么千万三点五 plus 能做到性价比这么高呢?这里面的核心技术是阿里千万团队的门控技术, 这个技术前不久刚刚获得了 neo 一 ps 二零二五的最佳论文奖。这可不是一个普通的奖项, neo 一 ps 是 全世界最顶尖的 ai 学术会议之 一,基本相当于 ai 研究的奥运会。二零二五年,这个会议一共收到了两万多篇有效投稿,最终只接收了五千多篇,接收率不到四分之一。也就是说,论文能被接收就已经算赢家了。在这么多论文里,只有四篇论文含金量有多高? 获奖论文的主题就是门控技术。那什么是门控技术呢?简单来说,门控技术就是通过在注意力层的输出端加一个智能开关,把信息像水龙头那样进行智能调控,这样既防止了有效信息被淹没,也防止无效信息被过度放大。 这带来的结果是,模型更少被噪音带偏,训练更稳,长文本更不容易出现注意力被无关信息吸走的问题。 更关键的是,这个改动,四两拨千金,改动不大,但效果又好又稳定。在美国的 ai 同行都在砸钱拼算力的时候,以阿里千万为代表的中国团队却在算法效率上做极致优化。这就是为什么千万三点五 plus 能做到 token 价格只有 g p d 五点二的十五分之一, jimi nike 三 pro 的 十八分之一。 千万是真正通过技术创新把 ai 模型的价格打下来的。这个思路很可能在智能体时代会大放异彩。 为什么这么说呢?我之前说过,智能体的作用已经被龙虾给验证了,唯一的痛点就是费钱。所以性能足够强、价格足够低的模型,一定是智能体时代的刚需。其次,我们再看远一点,如果想要让智能体越来越有用, 你就需要把自己更多的信息、更多的权限给到智能体。这时候隐私就会成为一个不可回避的问题。怎么保护隐私呢?最好的办法就是让智能体在自己的设备上运行。 想要做到这一点,肯定不能靠堆算力,只能靠算法优化,靠开源模型。未来大概率会出现一个现象,全世界每个电脑里都会有 ai 大 模型,而这些大模型大部分都是中国的开源模型。

教你使用 overclock 想要使用大龙虾 overclock 啊,也就是可欧德布切,但又担心消耗的饕餮太多,花费太多钱, 同时呢也担心一些安全性的问题。那我接下来这个视频教你使用 overclock 连接本地的大波形,这样咱们就可以免费无忧地去使用你的 ai 助手了。好的,我接下来它怎么用啊?一个视频给你讲清楚它这个实现呢,其实比较简单啊,总共分为 三步。第一步呢,首先咱们先去安装一个本地大模型平台,然后安装完成之后呢,在本地大平台里面去安装你想装的大模型,然后装完大模型之后呢,第三步,使用特殊的命令 来启动 open curl 就 可以了,仅有三步,非常简单啊。好,那么接下来呢,我就带大家一步一步的实操一下。咱们首先先给本地的电脑去安装本地大模型平台欧拉玛,也就是这只可爱的羊驼啊,那为什么我本地的大模型需要去安装欧拉玛呀?欧拉玛就相当于一个平台, 比如说啊,我需要在网上买东西,那这时候我先要去下载一个某宝某多多,类似于这种电商平台,那么这些电商平台呢,其实就和欧拉玛是一样的,然后在欧拉玛里面有各种各样的毛豆啊,各种各样的本地模型, 我们是可以安装的,这时候呢,我们点击毛豆啊,就可以看到像最近比较火的 k 二点五,智普的四点七啊,以及某问的模型啊,这些模型都是有的, 那我们可以去选择相应的模型安装到本地。好,那么首先呢,咱们点击 download 啊,然后下载一个文件,根据不同的电脑下载相应的文件,然后下载完文件呢,它长得就是这样啊,咱们双击一路下一步就行了。 然后安装完成之后呢,它会打开这样的一个界面,然后在这个界面里面,你可以在右下角去选择相应的模型。您下载啊这块呢就给大家去说一下啊,模型的参数越小,那么它占用的空间也就越小,对于你电脑配置的要求也就更低,但是 它回答的质量可能相对来说就不会很好,所以大家要根据自己的情况来选择合适的模型进行使用就可以了啊。当然它其实还有比四 b 模型更小的,有个零点五 b 的 模型,那我这一块呢,你是搜索不到的,但是咱们在它的平台网页上是可以去找到的, 然后咱们可以使用这个命令去安装也是可以的啊。 no, 这时候去复制这个命令,好,然后去打开咱们的命令窗口,然后使用欧拉玛 raw 啊,然后这个时候呢,就加上咱们的这个更小的模型,零点六 b 的 啊,然后把 value 值进行一个替换好撬回舍,这时候他就会去下载咱们指定的模型,并且进行安装,等他的安装完成之后呢,咱们本地的模型就有了。好, ok, 那 么等待一段时间之后呢,等他出现这个 success 啊,安装成功就说明他已经安装完了,安装完了,这时候咱们可以去问他,你是什么大模型? 好,敲回去。 ok, 那 这时候他就会一些思考,思考完之后呢去回复啊,我是,呃,谁?什么什么大模型啊?我拥有什么什么样的能力,对吧?好,那到这儿咱们已经安装好了,安装好了之后呢,接下来咱们就可以使用 open call 大 楼加了。啊,那么怎么使用啊?这个时候非常简单啊,我们只需要使用 olama launch open call 这个命令就行了。 啊,那我复制这个命令,打开一个窗口,它意思是啥呀?就是使用 olama 来启动 open call 啊,你启动的时候呢,自然而然它就帮咱们会进行部署的啊,你,你不需要使用 open call getv 来启动了,你就使用欧拉玛 launch open call 启动就行了。好,咱们来启动了。 好,然后启动的时候呢,它让你去选择本地的模型,那我本地的模型呢?撞的就是某问三啊,这时候咱们敲回车,敲完回车之后呢,那么是否继续啊?这时候要按 t 把键的,所以咱们按 t 把键啊,旋中,然后再回车,这时候它让你选择是否去保存一个存储的路径啊,那我们选择 继续啊 y 就 行了。好,选择完成之后呢,这时候大家可以看到了,他就开始去打开 open core 的 一个服务,并且给他设置本地的某问三的模型了。 好,那么这时候选择完成之后,咱们稍等片刻之后,咱们就可以使用 web ui 的 这种方式来访问了。好,这时候咱们来试一下啊,在 web ui 里面啊,可以看到他目前是在线的。那我这时候问他,你是 你是什么大模型,然后点击 send 发送。好啊,这时候, ok, 他 说了我是大模型。这时候呢,虽然他没有告诉咱们他是什么大模型啊,但我这时候可以继续问他,你是本地大模型吗? 好,然后点击发送。 ok, 他 说了我是本地大模型,对吧?啊?他没有告诉你这个名称啊,然后,但是呢,我后面问他是不是本地大模型的时候,他就说他是本地大模型。那 那么咱们其实从日制里面也能够看得出来,它的这个模型以及像 agent 的 调用都使用的是本地欧拉玛千问的这个模型啊,这个时候如果你把欧拉玛的这个服务你给它关掉啊,你给它服务给它停掉,停掉之后这个时候你再和它对话,问它在吗? 这块是没有任何信息的,这块就说明你的模型是有问题的。那这也从侧面上去证明了,咱们现在调研就查本地的这大模型,那么使用本地大模型有什么优点和缺点呢? 它的优点就是我在本地调用的,所以我不需要花费任何的费用,消耗再多的 top 我 也不怕。然后其次呢,是使用本地的大模型的隐私性相对来说是比较好的,因为我用的都是本地的嘛。但是它的缺点是本地大模型回答的质量,它可能比商用大模型 执行任务的能力要差一些,回答的质量要低一些。另外呢,本地大模型它对于电脑的配置是有一定的要求的,所以呢,大家就根据自己的需求来选择,到底是要调用线上的大王。

搞清楚自己要什么非常重要。很多人一提到开公司创业,总想着说我要做一个牛逼的产品,我要搞定一个什么事,其实我觉得大多数这样的人其实压根不清楚自己想要什么, 我们平心而论,做一个伟大的产品改变世界,还是赚个几千万或者小几百万,做个富贵闲人,大多数人不装逼,你肯定是后者。所以 回来上海之后就跟很多技术的朋友聊 ai 的 那个大龙虾的应用,很多的技术朋友第一个反应就说我要拿这个东西做一个产品,做一个什么,其实我跟很两个技术,一个是青根,一个是 mk。 都聊了聊完之后我给的建议和想法就是 我们就做一个最简单的一件事情,我们让很多跟我们一样的普通人可以顺顺利利的把这个产品安装好并且用起来,而且在不断的过程当中让大家知道这个东西怎么样越用越好, 并且在未来再帮他们找到更低的成本,就是掏坑消耗的成本更低。我觉得把这件事情做好已经很不容易了。 接下来我就跟我们的技术小伙伴们去做两个事情,第一个事情呢是去把云端的这个呃部署的,做一个这个文字版的和视频版的教程。然后云端部署里面,它其实会分百度啊、 阿里云啊、火山引擎啊这些不同的版本,我们都会做单独的这个图案和视频教程。另外针对本地部署呢,我们会做几个,第一个 就是 windows 系统下的这个部署,第二个就是 mac 系统下的这个部署。嗯,这两个图文和视频版的教程我们做完之后,接下来呢我们其实,嗯想去做一个硬件一体化的解决方案,就是,呃,我们用一个 mac mini 软件一起组合好,并且上门加售后的这种形式,我觉得就做这个最简单的这个服务提供给小白用户,把这件事情做好就已经很不容易了。然后呢?而且市场我觉得也很大。 嗯,欢迎有跟我一样小白的用户一起加入进来,我们一起来学习怎么样把这个产品和用好。