接下来我们来讲成本问题,跑了两个任务不到半天,可能两百万空口都没有了。来我给大家证实一下,这个是谣言,但是这种情况确实会发生,我告诉大家,什么情况下会发生 啊?大家可以看到我这个地方是从三月一号开始用的,大家可以看我这个地方是从三月一号开始用的,到目前为止用了四十七块钱。如果像大家平时不用写网,因为我基本上我每隔一两天我要写一个网页,到目前为止我可能写了六七八九十个网页了,基本上我本地部数部数,我这十, 大概今天到十一天,这十一天一共就花了四十多块钱。对,其实这个花费的费用是非常少的,花了四十多块钱,这个中间大家可以看到这比较突出的几个柱子,大概可能有十几块钱,这比较突出的几个柱子都是我写网页,包括今天我也写了三个网页。对,大家可以看到如果去掉这个,我给大家可以演示一下它要花多少钱,比如说这个就是两块钱、 三块钱,三块钱、三块钱其实是非常便宜的,因为在这过程中,比如说大家用 mini max 就 会比较便宜。大家可能会问,那为什么我前面又说两百块的 token, 甚至一晚上一万二的 token 是 有可能被消耗掉呢?其实是因为这个过程中很多人是一键部署的,不是有网络上那种一秒钟一键部署, 或者说十分钟一键部署,包括现在各个大厂都出了一键部署的状态嘛。大家但凡看到一键部署的大概率云端部署,云端部署你干什么他都要消耗 token, 我 可以给大家看一下我本地的一个 机器人,大家可以看我这个地方有一个 use use age cost, 大家看的是零。为什么是零?因为我部署在本地的时候,我的一些本地的交互是不用花钱的,他比如说创建文档什么的,这种东西他基本上就不用花钱,花的钱主要在他思考问题,分析问题上面对。但是如果你部署在云端, 那就不一样了,你部署在云端,他的所有的钓友,他只要你给他发一个你好,你只要给他发任何一个消息,让他写一个文档,甚至打开一个文件夹,他都是要花钱的。这个地方很有可能你都没干活,你就只跟他聊了几句,打开一个文件夹,他都是要花钱的。这个地方很有可能你都没干活,你就只跟他聊了几句,打开一个网站可能就要花几十甚至几百头肯, 大家就会发现,消化 hokken 的 消费,本地部署和云端所谓的一键部署,中间这个区别可能就是几百甚至几千倍,所以大家用的越来越多,差距会越来越大。所以在这过程中,包括我们之前看 光明网的报道,他其实也讲了也是关于国家互联网应急中心的一个提醒。因为最近小龙虾的蜂巢实在是太卷了,他就发现中间不断的在删除,不断的在对接模型,不断的删除,最后就会导致莫名其妙就欠费了两三百甚至是一万多块钱。
粉丝19获赞72

我们在前面安装这个 open 可露的时候,所使用的模型是智普的模型以及还有阿里百联的模型,但是这些模型的话都是属于在线的呃,它会需要很多个 talking, 那 这些 talking 呢,我们是需要花钱去买的, 那当然呢,也有人去反映这个在线的模型啊,它所消耗的 talkin 很多,所以说这个时候有人就想我们能不能使用本地的模型来部署 这个呢?当然是可以的,我们可以先到那个欧拉玛的网站上面去看一下啊,在他的首页这里面有一个 openclo, 我们点击进来啊,这里面没找着,没关系,我们往下拉一下,往下拉一下之后,因为这个 clubbot 已经改变为了这个 openclo 了,我们在这里面选择这个 openclo, 然后呢我们往下面拉,往下面拉的话,这里面的话呢,他就会有一些他所推荐我们所使用的这些模型。那么我们就建议呢,各位就是使用的时候就直接使用他所推荐的那些模型 啊,现在在我的环境这里面呢,我已经是把这些模型呢给它拉取下来了,那你使用其他的模型的话,可能还是会有一些问题的。 那下面的话呢,我们就开始去配置一下这个模型,点击这个 open clone, 然后呢我们点击这个 config, 点击 config 之后呢,继续找到这个 modus, 然后有一个 private, 然后这里面咱们就开始去添加一个模型 and you try, 那 这里面我给他一个名字叫欧拉玛好了, 这个名字你自己可以自己随便去取都可以。然后呢我们这个 api 的 这个位置呢,你可以选择这个是 compilation api key 的 话呢,这个可以随便去写 啊,因为我们的这个欧拉玛它不需要这个 k 去验证,这个你随便写什么都可以啊。 然后呢这里面我们选择 i p r k os header, 勾选上 bios ysl, 这里面的话,你就加上我们的这个欧拉玛的这个地址, 那么这里面的话,我现在的地址是端口是幺幺四三四,那这里面我们写的时候就是 h g d p 冒号本机,你你可以写任何的,你主机上的任何的一个地址都可以,零点零点幺, 这里面的话我们写上端口幺幺四三四,这里面一定一定要把这个 v e 给它加上去。 如果说你不加这个 v 一 的时候,那我们去访问的时候,他可能就是,对吧?你问他问题,然后呢他就回复的时候就是一个空的,什么都没有,所以说这里面一定要加上一个 v 一 才行。 然后呢我们继续往下拉,找到这个 modus, modus 的 话,然后呢我们选择这个 and, 选择 and 的 之后,然后在这里面 api 的 这个位置呢,我们也是选择 open i, 它的这个我们就选择 max talkings, 然后它的这个上下文的这个窗口呢,我们给它设置一个比较大的一个值就可以了,随便你去设值。 继续往下拉好,然后这里面有一个 id, id 的 话呢,就输入我们的这个啊模型的名字就可以了,比如说我这里面就直接使用 gptos 二十 d。 好, 那么然后呢我们继续往下拉,这里面有一个 and, 把它选择为这是一个 text 的, 然后这个 man talking 的 话呢,你也可以随便去写,我就直接写上一个四万就可以了。这个你随便去写, 然后给它起一个编名,我们就写成这是为一样的就可以了。这是我增加了一个模型。 那然后呢,我们你看啊,在它的官方网站上呢,给我们推荐了好几个模型,其中还有一个是 glm 四点七的,对于 glm 四点七,它这里面的话使用的是一种语音环境,我们这里面点击这个 mod 的 话,它不是让它是直接使用的,是在线的一个模型, 我们在这里面的话呢,也来给它加过来。在我的环境这里面的话,你看有一个 glm 四点七 club 的, 这里面的话,这里面呢,我也是给它拉取下来了。好,所以说我这里面再次增加一个新的模型,这几个我都给它加过来。 好,在这里面我们再次点击一下这个 and。 好, 然后呢,这里面我仍然选择的是 open i complexions。 然后呢这里面也选择 manage tokens。 窗口的话,我们在这里面你随便去写一个都可以 继续往下拉。然后这里面 id, 我 们把我们的这个镜像来给它加上去,就是 g, p, d, o, s s 的 这个 y 啊,这个是应该是选择的是 glm 四点七的,这个我们加第二个镜像。第二个模型 input 的 这个位置呢,咱们也选择 text 的, 这个位置的话,就随便去写一个比较大的值就行了。 这个名字的位置呢,我们也给它起一个命名,也叫的是 g m g r m 点 g cloud。 好, 第二个模型呢,我现在也是给它添加过来了。 那当然了,我们也可以再次去添加一个我们这里面添加的模型都是官方它所推荐的模型。 然后呢我现在再来添加一个其他的模型,这个呢,他并没有出现在官方推荐的这个文档这里面,咱们现在来看一下是否会有什么问题。我这里面选择枪顶三杠十四 b。 好, 这次去添加一个模型。好 and, 好的,现在这里面来给它收起来。好吧,这里面的话,我们仍然选的是它。好了之后,这里面选的 max tokens, 这个呢,我们就随便的去写一个比较大的值就可以了。 然后这里面 id, 我 们就把这个谦问三十四 b。 我 再说一次,谦问三十四 b, 这里面并没有出现在它的这个推荐模型这里面。 input, 这里面点击 text, 这个值呢?我们也直接输入一个比较大的值就行了。好,这样的话我现在添加了三个模型,点击 save, 咱们现在去看一下它的这个配置文件,点击打开 点击之后呢,这里面你看有一个 private 的,是百炼的,这个是我们在前面的时候已经添加过的奥拉玛。这里面的话呢,我增加了三个模型,一个是 gpt osss 二十 b, 还有一个是 grm 四点七克拉的,那还有一个是铅汞。三十四 b, 然后呢我们往下面拉,找到这个 agents, agents 的 话,这里面的话,这个模型的话咱们现在继续来给它添加过来,把这几个模型现在来给它加过来好了。好吧,呃,这里面的话,我就直接啊往后面去写, 这是一个这是一个,这是一个。 那这里面的话,我们直接选择的是维欧拉曼、 欧莱曼的这几个模型,咱们现在来手动的来给它加过来,然后 g p t o s s s 二十 b 二十 b, ok, 这个是添加过来了一个了,然后呢我们再把剩下的两个模型也来给它加过来。呃,还有一个叫做这是为 g r m 四点七 cloud 的 这个呢,我们现在也是把它的名字记 r m。 好, 那然后呢我们再次来给它增加一个,还有一个是千问三十四 b 的 铅汞三十四 b, 这个边名的话呢,我也给它起名叫做这是为铅汞三十四 b 就 可以了,那这里面的话,我现在额外的额外的增加了三个模型,那然后呢,我们现在使用其中的某一个模型,把它设置为是默认值, 比如说我这里面就是这是 default, 就是 设置的是它的默认值。 ok, 好, 我现在使用 g p o s s s 二十 b 的 这个模型保存一下,咱们现在开始去做测试,点击这个 chat, 好, new session, 打开一个新的脸际,新的绘画。 好了之后呢,咱们现在来跟他去沟通一下。你好,请问你是哪个模型? 它这里面的话,因为使用的是比例的模型,它这里面其实是会消耗比较多的这样的一个 gpu 的。 好,它这里面的话告诉我们说使用的是欧莱玛 gpt 二十 b 的 这样的一个模型。好,然后你可以随便的去交流就可以了。 好,请问是哪个模型? 好?这里面告诉我们说是欧拉玛 g p t o s s 二十 b 的 这样的一个模型了, 那当然呢,我们现在去换一下,我刚才讲咱们刚才看到的时候,它这里面实际上是会消耗比较多的 gpu, 那这个时候有的同志说我笔记本上面跑不起来,对吧?跑不起来,那么大的这个,呃,那么大的这个,呃这个模型,那没关系,我们可以直接使用什么呢?我们可以直接使用它的这个云端的这个模型, 也就是直接使用 g m 四点七 cloud cloud 的 话,它本地并没有去下载什么模型。 那这里面的话,你首先你得你要是想使用这个模型的话,首先的话你得要在欧拉玛的网站上自己去注册一个账号,记住了,你得要注册一个账号,注册一个账号之后呢?然后我们在命令行里面 去登录一下,在这里面有一个登录的这个名字。 好,欧莱玛,我们现在去登录一下,那这里面的话,你看我现在已经是登录了。那如果说你没有登录的话,比如说我举个例子来说,我现在把它给退出来,我不登录了, 不登录了之后呢,我重新去登录,你看他这里面的话是会给我一个链接,给我一个链接之后,我们在这里面把它切到我们的地址栏这里面来,他会问我们是否要去链接,当然了网站这里面你得要先去链接一下才可以, 这种方式就算是连接成功了,连接成功了之后我们才能够去使用这个云端的这个模型,我们可以试一下,好让 你好,我们来看一下他是否能够正常的去回复,你看此时是可以正常的去回复的, ok, 退出来就行了。那这里面的话,他啊我们这里面直接使用免费版的就可以了,你不用去花钱去购买什么,直接使用的是这一块免费版的,他也够我们去用的了。 那这里面的话呢,我们现在去换一下这个模型, glm 四点七 cloud 的 这个模型。好,我把它给换掉。换掉之后呢,然后我们现在重新的去跟它去做一个沟通,点击这个 new session。 好,我们现在开始跟他去交流。你好,他这里面的话就可以跟我们正常的回复了。请问你是哪个模型? 原来使用的是我们一开始刚刚所做的练习,使用的是这个 gpt osss 二十 b, 那 现在的话使用的是 grm 四点七 club 的。 那这里面你看它告诉我们说现在用的是什么?叫做是欧拉玛里面的 glm 四引擎 cloud 这样的一个模型。 那我们现在再次来给它换一个模型,我本地这里面,在我本地这里面有一个千米三十四 b 的 这个模型呢,实际上是可以正常去使用的,我们现在来打开看一下。 好,请给我写一篇两千字的作文。 那你看啊,我这里面使用的时候它是可以正常去使用的,看到了没,它消所消耗的 gpu 其实也是蛮多的,跑起来也是蛮快的,没有什么问题。我 ctrl c 终止了,对吧?你可以等一下也行。好,我们退出来吧。 好的,反正我现在就想说明的是什么呢?说明的就是我的这个千万三的这个我的千万三的这个模型啊,是 正常是可用的,对吧?然后呢,我们现在把它换到哪里面去呢?换到我们的这个 opencloud 里面来,我们看一下能否正常去使用。好,我选择这个千问三十四 b, 把它换成是默认的, 找到这个 agent 千元三十四币,那这个呢,就是我们的加载过来的这个模型呢,已经保存退出,然后这里面的话呢,我们现在再次去跟他去沟通 new session。 好,那这里面咱们现在来问一下你。好,他这个不稳定,我们也就是说使用千万三的这个模型的话,呃,他可能就不是很稳定,有的时候你看现在可能是正常的,但有的时候呢,他可能回复的时候就不是很正常。 好,你看这里面回复的时候,现在就已经是不正常了,也就是有问题了已经,对吧?那在我本地跑起来的话是正常的,但是呢,我们在 open clone 这里面去引用它的时候,运行起来的话,则可能还是会有问题的, 所以说我们在使用模型的时候就直接使用它所建议的这些模型就可以了。 那当然了,如果说你本地的这个啊机器配置的比较高,你可以直接使用千万三 q 的, 那如果说你所使用的这个配置不是很高的话,那这里面的话呢,我们就可以直接使用是 glm 四引擎的,这是属于是语音环境上的一个啊模型,那它这里面的话并没有什么限制, 对吧?你可以看一下,它这里面并没有告诉我们说可以免费使用多少 talking, 超过这个 talking 就 不能使用了,它这里面并没有这些要求,所以说我们直接使用在线的也是非常方便的。那如果说机器配置不高,那么我们就可以选择它机器配置比较高,对吧?你就完全使用本地运行的这个模型, ok, 你 就可以选择它。 这是我们如何让 open globe 使用欧拉玛所部署的模型?大家可以自己来尝试一下。

前两天,我在抖音分享了两款大模型的核心原理,很多朋友点赞收藏。今天,我们把镜头对准大模型背后最真实、最硬核的成本密码。 token 消耗的真相。当你和大模型对话,让他写文案、做总结、 写代码时,你看不见的算力洪流正在奔涌。而计量这一切的最小单位就是 token, 它不是虚拟货币,不是积分,而是大模型理解与深层语言的原子级单元,是帅力、显存、电力的统一计量标尺。从技术本质看, token 是 文本被模型分词后的最小片段。一个汉字、一个标点、一个英文字词 都可能是一个 token。 中文语境里,一个汉字约等于一个 token, 英文中约四个字母或零点七五个单词对应一个 token, 空格标点换行, 五一例外,全部计入消耗。每一次交互都在消耗双重 token 输入。 prompt 的 token 加输出, completion 的 token 输入是你提出的问题。上传的文本历史对话,上下文输出是模型逐字逐句深层的回答,这不是简单相加,而是算力的真实对价。输入决定理解深度 输出主导计算强度。为什么输出 token 更贵?因为大模型生成文本是自回归推理,每生成一个 token, 都要基于全部上下文做一次完整计算。上下文越长,计算量呈平方级增长, 险存、债用、电力消耗、 gpu 折旧都随 token 数量同步攀升。 token 就是 大模型世界的算力通货。你必须知道三个关键真相。第一,上下文窗口就是记忆边界,八 k 三二 k 一 二八 k。 token 决定模型能记住多少,处理多长文本,超出上限,内容被截断,逻辑必然断裂。第二,多轮对话会累积消耗。每一次追问都要把历史对话重新带入计算,聊的越久, 投肯消耗越快,成本限性上升。第三,计费按真实消耗结算。国内模型多以签投肯为单位计价, 国际主流模型输入输出分离定价,输出单价往往是输入的数倍。一次长文深沉,一次深度分析,背后都是精确到 token 的 资源消耗。很多人以为 ai 是 免费的,是无限的, 其实每一次思考,每一行文字都在消耗真实的工业级算力。 token 的 背后是数据中心的灯光,是芯片的运算,是电力的流转,是技术谱汇背后 沉甸甸的工程成本。理解 top, 你 就看懂了大模型的效率、边界、成本逻辑与能力上线,它让我们更理性地使用 ai, 精简指令,清理上下文,聚焦核心需求,既提升效果,也降低消耗。 ai 的 智能 藏在模型的架构里,而 ai 的 真实代价藏在每一个 token 的 流动中。敬畏技术,理性使用,让每一次交互都物有所值。本地部署 vs 云端 token 讲到这里,很多人会问,本地部署大模型是不是就没有 token 消耗了?答案是, token 依然存在,但计费逻辑彻底消失。本地模型同样会计算 token, 占用上下文窗口, 它的理解逻辑生成机制和云端模型完全一致,区别只在于云端按次付费。本地一次性投入 云端大模型用的是别人的显卡,别人的贷款,别人的电费。所以用 token 计价,本地大模型用的是你自己的硬件,自己的电力,自己的存储空间,所以没有优次计费,没有额度限制,没有隐私泄露风险, 你可以无限生成无限对话,无限处理长文本,不用担心 token 超标,不用担心对话被记录,更不用担心突然涨价, 服务下架,但代价也很真实。本地模型的性能上线,由你的显卡决定,显存不够,模型跑不起来,算力不足,生成速度就慢。一句话总结,原端,模型买的是服务,按 token 付费。本地模型买的是自由,靠硬件支撑,没有绝对的好坏,只有场景的选择。我是小白,持续用专业与温度 拆解大模型的底层逻辑。关注我,下期我们讲如何高效优化 token, 让你的 ai 使用更省钱、更强大。

最近爆火的龙虾,也就是 open crawl, 也叫 mobile, 它其实有两种部署方式,一种是部署在本地,它对于你的硬件其实有蛮高的要求,然后你的电脑是不能关机的。那另外一种它是部署在云端,相对来说比较灵活, 它消耗的是 talking, 有 用有收费。网速科技它是有在平台上有提供这样的服务。那希望大家听完投资热线以后可以踊跃讨论一下,你们愿意选择哪一种部署方式,又或者说哪一种部署方式更适合现在的你们? 呃,就是我有看到网速科技,你们有在边缘云主机上面上线了 mobile, 就是 现在那个 opencloud 的 镜像,对,你应该是在我们的微信公众号上看到的,是吧? 哎,对,然后我就想问一下,就是那我想问一下,就是你们把它上在云端,那他正常使用的时候要消耗这个算力的话,那我知道你们公司好像之前是不做这种算力租赁的, 那我就想问一下,你们那种算力的话,它消耗的话也是要找你们买 token 吗?这个太细节了,这个可能我也不太清楚, 但是就是我们微信公众号上我,我个人理解啊,他的意思是说就是我们可以在我们的自身的这样一个呃业务范围内提供这样一个环境和平台,然后如果用户有 有需要去使用这个 open pro 的 话,它可以在我们创造的这样一个环境中去使用这样一个东西啊,我们只是提供一个环境和平台这样一个概念,那其实跟我的理解是一样的,就是你们其实只是在云端上面让客户可以去选择去用, 那至于使用这个需要消耗的算力。但但我的有一疑问就是使用这个如果需要使用到 talk, 比如需要到算力,那你们公司又不做这个的话,那他这个也要找其他的厂商去去购买吗? 啊?这个太专业了,我可能还得去问一下那个技术那边啊,因为我们这边只是大概的就是宏观的一些东西嘛。 呃,对,主要是对信息批录这一块的,那可能偏技术方面的话可能还要再去了解一下,但是说实话作为我们这种散户来说,我们肯定是希望了解的更更深一点,你们是只要公司有这种信息,你们就正常对外批录吗?对吧? 呃,因为您看到这个微信公众号的这样一个对外的这样一个口径,然后他更多的是对于一个产品啊,包括一些最新的一些行业动态的一些分享。那么您打的这个电话呢?其实我们是针对于公司的公告的, 所以就是说一般我们是解答这个对于公司这个对外批录的这些公告上有什么一些疑问。对,好呀好呀,谢谢你哈。

你知道养一只龙虾究竟要花多少钱吗?如果你没有算过经济账,我真的劝你千万不要一时冲动就想着去养一只龙虾。我们首先来说那种一心想要部署自己的 open club 的 人,他也分两种情况来看,第一呢,就是选择本地部署,也就是把 open club 部署到你自己的电脑上。 当然,想养好一只龙虾,你总得有一个像样的虾龙吧?那现在最主流的配置呢?就是低配版的 mac mini 四千三起步了,高配版直接上到一万,这还不算完?如果呢,你不想自己折腾,找一个靠谱的袋装师傅是几百到七千块钱不等,那到这硬件加安装,你最少已经花出去五千块钱了。 我们再看云端部署的这帮人哈,他直接使用阿里云、腾讯云这样的平台提供的一键部署服务,就不需要复杂的配置环境了,比较适合新手去布置 openclo。 但是呢,你需要租一个云平台,轻量使用的话,月成本是在五十到两百块钱,重度使用的话,一个月可能要花到上千元。 那选择以上的两种部署方式,你就可以完成你的 opencloud 部署了。恭喜你在这获得了一张养虾资格证。 但是真正的烧钱游戏呢,也才刚刚开始。这两种部署方式的 talk 消耗都是需要单独计费的,你就把这个 talk 哈理解为是 ai 世界里的电费。 简单来讲,你每跟 ai 说一句话,它都得按字数给你收费,中文的一个字要耗一到两个 talk。 而 openclaw 每次启动,光热身就得吞掉几千甚至几万个 talk 了。什么意思?你的车还没有起步呢,五块钱的油钱就已经没了。 有开发者实测过去,刊写一份简单的调研报告,算力成本大概是十块钱左右,极端情况下六个小时就会花掉一千一百七十二块钱。还有人第一个月就烧了一点八亿头,肯账单就得两万多。那当然呢,还有第三种部署方式,也是现在比较流行的,就是选择 kimi kong max kong 这样的包月订阅服务。 它是一种一键打包的服务哈,也是现在被国际媒体评价为是美国所有云计算巨头都没有做到的事儿。 以 kimi koala 为例,它的会员费呢,是分为四档的,四十九、九十九、一百九十九、六百九十九,每月权限等级越高呢,就能够并行处理的复杂任务越多。从一百九十九的等级,你就可以开始养龙虾了。 这个方式好聚好散呢,你不需要自己去部署 open koala 的 开源项目了, kimi 和 mini max 已经帮你在大模型当中部署好了 open koala, 但是它们不单独售卖云平台的租赁服务,也不会去计算按量计费的 top 成本,直接给你一键打包到这个月订阅费里。 那以上三种方式哈,无论你选择哪一种,这么看下来,他都不是零门槛零成本的。所以我劝你千万不要陷入到龙虾焦虑里,不要被那种刷屏的龙虾神话洗脑, 也不要觉得别人都在用了,我不养一只是不是就落后了?你得先算清楚这笔账,想清楚自己的实际需求,再决定要不要入坑。最后呢,给你附上了普通人养虾指南,记得截图保存哦!

我刚看到一个非常可怕的东西,这些都是暴露在公网的小龙虾界,也就说任何人他只要访问这个链接就能访问到这个小龙虾的实力。呃,这个网站是一个 公网上开放的,可以看到之前因为一些漏洞或者是一些其他渠道暴露是出来的一些 opencolo 泄露的一些地址,然后这些地址里面有的是, 呃已经泄完全泄露了自己的 gay v token, 还有一些是没有被泄露的,这些服务器加起来大概有接近三千左右,可能这上面主要是一些版本比较老的,然后他会存在一些历史上,就是 open pro 被别人给爆出来的一些安全问题,就是大部分可能是基于这些安全问题导致他们的风险比较高。是所有装了 opencolo 的人都会被暴露在公网上吗?这倒不是,有一些版本他安装的时候可能会是绑定的监听所有的地址,这种情况下有可能会暴露在公网上。如果你在本地装的话, 大部分用户应该都是没有公网 ip 的,如果你在自己的电脑上用过内网,穿透一些软件,类似于远程桌面的这种,就有可能会被攻击。然后另外一个风险比较大的就是你在云服务器上不服,你要 访问,从本地访问过去的话,一定要走公网的啊。当然在现在的版本,即使我们把它暴露在公网, oppo pro 它自己其实还是有做一些防御的,就是有一些健全。呃,通常是需要我们去输入一个账号密码或者是 tok 后才能够正常的去使用它。

阿里刚开园的 q 泡桌面智能体,我替你们实打实踩坑实测了,一句话总结,咱们普通小白想上手,真的再等等,别着急,跟风折腾。 最开始我想本地部署,跟着豆包给的步骤一步一步来,全程全是代码操作,要配置各种环境,跑好几个网站下载对应的安装包。对我这种不懂小代码的小普通小白来说,真的巨复杂, 前前后后折腾了快两个小时,最后还是因为环境不兼容,直直接卡死,只能彻底放弃。然后我就去试了阿里云官网标注的五分钟一键部署,结果踩的坑一个接一个。首先就是大家最关心的费用问题, 别看模型本身是开源免费的,但实际用起来有不少消费调用大模型需要开通阿里百链服务,首月套餐七块九,包含一万八千次请求。这个倒是不贵, 但想在云上部署,必须租赁阿里云服务器,我选了最基础的入门配置,最低要先充值一百块,按量付费,折算下来一小时差不多七毛钱。 这里必须给大家提个醒,也是我自己踩过的坑,这个服务器不是你关机,不用就不扣费了。我折腾完关机放了一晚上,第二天一看啥操作也没做,又扣了好几块。 后来才搞明白,他默认状态下关机还是正常计费,只有手动开启节省停机模式,才能免掉算力部分的费用。而且就算开了这个模式,系统盘的存储费用还是会持续扣除 大家,大家如果只是临时测试用,用完一定要直接删除释放实力,不然钱不知不觉就被扣没了。 呃,钱的事还是其次,最折腾人的是他对咱们普通小白真的不够友好,操作手册的很多关键步骤对新手来说说明不够详细,就比如开通密钥,手册里只提到了开通编程密钥, 我照着操作折腾了半天一直报错,后来问了千问才搞明白,调用大模型需要开通的是大模型专用密钥, 就这一个没说明白的细节,白白浪费了我快一个小时。好不容易部署完成,我把它关联到钉钉上,想着手机上也能随时用,结果刚用第二句就出问题了,我先给他发了个文章链接,让他提炼核心要点,倒是很顺利就完成了。 紧接着我用语音发了一句,把这个内容和要点生成一个 ppt, 发出去直接就报错了。后来我问了技术支持才搞明白, 这根本不是我操作错了,是这个刚开源的初识版本本身就还没开发语音识别功能,原声只支持文本输入,不支持语音消息处理,属于版本本身的功能缺失,咱们普通人根本改不了,只能等官方后续更新版本。 整个折腾下来,我最大的感受就是这个工具真的只适合技术爱好者,懂代码的专业人士拿来测试学习。 对咱们这种只想拿它来干活、写文案、做内容的普通创作者来说,真的不建议。现在着急上手,到处都是没说明白的细节,不知道下一步 就会不知道下一步哪就会报错,时间全花在调试上了。有这功夫,用豆包、 deepsafe 那 些都写完好几篇文章了 其实,呃,跟我之前测的 mini max agent 一 样,这些新出的智能体对懂代码、懂逻辑的专业人士来说确实自由度高,很好用,但对咱们普通人来说,真的是步步都有门槛,体验感很不好。 最后给想试的朋友提三个新手一定会遇到的问题,大家记好避坑。第一,普通小白别轻易碰,本地部署操作门槛非常高。第二,开通密钥一定要开大模型专用的,别只开编程密钥。 第三,当前版本不支持语音识别,别在这上面白瞎白费功夫。给咱们普通人一句实在的建议,想玩这些新的 ai 智能体真的不用着急,再等等,等他们出了正式版本,功能完善了,哪天 咱们在应用商店里直接能下载到了再去用也不迟,现在跟风折腾,最后大概就是浪费时间浪费精力,还没办成事。 嗯,接下来我也会回归内容本身,把我用 ai 写头条、做自媒体的真实心得和实用技巧毫无保留的分享给大家。想跟着一起用 ai 做自媒体,少走弯路,不瞎折腾浪费时间的点个关注,咱们一步一步慢慢走。

ai 时代,大家期待的爆款应用终于来了! opencloud 在 人机交互中表现出更贴近人类的工作风格,其头壳消耗巨大,也因此开始有更多人谈及头壳不够模型 api 充值的话题。 opencloud 对 于 ai 服务器有哪些影响呢啊,不同的部署方式影响不同。第一种,把 opencloud 部署在个人终端,使用本地 ai 大 模型。此类部署除带动大量消费级 pc 采购外,更重要的是需要更多高端 gpu 服务器部署本地模型, 甚至让红极一时的啊,本地大模型一体机再度繁荣。那第二种呢?把 openglad 部署在个人终端,使用如 mini max、 智谱等云端 ai 大 模型, 这类警喷式的需求对模型提供商来说呢,会带来更高的钻力服务需求啊,需采购或租赁更多 gpu 钻力。第三种, openglad 不 属于云主机啊,模型呢,依然使用云端的 ai 大 模型,简单易用,一键部署,但长期数据安全控制难度大啊,除了与上一种类似的 gpu 钻力增量外,也会增加云主机的资源消耗,带来通算的需求 啊。最后,不管采用哪种部署方式,欧盟 club 是 实打实的推理应用,国产卡同样可以用,有利于国产 gpu 的 算力消纳啊。如果有国际或国产算力硬件需求,欢迎来评论区交流,我们的专家会及时解答。 欢迎大家关注超云风向标,一起把握算力新风向,记得点赞关注哦!

零元带你体验在云服务器上部署官方 openclo 首先我们用到的是腾讯云服务器,打开腾讯云服务器, 登录完之后,这里有免费试用。腾讯云服务器给我们提供了非常多免费试用的服务器,我们通过完成个人认证之后,就可以在晚上零点之后可以立即领取,领取之后我们回到首页,点击控制台,控制台这个位置 就有清亮应用服务器,直接给它点开,点开之后这里就是你领取的服务器,直接点开,点开之后首先我们需要给它重组系统,点击重装系统,点击使用应用模板 openclock, 输入自己的密码,无需备份,直接重装,点击确定,随后我们回到刚才服务器的开始, 点击这里应用管理,在这里可以配置你想使用的模型以及使用它的渠道有哪些模型优先建议选腾讯云 deepstack, 这里不需要调用 api key, 可以 直接一键增加并应用。随后这里有通道,通道中给了这几款应用的渠道,我们首选飞书, 点击手动配置,直接点击详情。进入飞书开放平台之后点击登录,登录完成之后点击开发者后台,在开发者后台去创建属于自己的应用,输入应用名称以及对他的描述,直接点击创建。 创建之后这六个凭证与基本信息这里就出现了 app id 跟 app script, 点击复制,再回到这里配置这里复制,再过来 ctrl 加 v, 直接增加并应用,这里就可以看到它是属于正在运行中。 here 目前 我们初级配用可以先不用到,之后自己想进阶玩法,想提升自己的 open class 的 时候再来处理相关 skills, 随后这里配置好之后,我们来到飞书点击增加应用能力, 增加机器人,这里显示出机器人之后即为成功。随后我们来到权限管理,权限管理我们需要开通几个权限,点击开通管理输入,我们需要给他的权限点击确定开通权限 继续添加,这里的权限是你给他能操作的,有哪些权限在之后的用途当中可以自行添加。 随后我们点击事件与回调,事件与回调部分,进入方式全部都选择长连接,要注意的是我这里是在给大家进行演示,实际你在保存之后,他这里是没有红色字的, 要是你这里没有点击一键添加并应用的话,那你这里就会选择红色。这里保存之后我们来到回调设置,回调配置当中也选择使用长连接接受回调点保存点回事件配调增加事件, 选择两个,一个是信息已读,另外一个是接收信息。随后我们在这里创建新的版本,比如说一点零,点零,这就是你的初步版本更新说明, 随后我们直接点击保存就可以了。随后我们重新打开这个控制台,然后直接点击进入, 进入之后需要给他扫个码,成功之后直接登录,登录进去,在刚才调出来的飞书,直接在这里搜索属于你的这个机器人,随便给他发一句话,然后他就会给你发这一段, 发这一段之后把最后这一段给他复制粘贴一下, 点击回车, 当这一部分出来的时候就是成功等待。

相信大家现在还有很多人卡在 opencloud 的 部署上吧,这款真正能动手干活的开源 ai 智能体最近爆火,但是门槛不低。大家好,我是伟建。今天我用三分钟把云端和本地部署的区别、大模型调用的逻辑讲透,帮助大家少走弯路。 云端部署和本地模型的区别是什么呢?云端部署的一键镜像可以免去复杂的安装步骤,成功率几乎百分百,而且能七成二十四小时在线随时调用。但本地部署就不一样了,每个人的电脑环境不同,代码的能力不同,部署是各种的报错跳出来,成功率特别低。更关键的是,本地部署依赖自己的电脑,一关机就没法用了。这里重点说下本地部署,我只推荐虚拟机部署,为什么? 因为 opencll 权限太高,很容易泄露公司信息、个人账号、密码甚至商业数据,风险太大。而虚拟机能隔离环境,既不影响原有系统,又能够降低权限的风险,是本地部署的最优解。 再讲大家最关心的大模型怎么选? opencll 就 像一只手,要让它干活,必须配个大脑,这个大脑要么调用厂商的 api, 要么本地部署大模型。先说说 api 调用 top 机费 直接用厂商已经不好的满血大模型,不管是硬件还是通过他们的接口调用算力输出,结果按输入输出的 token 进行计费。现在很多厂商都有免费的 token 额度,日常使用的成本比较低,而且大模型的性能拉满,响应速度快,结果又精准。 那为啥不推荐本地部署大模型呢?不是不小,是真的不划算,现在大家的电脑显卡内存平均才有八 gb, 顶多只能部署八 b 以下的模型,和厂商的几百 b 满血大模型比,性能天差地别。有人说,那我买高端的硬件,一套能部署满血大模型的硬件不就行了? 那你可以看看现在的硬件价格,一套能够部署满血大模型的成本价格大概在一千万左右,要是能花这个钱,根本就不会觉得套很贵了。 最后总结一下,想快速用起来,怕部署踩坑。选云端部署,非要本地用降低成本就选虚拟机大模型,优先选择现在免费调用大模型的厂商 a p i, 包括阿里云、华为云、腾讯云等 一夜的朋友们呢?想抓住 opencloud 的 红利,我会根据你的具体业务场景,免费为大家提供专属的落地解决方案。我是伟建,下次见。

ok, 今天我给大家介绍一下,这是我们团队这几天自研的一套这个 agentos 系统,它的全称是 agent operation system, 就是 你可以在这个系统上面去操纵这些 ai agent 去干活,你的数字员工去干活。 首先我介绍一下我们项目的这个优势,就是整个项目它完全是私有云部署,然后也是私有的这个向量数据库,所以说安全问题你不用担心。 然后你也可以看到这里,这个 local host 就是 我,我把整个系统现在部署在了我的本地服务器里面,你也可以部署在云服务器里面哦,看一下我们的首页概览哦,一下子回到了这个登录的页面,先登录一下吧,保持登录状态。 ok, 然后大家可以看到简单介绍一下吧,这个是一个工作概览,你可以看得到你的现在,比如说你的产出是多少啊?渲染了多少条视频啊?因为前几这个是我们前几天接的一个这个项目吧,然后 我们就给他去做了一套属于他们自己的工作流,然后我们根据你的需求,然后去搭建一个多 agent 的 这个系统。嗯, 对,可以看到这个这些都是他的一个一些数字员工吧,就他的 agent, 然后我们给他搭了一二三四五五个 agent, 可以介绍一下这个工作流。那大概就是说呢,你把这个视频给到这个 vision 这个员工,他就会读取你的一些 数,就是读取你的视频,然后给到 creative 去做脚本,再给到这个 audio 去做这些音频啊啊或者画面啊,然后再给到这个 editor 去 剪辑视频,产出视频。最后给的这个 digital 去分发到各个设媒渠道,像什么小红书啊,抖音啊,然后视频号啊, 大概是这样。然后大家可以看到这个数据知识库,这个数据库呢就是呃用来去把你的一些数据部署,呃,就是喂进去的,喂进去给你的 air agent, 哎,这个插件管理就是你的一些 skills, 你 也可以把你现在现有的呃技能打包成技能包,喂给你的 agents, 或者是任务管理,你可以创建任务,创建任务之后,然后它就会在这个日历日程这里面出现,然后给你排期,你看每天要干什么事情。还有就是这个工作流,我们会把工作流做好,然后呈现在这上面, 再到系统日制,能够实时系统日制的监控啊,然后管理啊, 然后再到这个通知中心团队管理,你可以把这个管理员权限给到你的一些,给到你的员工啊,或者说普通用户,去看你的一些产出吧。 嗯,这是你的这个数据报表,对,你可以看得到你每天完成的任务成本节约了多少,然后 roi 指数,还有你的 agent 的 性能,工作流执行,还有整体的概览,再到这个普通的设置页面,你可以去换你最喜欢的颜色,对吧?很方便, ok, 大 概就是这个样子。

来吧,兄弟们啊,上不足龙虾偷啃费用贵吗?两回事啊。首先我买的是阿里云的练计划,大概一个月四十块钱,他每天有限量,但限量你计划一下也没有问题。 然后各家都有那种免费的 token 嘛,你薅呗,薅些 token 羊毛,免费 token 也一百万呢。那龙虾你要是弄的,你给他说的事情一定要调理清楚你,不然老子也要花很大的这个精力去猜你说什么意思,还要跟你核对半天,那他 token 销量不就大吗?你跟他说的很清楚,他就不用那么那样了,他的 token 销量就少嘛。 我觉得还好吧,一个月可能花了有几百块钱,六七百块钱,因为我有五个龙虾,养了五个免费的 ai, 梳理好需求再交给龙虾跑也可以,但是你还不如你跟他梳理,你梳理过程就是他进行训练的过程。人家说九五零几乎就和 h 两百差不多,太大了。对,差不多,我们现在个子情况也是基本上能到 h 两百百分之八十左右的水平。 大家这是在集群状态下,没有说单卡,因为他不出单卡出来的话最少是三百八十四个。就一点二一一套啊,最少三点八,三百八十四。什么时候鸿蒙能养龙虾? 其实可以,但是不过他要加个东西,主要是因为龙虾他自己那个东西他要么是 linux 的, 因为他是服务器端的,电脑端呢,主要还是 mac 和那什么。 这个我跟华为系同同学们申请一下,看看他们能不能做一做啊。中国崛起无可阻挡,反正我们一个节点就碰上,一个节点又碰上了。哈哈哈,是吧,龙心中科发布的养龙虾好养吗? 啊,他那是个小盒子,那个盒子呢也不贵,三四千块钱,我其实觉得是这个概念, 这个龙虾呢,我建议你用云服务器来养啊,因为你比如说他为解决你这个问题,他可能要编程,编程的话最后他做一网页,比如说我要处理 excel 表格,他自己简单处理不行他就要写程序,要用配帧写程序,最后写成一个网页,你上传 excel 表格对吧? 那这玩意你要是在自己的小盒子上,你在外面,你在办公室里边,你怎么弄啊?那这个事就是个大问题,所以呢,我建议你是挂在一个云服务器上,哪怕是个轻量云服务器啊都够啊,这样他就可以直接做完以后就挂在那,给你一个链接地址,你就直接干,不就完事了吗?解决问题吗? dpc 本地不输起二十万左右大概能达到多少? 为什么要本地这么大呀?这么大的二十万的你有多少人使啊?病发量有多大,这个不好判断, 二十万的话你买一个小的斯卡的机器了呗。那可能一秒钟可能两百个 token, 一 百五到两百个 token 吧,那你要是说几十个人用可能还够凑活,要多人用可能就不行了,这玩意就是那么情况,各位 感谢啊,最后我还说一句啊,祝所有的女神是吧,女神节快乐啊,祝所有的男神都能找到自己的女神好不好?今天就到这啊,感谢大家关注我们的小程序啊,我们小程序还有一个免费的补课的专栏,你们愿意的话可以把那课补课专栏定上,因为咱们在各平台的内容呢,都在里边做了一个整合啊,需要大家可以到哪来找我们的内容,好不好?

最近那个 openclaw 龙虾不是很火,我看到一个很有趣的一个观点,哼,就说因为 openclaw 这种不管是本地部署还是云端部署,它消耗的 token 数太大了,也就对算力消耗太大了,所以它是不可能被普及的,哼,我就觉得这个观点很有趣,我想到在十几年前那个时候, iphone 刚刚出三 g 第二代 iphone, 他 们有个观点就说这种大屏智能手机是不可能被普及的,因为他的流量需求太大了。以前初中的时候,有一种流量卡非常的紧俏,他是十块钱三百兆流量, 叫万花筒那个卡,但是那时候是你有钱都买不到那个卡,就要要去排队,要去找人买的。那现在如果不用 wifi, 我 可能一个月用三百 g 都不一定够。 所以从这个角度看,它其实很多时候需求在推动生产的。当我们还在用 uc 浏览器看 nba 比赛直播的时候, 那自然三百兆的流量是够的。那现在要刷短视频,要用 ai 工具的时候,那三百兆就不会够用,那肯定会推出新的这种流量,或者是新的硬件、软件等东西。所以很多时候一个东西被普及是因为需求推动了生产。 但是我们反过来看一个事情,需求推动生产的时候,生产也在倒逼需求。当我们用上了某一些智能手机之后, 那可能就传统手机就不会有人在用,就被淘汰了。你看现在哪有人还在用文字版的 uc 浏览器? 现在应该很多人都没听说过 u g 浏览器了。但是有一个问题,有一些传统的或者说过时的技术,过时的产品,它依旧会被保留。比如我们举个例子,像现在的电子表啊,或者或者说智能手表,它是一个就无可厚非的主流,但是其实机械表并没有被淘汰。 同样的,像现在大家都用屏幕来看文字,但其实实体书、实体报纸,它也没有被淘汰。因为其实在这些新技术被普及的时候,某一些旧时代的技术, 它反而造成了新的需求。比如说像电动汽车啊,包括无人驾驶,它也是个极好的东西。但为什么 燃油性能车,就像什么那些高性能燃油车,他仍旧会被保留?是因为其实在这一个过程中,在新技术取代传统的技术的同时,取代机械表,取代燃油车,取代实体书、实体报纸这一类传统纸媒的时候,他反而造就了某一些新的诉求。比如说 实体书报,它可能代表是某种阅读的生活方式,机械表它可能从某一个食用品变成了某一种奢侈品。 类似的,当摄影出现的时候,很多人都说这些画家要失业了,不会有人再要画肖像。但事实上,你看现在不还是有很多人追求手绘的肖像吗?有些甚至还有人画抄写实,每个毛孔都要画出来, 那就没办法磨皮了,哈哈哈。但是我们反观一个事情啊,虽然新的技术在发展,我们有没有必要去真的去学 open 啊,各种各样的 ai 工具, 你说学不学?他要不要拥抱这个时代?不拥抱会不会被淘汰?其实我觉得我自己是没有这个焦虑,我感觉是这样子,不管是 open core 也好,大语言模型也好,至少现在他是帮不到我,因为他没有办法去干涉物理世界,那也就是说他帮不了我在现实中处理一些动手的东西, 那我也不想去学着怎么用,呃,因为我觉得逼着我去学这些东西在给我制造焦虑,很多时候需求会去推动生产,同样的生产也会倒逼需求,总有一天会有适合我用的 ai 工具是不需要我去学着用它的,它会 非常贴心的推着我去使用它。就像我在用 uc 浏览器,在用文字版 qq 聊天的时候,我不会想到有一个叫微信的软件,或者有一个叫抖音的软件,有一个叫小红书软件,他们会 推着我去使用它们。而且说白了我是花钱的人呢,我是消费者,是上帝,哪有人说我要教上帝做人呢? 没有的上帝不会学做人的,我虽然不学的怎么用他们这些东西,但是我并不排斥去学,哎。编程并不排斥去学他背后应用数学这些东西。以前哦,当我们还没有电子编程,没有光模块等等这些东西的时候,有一种,嗯, 编程工具叫做叉分机。叉分机是一种机械编程的工具,他们是用很精密的齿轮组去编程,让机械去开这个微分方程, 就是用纯机械的方式去解决数学问题,而不是像现在的用的电子元器件去去编程。那叉分机在那个时候是维多利亚时代哦,很快就被淘汰了,就没有人再用叉分机了。但是 很有意思的就是这群做叉分机的工匠,他们都跑到瑞士去做机械表的复杂模块,就比如说万年历的模块,把万年历和这个计时模块叠到一起, 能不能做?他们也做出来了,还要加一个陀飞轮进去。就是这种原本看上去好像被取代的技术,好像被淘汰的一群人, 因为他们的这些技术跟上了另一种不同的需求,也就是原本是做计算机的这群人,突然间在他们的计算机被淘汰之后,他们又跑去做复杂机械表了,反而柳暗花明又一村。 如果某一些传统哈,比如画家,比如制表师等等,这些行业被淘汰了之后,这一群技术人员会不会真的就完蛋了?可能也不一定,我是学建筑的,我不还是在画画吗?哈哈,建筑行业现在都这个样子了。 anyway, 我 觉得很有趣的一个事情,怎么可能因为透坑消耗太大,就就就发,推广不了,推广不了的东西多了,不还是推广吗?哈哈。

装龙虾容易,养龙虾难呀,市场装机部署也就两百到五百块钱不等,但是你养龙虾那真的是没个底啊,我用了两天,大概消耗了头壳,花了我两千多美金,而且还是一些基本上简单的操作,就根本还没有什么训练,一些复杂的操作就有一种什么感觉呢?有一种花了两万块买了台劳斯莱斯,很好,但是加油呢,一定要花两千万的感觉。 就所以很多人说 ai 时代普通人用不起啊,这头壳这么贵,这是富人的游戏啊。但是我非常明确的可以肯定的告诉你一句话啊,未来 ai 最不值钱的东西很有可能就是头壳,而且会便宜到什么程度呢?便宜到你今天都想象不到,就为什么我敢这么做啊?呃,因为历史已经发生过一模一样的事情了,很多年轻人可能不知道 十亿年前手机流量有多么的贵啊。我记得当年最早用诺基亚手机的时候,三十块钱只能买五兆的流量,五 mb, 你 没有听错,五兆啊,按现在的情况,发一张照片就没了,打开流量数据你放大不动就没了,那现在呢?你看 三十块钱最少是几 gb 对 吧?有的套餐几十 gb, 甚至还有无限流量卡。所以为什么?因为技术一旦进入了规模化阶段,成本就会断崖式下降。 ai 现在正在处在什么阶段?就像当年的移动互联网早期一样,服务器贵,算力贵,模型训练贵,所以通常看起来很贵。但是只要下面三件事情发生啊,价格一定会暴跌,第一个就是算力规模爆炸,第二就是模型销售提升,第三个就是市场竞争加锯,如果再有一个,很可能就是核聚变突破啊,能源价格廉价低廉, 所以我们现在看到的是 openai 啊, google 啊, ipad 啊,还有一大堆公司在拼命的卷,他们在卷什么呢?不是卷价,是在卷效率,谁能用更少的算力跑出更强的模型,谁就能够把价格打下来。所以未来会发生什么事啊? ai 调用成本就会像水电网络一样,几乎接近免费,真正值钱的不是投资,而是会让你用 ai 解决问题的能力。 很多人今天纠结啊, ai 这么贵,我先等一等,但是我告诉你啊,真正的聪明人在干什么?他们在趁现在学习,因为技术成熟以后,会用 ai 的 人和不会用 ai 的 人差距会越来越大。所以不要问 ai 贵不贵啊,问问你自己,当 ai 变得像空气一样便宜的时候,你会不会用?