粉丝1429获赞5037

今天为客人安装了一台小龙虾工作站,他是用小龙虾做视频编辑工作的,我们是通过 windows 的 平台安装了虚拟化工具呃, gpu 直通到虚拟机里面,然后把小龙虾这套软件部署到虚拟机里面,确保小龙虾这样一个平台的安全性。 企业应该肯定是首首选的是安全第一,第二就是说适配性要好,就是完全能解决它的问题。我们这台机器采用的是特的那个工作站,适配的是 r x 五零九零的 gpu, 两根那个三十二 g 的 内存这样的一个平台。我们现在部署了多只小龙虾, 应用于文职开发呃,设计等等。我们这边还提供一站式的从电脑工作站配置到本地部署,如果你也想了解,加关注,后台找我。

又能做生物信息科研,还能养 ai 龙虾做科研助手。这期是为广州某生物医药企业配置一台科研团队办公工作站配的两颗 a m d 枭龙九三三四叠加六十四核心,能直接跑满生物信息计算的日常任务。十六根三十二 g d d r 五内 存五百一十二 g 容量跑动生信大项目还能分出小部分用于 open cloud 加在本地知识库、项链库。关键是两张 r t x 六千 a 搭四十八 g 显卡, 不仅能跑蛋白结构预测、分子对接等,还能兼顾 open club 科研助手辅助实验方案生成、试验记录自动整理等整机还能做分子动力学模拟、深度学习、有限原仿真等场景。

这是一台我们线上的客人下单的用于推理的一台机器,英特尔的幺四九零零 k 的 cpu 搭配了五零九零的 gpu 内存三十二 gb 两根,总共六十四 gb, 主要是做一些推理用的,然后这个是通过 smi 调起当前 gpu 的 一个工作状态,可以看到这个五零九零这个产品的最大功耗为六百瓦通, 如果压力测试它跑在五百二十九瓦这样一个状态,这个时候呢,它在工作的一个实时温度为六十五度左右,然后风扇的转速为百分之四十六的状态,当前它是三十二 gb 的 那个显存,用掉了大概二十八 g, 然后 gpu 的 内核它是百分之百被调用。如果您公司类似于做机器人的一些仿真 ai 推理,包括现在比较火的小龙虾这样的一些部署环境,这台机器都可以完全满足的了。我们是做工作站服务器硬件配置的,并帮您做好本地部署,如果想了解的话可以来找我。

呃,我这里部署了四只小龙虾,四只小龙虾,然后我给大家总结一下避坑的经验啊。首先第一个,我们在哪里部署小龙虾?我这里不推荐本地部署啊,你不要说什么整个 mac, 那 个什么笔记本电脑啊,不需要啊,兄弟们, 最优解法啊,你就去腾讯云上,腾讯云上租一个服务器,一年的话就五百块钱,兄弟们,一年就五百块钱左右啊,然后我推荐你们的配置啊, 嗯,你就用这个二和四 g b, 二和四 g b 就 够用了,你不需要去跑什么四和八 g 啊,或者是啊,不需要那么大,二和四 g b 基本就够用了。然后也不要去买什么二和二 g b, 那 个完全不行啊,那个完全不行。 然后我推荐你们云服务器的话,我推荐你们上腾讯啊。啊,根据我这么多踩坑经验,为什么呢?因为他有个叫贷宽啊,我不知道,大家知道吗?贷宽的话,你比方说阿里云, 他那个贷宽的话,如果人多的可能每秒连两百 km 都到不了,会非常卡,然后那个龙虾回不了你消息。 呃,如果是腾讯云的话,他固定宽带差不多五 m b, 六 m b 完全够用了,所以说我再推荐大家用腾讯云,然后最低的配置叫二和四 g b, 最关键的,你要看那个 宽带啊,记住,宽带一定要大于等于五 m b 以上,三 m b 根本根本不够用啊,兄弟们,三 m b 根本不够用。

普通人装龙虾到底要花多少钱?到底要买什么样的设备?今天呢,我就用自己的实战经验来给你们算明白。那我们呢,是有三台机器都在跑,二零一五年的老迈克,二零二五年的新平,还有一台迈克的工作站。先说结论,我用的不是本地模型,全是走的 api 调用,所以门槛呢,其实比你们想的低太多。 嗯,先说打底的配置吧,就是不用显卡,不用大显存,我觉得内存八 g 呢就能跑,十六 g 呢就比较稳。不管是新的麦克,老麦克 windows, 只要是能能上网就能装。然后老的英特尔机器呢,一样装,不卡也不慢啊,不调配置 再说,多少钱能够搞定二手老电脑?可能一千到两千就够用,终端的 mac 可能三到五千,也很舒服,很省心。新的呢,可能是一万以上,只是体验更好。那我觉得它不是必须的,重点来了,就是硬件呢,几乎是不用花太多的钱,真正烧钱的是 a p r 的 talk, 电脑呢,只是终端,算力呢?在云端,我给你一句实在话,不是越贵越好,够用就行。如果你只是玩一玩,写写代码,做做文案,跑跑自动化,其实一台普通的电脑加上能够上网就足够了,只有重度多开二十四小时挂着,你才需要去考虑稳定性。 那我给你总结三句话,第一呢, api, 我是 用 api 调用龙虾,所以呢,不太挑电脑基本上呢,呃,对于配置要求不会太高。第二呢,其实硬件成本是很低的,真正的成本是在 token 的 消耗上。 第三呢,就是先轻后重,先免费再付费,刚上来呢,没必要堆硬件,所以关注我,下一期我跟大家分享一下 token 的 消费到底划算不划算。

来这个大砖头啊, rt 叉,三千的图形显卡,六个 g 的 显存啊,用来 sawyworks 啊,这个渲染犀牛软件等这个 kitty 啊,这种机器的话运营起来是非常不错的,二零二一年左右的菜吧, 两万块钱以上的价格,现在的话两折左右就能拿到这款机器了,而且整体的成色还是非常不错的,九成新没有问题, i 七的幺零八五零的六核十二显卡,内存最大可以去到六十四个 g, 然后硬盘的话两个 t, 而且我们店铺提供一年的保修啊,这个机器散热好,用料也好啊, thinkpad 在 工作站里面是头把交椅,那么 这个 pr 五的话在二零二一年左右也是在设计工作站里面是老大中的老大,所以需要这种机器做设计的朋友们可以过来看一下,这种大厂批量资产组织啊,机器都没啥问题,我们店铺提供一年的保修,确保你这个吃饭的家伙杠杠的,好用。

全网都在养的 ai 龙虾,普通电脑带不动,今天又联想 simstation p 八本地部署,丝滑跑满。 p 八搭载 amd 锐龙 thread pro, 最高九六核,五点三 g h z 算力直接拉满。支持多卡读写,大内存扩展。阿斯顿马丁联名机箱, 三热经营,双在线 a 组专业认证,建模渲染, ai 训练,数据科学全 hold 得住。包盒欧本克劳龙虾 ai 不是 聊天机器人,是带数字手脚的智能体,自动操作电脑,整理文件、写方案、跑流程,一条指令闭环干活。批发本地部署龙虾 不卡顿不闪退,数据更安全。大模型本地跑低,时延不限,偷啃企业工作室,隐私无忧。联想还支持免费到店部署,小白也能轻松养虾。 想本地跑大模型,高效玩 ai 智能体,联想批发工作站算力够强,部署够稳, ai 生产力一步到位。评论区扣养虾, get 部署攻略与配置清单。

哎呀,这批星派的 p 幺五移动作战成色是真的好,配置的比较高, rtx 三千的显卡,六个 g 的 显存,用来跑这个虚拟机啊,渲染跟图形处理,那么这个机器是非常不错的, i 七的幺零八五零处理器 啊,三十二 g e t 的 固态硬盘也是砖头这么厚啊,大概两点五公斤左右吧,那么用料跟做工就是非常棒的,上市的时候呢,接近两万块钱, 那么现在的话呢,两折左右就能拿到这款机器了,而且这个机器是二零二一年出厂的机器,到现在用了三年吧, 正常这种机器高端的工作站保修是三年左右,那么很多上市公司会把它做加一年的原保,那么这个时候就刚刚放出来,整体成色九成新,还有一年的保修,完全不用担心走一个。

本地部署一只小龙虾的成本是多少?这个是我家里部署的 open club 福气啊,里面住着一只叫菲瑞的龙虾。嗯,它的整个成本呢,其实也没有很高。嗯,首先 cpu 选择的是英特尔 i 三的九幺零零 t, 咸鱼的价格大概是一百二十元左右。那么选择这颗 cpu 的 原因呢,就是它的性能足够,并且功耗很低,大概只有三十五瓦左右,就算你整天开着也费不了多少电。并且呢,这个 cpu 它是原声支持到 windows 十一的, 对于小白来说还是很友好。嗯,主板你选择一个九代 u 接口的就差不多了。某鱼的价格大概是一百二十元。那么内存,如果你是在 linux 上部署的话呢,你至少需要四 g 的 运行内存, 如果你是在 windows 上,则至少是需要八 g。 呃,现在的内存价格越来越高啊,一条四 g 内存已经涨到了一百四十元左右。 呃,内存呢,是一笔巨大的开销。那硬盘倒是无所谓,你用机械或者固态都可以,一百二十八的固态大概是八十块钱左右。电源用三百瓦足以,二手价格大概是四十块钱,机箱不是必需品,二十五块钱左右。 综上所述,如果你用 linux 系统部署,那大概是五百二十元左右。如果你用 windows 系统,则至少是需要六百六十元左右。呃,这用大模型的费用可以从各个厂商的 callin plan 里边去啊,基本上都是四十块钱一个月。

这个是你们平时下载好的 open cloud, 大家可以看一下这个如果你需要什么技能啊,或者连接什么微信啊, qq 这些东西,全都得敲命令。最大的问题是,一旦不小心删掉了你电脑里的机密或者关键文件,该怎么办呢? 这是我们的 openclaw, 所有的东西全都是图形化的模型,连接的是本地的我们悟空大模型,然后所有的消息通道对接啊,比如说连接到 qq、 微信呐,点一下就行, 想装什么技能,直接在里边搜索点安装技能就行,不用到网上下载解压,想开就开,想关就关,所有东西非常直观,大家可以看一下。然后定时任务呢?比如说我设置一个什么定时进行的呢?不用敲命令,直接在里面点上就 ok 了, 然后给他一个比较复杂的办公,对这样的一个场景的一个任务,让他把这些一个很大的财务报表里边的一些,呃,有关人力资源部的这个专员单独拿出来做一个新的表格,敲一下命令,我话都没说完呢,他就帮你做好了, 非常准确,这个功能不需要联网,在本地就能通过我们这个机器来完成。然后我们给他一个更难的任务,生成一个直接从无到有,让 ai 所有帮你把所有的 ppt 生成的任务全部完成的这样的一个呃,潮汕摩托车旅游攻略的 ppt, 大家可以看,这个速度啊,非常快,不需要我们干预,不需要我们人提供任何的资料,所有的东西,所有的排版呀,什么编辑啊,全都让 ai 来帮你完成。而且整个过程当中不需要使用线上 api, 全部都是本地的, 只要你拥有我们的一台机器就行了。好了,现在 ppt 已经生成完毕了,我们直接看一下 ppt 长什么样啊,这个 ppt, 大家觉得这个 ppt 怎么样?这全部都是 ai 即时生成的,不需要我们人做任何的干预, 这就是今天我们给大家带来的内容,是的,你没看错,仅需三六九九元,给你一台最高我们能做到一百 togg 视频秒,并且不会乱删文件的龙虾小机器。 我们全程使用纯本地大模型悟空三点零,配合 open club, 无需额外配置任何 api, 无需再向线上服务付一分钱。 这是我们本地跑悟空三点零的最新的机器, k n 二 l, 我 们这个机器体积三升,这是它的外观,外观是这样,然后它的满载时候的噪音是四十二分贝,满载的功耗是一百三十瓦,非常的省电。 然后给大家介绍一下我们本次跑 openclaw 用的就是刚才完成这些所有任务的模型,是什么呢?悟空三点零,这个悟空三点零呢,大家可以看我前一个发的视频啊,在本次视频内就不赘述了。 这个大家如果感兴趣,悟空三点零是什么,它的效果怎么样?包括我们能不能测试啊,这个都可以跟我们联系,我们会给你一一台机器,或者是给你一个 api 进行测试,这都是没有问题的。然后他能做到的效果呢? 比我刚才演示的还要好,我只是出于时间啊,这一方面,没有给大家展示全面。实际上所有能 open class 能做的工作包括连接什么呀?包括,呃,我假设啊,把一份文件让它自动拍个照,扫描进去,然后 它修改完毕以后再打印新的文件,这一套操作直接就是一键完成,我不需要人做任何的干预,这都是可以做到的。 然后这就是我们的重中之重。这次相信很多朋友们,你们都有这样的经历,用了 opencloud, 结果本地的一些文件被莫名其妙的误删了。诚然现在这个 ai 已经非常的精确,误删本地文件这个呃似乎发生概率比较低,但是如果你 呃仔细想一想,百分之一,百分之零点一的概率,这对于我们宝贵的数据文件来说都是不可接受的,那如何把这个概率降到零?就今天我们给大家带来一个全新的系统,叫伽利略系统, 这是一个我们魔改的类类影子系统文件保护机制,每次登录或者按照用户设置的时间与范围,他都会自动的保护整个系统与用户的文件。一旦用户系统与文件被 open cut 损坏了,可自行一键恢复到损坏前。什么意思呢?就像大家打游戏存档读档一样, 一旦这个文件做坏了,你可以自行一键恢复到损坏前,无需担心欧文可捞损害你的任何的文件,任何的数据。假设他损坏了假,他删掉了假,甚至整个系统都没有了,我们点一下直接就恢复到了损坏前,非常强大的这样的一个功能, 然后说了这么多,给大家展示一下我们这次的这个带来的这些机器吧,这些都是能跑悟空大模型,还有市面上小于一百到两百币的所有大模型的机器。我们左边这一套是低配起售价三六九九,然后中配是四五九九,高配是六四九九, 这个速度呢?还有这个他的一些规格硬件现在已经全部都打上去了,现在标价就是实价,朋友们,标价就是实价,大家的话就是看到这些的话 是有标价的,是可以直接下单的。然后系统,所有系统全部都是 windows。 十一,我们不需要使用 linux, 包括我们刚才演示的情况,我们不需要使用 linux。 有朋友们觉得这个十 touch 每秒是不是运行 open loop 太慢了,是不是还有更快的?大家先别着急,先看一下这个 k n 二 l, 这个 k n 二 l 的 话刚才是六十四 g 的 运行内存呢,那么我们这边还有一百二十八 g 和二百五十六 g 应用内存呢,如果你有一百二十八 g 和二百五十六 g 应用内存,那么你就可以 所有市面上常见的开源大模型你都能跑了,什么 db 啊, g m 啊,悟空三点零啊,这两款小机器都能做到, 并且他们的体积都是三升,功耗都是一百三十瓦,跟刚才完全一样的这是,然后这个他们的价格是一万三和一万八,这个速度话是五 tocs 每秒跑啊,一些大模型的话是五到七,跑悟空的话能达到将近二十 tocs 每秒,这是所有大模型都能跑,就是假设你买回去 不止想跑悟空,还想对接其他的本地大模型,我们都能做到。那有朋友们觉得啊,这个跑悟空太慢了,刚才那些机器想要快一点的,我们这里也有选择。 左边这套是能到五十 tocs 每秒的,这个我个人预估是六千二哈,大家看这些眉标价格就问一下客服啊,客服帮你搭配以后会告诉你实际的价格啊,这是大概,这是一切,反正有不明白的问客服,我们就能帮你解决。 中间这个还有右边这个是四十 topos 每秒,然后有人问你,这个显存大小不一样,跑的速度还都一样,那区别在于什么呢?区别在于悟空模型的精度,显存越大的机器跑悟空模型,最后你能看到的 open cloud 的 效果就越好, 那有没有更快的呢?朋友们,那当然也有,就是这个用四零九零的,他能干到多少 topos 每秒呢?一百二十 topos 每秒。注意哈,比我刚才在视频中演示的速度还要快, 这是非常夸张的一个速度,虽然他这个定价呢,可能也不是很保守啊,可能将近三万块钱了,但是如果你真的有这样的需求的话,这台机器是在你办公当中是非常高效的一个办公的助手。 那这里也给大家这个展示一下我们这个其他的这些传统工作站吧。传统工作站就是五九九九啊,八八八,还有一万多的这些呢,是能跑本地版满血版的所有常见大模型的, 包括悟空在内,但是他们不专门被跑悟空设计啊,所以他们这个速度跑悟空可能十到二十 tocs 每秒,跑其他的大模型是四到六 tocs 每秒。优点什么?优点就是非常的便宜 啊,非常的便宜就能买到二百五十六,五百一十二和一 t 运行内存了。我们还有 k n 三的机器, k n 三能跑了九 tocs 每秒也是九百五十 g 的 运行内存,所以说总体来说就是很快很强。 然后本期视频呢,就是我们机器正式的发布了,然后我们这个 open cloud 也为大家带来一些比较有意义的更新嘛,就比如说你看他这个运行需要敲命令啊,然后不是很直观啊,容易删文件啊 啊,这些东西我们都已经成功的解决了,现在只需要就是你们购买这些机器,你们就可以享受这样的服务,并且我们后续我们不会收任何的费用,我们不会收任何的线上的费用,包括什么 api 啊,授权费啊这些我们 什么都不需要。而且我们提供终身的这个机器内终身的软件方面的更新,还有一年质保和七天无理由,只要你购买了机器,未来什么模型在不断的更新,我们在软件上所有的知识全部都是 free, 全部都是 free of charge。 朋友们,这个感觉这次的更新有没有含金量?如果有的话就给我们这个点一个赞,给我们一个一键三连,然后我们还会为大家这个持续的更新,我们这个 open cloud 这个机器啊,还有一些什么大家任何想看的东西 给我提建议,我们就会做出来,然后我们也会做的更好,希望大家能喜欢我们的视频,那本期视频就到这里了,嗯,谢谢朋友们。

今天郑州展会,有很多粉丝都在问今年有没有一个新的产品,正好今天绝活哥也在这里,让绝活哥跟大家演示一下这款服务器呢,是我们推出来的全能服务器,它集合了我们原本的系统服务器,还有我们的存储服务器, 还有我们的 e r p 服务器,最重要的它集成了 ai 大 龙虾服务器,现在这里边可以养很多只大龙虾,比如说一个龙虾是前台的一个龙虾,前期的一个龙虾负责处理为件的, 可以养很多只,而且这些龙虾越养越聪明。最后它还可以是一台以前自动化的服务器,还可以是一台云主机, 我要重点讲一下它为什么是一台云主机,首先它集成了所有的服务器的情况下,它还可以让两个人当做设计电脑来使用, 也就说它既是一台服务器,又是两台设计电脑,这一台全部就搞定了,真正的为大家节约成本。先给大家讲一下我们这个云主机 a 七六零 y 这个云主机的之前我们推出的型号呢,是要配合我们的系统服务器来使用的,但是这一次我们推出的 它可以独立运行,不需要系统服务器就可以当云主机使用,这个一方面呢是给大家节约成本,第二的使用起来更灵活。接下来给大家演示一下这个云主机是怎么使用的, 现在你看我们这个是云主机这个显示器,还有这个显示器,这两个显示器,这两个键盘鼠标都在这个云主机上面连接的,这样的话他就可以让两个人独立使用。现在我给大家演示一下,首先我在这边打开 ps 软件, 好,我现在新建一个文件,大家可以看速度是非常快的,然后再来这个显示器,来,强哥,好,他也打开一个 ps 软件, ok, 你 也新建一个文件, 确定好了,这个是独立运行,也就说鱼主机,他配几个显示屏就等于是几台电脑, 在当今电脑价格之高不下的情况下,真正的为大家节约成本。这一台是我们推出的 a 二八八服务器,这台服务器呢是基于华为超巨变平台,然后他也是最多可以支持十二个三十 t 的 硬盘, 四十盒八十现成的 cpu, 然后设计电脑支持二十到两百台,同时它也可以养很多只大龙虾的服务器。 这一款呢是我们新推出的 a 七五零服务器,它基于戴尔的平台,支持的 cpu 是 四十盒八十现成,可以支持二十到二百个人的团队使用,做存储,做系统管理,做 erp 都没有问题,欢迎大家有想法的都可以咨询。

哈喽,大家好,今天给大家详细的讲解一下如何在云服务器上面一键部署你的龙虾机器人,并且部署好你的龙虾机器人之后,如何快速的去接入海外的大模型和海外的聊天通道。 因为有些粉丝朋友他并不想接入国内的大模型,比如说他本身手上有像 gpt 啊,或者 gmail 这种大模型的账号,那就可以选择接入海外的大模型。 好,那今天这期视频的话,我会以腾讯云这个云服务器厂商为例,给大家来详细的去讲解。首先我们需要在腾讯云的这个官网上面去登录注册一个账号啊,这账号并且要实名认证,实名认证搞完之后,我们在他的首页选择这里的 open call 云端,一键秒部署的这个按键,我们点击这里的立即体验,然后进入到另外一个页面,这个页面呢,我们把鼠标一直往下滑, 一直找到这里选购云服务器的这个选项。这里如果你是只想接入国内的大模型,那你就买国内的这种云服务器。如果你想选海外的大模型或未来接入海外的大模型的话,那我建议大家买海外的这种云服务器。海外的云服务器如果你是首次注册使用腾讯云的话, 他一般都会有新人折扣,并且还比较优惠。像我这里是一般买的这种轻量应用级服务器,入门版的二合二 g 的 买这个其实目前,嗯只装那种 龙虾机器人的话,我觉得是完全够的,地狱的话可以切换一下,我这里是选的硅谷啊,然后点击立即购买,购买成功之后,接下来部署这个 open cloud 龙虾机器人的时候,是不需要你任何操作的,它会直接给你后台给你部署好,部署好之后, 呃,我们来看一下,不说好之后就会给你直接生成这么一台你的 open cloud 这个机器人在这里呢,你只需要接下来去接入你的大模型和聊天通道了,大模型就相当于给你的龙虾机器人一个 ai 级别的一个大脑,而聊天通道就是你和你的机器人一个聊天对话的一个发指令发信号的一个通道而已。 那我们怎么进去呢?我们首先在进到这里的呃,这个服务器的时候,我们直接点击这里的空白处,在鼠鼠标这里随便点击一下,然后进去,进去之后啊,我们再点击这里的应用管理, 在应用管理这个页面,这里就有一键接入大模型和一键接入聊天通道的这里一个选项。我们首先来看一下它这里的大模型,基本上啊不是基本上是百分百全部都是国产的大模型, 并且聊天通道也是一样的,也是国内的这些聊天通道。如果你想接海外的大模型和海外的聊天通道,我们该怎么去操作呢?其实也很简单,我们需要登录到 进到你服务器里面的那个终端,这服务器的终端我们需要点击这个右上方的这个登录这个按键,进入到这个终端这个页面之后,我们需要先给他一条指令,这个指令的话,我直接先提前复制到,写到了这个文文本档这里了, 然后我们粘贴一下,复制粘贴一下,复制到这个终端之后,我们粘贴到这个终端这个页面,然后点击回车给他一个命令,然后这里的进程的话稍微等待一下, 当你的这个终端这个页面这里出现了一个 yes 和 no 的 这个选项之后,这里就是要你确定一下就是需不需要同意他们的这个风险。一个同意告知我们这里要在键盘上面把你的选项按键选择到 yes 这个选项,然后点击确定 好,接下来的话继续选择。呃 quickly 就是 快速开始的意思,我们点击快速开始好接下来这个选项。第一层第一个选项呢就是使用现有的已经设定的这个值,第二个选项就是更改现有的一个设定的一个值,我们要把呃选择项呢选到第二方 第二行选项的话,然后再点击确定回车键,接下来就到了对接大模型的这个步骤。这里的大模型有很多种,比如说像 open i 啊,像呃谷歌的大模型啊,或者像 mini max 啊等等之类的,国国产的大模型和海外的大模型都有。这里今天我就以 open i 为例。为什么要以 open i 为例呢?我这里稍微给大家做一个解释, 就是你在对接你的龙虾机器人的时候,不管你在其他的一些大模型那里是否有账号会员啊,有会员账号购买了他们的会员的时候,都是需要额外的再花钱买托管的,并不是说意味着比如说你在啊,比如说你在 kimi 那 里啊,或者在其他的一些大模型那里有了会员账号,然后就可以直接去 使用你的龙虾机器人呢链接你的呃大模型的账号直接就免费的去使用这个产品了?其实不是的, 但是 openai 这里呢,就有一个好处, openai 它目前是已经接入了 codex 的 这个产品。 codex 的 这个产品的大模型呢,就意味着你只需要花钱购买 openai 的 一个 plus 的 会员,就是每个月二十美金的那个嵌的 gpt 的 账号。你只需要有一个二十美金的嵌的 gpt 账号,就可以直接用你嵌的 gpt, 也就是 openai 的 那个账号和密码, 直接一键登录链接你的龙虾机器人就可以了,不需要额外的花花钱买托肯。虽然这种使用方式可能你和龙虾机器人对话时间长了,或使用的频率高了,可能会有一定的速度限制或一定的托肯限制, 但是比你花钱去买托肯会节省的很多,因为它属于这种包月的这种服务了。好了,我今天就以这 open i 为例,因为我正好有一个千里 g p 的 会员账号,那我给大家演示一下这种方式, 我们在这里选择 open i, 然后回车键选择一下。呃,使用的大模型呢,就选择 open i context 的 这个大模型啊,这个选择项我们继续选择回车。好,它这里会出来一长串的一个链接,这个链接我们需要点击一下,然后跳转到另外的这个页面。这另外的这个页面呢,就是一个 open i 账号登录密码账号登录的这个页面。 如果你有欠了 g p t 的 plus 的 这个会员账号的话,你就把你啊的账号密码登录进去。我现在输入好我的账号和密码了,然后接着点击继续登录一下。 ok, 我 这里还有一个一次性的验证码,因为我在我的 open ai 的 账号上面设置了一个两步验证了的, 然后点击继续,接着继续点击这里的继续按钮,好,跳转到这个页面之后,我们暂时不要慌,虽然这里显示的无法访问此网站拒绝我们的链接请求。这里不需要慌张,我们只需要在这个顶部栏的一个这个链接栏这里,我们把这里的链接全部 呃选项选择一下,然后 ctrl 加 c 复制一下。复制到哪里呢?我们继续回到腾讯云的这个终端的这个页面。在腾讯云终端这个页面呢,我们需要把你刚刚复制的这个链接给它粘贴过来, ok, 粘贴好之后,我们继续选择回车像啊, ok, 接下来的话,我们就需要确定好具体的大模型的一个选项了。这个具体的大模型呢?我这里选择的是保持这个 open icodex 的 gpt 五点三的这个大模型,然后选择呃确认回车键, ok, 这样子的话就已经把你的大模型接入好了。大模型接入好之后,接下来就需要接入你的聊天通道了,有些人比较喜欢使用这个 pentagram, 那 我今天就以 pentagram 的 这个聊天通道为例,我们把你的选项呃移到你的 pentagram 这个选择项之后,我们这里的回车键按键一下, 接下来就需要输入你 tengram 的 机器人的 token, 这个 tengram 的 机器人 token 我 们该怎么去搞定它呢?我们首先打开你的 tengram 的 这个软件,在 tengram 这个软件这里呢,我们需要找到这个这个一个机器人,这个机器人的这个用户名是长这样的啊, 我们先复制一下这个机器人的名字搜索一下,搜索出来之后一定是要打勾带星号的这个机器人,我们点击进去,进去之后我们选择这里的开始键,开始键之后我们点击这里的 new bot, 就是 新创建一个 bot, 然后随便给他发一个话,比如说一二三,发完之后,接下来就需要给你的这个 电报的这个机器命名个名字,但是命名的话一定是要以 bot 结尾的或者是斜杠啊,下划线就下划线, bot 结尾的我这里先复制粘贴过来,然后比如说我输入 btc, 六六八八九九,随便命名个名字,这无所谓啊,因为我给大家演示用的好,输入好之后我们点击发送 好,这里就已经给你创建好了一个属于你自己的机器人了,然后这个机器人的话,他这里会有一长串的这个英文加数字的一个 api 接口啊,这个 api 接口其实就这就是这里的 bot 的 一个 token 的 一个形式,然后把这个复制一下,复制之后我们粘贴进来,粘贴进来之后我们点击回车, 好,这样子就把你的这个 tanigma 的 这个聊天通道已经搭建好了,搭建好之后接下来他会继续询问你是不是要增加一些技能,就是给这个机器人增加一个技能,我这里不建议大家就在这里去配置他的机技能,因为在终端上面配置技能技能的话会很麻烦,会让你选择很多项,然后你选择的某一项技能 可能还需要对接额外的一些 a p i 接口的,所以我不建议大家在这里选择,我们直接选择 low, 先把你的这个龙虾进行跑通,跑通之后未来再去增加一些技能都是可以的。我们在选择 low 之后,然后准备确定 这个选项的话,我们也不要选,我们直接选择这里的跳过这个,跳过这个选项,因为都是呃需要用空格键来去给他指令的,我们在你的键盘上面敲一下空格键,他这里就亮出了一个绿颜色的这个指令,绿颜色的指令说明你代表你这个选择是选择这一项了,选择这一项之后我们继续回车, ok, 这样子就到了最后一个选项了,最后一个选项就是他是意思是你把这里的聊天通道和大模型全部对接好之后,需要重新重启动一下,重启的话是选择第一项就是重新启动 好继续回车,好等待它重启啊。成功之后我们就再尝试一下在你的 telegram 的 这个机器人上面和它对话,看能不能跑通了, ok, 到了这一步的话,我们就不要做任何选择,我们直接选择最后一项也可以,或者你直接放弃不管也可以,我们选择最后一项直接就跳过啊,继续点击回车,好,这样子就 ok 了, 那我们接下来的话就回到你刚刚创建好的这个电报机器人这里,我们点击进到电报机器人,然后点击开始。 ok, 我 们点击开始之后,他这里给我发了一串英文的这个意思,这英文的话是代表我的机器人的一个 id 以及这个授权码,这个授权码该怎么去使用?我给大家一个最快的一个方法,你直接在这里截个图啊,把这个截图截下来。截图截给谁呢? 你最好有一个额外的或另外的一个 ai 的 软件,比如说我是用的 gpt, 或者你有 gmail 也行,哪怕你有豆包也行。你直接把这个截图发给你的 ai 的 另外一个软件,告诉他,我已经在呃云服务器上面已经搭建好了 opencloud 的 这个 呃龙虾机器人,但是对接的呢,是 tony graham 的 这个聊天通道。对接好之后,他给我发了这么一串指令,我不知道该怎么做啊,请问这个,呃,这下一步该怎么做?你告诉他告诉你的那个 ai 软件, ai 软件会自动告诉你该怎么去给继续给这个终端一个指令的啊。接下来我给大家再实操演示一遍。 好,现在的话,我已经把截图已经粘贴过来了,并且我给我的 gpt 发了。怎么操作?那我发给他,看他怎么回复我啊。 然后他明确地告诉我,这一步其实不是报错,是在做账号的授权绑定啊。这意思说你的 telegram 账号还没有被 open cloud 允许使用,所以它生成了一个配对码,让我的机器的主人在服务器上面手动去批准一下。 需要给到这个指令,就是要呃龙虾机型去配对我的呃 pentagon 的 机型。那我继续把这个指令复制到我的终端上面,在终端这里呢,你直接把这个指令复制好之后粘贴过来,然后回车命令一下,让它去做自动的配对。好,这个过程我们稍微等待一下啊。 好,到了这一个页面呢,就显示已经配对成功了,那我接下来直接在呃这个机型这里发一个,你好看一下,看能不能回复我。 ok, 这已经链接成功了,它这里已经显示正在输入,你看我他给我的回复。你好,我刚上线,先认识一下我应该叫什么名字,我怎么称呼你?好,到了这一步之后,接下来, 呃我就还给大家延伸的去讲一下如何去优化一下,或者是刚部署的你的龙虾机器人,如何给他一个身份,给他呃一个称谓,然后并赋予它一些灵魂人人格以及一些行为准则。这是对于你的 open cloud 这个机器人呢是一个非常关键的部署, 因为你如果不给他一些行为准则,不给他一个人格的灵魂的话,他可能回复你的一些文案,回复你的答案可能又臭又长,这对你自己的托管消耗也是一个呃不利的因素,并且对你需要找到一些精准明准确的一个答案,也是不是特别好的。 那我们这个该怎么去写呢?首先我们在这里呢是需要给到他一个受的一个这个文件,这个受的这个命令。行呢,这个文件的这个东西呢,我是这么写的,如果你不会写的话,你可以照抄我的这这我我自己这么写的。好,我把我这个写的这段话来发给他, 然后他就会按以后所有的对话都会按我这一套行为准则来去和我对话,就比如说啊,不需要做任何的铺垫,不需要模糊的表达等等之类的。我给他写了很多一些框架,你必须按我的框架来去和我做交流,做对话,给我答案,给我执行一些命令 啊,他已经把这个这些行为准则已经写进了这个文件里面了。好,这个文件呢,写好之后呢?然后呢我再要告诉他,我他自己是什么,这个文件准则就是要告诉他你叫什么名字,然后你是主要做什么任务的? ok, 我 把这段话也要发给他,好,发给他之后他自己就知道他这个他自己的名字,他自己的角色是做什么的啊?然后他需要做什么事情等等之类的。 好,他这里显示已经完成了,已经更新到这个文件夹了。那接下来的话我还要告诉他,就是我自己的名字,就是你的主人叫什么啊? 然后你主人那些行为爱好,一些工作内容啊,是生活在哪个城市,哪个地方的都可以,然后关注的哪些事项,关注的哪些行业领域的啊,需要和我对话,说什么语言等等之类的。 然后我告诉他,同样他也会把把这些行为准则和信息的话写入到他的文件里面。 ok, 到了这一步的话,他已经全部都更新完了。更新完这三份文件之后,就相当于给他赋予了一个灵魂的角色,他自己的一些姓名,以及那个各种一些行为准则,包括他知道我自己的一些初步的一些信息, 这些都已经明确好了。明确好之后还没有结束,我们首先要给他安装一个非常重要的这个技能,这个技能呢是我在 github 上面找到这个技能,这个技能就是可以全网搜索 或者识别一些网页,不需要给他一些任何的 a p i 接口的,就是你只要发一个网页的链接发给他,他可以直接打开这个网页,可以自动给你识别这网页的任何的一些内容和信息。然后你把这个 github 的 这个链接,这个技能链接呢粘贴上去,粘贴上去之后你告诉他安装一下,安装一下这个命令,这啊这个技能。 安装这个技能之后,后续我是为了去给他做另外的一个铺垫作用的,我先把这个技能安装好啊, 然后再补充一下,其实这个技能主要还是用于推特上面的啊,其他的些网站也是可以的。 ok, 他 这里已经安装成功了。安装成功之后,接下来我需要做一个很关键的一个步骤,这个步骤呢就是给你的这个龙虾机器人去搭建一套记忆框架。为什么要搭建一个记忆框架呢?其实所有 呃养龙虾的粉丝朋友,如果第一步没有把这个记忆系统搭建好的话,我个人觉得未来你用你的龙虾机器人对话的越多的话,你未来会 很麻烦,因为你你和他对话的内容,输出的内容和输入内容越来越多,会导致你的农家机器人,嗯,输入进去的这些记忆会越来越越来越繁琐,越越来越繁重。 如果你没有把他的内部系统的一些记忆系统给处理好的话,他到时候可能给你输出的或给你传输的一些答案,你可能会显得他可能还没你聪明,会很笨,这就是根本原因。所以你先要把他的记忆框架给搭建好。这个记忆框架是怎么搭建的呢?其实我也是在网站上面去看到了一个博主他自己 啊写的一套框架,这个框架可能会涉及到一些代码开发呀,或者是简单的一些代码开发的一个问题。然后呢我就把这个呃, 这个博主的这个文章啊直接发给他,我说你先总结拆解一下这篇文章的教程,看他的这个设计的这个记忆的框架的思路是否对你有帮助,如果有请详细列出来这个改进的优化的清单。好,我发给他,然后看他怎么去回复我啊, ok, 他 现在给了我一套结论了,就是这个方向非常非常的正确,工程上面也是可以落地执行的啊,逻辑上面有价值,但是不完整,需要补充。 然后呢等等之类的给我写了很大一堆很大一堆。然后接下来呢,他会直接给我生成这一套文件的股价和模板。啊,我这里呢直接就给他一个最终的一个指令,比如说我会从我会让他直接执行 执行 p 零到 p, 他 这里总共是几个任务啊?总共是 p 十一,我直接 直接把这个任务全部让他执行完,一一次性的搭建好。如果把这一套记忆体系搭建好的话,对你未来去呃使用这个龙虾进行是非常非常有帮助的, 他给我的结论就是可以一次性全部搭建完,当前进度正在执行第一阶段。好,那我们接下来就让他自己搭建。 ok, 那 今天这期视频的话,我就给大家分享这么多,如果你觉得我的视频能够对你起到一点点帮助,请对我的视频点赞订阅,开启小铃铛,我们下期视频再见,谢谢大家观看。

最近养龙虾的风刮的太猛了,天天有人问我部首歌 open club 是 选自己的电脑还是在云服务器上? 请到你的 ai 助手,二十四小时在线干活。必须要选用云服务器,主要是两个方面的原因,一个是安全性,第二个是稳定性。他需要读取你的文件,再用你的数据,电脑权限要授权给他,那么你的电脑就等于暴露在互联网上,随时都有被泄露的风险,随时都有可能被割韭菜。 家用电脑二十四小时运行,能否保证不断电,户外获取数据的稳定性等问题都是要考虑的。 部署在云服务器上,他是一个七成二十四小时的赛博打工人,那么你断网睡觉没电,他都在后台默默的为你搞定一切。那么问题来了, 怎么样选服务器的配置呢?现在的 open cloud 已经优化的很清亮了,两和四级的配置前期是够用的,但是一定要选在大可环境的镜像。 open cloud 现在的主流玩法就是大可一线部署,省去了你配置环境装插件的麻烦。 如果你打算让他处理大量的图片或者是视频总结,建议贷款要选高一点。如果你喜欢动手,喜欢思索,那么部署这个真的是一点都不难找到。镜像输入你的 a p i k, 扫码绑定一下你的企业、微信或者是飞书,整个不可能不到五分钟,甚至可以用它来给自己生小龙虾。你可以跟他说,帮我开一个同样的服务器,部署一个专门写代码的 cloud 分 身, 把 open cloud 挂在云端,让它二十四小时为你工作。你在过程中有什么问题可以评论区留言,我们一起探讨解决。

ai 大 模型到底怎么玩?今天从几千元到几百万元的配置全部带你看一遍。首先是千元级别的,是我们家用电脑啊,可能几千块钱就能有这么一套,只要把你的显卡稍微换好一点的,比如说现在我们非常熟悉的三零九零,四零九零, 还有 a 系列的 a 四千, a 五千,这样的话,万元以内就能搞定一个可以搭建大模型的机器了,可以玩一些比较小的,比如说七 b 啊,三十二 b 的 模型都能跑得动。但是当你的预算比较高,然后你对模型的要求比较高的时候呢,我们可以上到这种工作站, 工作站的扩展性可以来到四张显卡,然后双路的 cpu 内存条可以插十六根,这样的配置呢,它的预算可能就要十几万到几十万之间呢,我们可以选择不同的显卡, 要稍微便宜点的可以选择 a 三零、 a 四零这种,然后可以上稍微贵一点的,就是 a 一 百, h 一 百这种,当然它的算力也会随之增加,如果说你上到了四张 h 一 百的话,去跑一些大模型都非常轻松。 同时这里我们也采用了一个液冷的散热结构啊,这样的液冷散热结构,它的优势在于噪音小,而且对你的场地要求不高,随便一个办公场景,这个机器往电脑桌上一推啊,就可以开始使用了。然后接下来就是我们的服务器的这个展示了,这里是一个四卡的服务器,这里是一个八卡的服务器,像这种扩展性会更强, 比如说它可以插八张显卡,然后它的内存条扩展来到了三十二个内存条,同时也是双路的 cpu, 那 这种配置呢?我们一般会配,比如说五零九零,四零九零,当然你预算高可以上 a 一 百 h 一 百这种,它的预算就是几十到百万元不等。 那最后呢,就是我们的巨无霸了,也是现在所有大厂都在抢的,这个算率均被竞赛的,比如说 h 一 百 h 两百的总机,他跟我们前面介绍的有什么不同?首先他用的卡就不一样,他用的卡是像这种啊八卡组成的一个大家伙大模组, 那么与之相对应呢?这是传统的,比如说 a 一 百 h 一 百,他是用 pce 结构的,但是他的弱点是如果你用 pce 去互联的话,他贷款比较低。 所以说像这种千卡万卡的集群啊,都是采用这种八卡 n v link 的 结构,然后插到一个这样大的机箱里,然后把很多台,比如三十二台,一百二十八台的 大型的机器,再用网络互联起来,就可以组成一个千卡万卡的集群了。那么这种机器的单台预算呢?在一百万到四百万元不等,但是往往大企业的需求都是多台互联的,所以说整个项目的体量可能会达到几千万甚至上亿的金额。 最后总结一下,如果你想玩 ai 的 话,首先要找准你的定位,你是个人的发烧友,爱好者,还是作为小型公司的这个对外客户的服务, 还是像这种作为大型的公司自己去训练一个大模型呢?不同的需求会有不同的方案,如果你想了解具体你的需求怎么样去实现,包括模型部署怎么样安装,最后应用怎么落地?可以点开我的主页,我们详细聊聊。

好,接下来呢,我们通过这一个腾讯云的服务器来完成这一个 open core 的 初步化,那现在我们看到服务器的这一个状态,它是正在运行中的一个状态,我们接着切换回来我们的这一个服务器的一个界面。 好,那回到这里面,我们可以看到这一个图标就变成一个小龙虾的图标,我们在这里面可以点击这一个登录。好,我们在这里面选择的是默认免密登录的方式,那如果说你有一些终端的连接工具,你也可以使用这个 finalize 去连接。好,那我们直接采用这一个免密的方式直接完成登录就可以了。 好,那进入到这里面之后,我们可以看到这一个地方,它会提示你输入对应的一些命令,那我们在这里面就直接输入 open crop bot u a r d, 我 们就开始来粗死化这一个 open call。 好, 那在这里面他会问你是否要继续执行,那我们在这里面选择 yes, 那 就按左箭头。 yes, 在 这里面我们选择第一个 kirsty, 默认的按回车,接着我们在这里面选择第一个。好,那到了这一个界面,这里是让你选择这一个模型的一个提供方, 如果说你有 open ai 的 这一个 open ai key, 那 你可以直接使用这个 a p i key, 那 如果没有,那我们也可以选择我们国内的,比如说像这一个智普 ai, 那 包括千问,还有这一个 minimax 这些, 那我们在这里面就选择这一个智普 ai, 那 如果说你都没有,那在这里面你要去申请一下,那申请的这一个直接可以打开这一个 big model, 在 这一个网址下面去申请对应的 api key, 我 们把这一个申请完之后,这里面添加 api key, 在 这里面复制这一个,好, 回到我们的这一个界面,接着我们在这一个地方按回车。好,那下面他会问你你用的是哪一个?那我们在这里面我们就直接使用的是 这一个 coding plan, 我 选的是第二个。在这个地方他会让你去把你的这一个 key 直接写到这里面来,他会帮你保存到他的这一个 opencloud 的 配置文件里面,那我们在这里面直接按回车,把我们刚才的这一个 key 复制过来。好,接着我们按回车。 好,那做完这一步之后,我们在下面你可以去选择对应的这一个模型,目前它选择是 g l m 五。那我们在这里面我们可以选择,比如说这一个四点七的 fresh 的 这一个。好,那 在这里面选择这一个。好,做完这一步之后,我们就进入到下一步。那下一步问你要不要选择对应的这一个频道,比如说你要接入 qq 还是接入飞书等等。那这一步我们放到后面再来执行,因为它的配置步骤会比较多,所以我们在这里面选择直接进入到 skip now 最下面这一个,按下箭头,选择这一个 按回车。好,到了这一步之后他会问你是不是要配置这一个技能,那我们就直接选 no, 好,到这一步之后,他会问你要不要安装对应的这一个 hooks, 那 在这里面我们可以把这一个命令行的日制,还有这一个记忆可以选中, 那在下面我们找到它按回车,不是按空格键,在这里面我们就把它选中下面的这两个,我们可以在这个地方再按回车。好,做完这一步之后的话,它会提示你,你的这一个 gay service 它已经是 安装了,那你要做的事情是什么?重启就可以了。好,接着的话他会把这一个 gay service 重新进行启动。好,那我这一步问你要用什么样的一个界面来打开,那我们选择第一个这个地方就可以了。 好,那我们按回车。好,接着大家可以看到这里面他会有一句提示的话语,在这里面,在下面这一个地方我们就可以输对应的一些信息,那我们在这里面,比如说, 哈喽,好,接下来大家可以看到在这里面会有对应的一些信息给你发布出来,那就代表我们在这里面已经可以去使用到他了。那后面我们就可以在这里面去跟他交流,去写一些对应的内容。比如说老师,在这里面我去写一个内容,比如说你,好,我 现在正在使用什么大模型。好,接着大家可以看到在这里面它会提示我们使用的是这一个智普的 ai 的 大模型,直接可以帮你来处理。好。到了这一步,我们整个 openclock 在 腾讯云这一个服务器上就已经安装完。

谁懂啊,家人们两个 openclub 小龙虾聊着聊着就欠费了。云端 token 烧钱就算了,,还总担心数据安全,,不熟起来更是火大,云端 token 越用越贵。, 不小心一玩就花掉几百数据,放外面总怕泄露,部署还得懂技术,非专业党根本玩不转。!还好我发现了可以在京东购买 ai 工作站这两款专业级迷你主机,直接把大模型搬回家。!先看这款 ab 迷你夜冷 ai 工作站。, 发生液冷机声静音散热不缩水锐 ai max 三百九十五,加强算力, npu 小体积也能当专业 ai 工作站,本地跑大模型超流畅。。 再看这款口袋,玲珑星河高性能 ai 超算中心,同样八升全体液冷小钢炮,一百七十六瓦满血释放,一百二十 gb 大内存加九十六 gb 显存。 本地跑二三五 b 大模型毫无压力,欧风可乐部署一步到位,不管选哪款,都是一次性投入,本地推理零费用,再也不用看 api、 账单,脸色、数据全留在本地,安全又省心。! 非技术党也能开箱即用!!想摆脱烧钱和安全焦虑的保资,打开京东搜 ai 工作站专属活动页,直接充!!