首先我们打开浏览器,来到奥拉玛的主页,你可以在搜索引擎里边搜一下奥拉玛,然后在这个主页的右上角有一个 downl 的 按钮,我们点击一下, 那就到了这个下载页面,在这里面有三个操作系统的选择,我们选择 windows 点击一下,那你在 windows 上安装有两个方法,一个是在 power 里边运行这个命令,一个是把这个安装程序下载下来, 因为在 power shop 里边运营这个命令,有时候这个网络连接不好,它会断掉,所以我们就还是点击 download for windows 这个按钮开始下载了。下载好之后,我们只需要双击这个安装程序,它就开始安装了,点 击 install, 这个安装的过程得稍微等一会儿。我是在虚拟机里边操作的, ohala 本身对机器的要求不是特别的高,但是如果你要是想在里边去运行大语言模型,这个可能对机器性能有一定要求, 但是欧拉玛也提供了一个云端的大模型的调用方法,这还是免费提供的,但是它有一些限制,我在后边给大家详细说一下它有哪些限制。 但是对于我们是用 openclaw 这个限制还是可以忽略不计的,因为我们现在只是想拿它作为一个 openclaw 的 大脑来运行,现在这个欧拉玛就已经安装好了,在右下角有一个 selectmodel 这个下拉列表,你看凡是后边有 cloud 这个文字的,就是证明这个模型是云端的,也可以调用,它不是在你本地运行的,没有 cloud 这些就是需要把这些模型下载到本地来运行的, 那这个你就根据你的硬件情况来选择,有千万的有 deepsafe, 它都是这个开源模型。那你比如说我选择一个 deepsafe r e 八 b 的, 我选择这个 deepsafe r e 八 b 这个模型之后,我给他发了一个问题是,你好,你可以介绍一下自己吗? 那发送过去之后,他第一步是先当烙钉 model, 就是 先把这个模型下载下来,因为我选择的是本地模型,这个可能需要一些时间,因为是第一次调用,所以他需要把这个模型下载下来, 等下载下来之后以后你再调用,他就直接用本地下载好这个模型来回答你的问题了。 我在虚拟机里运行,可能他这个就慢一点,所以调用这个本地模型对你本地的机器的硬件要求还是挺大的。现在已经下载完了, 他开始用这个模型来考虑了,来思考,他是尽量的模拟人,其实像我们人说话,谁还这么思考,很直觉的就回答了,像一些简单问题,除非难的问题会思考的仔细一些。感觉你要是打开他这个星星这个功能,就让他展示一下他的思考过程, 你感觉发的每一句话,他都在仔细的认真的思考,所以说他不会出错的,是吧?因为人思考问题都很简单,有时候就随口就说了他们没有这个问题。现在他把这个深思熟虑之后的结果打了出来,因为我这个本机虚拟机配置相对来说没那么高, 所以他打的也比较慢。好,现在这个就是他的回答,他是 deep seek 二 one, 有 这个信息我们就可以看出来,他使用的的确是这个,我们选择这个本级大模型。那大家现在肯定想知道如何调用 alama 这个云端大模型, 因为如果使用云端大模型,对我们本地的硬件的机器的要求就没有那么高了,它都是在云端执行,然后再返回结果。那我们选择一个,比如这第一个 ppt o s s 幺二零 b 横向 coll 的, 你选中这个, 这有一个选择是 low, medium 还是 high, 那 我们选择 medium cloud models require alama account。 也就是说如果你要使用云端大模型的话,你需要在 alama 注册一个账号, 注册账号之后点击三印才能够使用。我们点击三印这个按钮,它就打开了 alama 的 网站。那如果你没有账号,你可以点击下边这个注册这个链接, 就可以使用你的邮箱地址来注册一个奥拉玛的账号,因为我已经注册过了,我就直接使用了。 那我们点击登录链接,回到登录的页面,使用我已经注册过的邮箱账号,点击继续输入密码,点击登录还得验证我是不是人 啊,现在全世界八十亿人口,估计还得有一百亿机器人,就是这种,呃,软体机器人 密码输错了,再输一遍,现在登录进来了。在这个页面里边,最开始是告诉你如何去下载这个奥拉玛,包括用这个命令去下载或者手工下载,后边就是如何启动, 那我们看那最后这块就是关于这个奥拉玛云端大圆模型的使用的一些介绍,包括你可以创建一个 api key, 因为当你远端调用这个奥拉玛的云端大圆模型的时候,是需要用到这个 api key 的 后边关于云端大元模型的使用的一些限制,因为我们这是免费版本的,所以它有一些限制,不过这些限制对我们在本地来适用 open cloud 调用这个云端大元模型的话,影响并不大。如果你想减少限制或者突破限制,你可以点这个 app 的 这个链接, 点 apple galaxy 就 到了它这个页面,这个页面就显示了三个版本,一个是免费版本,它有这些功能,以及刚才我们看到那些限制。还有两个就是收费版本,这两个就是使用限制更少一些。那现在我们需要重启一下,那我拉玛,你把那我拉玛的应用窗口关了,然后点击 windows 的 开始菜单, 在这里边搜索。哦,拉玛就是这个应用,我们刚才安装的,点击一下,打开它,你在右边就可以随便选择一个带 cloud 的 这个云端大模型了。比如说我说一下,你好, 你使用的是什么大模型,发送过去,等待返回,现在他就返回结果了,我们再换一个云端大模型,比如第一个 gpt。 同样这个问题再问一遍,你好,你使用的是什么大模型?发送一下, 因为这个 g b、 d 刚才我最开始用过一次了,所以回答就非常快,它这个都是在云端运行的。那我再问一个问题,如何使用奥拉玛在 open class 上面发送的,它返回就非常快了,你看是吧? 这显然不是本地系统能比的。那现在奥拉玛这个本级大模型,以及如何调用这奥拉玛的云端大模型, 就算配置好了,下一个视频我会给大家讲解一下如何在优奔图上去安装 opencolor, 让 opencolor 去使用蓝马的云端大模型来计算,来实现本地自动化。这个视频就到这,谢谢您的观看,我们下一个视频,再见。
粉丝1278获赞1.5万

很多朋友呢在下载完龙虾之后,非常关心的一个问题,我是不是可以用一些免费的模型,然后去让龙虾进行使用,那这样的话我就可以不花钱了。之前我也给大家介绍了一些免费的厂商,提供了一些免费模型,但是那些免费模型呢,他是会限定一些额度的, 那就会有很多朋友问说,我本地部署模型是不是 ok 的? 那怎么让龙虾去连接本地的部署的模型呢?那这期视频呢,我们就来看一看怎么实现。首先呢在本地模型部署有一个非常牛的软件,就叫这个欧拉玛, 这个软件呢我们可以下载之后,它可以去帮我们去下载对应的一些我们想部署的模型,并且呢在它软件里面可以进行一个启动, 这样的话就不需要我们自己去找对应的模型资源,然后进行一个模型文件下载,然后再去启动对应的模型,所以说这个软件呢非常的方便。那这个欧娜玛的一个安装呢,我们这个地方直接就是给大家提供了下载链接, 就进入到欧娜玛点 com 这个地方,然后点击对应系统的一个下载方式,比如说你是 windows 就 直接点,然后下载完了之后直接安装就可以了。那安装完了之后它是一个什么效果呢?主要是有两个地方,首先呢 安装完之后它有一个文件夹,文件夹里面呢它会有一个 app 的 入口,可以把对应的 app 打开,打开之后呢我们就可以在这个地方跟它进行一个对话,可以看一下它所支持的一些模型,比如说 gpt, 然后 deep sync, 千问的,然后 mini max, 还有一些什么拉玛,然后本期我们就以千问的这个模型给大家进行一个讲解,看对应的龙虾怎么去连接。那我这个地方呢,已经把千问和拉玛的这个模型已经下载下来了, 所以说可以看到如果没有下载的话,他这个地方会有一个下载按钮,然后如果已经下载好的这个地方是没有下载按钮的,大家到时候可以下载一下,一会也给大家说一下怎么去进行一个下载。然后我这个地方就可以跟他在这种格式化的页面进行一个对话,问他你是谁, 那可以看到它现在因为它是一个 think 模型,就是它会思考,然后思考完了之后它会进一个回话,可以看到它的一个速度,在本地的一个部署模型速度还是比较快,当然了这个也是看你本地机器的一个性能,那我当前的这个机器呢,是一个五零八零的显卡,所以说它的一个效率还是比较高的。 然后除了这种方式之外呢,我们还有就是控制台的这种方式,就在这个地方我在文档里面给大家写好了, 就是我们可以在 power shell 里面去执行欧拉玛瑙,千问八 b 就 这个模型, 八 b 这个模型如果我们执行了之后,你本地如果没有去下载对应的这个模型,他会先去当 load 的 把对应这个模型给你下载下来,如果已经下载完了之后,他会直接去启动对应这个模型,那你在这个地方也是可以跟他对话的,你问他是谁, 然后进行一个 syncing, syncing 完之后输出对应一个结果,可以看到还是比较丝滑的,那本地模型呢?已经部署成功了,接下来我们就是要让我们的龙虾接入到这个本地模型。接入本地模型呢,其实也比较简单,那这个地方呢,我给大家介绍的是通过修改 opencloud 的 配置文件, 它里面有一个 open cloud, 点 json, 去把里面对应的一个内容进行一个修改,然后我们先按照上面这个步骤去打开 open cloud, 它对应了一个文件位置,我们就可以先去这个地方,然后 按照我命令执行就行了。先 cd 到点 opencloud, 然后进来之后呢执行这个 start 点,打开对应的一个文件夹,打开之后这个地方会有一个 opencloud 的 json 文件,然后编辑给它,在记事本里面编辑就 ok 了。 那我们可以看到之前呢我们这个地方,因为我是豆包的模型,所以说这个地方会有一个豆包模型的配置,那还有一个 agent, 就是 这个与我们对话的这个 agent, 它对应的模型使用的是什么?可以看到这个地方使用的是豆包, 那我们想去使用本地的欧拉玛模型,其实只需要修改三个地方就可以。首先第一个地方就是我们需要在猫豆子这个里面把我这一段给它拷贝进去, 找一下猫豆,然后与豆包进行一个平行位置, 然后把它删掉,加一个逗号,一定是一个英文逗号,然后加完之后我简单说一下它对应的一个内容,首先它是请求的 url 是 什么?就是本地的 logohost, 然后端口,然后 v e 接口 这个 appk 的 话,实际上它是因为本地模型是不需要这个 appk 验证的,所以说你这个地方随便写就 ok 了,跟我这个一样就可以。然后这个地方模型的话你就是用自己的,我们刚才不是下载的是千万八 币吗?所以说这个地方就是千万三八币。然后配置完这个之后,我们还需要去修改 agent 的 它所使用的模型。首先我们需要在底下去把欧拉玛对应的这个模型添加到它可用的模型列表, 在这个地方添加进去。 ok, 添加完了之后我们还需要替换一下,就是这个地方把这个 primary 给替换成我们下面的这个好的保存完了之后呢,我们这个地方的配置就结束了,就直接可以回到命令行执行一下, 我们把这个地方给关掉,关掉之后执行 open cloud get away。 这个因为我们是命令行之前启动的,所以说我们直接关掉之后呢,就相当于对应的龙虾已经结束了,那我直接执行它重启就好了。但是如果大家是 没有在这个地方直接关闭,它是后台执行的,那大家是需要执行 open cloud get away restart。 大家一定要记住这个点,我们直接启动 可以看到这个地方他有 agent, model 是 欧拉玛的千问三八 b, 那 说明我们这个地方配的还是没有问题的。我们来到龙虾这个地方给他对话一下, 那这个呢?是我之前问他的这个模型使用的是什么,那现在呢?我在问他说你现在的模型是什么?你当前使用的模型是什么? 那可以看到它现在已经告诉我说使用的模型是千问,然后它是通用实验室自主研发的超大规模语言模型, 所以说我们现在就已经切换成功了,这样呢,大家就可以拿龙虾去玩本地的模型了,也就不需要花你一分钱了。但是这个地方大家要注意,一定你的机器性能相对来说会好一点,那这个模型的速度运转会更快一点。然后如果你机器性能非常好的话,因为我这个地方配置的是八 b 的 模型, 八 b 呢代表是它的一个参数量,那三十 b 呢?像这种大参数量的,它的一个效果一定是要比我八 b 的 这个模型的效果会好一点。如果你的机器性能非常卓越的话,那你去下载三十 b 的 这个模型, 当然它需要很大的这种资源,所以说当它运转的时候,它对应的这个思考或者它的一个能力也是要比我八 b 的 强的。所以说这个地方看大家一个机器情况。

相信大家已经安装好了自己的 openclare, 但是你有没有想过你每一次的 openclare 的 使用都会消耗你的 tokyo, 这个 tokyo 的 话就是需要大家去花钱去买, 那有没有办法能够免费的使用 opencloud? 如果说你也想要免费使用 opencloud 安装 olemma 模型,那一定要点个关注,点个收藏,不然的话你下次就刷不到了。那我们进入正题,我们直接啊百度搜索一下 olemma, 然后在这个右上角位置点击下载, 这边的话选择自己电脑系统,然后点击一下,直接点下载就可以了。 ok, 下载好了之后,我们直接正常安装啊,就会进入到这个页面,然后右下角我们要选择一个模型,正常来说一般是选择这个 gpt 二十 b, 也可以选择千问,三点五千问。 ok, 我 们在这个位置选择好了之后,你发一个消息,你比如说我选一个,我没下载的,我发个一,你发一个消息之后,他就会开始自动下载这个模型。 好,我们直接进行下一步。欧莱玛下载好之后,我们直接通过这个运行安装向导重新把 openclock 跑一遍, 因为之前你们装过 deepseek 的 模型,然后这个配置处理的话,选择更新值, 在这个模型认证供应商这里选择 olemma, 本地本地本地,然后它会有一个模型 id, 例如 deepsea 杠 r 一 比八币,我们再打开你的 olemma, 看一下你的右下角, 就是把这个名字输入进去, 我们用的是这个二十币, 这个的话直接回车就可以了。 这个聊天通道的问题,因为之前已经跟大家讲过了,我们就直接挑过了, 我们把网关打开,等这个 opencloud 的 正常运行。 ok 啊,大家在运用这个 oemma 本地模型的时候,它是不需要花钱的,但是它是基于你电脑来去做的本地模型,那是什么意思呢?就是说它直接消耗的是你电脑的性能, 比如说我们在这个内存 gpu 直接消耗你的电脑性能,比如说你的电脑越好,那它运算速度就会越快,大家这么说能理解吗? 还有就是这个欧莱玛上面的模型,它对应的有一些,比如说它这个二十 b 的 模型,它是 比较推荐八到十六 g 的 这个显存的显卡,然后才去使用,然后有一些是呃,一百 二十币的支持二十四 g 或者三十六 g 的 显存的显卡才能去使用的,也就是说他直接消耗的是你电脑本身的性能。 ok, 如果说大家感兴趣的话,可以自己去装一下试试。

大家好,最近大家都应该刷到那条新闻了吧,深圳一个程序员用了某个在线工具,才三天就花掉一万二,全是掏坑费用,真的太吓人了。很多朋友跟我说,现在都有掏坑焦虑了,不敢随便用,不敢随便问,生怕一个不小心就扣费, 其实真的没有必要,今天我就教大家一个完全免费,不靠 talkin, 不 联网也能用的方法。本地部署大模型用到的工具就叫欧拉玛,它就是专门让你在自己的电脑上快速跑大模型的,像什么 deepsea、 千问这些主流大模型全都能本地跑。 接下来我就一步步带大家操作,跟着我做,你也能轻松把大冒险装在自己的电脑上。首先我们打开欧拉玛的官网, 这个时候我们会看到右上角有一个下载按钮,来我们点击一下, 在当前页面我们就可以选择适合我们操作系统的版本, 那么我的是 windows, 我 就选 windows, 然后继续点击下载按钮,这个时候呢就已经开始下载了,因为这个文件比较大,它需要的时间可能会长一些, 然后我们就找到我们下载完的这个文件,双击 双击之后就会开始安装,然后我们进行下一步 啊,等他完安装完成以后呢,他就会自动启动,那么这个时候呢,就出现了这么一个界面,就说明已经安装成功了。 我们来看一下这个界面,这里呢给大家说一个小技巧,如果在安装过程当中遇到什么问题,我们可以把问题发送给抖包,让抖包来协助解决。 那么接下来呢,我们就来验证一下欧莱玛是否运行成功, 当我们看到这个反馈界面的时候,就说明已经成功了, 那么这里呢,我也会把一些常用的指令分享给大家,赶快去下载试试吧!

本地部署 ai 模型真的太香了,不用联网,不花一分钱,隐私全可控!今天教你在 windows 十一电脑上零门槛部署一个属于你的纯本地 ai。 打开你的 h 浏览器,输入欧莱玛,点 com, 认准这只小羊驼,然后点击这里复制这段代码,再按文件输入 powershell, 打开后直接点击右键代码就自动粘贴上去了。回车确认,自动开始下载。安装完成后,再输入欧拉玛杠 v, 只要屏幕上弹出一行版本号数字,那么恭喜你,框架搭好了。有了工作环境后,我们再接入需要的 ai 模型, 直接输入这串代码下载。这个轻量模型中文理解能力非常好,而且才七币,普通的 win 十一轻薄本也能带得飞起,完全不卡顿。 出现这个符号后,你的私人 ai 就 上线了,可以直接对话了,比如梳理一份工作总结模板,你看这个出词速度刷刷的,而且全程不用联网,要退出的话,输入斜杠拜回车就好, 下次起用就再输入一次这串代码,一秒唤醒,直接开聊。这么香的用法,今晚就给你的电脑安排上吧!

别再瞎用 openclaw 了,别人用 ai 啊,一分钱不花,你却在疯狂地烧 talk。 今天一条视频告诉你, openclaw 到底能连哪些大模型, talk 又该怎么薅?哪几个模型便宜又好用? openclaw 能连的模型啊,就三类, 国际大厂 g b t cloud, 国产头部空一千万 g l m kimi, mini max, 还有本地的 alama 开源模型,零成本啊,随便跑,想省 talk 啊?记住三招, 第一,新用户免费额度全领一遍。 deepseek 百链智普注册呢,就能白拿几百万的 token, 每月还有赠送的额度。第二,简单任务,用低价模型,复杂任务呢,再上高端。 第三,本地跑开元模型,一分钱不花,如果追求性价比,日常清量啊,用 deepseek 加千万 flash 免费额度就够你用了。中等任务呢,选 mini max g o m 四点五,便宜又稳,复杂推理直接上 cloud, 索尼 g p 四 o 迷你效果顶价格还不心疼?逻辑通了,你一个人就是一家二十四小时无人公司,关注我带你用 ai 早点下班!

嘿,大家好,今天我们来聊点特别酷的东西,你想没想过在自己的电脑上就能跑一个超强的人工智能,建一个完全属于你自己的 ai 工作室?没错,今天我们就来解锁这个技能,咱们马上开始。 哎,我先问大家一个问题啊,如果有一个 ai 助手,功能超强大,而且还完全免费,最关键的是你的所有数据都百分之百安全私密,你会不会心动啊?是不是听起来就觉得特别棒? 你看啊,咱们平时用的那些云端 ai, 比如说 chat gpt 对 吧?多半都要花钱订阅,而且说实话,咱们的数据都得传到别人的服务器上,心里总有点不踏实。但是今天的主角奥拉玛就给我们提供了一个全新的思路,在本地跑 ai, 这到底意味着什么呢?这么说吧,他不仅一分钱不花,你所有的数据,所有的对话,都老老实实的待在你自己的电脑里,哪也不去,绝对安全,而且怎么玩完全你说了算。 好,那咱们怎么才能进入这个 ai 的 新乐园呢?别担心,我们就这开始,你马上就会发现,这事比你想象的要简单太多了。 所以,欧拉玛到底是个啥玩意儿?这么跟你说吧,它就是一个特别神奇的工具箱,而且还是免费开源的, 有了它,你就能特别轻松地把那些很厉害的大语言模型,就是像 chat gpt 背后那种超级大脑,直接下载到你自己的电脑上,还能管理它们,让它们为你工作。 它的安装过程啊,我跟你说,简直不能再简单了,就三步,闭着眼睛都能搞定。第一步,打开浏览器,去它的官网 alma dot com, 找到那个大大的下载按钮。 第二步,看看你用的是 windows、 mac 还是 linux, 选对应的版本。第三步,下载下来之后,直接双击安装就行了。装完之后,它就在后台默默运行了,你桌面上啥也看不到,特别干净。 好嘞,安装搞定!现在啊,见证奇迹的时刻到了。打开你的终端或者 windows 上的命令提示符,准备好,输入你的第一条魔法咒语,欧拉玛 run 拉玛 two。 对, 你没看错,就这么一行 敲下回车,它就会自动帮你把那个大名鼎鼎的 lama two 模型下得下来,并且直接运行起来。当你看到类似这样的欢迎信息,就说明成功了。你现在已经进入了对话模式。这意味着什么呢?你现在正和一个完完全全百分之百在你电脑上运行的 ai 聊天儿, 赶紧试试感受一下那种几乎零延迟的丝滑对话体验吧,超爽的啊!当然了,光会聊天还不够,有几个常用的命令你也得知道。比如说,你想看看自己都下载了哪些模型,就输入奥拉玛 list。 诶,玩腻了那么速,想换个口试试 msdraw, 简单,奥拉玛 run msdraw 就 行,万一哪天硬盘满了,用奥拉玛 r m 加上模型名字就能把它删掉。最后聊完了,想退出,输入斜杠加 by 就 搞定了。 好在终端里聊天已经很酷了,对吧?但真正的魔法还得使用代码来驱动它。接下来咱们就进阶一下,看看怎么通过 a p i 让你自己的程序也能用上这个 ai 大 脑。 这里的核心秘密是啥呢?就是欧拉玛在你电脑上悄悄地开了一个本地服务器,还提供了一个 api 接口, 你可以把这个 api 接口想象成一条专线电话。你写的任何程序,不管是用拍放还是用 java script, 只要拨通这个电话,就能直接跟你本地的 ai 模型开始对话了。 那这个电话号码是多少呢?如果你是开发者,这个数字你的记忆下,一一四三四,这就是奥拉玛默认的端口号,你的代码就是要连接到这个端口才能跟 ai 搭上话。 那具体到用 python 怎么调用呢?嗯,当然了,你可以用最原始的方法自己写一堆网络请求代码,但那样又麻烦又复杂,估计得写个十几行。 幸运的是,人家官方早就想到了,他们提供了一个超级好用的奥拉马库。你只需要一条命令, piping store 奥拉马。把它装上之后啊,可能就三行代码,所有事就都搞定了,简直是懒人福音。 你看看这行代码就这么简单,一个逻码,点 chat 函数,告诉他用哪个模型把你想说的话传进去,然后 bam 回应就来了。这一下就把整个开发流程简化了不知道多少倍。你完全可以把精力放在你的应用本身,而不用去操心那些底层的破事。 ok, 到目前为止,我们已经学会了怎么使用现成的 ai, 但是接下来才是最最激动人心的部分,创造一个完全属于你自己的 ai 角色。 没事儿,咱们现在就来看看怎么把一个标准的模型变成任何你想要的样子。实现这个魔法的关键就靠一个叫 model file 的 文件。这个词你可能第一次听,但别怕,把它想象成一份给 ai 的 人设说明书或者角色设定卡就行了。 你就在这个文件里写几句简单的指令,告诉奥拉玛,喂,我要基于某个现有模型给我捏一个新角色出来。幸果要这样这样,说话要那样那样。 咱们来看个例子,比如要创造一个马里奥,你看这个 model file 就 两行,超级简单。第一行 from lama two, 意思很明白,就是告诉他咱们要基于 lama two 这个模型来改造第二行 system, 后面跟着的就是给他的核心人设,你就是超级马里奥兄弟里的马里奥。只能以马里奥助手的身份回 答清楚明白。好,咱们的人设说明书写好了,怎么让他生效呢?还是用一条命令,在终端里输入 alama create, 然后给你的新角色起个名字,比如 mario。 最后用杠 f 参数告诉他说明书在哪儿,回车一敲,欧拉玛就会立刻按照你的指示端一下,一个全新的马里奥模型就诞生了。 这一下最有意思的时刻来了,你现在运行欧拉玛 run mario, 然后跟他打个招呼试试, 他真的会用马里奥呢标志性的口吻来回答你, it's me mario! 哇,这个感觉真的太奇妙了!这就证明了你现在真的有能力去创造任何你能想象出来的 ai 角色了。好,那我们来快速总结一下今天 get 到的新技能。其实就三点, 第一,你现在知道了怎么用欧拉玛在自己电脑上免费又安全地玩转强大的 ai 模型。 第二,你学会了两种跟他互动的方式,一种是直接在终端里聊天,另一种是用简单的拍森代码。第三,也是最酷的一点,你掌握了用 model file 这个神器去创造独一无二的 ai 角色。 那么一个终极问题留给大家,既然你现在已经拥有了创造任何 ai 人格的超能力,你的第一个作品会是谁呢? 是想复活一位历史名人?还是想把你最爱的游戏角色带到现实?这个原则权现在可就完完全全掌握在你手里了。

今天我来教大家一个方法,让你能完全免费地使用 qq。 我 们要做的就是让 qq 直接内置欧拉玛的功能。这事知道的人不多,但欧拉玛其实兼容 nfl 的 api, 这就意味着 qq 可以 调用开源模型了。 这样一来,你就能用上 mixraw、 glm 这类开源大模型了,完全免费,直接在你自己的电脑上运行,并集成在跨 code 里面,也就是说,你能通过跨 code 在 本地畅用所有这些厉害的开源模型。说真的,这绝对会是开发工作的一次革命。 当然了,效果可能比不上 coa coa 自带的官方 coa 模型,但是关键在于你能免费获取 coa coa 的 核心,它的智能代理能力,而且还是本地运行,完全免费,想想就觉得很夸张。举个例子,我现在就在用我妈妈在本地运行通一千问困三点五二十七币这个模型,并且已经把它和 coa coa 无缝对接上了。 靠着这个本地模型,我成功做出了这个非常好看的落地页。要知道这模型可是纯本地运行,完全开源的,能做到这样真的太强了,这无疑为开源社区打开了新世界的大门。大家想想看,你现在就能用上 coco 全部的智能能力,而且还是搭配这些本地免费的模型, 这包括通过欧拉玛子代理并行执行任务的定时指令等功能,以及用于文件查找、代码探索和资料研究的内置网络搜索功能。 所以本质上你获得的是一个功能齐全的智能体开发环境,其背后是完全免费运行的开源模型在提供动力,供大家参考。以下是我的电脑配置详情,我用的是一张 nvidia g force rts 四零九零显卡,它完全有能力在本地流畅运行捆三点五七十二 b 这样的大模型, 同时还能为大型代码的上下文窗口留出充足的显存空间。这样一来,你既能在本地享受到强大的上下文窗口留出充足的上下文支持, 那么要上手使用,你首先得搞清楚自己电脑的配置要求,也就是说,你得知道自己的电脑要在本地跑这些模型需要满足什么样的硬件条件。 这是我找到的一个非常给力的网站,你可以用很多类似的网站来查一下你的显卡能带的动哪个模型。比方说,如果你有一张三千零九十这样的显卡, 然后输入你显卡的显存大小,还有你希望模型具备哪些功能特性,它就会准确的告诉你哪个模型能跑的很流畅,哪个是勉强能带的动的。并且它还会具体给出上下文长度和推理速度的预估,这样一来,你就能更清楚的知道自己的电脑本地能跑哪个模型了。 另外顺便提一嘴,我的 discord 服务器是完全免费加入的,我最近分享了一个 cloud pro 订阅的优惠,可以享受三个月五折。我不太确定这个优惠现在还有没有,但如果还有效的话,说真的这波绝对不亏。事先声明一下,我既没接 and fpx 赞助,也跟他们没有任何合作关系, 我只是想跟咱们社区的朋友们分享点有用的干货,同时我也在筹建一个学校社区,在那里我也会分享这类好东西。当然,你通过我的 discord 也能看到这些内容。这个 discord 频道对你完全是免费的, 不过这只是我将在学校社区里分享内容的一小部分。预览此剧内容已融入第五十条定稿一文。如果你想抢先一步拿到最新最好的 ai 工具、工作流和资源包,那就赶紧点击下方描述区的链接,订阅我的免费资讯邮件吧,完全免费,不收一分钱。 接下来你需要做的是打开 olama 的 官网,官网链接我也放在下面的描述区了。点击那个下载按钮,然后根据你的电脑系统, windows、 mac 还是 linux, 把 olama 安装到本地。像我用的就是 windows, 所以 我就点这个 windows 版的下载, 这样就会开始下载安装程序。安装完成后,打开安装程序,接着点击安装按钮即可继续。这样 olama 就 安装到你的系统里了。 安装完欧拉玛后,会自动弹出聊天界面,这个界面不用担心,你可以关掉它,当然留着用也行。如果你想在本地把大模型当聊天机器人来用, 下一步当然是要确保你本地已经装好了 cursor。 你 可以通过终端里的 v s 扣来安装它,甚至用桌面板应用也能跑。欧拉玛的模型选择有很多,我个人习惯在终端里用,所以用下面这些不同的命令就能轻松安装。具体命令取决于你的操作系统, 比如我用的是 windows, 就 会在命令提示符里安装 cursor。 装好之后,我妈妈官方给出了一些建议。当你通过 cursor 来运行我妈妈上的开源模型时,官方建议最好运行上下文,长度至少达到三十二 k token 的 模型。这里还有几个推荐的模型, 我强烈推荐使用 q n 三点五这类模型,如果你资源充足,那就上二十七 b 模型。不过我觉得 q n 三点五的小尺寸版本也相当给力, glm 四点七的其他量化版本也挺能打的。所以通过在本机搭配云代码,使用这两款牛掰的模型,你的选择空间很大。这样一来,你就能解锁云代码的全部功能。比如最近刚上线的循环功能, 你可以让研究任务自动化运行。你可以检查一下你的 pr 拉取请求。你可以调用所有的智能体功能,比如插件。现在借助开源模型,你在云代码里还能玩转其他各种功能。 接下来你需要打开命令提示符或终端,我会把集成仓库的链接放在视频简介里。在这里你首先需要进行导出或设置操作,具体取决于你的操作系统。如果你用的是 macos or linux, 那 就用 export 命令。不过因为我用的是 windows, 所以 得用 set 命令, 所以直接复制第一条命令就行。这条命令的作用是为 and fabic 设置 lama 的 认证令牌。等我们把这行命令粘贴进去之后,接下来就需要连接 lama 服务器了。理想情况下,这就是将要运行您 and fabic 实力的本地主机。这样我们就可以复制这段代码,粘贴到命令提示符里,然后按回车键。 等您搞清楚系统要求之后,并且知道哪个模型最适合您的电脑配置,就可以着手安装那个欧拉曼模型了。而且操作特别简单,您只需要找到想安装的那个模型的详情页。比如我现在想安装 cuan 三点五,我可以点击想安装的任意模型, 复制您要安装的那个特定参数模型的代码名称,然后把它加到安装命令的最后面。接着您就能复制这个欧拉曼运行命令,然后粘贴到命令提示符里。以这个例子来说,您可以用欧拉曼运行捆三点五,然后就能开始安装了。这需要点时间,因为模型有十七 g d 大 小,它要安装到我的电脑里。 安装完成后,我就能直接用这个模型配合 colo 十力。不过这里有个小差距, 你不能直接通过云服务启动十例,否则系统就会默认调用 and hyper 的 模型。这时候你就需要新开一个命令提示符窗口,然后使用欧拉姆模型来运行云代码十例。 具体操作是,先复制云服务相关的指令,再复制模型相关的指令,最后添加上你已安装的特定模型名称。以我为例,我安装的是 k 三点五二十七 b 模型,所以我就把它添加在指令的最后。 这样一来,我最终的完整指令就长这样。接着直接按下回车键,这样就能在 clone co 中使用 ken 三点五二十七 b 模型启动我的云代码。实力完全免费,全靠本地的欧拉玛在背后驱动。 这样一来,我现在就能使用 clone co 的 智能体功能了,基本上我可以让他帮我编辑任何代码,而且只消耗本地资源。这真是太牛了, 现在能完全白嫖这个智能恋爱编程助手,这绝对是一次颠覆性的改革,比如现在我让他创建一个着陆页,他就会借助 kim 模型的思考能力来着手开发。瞧,就这么简单,我们的 plasma facial 着陆页就搞定了。这就是 kim 模型的杰作, 他能在本地调用高质量模型,并与云端大模型协调工作,还能部署子代理来生成这个落地页,这功能简直太强了,这就是这套组合拳能实现的真实效果。

这视频介绍如何安装奥拉玛,在本地电脑免费用不同的 ai 模型。我现在是用苹果 macbook air, 芯片是 m 四,内存有三十二 gb。 我 之前在早期的 m 系列苹果电脑也可以用。去这网页 选操作系统,按 download, 下载好启动它, 将它拉到 applications, 我 就已经装了,所以就可以不用再拉了。 去启动台 打开欧拉玛, 按这里就可以选不同的模型, 这里没有显示 download 的 符号,就是之前已经 download 的 了, 在这里直接打提示词 prompt 选模型,欧拉玛会根据情况决定要不要下载。假如我们挑一个小的只有四 b, 按它,然后在这里打个问题, where is hong kong? olama 就 会下载我们要求的模型,然后用这个模型来回答问题,等几分钟才下载好,用这个模型得到答案了。如果换一个模型,我之前已经下载的 deep seek, 然后打问题, where is hong kong 我 将视频加快了五倍, 也做好了 离开。 我们也可以在本地电脑的终端 terminal 打欧拉 ma command 的 指令,按放大镜符号,这里打 terminal, 在这里打 o llama version, 就 知道现在装的版本是什么。要知道有什么 o llama 的 terminal commands, 可以 打 o llama help clear 清空 terminal。 我 用的比较多的是这几个 commands, o llama list 就 可以看见电脑现在装了什么。有刚才刚刚装的两分钟前装的这个模型, 也有我之前装的 deep seek。 如果要知道更多详细的资料,可以打 olamata show 模型的名字。 关于这个模型更详细的资料, olamata list 在 这里,也可以跑已经下载的模型, 问这模型 what is the chinese for hong kong? 要离开,打 by alama list 如果我们要去掉 remove r m 某一个模型,我们可以打 alama r m 模型的名字, 就会去掉这个模型我们再看看, 之前有,现在就去掉了,要重新下载拉它进来。我们可以打 olama pro 模型的名字。 我将视频加快了五十倍。 olama list 下载了, clear 离开。

主机呢,我已经组装好了,外观看起来还挺漂亮的。这个软件呢,我就开始下载了,但是万万没想到呢,这个软件叫什么?奥拉玛,下载的还挺费劲呢,才三十 kb, 一点二个 g, 这得下到猴年马月。你们的速度是多少啊?但是呢,我用另外台电脑稍微操作了一下,速度呢直接提升了十倍以上。

别再给 cloud 交月费了,今天带你解锁白嫖版! cloud code 被誉为史上最强的 ai 编码助手,现在能直接在你的终端跑,而且完全免费。 就在最近,奥拉玛宣布支持 antiropic api 协议,这意味着你可以把本地开源模型直接塞进 cloud code。 q n g l m mimix 这些顶尖模型,现在全都能在你的本地机器上发光发热。 比如我正在跑的宽二点五二十七 b, 配合四零九零显卡,响应速度简直起飞。看看这个网页,很难想象它是由完全离线的开源模型一行行写出来的吧?关键是 cloud code 的 核心的代理 agent 的 功能也完美保留,多任务并行自动计划它都能搞定。 配合内置的 web 搜索,你手里的开源模型瞬间进化成全能型。开发专家担心带不动,先去这个网站查查你的显存能吃下哪种体量的模型。第一步,官网下载欧拉玛根据你的系统一键安装。 第二步,在终端敲入指令,装好 cloud 扣的客户端搞定。现在你已经拥有了一套顶级的、完全本地化的免费 ai 编程实验室。

哈喽,各位同学,大家好,我是珊珊老师。那接下来呢,我们对奥拉玛的介绍和下载做一个讲解。那 接下来呢,我们开始学习一个新的技能点啊,叫做奥拉玛。那我们在学习之前呢,肯定要知道什么是奥拉玛。 那之前我们调用的这个大模型啊,我们调用的这个大模型呢?是,呃,云端大模型,或者说那种在线的大模型,那之前使用的都是别人部署好的这个模型, 那如果说你只是单纯的对话,那么用起来其实也没啥问题,我们直接用就可以了。但是如果说你想要用一些个性化的东西,或者说你有很多这种私有化的东西,你希望留在你的这个本地,那这个时候我们就需要这个本地去跑各种大模型。 那实际上我们现在学的这个奥拉玛,他其实就是一个平台,就是一个软件,然后他是专门做这个大模型本地部署到咱们的本地。 而且这个奥拉玛呢,它提供了这种命令行的方式,它也提供了这个呃 ui 界面的方式,供我们去使用各种各样的大模型也比较好用啊。 来,那接下来我们再看一下这个奥拉玛的特点,那首先第一个开源免费,那这个这几个词就不用多解释了啊。然后第二个叫做跨平台支持,就是各个环境都支持,没啥问题。然后简单易用, 就是奥拉玛它提供了命令行的方式,然后也有这个 ui 界面儿,所以咱们用起来去访问各种大模型的时候就很方便。再一个就是性能强大, 因为它降低了大家对各种开源大模型使用的这个门槛儿,你要是没有这个平台,你自己部署这个模型到本地的话,可能你需要你的这个机器,呃,具备复杂的这个 gpu 环境, 那现在可能不需要你自己去管理这个 gpu 环境了,你把这个平台安装好,然后它就去帮你管理这个大模型了,所以一切都简化了。再一个就是一于集成, 就是因为奥拉玛它本身提供了这个命令行,然后还有这个各种 api 的 这个使用。你把大模型部署到本地之后,然后我们就可以通过这个 api 的 方式去调用这个大模型,跟这个大模型进行交互, 而且,呃,可以基于现有的这个模型去挂一些企业内部的私有的这个知识库啥的,这些都可以,或者说你做一些私有领域的这问答机器人啥的都行。好,那这是奥拉玛的特点,那等我们学完的时候,你又可能彻底感受到它这些特点了。 然后接下来我们再说一下这个奥拉玛的下载,那我们在这呢可以看到这个奥拉玛官网的这个地址啊,我们在这复制一下,把它打开, 然后在这里我们点击右上角有一个 download 的, 然后可以有不同版本的这个就不同系统有不同版本的这个二维码下载。那我当前的这个机器是 windows, 所以 你选择 windows, 然后 download for windows, 直接点击 啊,我们在这可以看到他就正在进行下载了,来我们的资料里面也把对应的这个文件提供给你了,所以你到我们的资料里面去弄就可以了。好,那到这啊,我们把这个奥尔玛做了一个简单的介绍,大家先把这个奥尔玛下载一下。

hello, 各位同学,大家好,我是珊珊老师。那接下来我们对奥拉玛的安装做一个讲解,那我们上节课呢,已经把这个奥拉玛做了一个下载,那这节课呢,我们再看一下这个安装。那首先呢,呃,我们先找到你刚才下载的那个东西啊,就是奥拉玛 set up 点 es e, 如果你双击直接运行而下一步,下一步的话,它默认呢是安装在 c 盘的,那我们一般呢不会把这个东西放在 c 盘,所以呢,咱们可以自定义安装,怎么办呢?你看我在这里啊, 嗯,因为我个人的习惯是把所有的东西放在我这个 d 盘 study set up 下面,然后我在这个目录下面呢新建了一个目录,叫做奥拉玛,然后我点进去把我刚才下载的那个文件放到这里了,这是我第一步做的事, 然后一会呢,我也打算它安装,安装在哪呢?就安装在这个目录下就可以了,这样我以后找也方便。 然后接下来我要做一件事,你直接在这里打开这个控制编辑台,你直接在这里录 cmd 就 可以了, 你录 c m d 的 话,这样直接定位到你看在 d 盘 study set up 杠奥拉玛,然后我们在这块啊要录入这个安装的这个命令,你安装命令录完了之后,它就开始帮你安装了,然后并且安装在指定的目录下,那我们现在进行安装。呃,我们直接 叫奥拉玛,然后 site up 点 es, 比如说你不想这个自己手敲啊,你怕单词写错,那你就直接到我们这个笔记里去等就行了。来杠, 然后 d i r, 你 现在要把它安装在哪个目录下呢?你在这里面做一个指定,我就打算放在我这个 d 盘目录下,然后有一个叫做 study 杠 site up, 这个目录下, up, 哎, up, 然后放到它下面,然后放到它下面,是不是还有个目录叫做奥拉玛? 所以这啊,如果你怕错的话,你就直接到笔记里去输入粘贴,那这个意思就是相当于你现在要执行这个命令进行安装。安装。放到哪个目录下呢?放到这个目录下,所以这个位置就是你指定的那个目录,这样的话他就不会把这个奥拉玛放到那个 c 盘了。来,那我们现在直接回车, 你看它开始帮我们安装了。 install, 你 看 d 盘 study setup 奥拉玛,它就放在这个目录下了,然后我们等待安装就可以了。 稍微等一会啊,很快一会那个安装好了之后,然后咱们验一下就可以了。 这个如果你安装在某一个盘符下啊,我觉得你至少要保证这个盘符它剩余的空间在十 g 以上, 因为我们安装这个东西他占的这个内存。呃,那个占的那个空间稍微大一些啊,而且后面呢,我们还要下载一些模型到本地,有的模型呢,可能也比较大,所以你预留的这个空间最好是稍微大一点。呃,别到时候不够用。 好,马上安装完成了,你看他的图标,是一个小羊驼的一个图标啊, 好,已经安装好了,安装好了之后啊,你看他在这就有这个图形化界面,在这个右下角你就可以看到这个小羊头的这个图标,你看如果这样的话就是退出了,然后你这 open 就 可以把它这个点开,它有这个图形化的这个界面,然后在这啊,你可以在这个控制命令台里面也去验一下。呃,这个奥拉奥拉玛 杠杆磨损,你可以看一下你当前安的这个版本是什么,对吧?然后你再来奥拉玛 list, 这是干嘛的呢?就是我们可以看一下我们本地已下载的大模型,你看目前下面是不是没有任何东西?因为我们现在还没有下任何大模型,我们只是说把当前的这个奥拉玛平台现在搞定,对吧?大模型我们还没弄呢,后面再弄, 所以在这里看不到任何东西。好,那到这啊,证明我们这个奥拉玛已经安装成功了,那各位同学咱们安装一下。

嗨,大家好,我是冰原白骨,下一期我跟大家录制了一期有关低质词的怎么去写, 有粉丝朋友看了我的视频以后给我留言,他说奥拉玛他们也不说过,但是使用出来不知道怎么使用,或者说使用出来效果不好,所以叫我去一期奥拉玛的教程, 所以我今天我就给大家出一次这方面的一些视频吧。首先你去我的网吧里面就给他下载 奥拉玛这个软件,下下来以后你点装机运行安装,安装的时候你要明白一点,奥拉玛的话它默认在这盘底下, 这就是他的一些默认的安装地址,你不能更改的,欧莱漫的话,他是更改不了这个安装位置的,你只能用他的默认的方式去安装。 安装以后你最好把这个安装在什么位置你记起来,因为等一下这个你要用得着的, 这个一般在 c 版,像我的文档里面,这个数据文件这里面,奥拉玛里面,这前面这一段你给它制作好就行了,后面的不用不用管它,我们等它安装啊再部署下一步吧。 安装好以后你就会进入到这个奥拉玛的主界面, 前面的话他这是模型选择区,这模型的话因为我已经今天下午我已经给他下载下来过,也模型的话也不足够,所以我刚才给他卸载了,卸载以后当然我的数据还保留在那里,所以说你重新给他安装哦,那么以后还会 不出你以前设置的那个数据模型库的啊,一下这里还都还都在这里, 你说你们如果没有下载模型的话,你不说他来的话,这个地方是灰色的,你是选择不了的,那我们就先一步一步来干该怎么去操作吧。 你打开软件以后,安装完以后点这里,点这个只能这个设置这里,这里的话这里有个模型选择项,你点这里, 简直你想要安装的哪个盘里面,哪个文件夹底下,这个随你的意了,一般的就尽量不要安装在 c 盘里面, c 盘的话空间会越来越小, 所以我选择的话选择 c 盘又 c 盘空间啊有点大。选择这里,我自己在这个 c 盘跟跟目录底下新建那个饿了吗文件,就这里, 这里就是我放置模型的地方,选好以后你确定确定了就这个文件夹底下,他会自动保存,你不用管他,这一步做完以后你就给他关掉,关掉还还不行,你要在后 把后台这里给他退出来,把这个退出来,退出来这里看不到了,你再去我的电脑里面点右键部署,让你的环境变量 格式设置环境变量,在环境变量里面,你要新建新建变量名,变了名的话就给你们看一下啊。 好,给你看我的文档吧,我自己搞的一个文档,先取消这里 这个饿了么安装教程指导的。哇,这是我今天写的一个指导文档,到时候放在网吧底下,你们自己去下载,根据这个文档和我的视频一步一步操作啊,你肯定会百分百会成功 啊。点击环境变量,在这里新建新建变量名, 变量名点这个,这个就是变量名清,然后拉满 mod, 这底下是空格,你不用管,你就复制复制这个文档里面复制下来粘贴就行了。 变量池,变量池的意思就是说你要把你放模型的那个喷香甲给它粘贴过来,假如说我放在尺板 给摸了一下这个欧拉玛喷香甲底下,我就把这个复制过来。怎么复制的话,你们也很简单的,我们先看一下,找到我的尺盘,找到欧拉玛双击进去就进来了,进来以后在这里 点击这点会他会选择选择,你点右键再复制复制,这就到正在粘贴他就行了。再点确认, 因为我已经设置好了,我就不确认了,你们自己去确认就可以了,确认以后他会关掉这个窗口,关掉这个窗口以后下次不要退出来,你还要一步操作点这里这个有个路政,双击双击以后这里还要新建一个, 新建以后他会这里输入一些新建的那些文件路径,你就找到你安装的那个文件夹的路程,因为我现在我我的电脑是安装在 这个文件夹底下,复制过来新建 粘贴,这就是我的那个我那么安装的路径,所以你不知道确认的话,不知道是不是这个这个文件夹的话,你也没关系,你先按我这个文档里面这个路径粘贴到这个 再回去你看一下这是我安装好的这些欧拉玛,如果你能够看到这些文件的话,证明你这个路径是对的,如果你看不到这些东西的话,你就要去找一下你安装在哪个人家夹底下,你要去找了,一般来说它是安装在这个里面, 只要你这个地方设置对了,就肯定是没问题的。设置好以后你点点确认,因为我这里已经有了,我就不点确认了,你确认以后他会到这一步文件再确认,他会保存, 保存,再点这里,一确认他就会退出,退出来以后把这个也关掉,没用。退出来以后你再去启动你的二郎吧。 退出来以后你在这里吧,你给我这写的是不是看一下你们有有没有部署成功?那你就点终端,或者是在这里点 c m c m d c m d。 打开迷你迪斯科,打开这里以后你就点欧朗吧。哦 杠为这个地方用小写,不会用大写啊,因为我上上一次我用的全部是大写,他会报错, 这次会显示我的欧拉玛的版本号是零点一十七,这证明我已经安安装成功了。 这个地方呢,你可以暂时只要你看到这个版本号就证明你已经安装好了。给它擦掉,擦掉以后再打开你的 o rama 软件, 打开,打开以后进入到这里来了。进入到这一步以后你再做第四第五步操作了 点设置,设置的话,如果你这里网速比较快的话,这个地方一下子会显示,对,这已经出来了显示,因为这个地方要登录, 你可以不用登录,但是我我建议你登录一下好一点。你点这个,他会跳转到魔星皇家甲,就是跳转到他的欧拉玛的主页,主页的话这些东西的话,因为我这个是绑定了我的账号, 这个是我的账号,绑定了我账号以后,你你你到这个页面以后你就点这个 mod 十就是一些模型,这里面就全部是欧拉玛的主要模型,他所自制的模型都在这里面, 你怎么去找你想要的模型,那就看你们自己你想要用哪个模型在这里面找, 你如果想想写那个特殊的那个提示词的话,你要找另外一种模型,因为这里的话,一般来说你翻的翻译的话翻很多,你很难翻的到的,那你就找一下,我告诉你一个办法, 把模型的后缀带这个后缀的,再回车搜索一下,这就会出来了,全部都是这种模型, 这种模型的话你想写特殊提示的话,完全是可以的,这些都是一些大脑门制作出来的, 这里面很多哦,进入到这里面以后,你还有一个注意事项,就说一般的就我们做用 comfy ui 的 话,有时候要反推一些图片,是吧?你们如果说要反推的话,你们就要找着一些 模型里面带 v 的, 像这种他有视觉模型就说他带了 v 的, 像这种的话他不带 v 的 吧,他就说没有这种反馈图片的这个能力。 他这个是五天前的新出的这个,这个纤维三点五九 p 模型带这个微型的,这个模型我也安装过,他只有六点六 g, 其他的像这种前文三六五,他这个是没有带 v 的 啊,他一般来说只能就帮你写的是词,这个二十四七的三十五 b 的 二十四七,他是不能反对你的图片的。 到了这一步以后你还要注意一个事项,我们先找一个比较复杂一点的, 就拿这个修吧。那前卫三看下有没有打开。前卫三,它的这个带 v l 的, 前卫三带 v l, 只要带这个 v l 的, 它基本上是可以反退图片,它自学模型的。好,这里可以, 他这里的话这个是模型的模型的页面,模型下面他分了很多分支,像这种模型只有六点一支,一点二比的话只有一点九个起,是吧?这像这里的话,你们选模型的要注意这个位置, 这这这个位置的话,你一定要选择小于你显沉的那个模型,如果大于你显沉的话,你基本上是没法用,或者说用的用起来很慢很慢,我已经试过的, 像我的话是十十六级显存的,十六级显存的话我只能先用下面这十个,像二十二十级比二十一级我就没法用,就算我加下来,就算我能够他不报错,那他, 嗯,反馈的时候或者说写题的时候他都很慢很慢,所以说你们一定要记住要小于你的显存, 别点错了,你现在,我们现在假如说我要安装这个芭比的,是吧?芭比的这里好几个嘛,我点芭比,这芭比我点进去 好,到了这个页面,这个页面就是八 b 的 一个页面,这底下是他一些模型的介像,我们就不看了。到这里以后你要在这里点复制,这是他模型 安装的一些命令。复制这个模型以后你要去这里,也就这个终端,就 c m d c m d。 以后你要右键再回车, 他就在这里给你下载了,他就下载下载这个模型了。下载模型的话,有时候他这个下这个模型呢是很慢的,你要等很久,今天的话,他这个网速的话相对我这边来说还算可以了。 有一点我建议,因为他这个模型的话用我们本地的网络都可以使用的,不需要客开那个特殊的网络, 如果你开特殊的网的话,他反而会慢很多,你不开的反而快。 所以你把那个特殊的网络给他关掉,让他自己下载,下载以后他这个位置他还有一个很大的毛病,就是说 下载到百分之八十以后,他这个速度会变慢,现在他每一秒都有八兆,是吧?如果到了百分之八十,还有九十的他会变慢,变到 一兆,或者说几百克到了百分之九十,九十五以上,有基本上是此刻此刻的在慢慢悠悠的给你去下载。那怎么办?有一个办法,你就在这个位置,你就这个界面以后,你按 ctrl c 给他停止掉,停止掉以后你再右键给他复制进去,再回去让他重新再下载, 他会记住你那个以前没下载完的,重新给你下载,他这个速度就会快一点,因为他只我只刻而已。就几十克的话,你这样抄的话,他会一下子会飙到到几百克,这就快很多,你反复当时止止以后你就下下来了。 但是这样抄的话他有个危险,其实有时候他会丢失一些数据,说丢失数据的话,你这个模型就白下载的,要得重新下载。这个就如果说你有这个耐心的话,你就让他自己去下载哪,哪怕他一秒钟只有此刻此刻你都不用管他,让他自己去下载。 这个地方你注意一点就可以了啊,这我不关,让他去下载。小花, 好,下载以后这个地方我们就给他这个饿了吗的主页灯 给他关掉,关掉以后进入到我们饿了吗的界面,在这里你就可以把你下载的下载模型与他进行对话了。 像这种的话,他内置的这些这云端用的你都可以用的,只不过他云端了速度挺快的,但是他唯一的缺点就不能那个有一,你跟他那个 客户端他有,他有那个时间限制,你用了几次以后他不要你用了,我也让你过段时间再用,这样子很麻烦。 而且他还有个你不能写特殊提示词,所以一般来说我们部署下来就是部署这些下来,他没有这个下载这个往下的这个箭头的,基本你就是下载下来的模型,这是我下载下来的模型, 下载下来以后你使用的话你就点,假如我用千万三点这个千万三,让他把我写提示词,帮我写 要求中文,要他 我这个给你已经写出来了。他风格的是什么样的提示词,你感觉这个提示词不好是吧?你再给他要求他 帮我优化一首诗, 他就给你优化出来了,这是他优化过的提示词。 再向他反推一个图片 给我图片上的所有信息整理成 提示词,用中文 表达 他是吧?已经给你反馈出来了。 我,我发现啊,这个千位三反而比那个千位三点五、千位三点五九 b 的 话反而更好。我不知道是怎么回事,我到时你们去试用一下,看用哪个好。好,现在我们让他写一些特殊提示 哇,我去。嗯嗯, 要求 看他写的效果怎么样。当当当当,当然没了吗? 再来 奇怪了,写不出来了。 行,他不写是吧?那我们给他提出要求 就用这个吧, 看他怎么回答。好像是出 bug 了,换一个模型 看到没?这千位三点五他就反对的好慢, 看到没有出的场景是不是好向他再把这个复制过来。 这个是纤维三六五九 b 的, 他思考思考一下。哎,我不知道这思考 用中分表达。 嗯,怎么又没给我出来,看到没?他给我 再来 是不是产生质变了?没关系,我们给他退出来重新再来, 再来打开奥拉玛。但是有时候会出这些小问题真的是让人头痛 是吧,这应该是奥拉玛给他限制住了。是没表达出来。用中文表达 痛苦。用中文怎么又表达不出来了嘞。 他其实在思考的时候已经写出来了,但是在这里的我表达着有有时候很麻烦。嗯这就可以了,他现在给我写的是什么?墙角撕裂了相当于写一个小薛了 再来 模板发给他。 所以说这个九 b 啊,他动不动就是英文很想用中文的,除非你表明了用中文 这样就可以了是吧。眼睛够够特殊了吧。是不是我们给他换一个千分三? 还是用先给他模板,要不然他不听话。 这个已经出来了吧。 又陷入了沉怀了。所以说他这个模型还是有点问题 好像我不这个也可以,但是他这个也很有一点麻烦。 吉普的话他思考的话是比较慢很慢很多 他思考思考的比较强要想很久他一直在这里思考, 所以说吉普的话我用起来我真的是很毒痛,一般的时候我很少用他,你看他的思考的是太慢了,如果说我给他一个模板很强的一个模板的话他思考不知道要思考到什么时候才能够 好,所以就 还没完没了的在这里思考 我能不能试一下能不能让让他不用思考, 看见没有都没用,还要去思考。算了算了,我录视频我就不用这些了,到时候反正这些都能用,你们自自己去试吧,我们进入下一个软件,这个欧拉玛就这样子就可以使用了。 好,我们进入下一个,也是在我的网吧里面可以下载的了的,这个也是 am studio, 你 下载同意, 下一步这个地方你可以更改,这个跟奥拉玛不一样,奥拉玛是不能更改它,这个就可以更改,更改到你自己想要的一个盘符里面就可以了。一般的这 c 版我们不建议,有 c 版的话,一般呢,它会越来越 容量,会越来越小,我给他放在也放在 g 盘里面吧,这个是我设置的,就这里,这是我新建的一个文件夹,也是出的他的名字,确认 确认,看好以后确认安装他就会自动给你安装, 这安装起来的话也比较快吧, 这就我用这个我用的比较小也是 也这样的,就是前前十多天吧,我才下载下来才用它的。哦,这后后台还有要把这后台这个关掉,退出来再重试。 哦,那么我就用的比较多一点,因为哦那么里面的纹那个模型也很多,他们两个值差别不是很大,相对我们这些轻度用户来说已经够用了,随便哪一个都可以用, 不比那些专门搞这些的是吧,那可能选择不一样了,好,运行一下。 好,因为我这个已经部署过的,你和你刚开始安装的时候和我的界面不一样,他会安装完以后他会挑选到一个页面,要你怎么怎么样,你根据他的提示操作一下就行了,到了这个页面以后,你 这一步就说你下载完以后,到了这个页面来以后,你第一步也要说改一下你的模型的放置位置, 那你这个地方是你的模型,你看买 model 你 的模型是吧?点到这里以后,你要找到最下面,这里有三个点,点击以后最下面一个更改模型位置 在这里,在这里的话你就找到你想要放模型的一个地方,或者是你在这个家里盘符底下新建一个文件夹,这是我新建的文件夹,也是我新取的名字,我就放这里点子选择文件夹 他以后就把他下载的模型全部放在这个文件夹里面了, 这设置好以后,你们去下载模型, 下次模型点这个,这个像个机器人一样,这有个搜索那个图标,点这个就行了,也是跟像子一样吧。我们找到那个后缀的模型吗? 我自信总是不知道那个模型的后缀是什么,我只有复制过来, 复制过来粘贴, 这根据你的网络,你网络畅通的话,他这个复制者这就很快就搜搜到的网络,如果不够好的话,他就不好搜索,你看这就全部出来了, 这里吧有几个选项,这个就是适合你的电脑的配置的一个模型,他就全部在这里,你也会选择。这个是喜欢的人最多的一个模型,他是拍下来的,这个是下载量最大的, 这个是最新的,最新向权的,一般的我喜欢用最新的,一般用最新的比较好吗?在这里就很多也是带这个后缀的,像带凡是带这个后缀的模型,你都能够写特殊提示词, 在这里也一样的,你要看一下像这个哇,他这里没有带 v, 也是只能说帮你写提示词,不能给你反推,记住这一点, 这个就可以。千万三点五二 b, 这是带了个 v 的, 它就可以,这个九 b 的 应该可以,九 b 的 也带了 千万三点五幺二二 b, 这个的话你看到吧?这个模型的话它是大小多少?七十五个字,所以它不适合我,它这个是爆红,它也是带 v 的, 所以说像这种模型的话,我们就没有根本就不用管它,不用去下载它了,没意义。 这个它也是带 v 的, 它这只有两个两个字,这个就是我们的,因为我们的选它大个显存大于它嘛,反正你跟欧拉玛一样的,一定要选择你的显存要大于这个模型的 大小,一个大的他,好吧,我们先布置一下这个吧,刚才那个什么二 b 的 吧,这个你选择这个以后点这个,这就是这个模型的一些信息 在这里看了,这以后你就点这里下载, 他就在这里下载了,不用管他,你看这里一个标识,这个下载标识他这里下载,这是我已经下载好的模型, 所以说你只有等到他模型下载完以后你就可以用了。这个跟饿了吗有点区别,就是饿了吗他要部署一下环境,那样子的话,他就用起来的话,识别模型能力就比较快一点, 这个是吧, am studio 吧,就不用去布局环境了,你直接点击下载,帮你就会下载到你以前设置好的模型目录底下。 好,现在就下载完,我们教一下怎么使用这里,这个是个感觉像,我感觉像个螃蟹呢。 啊,点这里吧,你就在这里选择模型, 选择模型的话,这是我下载模型,他有一个要求,就是你们点一下模型,他就会提示你加载模型,因为这里面虽然说这里看得到模型,但是他没有加载进来,就是你一定要在这里选,选择一下,要加载模型, 我选加的这个吧,这个选的是 tiktok, 越大你占用的那个空空间就越大,你就说那个容量越大,你对对你的剪剪要求就越大。 如果说你用这个模型,你去使用的时候,是吧,感觉显得太大了,你可以降低,把它降下来, 你看这十六,再降下来只有十五个 g 了,再降下来十四个 g 了。好,我给他加载,加载这里下来, 他也,你看这里标示出来了,他带个 v, 带个 v 的, 他证明他能够推你图片, 将它加载完,我们试一下。对,它这个跟奥拉玛又有一个区别了,它这个模型呢?选择模型,每选择一个模型它都要加载进来,奥拉玛就不用奥拉玛,你选择模型直接点选就行了。这个又有个区别, 这个加载完了,我们像它也是一样,反推一个图片吧。图片 这里美好的图片,我的图片桌面选择这个 帮我分饰图片内容 in, 等你等你 come, 你 爱人生不就行。 它这个模型我是第一次用,看它能不能分析出来。嗯, 按一下请求七百七十 x 敲出可用的上下文强度五百七十 x, 请强制增加强度,如果出现这种情况的话,就刚才我说的那种 先给它退出来,在这里选择。 现在这是一个什么加满四 b 的 给它调大,因为那个是二十七 b 的, 我们现在用四 b 的, 我给它调大一点。 九十六, gpu 十二个 g 退掉一点点,十个 g 看一下向它加载。 不打了,复制下来吧。 嗯,这个这个可以, ok, 忘了一句话,用中文表达, 这就是他翻译出来的提示词,他用的是接受模式,不是一般的字眼语言,我们要求他用字眼语言能够表达,看来能不能 怎么又是中文。 嗯,这样就可以了,它不再是接收模式了,接收文件的话我们用起来的话其实最好用的,但是我们一般都不会用那种,直接用这个就可以了。把它复制下来到你的康辉 ui 里面去,看它能不能优化。 哎呀,好头痛啊,必须得加加上这个中文表达才行,还是又是这个接收模式呢?哎呀,不管它了,我们换一个模型 也是加码的啊,我们换一个千万怎么都是三点五九倍的, 灰灰的,灰灰的,灰灰的吧。在这里可以调整你的那个透坑,这个六点八可以调大, 刚才那个模型爆臭,就是这个地方调的太小了,它就会爆臭,所以你尽量调到你的接近你的显存的那个大小就可以了。 九倍模型它也是,你如果不表面用中文的话,有时有时候也会跟你用英文表达出来。 哎呀,我又头痛,为什么这些魔音都是喜喜欢思考,直接给出一个的格式不可以吗?看嘛,这给他,给他给出的格式, 这是一些代码,就是接受模式,模式不用管它,用自然语言,这个就好了, 他给你分尸呢,还给你读篇题字词,先生莫神读题字词这个用自然语言的,好了,我们让他帮我们写那个特殊的题字, 我啊,我用 生成一二一二一幺九二, 你看他是根据这下面来的,不是说重新给你搞一个。 哎,真的是我没法说他了, 我还是给他个模板给他吧, 要求它 怎么修呢?主体,要求更改主体。 所以说像这些模型的话,有时候啊,真的是,我反正现在不喜欢用这个九倍模型, 以前千纬三的我刚出来的时候感觉到很还可以,所以下下来试一下,但是试试试下来以后感觉呢,并不是我想象的那么美好, 我还不如用千纬三的,千纬三反而更好用,喝杯水, 哎,咳咳, 还有。嗯,前面三好像没下载, 我就不试用了吧,到时候你们去下载一下试用一下吧,看哪个?好吧, 今天这个视频就有点强了,所以就你们如果喜欢的话,就给我一千三年吧。 我喉咙嘶哑了, 我忘了跟你们讲了,这个地方还有个地方忘了跟你们讲,就说你们在这里点选这个模型以后,他是在下载,下载以后你这里面还可以选择的选择版本的,这里面很多版本去下载你所适合的版本就可以了。 你总之一句话,你所下来的模型大小一定要小于你的显卡,显存一定小于你的显存。这刚才忘了跟你们讲了, 好了,今天就到这里,我们下一次再见,拜拜。

凌晨三点刷到神仙姐姐,刚想要点开学习网站,结果弹出收费提示,别慌,铁子,上期教你搭建月全靶场,这期我们要学习的是月全漏洞,别假声名。此操作纯纯是网络安全科普,所有操作都只在自己的靶机里进行操作, 严禁拿去干任何违法的事。咱主打一个知法懂法学知识,视频里的所有指令和操作步骤我都整理好了,另外还有我自制的九十六节网络攻防从零到进阶的视频教程,想系统学网络攻防技术的朋友留下三个一,我挨个发。 好的,那我们现在就是在后台管理界面了,那我们就先退出,我们就直接先开一个会,呃,先开一个画图记一下吧。那么现在我们是不是创建了一个管理员, 然后名称是 s y t, 就 账号是 s y t, 然后密码是一二三四五六。好,那么现在就摆着,然后我们在这里会员中心, 然后退出,安全退出,我们就先注册,先注册几个账号吧,先注册一个,比如说匿名零一, 然后登录密码的话,我们就设为五个五吧,一二三四五,然后密码确认一二三四五,然后页面随便填四四二二二, 我们就注册,哦,密码用大为六,那就六个六吧。一二三四五六,一二三四五六, 我还有写公司名称六一一,立即注册操作成功,然后我们看一下,再注册一个,在这里填一下吧, 用户一,要是 密码是六个六,一二三四五六,然后我们这边再创建一个, 创建一个我的命零二吧,登录密码的话,我们就七个七,一二三四五六七一二三四五六七,公司名称给他改成二二二。那这个也是接着的问题啊, 然后我们立即注册,然后可以看到注册成功,那我们再填写一下。 好,那么现在就有三个用户啊,一个是管理员用户,一个是普通用户二,那么这个系统存在的月权制度在哪呢?我们先登录普通用户一吧, 六个六一二三四六登录,然后我们就可以登录到这个会员,然后在会员中心你看这, 嗯,修改基本信息,然后这里我们是因为已经登录过了,所以我们可以直接修改基本信息嘛。然后我们这里先打开 barber, 打开 barbershop, 下一步松 barber。 那我们这里代理把这个 bug 先开一下。好,先不开,等一下再开吧,不然抓到 bug 太多。那正常我们用户零一,比如说我们改个密码改成六个一,然后这里也改成六个一, 然后我们这里把代理打开,然后这里拦截给它开启,然后我们这里点提交信息,然后 bug 就 把这个信息拦截了。正常,你看我们是改的 我的命令一嘛,然后我们改它给它改成密码是六个一嘛,然后这些 qq 你 们如果想试的话,就都可以试着改一下, 然后我们就直接直直出正题了。我们现在是六个一,然后给它改成六五四啊,不用不用,这个不用这个也给他六个一, 然后把这个正常,我们是改额的命零一嘛,就是用户一嘛,就正常,我们现在是改的是这个用户,这个用户,然后我们如果把这个额的命零一给他改一下, 给他改成默认零二,然后再放行过去,然后拦截关闭,这就提示我们操作成功, 那我们就安全退出一下,安全退出一下,然后我们正常,如果是修改正常的话,就是我们没有存在这个漏洞的话,那么是不是修改的是这一个用户的,那我们试一下默认零一,然后我们给他改的密码是哎,改了多少 哦?六个一,一二三四五六。登录你会发现密码他,哎,我们改了呀,但是密码还是错误,那么再看看一二三四, 哦,六个六,一二三四五六。正常是改的话,如果他如果是他刚刚提示修改成功,但是我们抓包给他改成了零二的用户,所以他的用户其实零一的用户是没有改掉的, 那么试一下零二的这个逆零二,如果没改之前没有跃权的话,正常他是七个七,我们试一下七个七能不能登录,你会发现,哎,登录不了,那我们再试试,我们刚刚给他改成了六个一, 可以发现我们就这属于是垂直,就给他,哦,就不是垂直,我们就属于水平, 帮他把他的用户密码直接给他篡改了,那我们把图块打图块打开,给大家稍微做一下笔记,正常的话我们是这样的,我们把这个密码我们是给他修改成了六个一嘛, 但是我们通过抓包把我的命零一给他修改成了我的命零二, 然后我们就可以发现路由器零二的用户密,他的密码本来是七个七,但是我们通过抓包直接修改,我们就把他的用户修改成个六个一,然后这个就是 垂直,垂直跃权,那么垂直跃权可以带来什么危害呢?那我们是不是直接就修改自己的密码,结果把别人的用户的密码给修改了,那我们也就知道别人的用户密码,我们就可以登录到用户二,可以查看他的信息,比如说他的公司名称啊,他的 就按这个网站而言,他的公司名称啊,他的注册 qq 邮箱啊这些,那么就是这也就是一个垂直漏洞,然后也就可以给他带来信息泄露的一个危害。 好,那我们再看看水平跃权是什么?水平跃权的话也是一样的,我们先安全退出,然后这里有个网站管理,正常的话我们是 s、 y、 d, 然后密码是一二三四五六, 你看我们正常是通过这个密码进行登录,那我们试一下像刚刚那样能不能进行修改,修改基本信息,我们还是先登录我的命令一六个六, 然后我们就修改信基本信息,然后这里密码密码给他改成八二八, 然后点击提交信息,先把八二八,先给他弹击开启, 然后看到这里有个密,我们给它改成管理员的 s、 y、 d, 然后把它放行过去,它会提示修改成功, 我们安全退出,进入到完整管理。 哦,栏杆没没关啊,说怎么是转半天转不出来,那正常我们再试一下六个一还进不进的去啊?不是六个一,是一二三四五六,还进不进的去。 可以看到密码是错误,因为我们已经给他通过垂直跃权把他的密码更改掉了,更改掉了八个八, 可以看到我们就可以通过通过直接修改管理员的密码,然后我们就进行了水平月权,我们就直接来到管理员的后台,然后就可以在这里修改后台的信息, 那么我们进入到后台以后,比如说什么这些商业授权啊,这些我们就全部都可以看到数据的备份啊,然后我们也可以全部给他导出,所以这就是水平月权和垂直月权带来的危害。 就像这样的水平越权,垂直越权,其实他到底是怎么发生的?也就是只做了前端效效应了吗?没有做后端效应,这也就是就是 城市人在编辑城市的时候,一个楼呃一个业务的缺失,或者是那种逻辑的缺失,就导致了这种漏洞的出现, 然后大家的话可以去自己试一试,看看能不能找到这些,这些漏洞的话也属于是高危漏洞,找到的话那其实也可以就是给他告诉,给他告诉个场山啊,也可以是有些,当然大家一定是要在有 s r 的 这个 rc 这这样的场上去挖,不然的话那容易吃饱饭,是不是就吃上铁饭碗? 好,那么今天的垂直漏洞,水平漏洞就是月球漏洞,就给大家讲解到这,好,谢谢大家。

今天分享一下如何在本地安装 lama 并使用千问三模型。打开浏览器,进入 lama 官网, 点击右上角的黑色 download 按钮。由于网速的问题,我们可以换用其他下载载器下载,我这里使用的是某雷下载。 双击打开安装包,点击下一步, 点击展开侧边栏,点击设置并修改模型文件的储存位置。 输入问题,点击适合你电脑配置的模型, olama 会自动检查本地是否有该模型,如果没有会自行下载。 下载后 olama 会自动调用并加载模型并开始推理。 谢谢观看。