嗨,各位欧拉玛用户们,昨天才更新的欧拉玛快报预报了 v 零点二零点四的预发布版本,今天就已经推送了正式版改动只有两条,快报很短,记得点赞关注我们直接进入正题。如果你用的是搭载 m 五芯片的 mac, 这条更新就是为你准备的。 alama 这次专门针对 m 五的神经网络加速器做了优化,已经入手 m 五系列的 mac 用户记得在评论区告诉我你们的变化。如果你用的是 m 四或更早的芯片, 之前就已经能够调用神经网络加速了,这里就没有变化。另一条是针对 jam 四模型的优化,起用了一项叫做 flash tension 的 技术。 flash tension 你 可以理解为一种让模型读文字更省力的方法, 在超长上下文中速度更快,内存占用更少。如果你再用 jam 四,现在体验会好一些。这次更新就这两条,没有太大变化, 没有漏洞,修复非常干净。目前据观察,各系统版本欧拉玛已经开始全量推送,本地模型党记得去更新哦,我们下期再见!
粉丝124获赞617

mac 电脑的终端如何打开机使用啊?首先说一下这个终端啊,终端是大家可以看一下鼠标放这个地方,这个终端终端他和其他的程序一样,他也是个程序啊,他和咱们的这个例如咱们的日历啊,相册呀是一样的,他也是个程序,只不过他的名字叫做终端。 打开他的话也是很简单啊,就找到他,然后点击一下,这就终端,这就打开了。可能有的朋友他的终端不在这个地方,那你可以找到你的这个启动台,然后点击,如果找启动台里面你找不到,上面有个搜索, 你就点击搜索,然后输入终端,然后这个这个时候呢他就出来了, 你点击一下它也是打开了,也是打开了,然后这个终端有什么用呢?它实际上就是让你用命令啊,可以去控制你的电脑啊,咱平常咱们说一个新建一个文件夹,打开一个文件夹,或者说显示一些目录呀 等等等等,是用鼠标来操作,比方说点击右键啊等等啊,可以用鼠标去操作,但是呢,咱们的终端也可以做一些这些操作啊,例如说让它去显示一些东西,或者说进入哪个目录可以用啊, cd 或者说删除什么东西。简单的来说啊,这个终端啊,就是一个命令的一个工具,就是让你用命令去控制你的电脑,其实他并不神秘啊,他只是也是一个程序。今天的视频就给大家分享到这里啊,如果大家们有用的话,可以下方留言,喜欢我的视频也可以点点关注啊,最后谢谢大家观看。

哈喽,朋友们,我们今天来看一下在六十四 gb 内存的 m 四 max studio 上面跑这个最近特别火的 jam 四三一 b 的 大语言模型是什么样的体验。相信大家最近已经被这个模型刷屏了,这个模型能力有多强,排行有多强我就不多说了,下面来试测一下吧。我用的是最新的奥拉玛版本,模型是通过奥拉玛的官方渠道下载到本地的 这个页面,下面有这个模型不同量化版本的评分,大家自己去看吧。下一步我们来换上我们的 java 四三 e b 的 模型来测试一下速度吧。然后我们来问他一个经典的问题,让他用 python 实现快速排序算法,然后这里我等了大概十三秒 他才开始思考,由于时间关系,我就用两倍速快进了,他思考也用了二十六秒的时间才开始给我回复,思考的过程我也快进了,然后这就是他真正回复的时候生成 token 的 速度,大家可以感受一下,本人觉得这个速度是可以接受的,大家觉得怎么样可以在评论区里面讨论,后面奥拉玛应该还有挺大的优化空间的, 后面我就快进了,系统显示的回复 token 生成速度大概是二十个 token 每秒。后来我测试了一下一个我很常问的问题,让他给我编一个故事, 我猜欧拉玛对这个问题缓存了,因为我只等了两三秒他就开始思考了,但是如我所料,他思考和回复生成 token 的 速度还是没有变,我这里超快的快进一下。最后我们可以看到生成 token 的 速度还是大概二十个 token 每秒。

谷歌最新开源的大模型 demo four 据说很强,在综合能力上甚至超越了二十倍规模的开源模型。 今天教大家如何快速部署在本地,以及分享一下在 mac mini 上的实际体验感受,具体感受什么样?大家看视频吧。首先打开欧拉玛官网,下载它的应用程序, 打开应用程序,我们看一下他目前支持的一些免费的开源模型,还没有 demo, 所以 我们需要去他的官网再去下载下载到本地。那么这里呢,有很多不同的型号 可以看一下,它有很多不同参数的型号,有满配的,还有一些轻量版的。那因为我这个是 mac mini m 四十六 g 版本,所以我们就选择它系统默认推荐的这个九点六 g 的 好,只需要复制这个指令,然后打开终端运行,它就会自动去下载 这里下载了。那么我们先测试一下, 测试一下他的回复速度,因为是第一次响应,所以速度会有点慢,然后我们打开活动监视器,看一下他占据内存的情况, 这个模型本身就有实际系统走内存差不多也跑满了,这里他已经有回应了,我继续再测试一条, 第二次响应速度要比第一次快很多, 我叫 jam 四,我是一个由谷歌 deepmind 开发的。 ok, 现在我们打开欧了吗?然后去加载一下,这里要重启一下这个程序,然后再看模型选择,里面 最下面就已经有了已经安装好的,现在我们把这个模型对接到本地的小龙虾,只需要复制这个指令,打开终端,在终端里面运行,它就自动会加载好, 这里有不同的模型选择,都是他支持的一些免费的大模型,我们选择 demo 让他去运行。 ok, 这里已经加载好了,测试一下他的响应速度。 这里我是放了八倍速了,说实话,因为实在是太慢了,他平均回复一个问题的速度差不多要两分钟, 非常非常慢。我本来想在这个小龙虾里面测试一下他的执行任务的能力,但是这个速度的话确实没有办法, 但是它有个好处啊,如果你有低血压的话,你就可以用它。我是动物城朱迪警官,你好吗?我过得还好,不错,谢谢。这里我甚至尝试开启快速模式, 但是实际的感受没什么变化,就还是那么慢, 所以只能放弃在这里面做测试了。那么我们还是回到欧乐玛,在这个软件里面测试一下这个模型本来的能力。这里给他放两张图,让他识别一下图先, 一个是标格,一个是周杰伦,看一下他能不能准确的识别。 这里我也是开了倍速的啊,但是这里的速度要比小龙虾里面快很多, 我给他给出的答案是,图二是陈坤,图一是一名中国艺人, 看来这个版本的模型识图能力还是有点差。接下来测试一道经典的陷阱题啊,这个对大模型来讲是一道陷阱题,很多大模型都倒在了这道题上面, 那么他给的建议是走路去,最后测试一下他的复杂推理能力, 这道题是我让 gbt 五点四给我出的一道推理题。 abc 三人中恰好有一人是骗子,永远说假话,另外两人永远说真话。他们各自说了一句话, a 说 b 是 骗子, b 说 c 是 骗子, c 说 a 和 b 至少有一个是骗子, 请问谁是骗子?给出答案,并且给出完整的推理过程。好,他给出的推理过程和答案我跟 gpt 五点四给的标准答案对比了一下,是一样的, 所以它的复杂推理能力还是可以的。 ok, 总结一下实际体验感受啊,你如果是 mac mini m 四十六 g 版本,虽然能运行,但是它会把你的内存拉满,就是你的电脑会一直处于满负荷的状态,而且响应速度也很慢,所以使用感受是很差的。 当然,如果你的电脑配置足够高的话,你是可以去尝试部署在本地的,因为它的响应速度肯定要比我这个要快很多。而且你还可以尝试去部署它的满配版,比如三十 e b 那 个版本, 能力应该是要比这个强不少。

当一款只有三百一十亿参数的模型跃级,斩杀比自己大二十倍的对手时,你还不重新审视规模至上的铁律吗?谷歌深夜甩出 jam 四全系开源模型,四个尺寸 app 二点零协议,从手机到单卡工作站全覆盖。 最炸的是三幺 b dance 数学 am 二零二六达百分之八十九点二,比前代暴涨六十八个百分点,直接挤进开源榜单前三排,他前面的体量都是他的数倍。二十六 b m 更夸张,推理时只激活三十八亿,参数 l 却冲到一千四百四十一,速度与智能兼得。上一代 jam 三在这组数据面前,几乎被打成了计量单位,编程、多语言推理、智能体任务全线断层式碾压,甚至连上下文一百二十八 k 的 精准解锁三十一币都拿下百分之六十六点四,而前代只有百分之十三点五。 更狠的是, e 二 b 和 e 四 b 两款端侧模型已经在手机和树莓派上跑通,延迟接近零。谷歌这次还彻底放手 apache 二点零协议商用修改分发全自由。 parking fee ceo 说,这是巨大的里程碑,但对你而言,更关键的问题是,当一台 mac mini 就 能跑。当三十一 b 能打千亿模型, 你下一步的 ai 应用准备用它做什么?评论区聊聊你最想用 jam 四干的项目。

嘿,大家好,想没想过在自己的电脑上就能有一个超强的人工智能助手,而且重点是完全免费。今天啊,我就手把手带大家走一遍,看看怎么把谷歌最新最厉害的那个开源模型 gemma four 装到你自己的 mac 上。 咱们平时用那些云端的 ai, 像是 cloud 什么的,确实挺爽的,对吧?但问题也来了,首先就是太烧钱了,那个 api 的 token 消耗啊,简直就是个无底洞。 而且你想想,你所有的数据都得传到别人私服期上,隐私这块总有点不踏实,更别提万一断网了,那就直接歇菜了。 不过呢,好消息来了,谷歌这位赛博菩萨放出了全新的 j 马四开元模型,这什么意思呢?意思就是我们能直接把他吓到自己的电脑上跑。 你想想,这一下就解决了所有问题,完全免费,再也不用担心 token 即费了,数据全在自己电脑里,绝对安全,而且就算没网,他也照样能用。 我知道,一听到部署命令,可能有点头大,但你放心,整个过程真的特别简单,对新手超级友好,基本上就是敲几行命令的事,咱们分分钟就能搞定 好。那咱们先来准备一下工具,你看屏幕上,左边这个叫 c m u x, 右边呢,就是你 mac 电脑里自带的那个终端。说实话,对于咱们今天这个事,你根本不需要装新的东西,直接用系统自带的终端就行了,超级方便。 接下来这个是咱们今天的核心工具,叫欧拉玛,你可以把它想象成一个嗯,一个专门给本地 ai 模型准备的应用商店。有了它下架、运行管理这些大模型就变得特别简单,后面我们还会用到它来,一键安装像 open crawl 一 样的神器, 安装奥拉玛也是一条龙服务。你看,就这么两步,第一步要是你电脑上还没有烘不入,得先装一下。装好之后,第二步就更简单了,打开你的终端,把这行命令复制进去,一回车他自己就全搞定了。你现在可以暂停一下,先把这一步给做了。 等他跑完,你在终端里应该就能看到这个提示。看到这个可爱的小羊脱挑标和 successfully installed 这几个字。看到这个就说明,恭喜你,最关键的一步已经成功搞定了。 好工具,咱们装好了,那接下来就到了激动人心的选模型环节了,得给你的 mac 挑个最合适的接码。 哎,这个问题很重要啊,因为 jamart 它有好几个版本,不是随便选一个就行的,你得看看自己电脑的内存有多大,选对了跑起来才顺畅。 你看这张表,一目了然。我教你一个特别简单的判断方法啊,就是确保模型的内存需求最好不要超过你电脑总内存的一大半,这样能留出足够的系统空间。 比如说你的 mac 是 三十二 gb 内存,那选这个三十一 b 的 满血版,它大概需要十七到二十 gb 就 完全没问题,跑得动。如果你是十六 gb 内存,那可能就要考虑二十六 b 或者更小的版本了。 好,决定好要哪个版本之后,咱们就可以开始下载了。还是在终端里先敲第一行命令, open 杠 a alama, 这是为了把 alama 服务在后台跑起来,然后再输入第二行, alama run gemma four, 杠三十一 b。 你 看,我这里用的是最强的三十一 b 版本做示范,如果你选了别的,就把最后的三十一 b 换成你选的那个版本号,比如二十六 b 或者四 b。 很 简单吧, 敲下回车,你就能看到这个下载进度条开始动了。这个三十 e b 的 模型还挺大的,差不多十九个 g, 所以 具体要多久,就看你家网速给不给力了。可以去泡杯咖啡,耐心等它一会儿。 好,最激动人心的时刻到了,下载完了,咱马上就能跟它聊起来了。下载一结束啊,欧拉玛就会自动把模型加载好,当你看到屏幕上出现这个 send a message 的 提示,就说明成了 gemma four, 已经在线等你了。 哇,太棒了,我们成功了!你看,我就随便问了他一个问题,你是谁?他马上就回答了,最爽的是什么?是,这一切都是在我自己的电脑上拷的,完全离线,完全免费!那个凡人的 token 机飞表永远都是零。 当然了,可能有的朋友不太喜欢在这种黑乎乎的命令行里聊天,感觉不直观。别担心,咱们刚才装的欧拉玛,它其实也是一个正经的 app, 你 去你的程序屋里找,就能看到这个可爱的小羊驼图标, 点开它就是一个非常清爽的聊天界面,你可以在里面直接选键盘四模型,然后就像用普通聊天软件一样跟它对话了。 好了,基础的聊天我们已经搞定了,但接下来才是真正好玩的部分。咱们可以给这个本地 ai 来个大升级,用一个叫 openclo 的 东西,把它变成一个超强的智能体,也就是 agent。 你 可能觉得,哇,听起来好复杂,但实际上呢?借助于 alama 的 强大,这事也简单到离谱,你猜怎么着?还是一行命令就搞定 你?运行这行命令之后啊, alama 就 会自动帮你把 openclaw 下载配置好。然后最关键的一步来了,他会问你要用哪个模型来当这个智能题的大脑。那还用问吗?当然是选我们刚刚装好的 gemma four 啦! 这样一来, openclaw 就 拥有了 gemma four 的 智慧,可以帮我们干很多更复杂的事儿了。就 像原作者说的那句特别有意思的话,搞定这一步,咱们就算彻底实现龙虾自由了。呵呵,这个龙虾指的就是 opencloud 的 那个图标。这个说法真的太形象了,意思就是我们解锁了一个超级强大,而且还有完全免费的本地 ai 工具,想怎么用就怎么用。 所以你看到现在你的电脑里已经有了一个完全属于你自己的免费又强大的 ai 智能体, 他的潜力真的超乎想象,无论是帮你处理日常琐事,还是开发一些复杂的应用,他都能成为你的得力助手。那么问题来了,你会用它来创造点什么呢?特别期待看到大家在评论区分享你们的想法。

十六 g 盖板 macbook 就 能用本地大模型免费养虾,谷歌突破矿的技术实测再立大功!这次是谷歌自家的节目,四大模型, 两者配套威力更强,模型参数直接来到二百六十一,本地直接跑出二十五图腾每秒,然后推开电脑直接连接 opencloud, 实现免费本地养虾。 google 官方表示,超大的上下文窗口裁 是重点,此次上下为窗口,直接拉到了一百二十八 k, 电脑内存更大,又能开启更大的上下为窗口,这才是决定本地智能体能力的核心。

谷歌最新开源模型 gemma 四,用 app 七二点零协议开源商用模改都没问题, 今天教你三步,把它装进自己电脑里,从此跑模型不花一分钱。 gemma 四有四个版本, e two b 二十三亿,参数四 g b 内存就能跑,只缺图片和音频输入,手机都能带动。 e 四 b 四十五亿,参数六 g b 内存,适合日常聊天。 二十六 b 是 混合专家架构,总参数二百五十二亿,但每次只激活三十八亿。十八 g b 内存性价比最高。 三十一 b 满血版三百零七亿,参数全激活,跑分最猛数学推理八十九点二,编程能力八十百三、 一句话总结四 g b 跑一 two b 六 g b 跑一四 b 十八 g b 跑二十六 b 二十 g b 以上跑三十一 b 第一步,安装欧拉玛 mac 用户去官网下载或者用 homebrew 安装, windows 用户打开 powershell 一 行命令搞定。 欧拉玛是目前跑本地模型最简单的工具,模型下载推理引擎 api 服务全包了。第二步,拉取模型, 打开终端,输入欧拉玛瑙,加上你选的模型版本,比如 gemma 四、二十六 b, 欧拉玛会自动下载并启动对话。第三步,开始聊天,下载完成直接进入对话界面问一句,看到回答就成功了。 三步搞定几个加速技巧 mac 用户欧拉玛最新版会自动使用苹果 m l x 框架,推理速度翻倍。 n d d 用户欧拉玛零点一九,支持 nv f p 四格式用更少显存跑模型 r t x 四十合系以上自动生效。最后附上常用命令,欧拉玛 list 查看已下载模型 olama ps, 查看运行状态 olama stop 释放内存总结一下, gemma 四是目前最值得本地部署的开源模型之一, 阿帕奇二点零协议 olama 三部安装,根据内存选版本就行。赶紧试试吧,免费的 ai 不 用白不用。

昨天有很多小伙伴反馈,还是不知道怎么去操作,把这个 jimmy 来切入到 chrome 当中,那今天我就用更加简单的方式,一句话的口令就可以实现这个功能。好,首先第一步因为它是切入在 chrome 当中,所以其他的浏览器都不适用,只适用这个 chrome 浏览器。 同时呢,我现在演示的是在 mac 电脑上面,那 windows 有 其他的方式,所以我今天先把 mac 电脑上如何把 jimmy 来切入到框的浏览器当中的这个操作步骤再跟大家分享一下。首先第一步,我们先把这个节点设置成是走这边的代理,然后这个我们自己 自行在各自的电脑上面去进行操作就可以了。第二步就是把我们的这个框的浏览器的呃语言改为英语,那具体是在系统的偏好设置, 然后选择语言和地区,找到这里面的 app, 选择添加,找到这框的浏览器,把这个语言设置成英语,然后它要重启才生效,所以我们就立即重启一下。 好,重写完之后,我们可以看到这一面确实是已经变成了英语了。然后重写完之后,我们在这个地主地址栏上面输入这个 call 的 flash, 是要在这个空的浏览器里面输入,然后到这个页面之后,点击 ctrl f 找到这个 delete 的 相关的这些选项,把所有的这些内容都改成 enable, 这个咱们也是自行操作就可以了,我在这里面都已经设置完成了。好,设置完成之后,我们 点击 command 加 q 就 会把这个浏览器退出。退出之后,然后呢,我们找到这里面的终端,可以直接在搜索栏这里面去搜索 terminal, 点开终端之后,我们只需要去输入这一条指令 好点击回车,回车之后它就会自动打开,然后我们就可以看到这里面就有这个 as gemine 的 这样的一个按钮了,也就是我们的这个配置就已经成功了。好,那我们来试一下它具体是怎么来去帮助我们更高效地使用我们的这个 coin 的 浏览器。 我们可以点击打开,我们会发现它是出现在左边的,假设我们想要让它在右边来 show on the left, 然后这个就出现在右边了。好,那具体它是怎么来去进行提效的呢?我们再来看一下。比如说我随便用这个 chrome 的 浏览器打开其中的一篇笔记, 然后呢他的这个好处就是他就像是你的一个副驾驶一样,你在浏览的内容他全部都能看得到。比如说我们找到小红书里面随便一篇笔记, 然后我们打开,你会看到他这里面会实时的看到你的这个鼠标到底打开的是哪个页面。然后我们可以让他分析,比如说我让他帮我分析一下这条笔记内容为什么能收获,为什么能收获那么多的点赞,对我做详述的运营有什么样的启示,那他就会给我去做一个分析, 所以我觉得真的很厉害。无论是你的这个图文的笔记,还是视频内容的笔记,你会发现 我点开任何一篇新的笔记,它这里面都会实时的监测到我到底打开的是哪篇笔记,所以我在浏览对应的内容,它其实也会跟着我的这个眼睛跟鼠标知道我在浏览的内容是什么,所以这个就大大提高了我的一个效率, 这一次大家学会了吗?假设说大家不是 mac 电脑,是 windows 电脑,具体要怎么配置呢?那欢迎点击进入我的主页的粉丝群,有具体的步骤大家再去尝试一下。

三十二 g 内存的 mac 跑本地大模型,到底能不能实现偷啃自由?今天我用谷歌刚发布的干马四给大家实测一下。 干马四是谷歌的新上的开源大模型,主打高性能和本地部署,官方说他能在手机上跑,还能流畅运行,但是我始终想不出这个部署在手机上有什么应用场景,于是作为养虾人,每天都在焦虑偷啃的消耗,竟然手机上没有使用场景, 那么本地部署来养我的小龙虾是再合适不过。它的部署其实很简单, windows 用户直接用欧拉玛, mac 用户我推荐用 x m l x, 这是专门为 mac 深度优化的推理框架,相比欧拉玛性能更出色。 打开后进入 admin panel, 在 models 页面搜索 hugen face, 输入伽马四各种参数版就出来了。 我的设备是 m 三 max, 三十二 g 统一内存。今天的重点是两个问题,第一,三十二 g 内存能流畅的跑哪个参数?第二,本地部署的输出质量能不能满足日常要求?我已经把干马仕连入小龙虾工作流,先上硬菜 测试。三十一 b 是 比特量化版,现在是十四点十四分,我们记下时,但是结果比较尴尬,等了一分钟风扇狂转还没有出结果,所以结论是三十一 b 在 三十二 g 内存上是跑不动的, 如果电脑是六十四 g 以上应该就会很合适,那么我们就试一下二十六 b, 现在是十四点二十一分,不到一分钟结果就出来了,透口深深的速度稳定在每秒三十三个,这个速度对于我来说是完全够用, 快速少了一眼回答,质量还是不错的,于是继续追问,重复刚刚的问题,测试下上下文记忆能力。 又追问了模型对比和选择建议,主要考察三点,上下文连贯性并理解能力及问答准确性。 从结果来看,上下文记忆能力没问题,也没有胡编乱造。我们再换一个场景,让他帮我写公众号,推荐一个合适的模型。结论,测试下来,三十二 g 内存跑二十六 b, 响应速度是可以的, 输出效率挺高。当然,回答质量还需要深度测试,看能不能达到商用的标准,但是要彻底说满足,偷啃自由。现在下结论还是太早,因为在测试中发现一个致命的问题, 干马仕标称二百六十五 k 上下文,但我问了七个问题,就报上下文。一出这个问题很头疼,不解决的话基本没有保留历史对话记录,也只能不停的删内容或者开新对话,对于长期使用影响很大。 所以目前我在找解决方案,研究了几种可能的思路,看能不能突破限制,如果能搞定这个问题,本地部署才算真正可用。找到方案后第一时间通知给大家,今天的测试就到这,我是林浩,我们下期见!

mac 地址是设备身份证绑定网络排查故障,常用到手机端,进入 wlan 设置点以连 wifi 的 详情页下滑就能看到。 电脑端打开设置网络和 internet, 选以太网或 wifi, 双击以连网络找属性,里面有物理地址,平板和手机操作类似,在以连 wifi 详情底部查询路由器,看底部标签磨损了,就登后台在设备信息里找,快速搞定查询需求。

苹果电脑 command 加 delete 的 妙用?这是一个很古老的快捷方式,那删除访达文件是按下 command 加 delete, 其实在应用当中也可以使用这个快捷键,比如把一段文字临时贴到文本编辑里,过后想把它删除 纯文本可以 un command 加号,放大文字,系统会弹出一个提示存储窗口,如果不愿意用鼠标点的话,可以 un command 加 delete, 像这样就好了。同样适用于其他应用内,比如配置肆存个副本, 关闭这个副本会弹出提示,这样手就不用离开键盘了。感谢观看,下期见!

macbook 新机到手,千万别开机就用新手,跟着我做这几个设置,让你的 macbook 更好用,更耐用,不管你是 pro、 air 还是 new, 全部适用。 开机之后,先将系统更新到最新版的胎吼二十六点四。这里有个重要提示,如果你在激活或者后续的使用过程中输入密码时,使用中英文键切换大小写失灵,按住这个上镜头按键,也就是 shift 键,再去输入你的密码字母就是大写了。 找到右上角状态栏电池图标,右击电池图标,在弹出菜单中勾选显示百分比,这样剩余电量百分比就会直观的显示在状态栏。左击电池图标,打开电池设置,点击这个充电 优化。电池充电一定要打开,如果你跟我一样,大部分时间都是固定位置外接电源使用,那可以把充电上限设置为百分之八十,这样更有利于你的 macbook 电池健康。点击左上角苹果图标,选择系统设置 桌面与程序物,这里有个放大调节栏,拖动,选择自己喜欢的放大比例,这样当你的鼠标在豆刻栏移动选择时, app 图标会有一个非常流畅。动画效果 最小化窗口,动画选择神奇效果,这样当最小化窗口时,会有个窗口快速缩小收入。多克兰动效相比默认缩放效果,神奇效果的视觉反馈会更加灵动。 将窗口最小化至应用程序图标,这个也打开这个选项关闭情况下,窗口最小化之后会显示在多克兰最右边最近应用区域,这里 app 打开多克兰会显得非常杂乱。打开将窗口最小化至应用图标之后, 窗口最小化就直接收进逗客栏,对应的 app 图标不会在最近应用区域这里重复显示,这样逗客栏就会显得更加整洁。 打开系统设置往下滑,选择触控板,轻点来点按打开,这样你轻轻点击触控板就能操作,不用用力的物理按压下去。 出购买的其他快捷手势操作,不了解的可以在这里仔细看一下。还有一个百分之九十九的新用户不知道隐藏操作。三指托移,开启之后用三根手指就可以移动窗口或者文件, 在文档编辑时三个手指轻移也可以快速选择。在系统设置里选择辅助功能,往下滑,选择指正控制。打开触控板选项拖移样式,这里选择三指拖移,这样就可以三指拖移操作了。 打开系统设置,往下滑,选择鼠标辅助点按这里选择点右侧,这样你的外界蓝牙鼠标右击时才会有反应。新机第一次外界蓝牙鼠标时一定要做这个设置。所有的设置在聚焦搜索,直接搜索关键字 或者系统设置里直接搜索,就可以快速到达设置界面。下期分享 macbook 的 隐藏操作,感兴趣的朋友关注一下,我是阿花酱,我们下期见。

老师们,这个画面是我本地电脑的啊,这边是 pq 的 设置界面啊,这边刷着去干嘛呢?看一二 b 模型本地部署啊,最终我还是决定要本地部署的, 没有去买那个 mac mini, 就是 这个小家伙这两天刷到的短视频嘛,谷歌的这个模型说是藤参树下无敌啊,我就找了一个最小的模型啊,咱们整到本地,这个就相当于不用划头看了嘛, 处理一些简单一点的,基础一点的一些任务啊,可以后边挂到这个什么 open class 上,也可以就直接本地对话用在后边在研究。其实我什么都不懂啊,我就是纯小白一个,虽然这段时间没有去,没有去研究云书啊,这个 open class 也一直没弄, 因为我呢之前的那些个所有的会员啊,一些额度全都花完了,然后我就搁这一段时间,但是呢,我没有落下对这一块的学习,就是有了一段时间,但是呢,我没有落下对这一块的学习。就是用类似于像这种只是 tree 上一代的 ai 工具,比如说能够编程的啊,比如说像 cursor, 像啊, open code, 像 tree, 像那个那个 cloud code 这样的本身有编程能力的啊,让他们直接去帮忙干活 啊,给他们提需求啊,你比如说我这个就是最简单的我,我要把这个模型啊,我只提了这么一个要求, 然后开始的时候他给我给了我一个手动安装指南,为什么?因为当时是网络问题,然后没有办法这个下载安装,然后于是呢,我就开了一个,开了一个加速,开了一个 github, 加速完了之后就让他自己去下载安装部署去了, 然后要什么环境啊?要用什么其他的什么什么什么挂载啊?就是我就完全不管了,都是 tree。 tree 的 这个 solo 模式啊,自己去解决的。我也看了这,它这个这个开源模型有四个参数版本嘛?我也,我下的是那个最小的哎。

大家好,我是 boby, 真的 没有想到上一条关于 mac 软件推荐的视频既然这么受大家欢迎,在回复评论的时候,我也发现其实很多朋友都是刚从 windows 换到 mac 的 玩家,也有一些是刚刚入手还没有完全明白的新手用户。所以 针对大家经常问到的,我今天整理了十个 mac 新手常见的问题,希望可以帮助刚入门的朋友快速上手 mac。 这期视频稍微有些长,如果怕之后找不到,可以先点个收藏,那我们这就开始 很多朋友刚刚激活 mac 的 时候都会愣一下,我的桌面怎么什么都没有?其实在 mac 里,桌面默认就是一个非常干净的区域,真正用来管理文件的地方叫做访达,也就是屏幕下方这个横条中最左边的那个蓝色笑脸, 你可以把它理解成 windows 里的我的电脑,这里包含了你电脑里的所有文件,当然如果你习惯把文件放在桌面上,也可以直接从访达里拖出来, 这一点跟 windows 基本一样。但是有一个小区别, mac 不 会像 windows 一 样自动帮你排好桌面文件,如果桌面文件变多,可以在桌面点击右键选择使用叠放,系统就会自动帮你把文件整理好,看起来也会整齐很多。 作为一个 mac 的 重度用户,我对 mac 的 触控板评价只有四个字,超级好用!很多时候甚至可以完全替代鼠标。这里给大家分享几个比较实用的设置。首先,打开系统设置触控板,这里可以找到所有相关的操作,我 看到很多博主都会推荐打开轻点来点按,但我其实非常不推荐,因为这样操作会很没有安全感,误触了你都不容易发现。 第二个是我非常推荐的设置三指托移,默认情况下拖动文件的时候,我们需要按下触控板再进行移动,用过的都知道,这样做相当费力。 这里我们只需要点击设置辅助功能,指向控制触控板选项,打开三指托移就可以了,这样你只需要三指滑动,就可以轻松拖动窗口或者文件。第三部分是一些非常实用的手势操作, 双指轻点相当于鼠标右键,双指滑动相当于鼠标滚轮,不仅能上下滑,还能左右滑,浏览网页或者做设计的时候都非常方便。 四指上滑可以打开调子中心,如果你同时打开了很多软件,这个功能可以非常快速的帮你找到对应页面。 在这里多说一句,麦克还有一个很好用的功能叫做多桌面,也可以把不同的工作内容放在不同的桌面里,比如一个桌面写文档,一个桌面做设计,一个桌面聊天。创建方法也很简单,四指上滑,在右上角点击加号 之后在四指左右滑动,就可以在不同的桌面之间来回切换。这个功能真的超级实用,也是我每天用的最多的功能之一。 如果你平时主要用鼠标操作,那大概率会遇到一个问题,滚的方向怎么是翻的?那是因为 mac 默认开启了一个功能,叫做自然滚动,这个逻辑其实和手机是一样的,在触控板上用起来会非常舒服,但如果用鼠标,很多朋友就会觉得非常反人类, 那么我的解决方法其实非常简单粗暴,打开系统设置,选择鼠标,把自然滚动关闭就可以了。 mac 屏幕底下这个横条其实叫程序污,简单的理解就是 mac 的 常用程序中心加任务栏,它主要有三个作用,第一,固定常用软件,像微信浏览器、 wps 都可以直接拖进去固定,点一下就能打开。 第二,显示正在运行的软件,如果图标下面有一个小白点,就代表这个软件正在运行,点一下就可以快速切换窗口。 这个时候很多朋友就要问了,为什么我点了关闭,小白点还在呢?那这就是麦克的高明之处了, 麦克五 s 会很好的管理他们的运行内存,让他们尽量保持运行状态,能让你在需要他们的时候快速打开。如果你真的想完全关闭软件,只需要点击右键退出就可以了。如果软件卡死,可以点击左上角的苹果标志,选择强制退出即可。 mac 用久之后,右上角的菜单栏就会变得越来越乱,因为很多软件在安装之后都会默认在这里放一个图标,如果实在影响观感,其实可以自己整理一下。打开系统设置,点击菜单栏,在这里可以决定哪些功能要显示在菜单栏里。 我个人强烈建议打开电池百分比这个功能,只需要点击电池选项,显示百分比,这样就可以随时注意设备电量了。 这个问题其实也非常常见,一般有三种情况,第一种,你下载的是 windows 软件,比如 exe 文件, mac 是 无法识别这种后缀文件的。第二种,你下载的是没有通过 apple 验证,第三方软件,系统可能会提示无法验证开发者或者软件已损坏,这个时候其实不用太担心,可以打开系统设置隐匿于安全性,在安全性里把允许任何来源打开,很多软件就可以正常使用了。 第三种情况,如果软件来源不明,同样也跳出了这种系统提示,那可能真的是病毒软件,这种情况下建议直接删除。不过目前针对 mac 的 病毒其实非常少,这一点还是可以稍微放宽。新的 mac 卸载软件其实非常简单,在 mac 二六之前的版本系统里,我们可以在启动台里按住 option 键,然后点击图标上的叉号进行删除。 现在的系统则需要打开访答,点击应用程序,找到想删除的软件,右键点击移到废置喽就可以。如果担心有残留文件,我个人比较推荐一个工具,腾讯柠檬,当然要记得从官网下载完整版,它可以一键清理软件的残留文件,比手动删除干净很多。 因为我也是刚刚毕业,都比脸都干净,所以我现在用的也只是一个差不多能用的显示器。但如果你想发挥 mac 的 全部实力,我个人建议至少选择四 k 分 辨率及以上的显示器。 麦克的屏幕素质其实非常好,如果外界一个低分辨率显示器,多少有些浪费。另外在色域选择上则是越广越好,如果能有一百二十赫兹高刷体验会更舒服。不过具体型号等我自己之后换了更好的显示器,再给大家详细做一期测评推荐吧。 我的答案是,不需要。 mac 的 使用逻辑其实更像手机或者 ipad, 不 用的时候直接合上盖子,它就会自动进入休眠,再次打开基本上就是秒唤醒。如果偶尔感觉有些卡顿,可以先关闭一些不用的软件,稍等片刻,如果还是卡,重启一次基本上也就解决了。 如果你和我一样大部分时间都在固定位置使用 mac, 我 其实是建议一直插着电源使用的。我的这台 mac 陪了我这么多年的时间,电池健康度依然还有百分之八十八,所以从我自己的使用体验来看,长期插电使用其实问题也不大。 那么以上就是本期视频的全部内容了,如果你也是刚开始用 mac, 那 么这些问题基本上你都会遇到。如果你还想看 mac 必备的软件推荐或者提真效率的小技巧,我之后也可以继续分享。如果这期视频对你有帮助,也欢迎你点赞、投币、转发,我们之后再见!

定,我重新整理了一遍自己麦格里常用的软件,发现真正能一直留下来的其实也就那么几个。然后就是一个叫做拍欧尼尔软件,它的作用就是会在光标周围出现快捷轮盘,比如说我们可以直接用它来切换软件,类似于苹果自带的这个切换工具, 或者用它来快速启动软件。比如说我平常用的这几个软件比较多,就添加进来,需要的时候直接鼠标激活,然后点一下就启动了,这个功能真的超方便,很推荐。还可以把它当做快捷键轮盘来用, 比如说剪辑的时候就可以直接用它来切换工具使用访达的时候也可以使用快捷操作,浏览网页的时候可以直接保存书签,它很像是把原本要记的快捷键或者要跑到菜单里找的功能直接塞到了鼠标旁边, 一键就可以操作。而且它这个动画和音效做的都非常好,很符合苹果生态的风格,真的可以试试都知道。在 mac 上直接按空格就可以预览文件,不管是图片、视频、音乐,甚至是三 d 文件都可以直接预览,这个我觉得超方便。而当我们选择文件夹按下空格键的时候,不能直接看到里面的内容, 而现在只需要这个叫做 folder preview 的 软件,就可以点击空格预览文件夹里面的内容,非常符合我们的使用逻辑,也不影响其他文件的空格预览效果。 甚至压缩包都可以直接预览查看没问题之后再减压,相当于是补充了 mac 系统的短板。接下来这个呢,我愿称它为打工人必备神器,它叫做 monaco, 它的主要作用就是当你在桌面上开启了很多软件的时候,它可以帮你把其他软件全部模糊掉。这样做呢有两个好处,第一个就是工作的时候可以避免桌面上的内容打扰到我们,防止我们忍不住去刷社交媒体,适合需要高效工作的时候用。 第二个呢就是我们上班的时候,如果和朋友聊天或者用私人软件切换之后,就可以防止身后路过的同事看到我们的内容,保护隐私。除此之外,它还可以调整模糊程度,模糊颜色、模糊纹理,实际用下来还是非常不错的。这个窗口也非常符合苹果的设计风格,推荐给你。

谷歌刚公布了基于二零二六年初实测的 demo 四本地部署指南。想在自己电脑上跑大模型,门槛其实比你想象的低得多。 只要你有一张六 g 显存的普通显卡,或者一台十六 g 内存的 mac, 就 能轻松上车。这个底线配置足够你流畅运行,量化后的一四 b 版本,它满打满算也就占四到六个 g 的 显存。那如果你手里的设备配置更高, 具体能跑多大的满血模型?接下来我们直接按硬件档位对号入座。我们先看大部分人用的六到十二 g 显存的中低端显卡,比如三千零六十到四千零七十这个档位,老老实实跑一四 b 版本最稳。很多人显存有个七八 g, 就 想硬去尝试大模型的量化版, 结果往往是一对话就报错卡死。因为你必须从这点显存里扣出一块空间,留给 ai 处理上下文。 如果你手里是十二 g 到十六 g 的 高端卡,比如三千零八十或者四千零八十,这就跨过了二十六 b 模型 a 四 b 量化版的最低门槛。显存容量算是过关了,但别高兴太早, 模型加载进去之后要随时盯着,每秒能吐几个词。简存刚够的情况下,推理速度有可能会让你等的很心焦。至于二十四 g 甚至更大简存的四千零九十或五千零九十,土豪玩家可以直接上三十一 b 的 满血大模型,它的基础占用在二十到二十四 g 左右。 但这里有个大坑,即便你显存再大,如果你一次性喂进去几万次的长温档,或者进行疯狂的多轮长对话,照样会把显存撑爆爆错退出。接着看苹果 mac 用户,十六 g 或者十八 g 统一内存的基础款,统统优先跑一次币。苹果不同带芯片的区别在这里,很明显, m 二和 m 三因为起步是十八 g, 它的实际推理效率会明显压过老款的 m 一。 如果你硬拿十六 g 的 m 一 去跑二十六 b 模型,电脑会被榨干,整个系统都会变卡。 预算充足的 mac 用户优势就完全体现出来了。三十二 g 内存以及能非常流畅的玩转二十六 b 量化版到了六十四 g 以上,这就成了目前最强的便携推理机。二十六 b 和三十一 b 随便跑。要是上了幺二八 g 的 m 三 ultra, 不但能跑顶级大模型,几个人同时发请求都不会排队卡顿。选好硬件后,有一个多数新手必踩的坑。模型页面标称的显存占用只是个起步价。当你开始聊天,历史记录越来越长,内部的 k v k 机制就会像无底洞一样治疗你的剩余显存。 系统本身还要占用一部分,官方给的都是刚加载完的静态数据,真跑起来,必须预留几笔额外的显存帐,最后破除一个对硬件的误解。 mate 的 内存确实动不动就能配到几十上百 g, 功耗也低的吓人。但是苹果的统一内存受限于物理带宽,它就像一个水库很大但出水管不够粗的系统,跑同一个模型,它的生成词汇速度通常还是比不过同容量的 pc 独立显卡的。

谷歌最强开源模型 gemma 四刚发布三天,就被人破解了三百一十亿参数,十八个 g, mac 直接跑,而且完全没有审查限制,这条推文已经六十万播放了, 到底怎么回事?这个叫 delini 的 团队在哈根 face 上发布了一个模型,名字就叫 gamma 四三 e b c r a c k c r a c k 的 意思就是破解。他们跑了一个叫 hambench 的 安全测试, 一百五十九个有害请求里,成功突破了一百四十九个,成功率百分之九十三点七。他们用的技术叫 obliteration, 翻译过来就是消融, 原理其实不复杂,每个大模型内部都有一个拒绝方向,就是一个向量。当你问他敏感问题,这个向量就会激活,模型就开始说,我不能回答。 ablitration 做的事情就是找到这个向量,然后从权重里手术式的删掉,不需要重新训练,直接改权重就行。更关键的是,这个破解版几乎没有损失性能, m m l u 精准测试只掉了二个点, 从七十六降到七十四点五,而且它支持视觉多模态量化到十八个 g, 用 mlx 框架在 apple silicon 上原生运行。但是我要泼一盆冷水。 harm bench 百分之九十三点七,听起来很厉害,但这个数字的意思是,一百五十九个有害请求里,有一百四十九个被模型执行了。 这些请求包括生成恶意代码、制作虚假信息,甚至涉及违法内容。所以破解成功这四个字,换个角度看,就是安全防线全部失守。 所以我的判断是,如果你是做安全研究、红队测试或者学术探索,这个模型确实是目前最强的本地无审查选择,但如果你只是想日常聊天或者拿去做商业产品,那完全没必要,而且有法律风险,工具本身没有善恶,但用法有边界。

假如你能像使用叉 g b t 那 样却完全免费,毫无限制,并且在电脑或手机上离线运行,会怎样? 这正是谷歌刚刚实现的。他们发布了名为 jam 四的产品。这是一个你可以自行下载并运行的人工智能模型, 无需订阅,无需注册数据,决不离开您的设备。在这段视频中,我将向您展示如何在 mac 手机上搭建它,与叉 gpt 进行侧面对比,甚至演示它在飞行模式零网络环境下如何在手机上运行。咱们开始吧。 好的,那么首先,为什么 jam 现在这么火?它是谷歌最新的人工智能运行,咱们开始吧。好的,那么首先,为什么 jam 现在这么火?它是谷歌最新的不同,你无需订阅, 你甚至不需要联网。你下载它,在你的机器上运行,它就完美工作了。它采用 apache 二点零发布,这是目前最宽松的开源许可证之一, 用它做任何事,个人商业无限制。市面上还有其他开源人工智能模型,但 jam 四之所以备受关注,是因为其性能和品质相当出色,尤其是对于一款在本地运行的模型而言。 这款产品源自与 jimmy 三相同的研发成果,后者是谷歌最顶尖的闭源模型,他们基本上把自己最好的东西拿出来,然后说这里大家都能免费拥有。而且它不只是处理文本,它能理解图像较小的模型,也能理解音频。 它能调用函数和使用工具。而在更大的模型上,上下文窗口可达二五六零零零零 token。 而且在大模型上拥有二五六零零零的上下文窗口,你可以喂给他一整本书。在 irina 人工智能排行榜上,这个拥有三百一十亿参数的模型在所有开源模型中位列第三。两百六十亿参数版排在第六, 其中一些甚至能击败比他们大二十倍的模型。这不只是另一个开源模型,而是一场真正的改革。 jam 四有四种尺寸,一二 b 有 效餐数量。二十亿是最小的版本,专为手机和边缘设备设计, 快的离谱,几乎不占内存。最疯狂的是社区机准测试显示,他在多项任务上的表现堪比 jam 三的两百七十亿参数模型,那是他的十二倍大。 接下来是一四 b, 有 效参数量为四十亿,依然能在手机上运行,但推理能力更强了。原声支持图像和音频。然后是二十六 b 混合专家模型 m o e。 他拥有两百六十亿总餐数量,但在任意时刻仅有约四十亿,处于激活状态。聪明,像二十六 b 模型一样,运行起来却像四 b 模型,这才是最佳点。这就是我在麦克上安装的那个。 最后是三百一十一参数的稠密全量旗舰版,每个参数都时刻处于激活状态。最强大但需要强大的硬件。全部四种都支持文本和图片输入, edge 模型也支持音频。 现在让我展示一下我是如何搭建这个的。我正在使用 lm studio, 这是一款免费应用,允许你在本地下载并运行人工智能模型,无需编辑代码。看起来和叉七 b t 应用差不多。 我刚安装了 l m studio, 打开它后,在这里搜索了 jam 四有多个版本。 我下载了二十六 b m o e 版本,大概十八 g b, 所以 得花点时间。完成后,你可以打开新聊天窗口,选择我们刚下载的两百六十亿参数模型,然后开始像和 chat p t 那 样聊天,只不过全部是本地运行, 这就是我最喜欢的地方。没有令牌限制,你不用盯着用量表看。你不必担心达到上限后被锁定四个小时。 你可以整天随心所欲的尽情使用它。现在这个模型属于你了。 gm 四,还支持原声工具调用和功能调用。现在是我承诺的对比环节。 我让两个模型创建一个 html 文件,以信息图风格介绍 jama 四,并添加动画效果。流畅的动画,整洁的设计统计数据动态呈现,这就是代码设计与创意的完美结合。 看看 jamf 给了我什么?完美运行的动画。 html 页面布局整洁,动画流畅,排版考究。我在浏览器中打开了它,只有 cloud opus 能为我生成可用的版本。 一个在设备端运行的模型,在不消耗任何 token 且不联网的情况下完成这个任务简直疯狂。事实上,我认为用 lm studio 运行的 jam 四生成 html 的 速度比叉 gpt 稍快一些,叉 gpt 的 版本更好,但我看到了很多幻觉。 舅妈的版本更干净,更接近我的要求,更重要的是它免费且安全。叉 gpd 需要付费订阅并将所有内容发送到云端。 它在所有方面都比叉 gpd 好 吗?不,叉 gpd 在 某些复杂推理上仍有显著优势,但对于日常任务代码和创意深沉,这个免费的本地模型绝对能独挡一面。你还可以教它按你的方式来工作。 我用一种非常特定的风格赚写平台脚本。我给 james 一个详细系统提示,说明我的风格。它适应的非常完美。你可以用它来处理邮件、格式化文档,项目管理等等一切。 而且因为没有令牌限制,你的系统提示不会降低回复质量。当模型属于你时,你就能将其塑造成任何你想要的样子。接着,我给他一张带有文字的照片,让他完全离线提取所有文字。 他做到了快速且精准,无需 ocr 应用,无需云服务,仅靠模型本地提取图像并提取文字。 我尝试翻译了一段其他语言的内容,并给了一张图让他理解其中的文字。一切运作方式都和 chat gpt 一 样,但全都在本地,且再次免费。想想这意味着什么? 航班上、偏远地区、隐私敏感场景,它就这么好用。现在这个演示让我最兴奋。 在断网状态下用手机运行人工智能让我展示给你看。我正在使用谷歌的 h gallery 应用,这就像谷歌搭建的一个测试游乐场。这里我下载了较小的以色列模型,因为手机硬件跑不动。拥有两百六十亿参数的超大模型。 好的模型已下载,飞行模式开启没有丢掉剪发,也没有蜂窝网络彻底离线。我会问类似这样的话。我想起草一封邮件给我的老板,告知他由于遇到意外阻碍,项目交付将推迟二十天。 jamaf 在 本地为我起草了这封邮件。数据未共享,速度还比慢速网络下的叉 gpt 更快。 那么谁该关心?让我说点实在的。 jamie 四不是那种打开浏览器就能用的 chatpt 代品。 有个设置步骤,你下载一个应用,选择一个模型,或许调整一下设置。如果你喜欢折腾并想要完全掌控一切,这就是你新的最爱。如果你用过类似 opencloud 的 东西,可以把这个看作同样的精神,但拥有更强的能力和安全性。 您的数据永远留在您的设备上。开发者,创作者,注重隐私的人,以及受够了订阅疲劳的任何人,这都是为你准备的。谷歌用 jam 四做了一件大事,他们将其最强大模型背后的研究成果开放给所有人,无任何附加条件。 真正能用的人工智能。现在能在你的笔记本手机上完全离线运行,完全私密,完全免费。一年前,这还不可能。如果你觉得这个视频对你有帮助,请在评论区告诉我哪部分最让你惊讶。订阅,以防错过更多内容,我们下期见。这边是散着呢,拜拜。