140
127
29
8
举报
发布时间:2026-05-02 10:59
全部评论
大家都在搜:
用5090 才能体验到本地模型的能力,速度甩mac一大截,mac只是内存大而已,速度实在太慢了,而且目前主流的个人模型都是20-30b,5090都随便部署,qwen3.6 27b我用起来非常强,也快,甚至比api还快,在小龙虾里面
4小时前·广东

2

分享
回复
mac只是内存大,达到了大模型的起步要求,能跑起来,但算力拉啊,能不能相当于5070都难说[捂脸]
2小时前·福建

1

分享
回复
...
苹果电脑统一内存慢,当玩具体验下玩玩可以。真要拿来干活那速度谁能受的了。 本地模型的意义在于安全和隐私要求。上n卡了。
5小时前·甘肃

0

分享
回复
我的128 名5Max是不是白花了
4天前·美国

0

分享
回复
不一定,带宽大,应该快一倍不到
4天前·江苏

0

分享
回复
我用Comfyui,3090的机子,跑个2K图差不多六七分钟,感觉都慢
1天前·重庆

0

分享
回复
我是本地跑的qwen3.6 27b,用的7900xtx 24g,q4量化,上下文40k,建的个人数据库写报告,就是上传分析慢点,输出报告还可以。速度37token/s,个人觉得比较满意了。等更好的技术,能提高速度就行了。比如dflash 还有mtp。
作者赞过
3天前·重庆

1

分享
回复
Ds已经那么便宜了,本地跑有什么必要
2天前·广西

0

分享
回复
龙虾一个任务就几十万token,每秒就100token的设备怎么可能跑的起来
3天前·上海

1

分享
回复
我还想着买256的呢[捂脸],看来不用了
3天前·山西

1

分享
回复
可以让朋友圈知道的自己的电脑很nb
1天前·广东

0

分享
回复
老嗷嗷高
老嗷嗷高

粉丝2955获赞17.2万

猜你喜欢

推荐视频

热榜推荐