在本地安装大模型最简单的方法,只需要下载一个文件就能用上AI #人工智能 #科技 #大模型 #干货分享 #AIGC

1153
53
1209
153
举报
发布时间:2024-03-25 17:01
全部评论
大家都在搜:
之前给大家分享了ollama、janai在本地电脑部署大模型,但是今天分享的 llamafile 真的做到了一键安装部署。[灵机一动][灵机一动][灵机一动]
1年前·江苏

5

分享
回复
1.5B基本没啥用
1年前·陕西

0

分享
回复
国内有个魔搭社区开放了7b开源模型,也可以直接下载
1年前·江苏

0

分享
回复
能文生图吗?
1年前·广东

0

分享
回复
不能,文生图免费工具太多了
1年前·江苏

0

分享
回复
我的版本为什么没有upload images按钮
1年前·北京

1

分享
回复
你下载的模型不支持视觉识别
1年前·江苏

0

分享
回复
除了内存占用了12G,U和显卡根本没有负载,尤其显存负荷几乎为零,我的U可是十年前的4790K,按理说运行图文识别模型的显存至少不低于16G,我试了一下它能识别出这个面包火腿是特朗普,月之暗面的kimi都认不出特朗普。毫无疑问它根本不是本地部署,只是一个直接释放到内存里运行的4GB接口,也不占任何硬盘空间。
1年前·天津

7

分享
回复
本地大模型比网上chatgpt或者kimi这些网上大模型的优势在哪里呀[蜜蜂狗]不需要网络、数据安全,还有啥优点吗[发呆]
1年前·广东

0

分享
回复
普通用户建议在线服务,企业还是数据隐私保护更重要吧
1年前·江苏

1

分享
回复
可以断网运行还是远程调用远端服务器的ai
1年前·上海

0

分享
回复
离线也能跑,模型在本地电脑运行
1年前·江苏

0

分享
回复
本地运行的大模型能力超过gpt3.5不
1年前·浙江

0

分享
回复
能做接口么?本地没显卡要求?
1年前·贵州

1

分享
回复
需要多大空间
1年前·广东

0

分享
回复
不同模型要求不一样,文档有说明的
1年前·江苏

0

分享
回复
为什么要下载?不是一个数据链接地址,就行了吗?
1年前·广东

1

分享
回复
怎么喂企业数据给它?
1年前·广东

2

分享
回复
下载不来啊,有啥专招没博主
1年前·辽宁

1

分享
回复
本地独显+ --gpu=nvidia 参数
1年前·广东

0

分享
回复
可以上传几十个G的文档吗
1年前·湖北

0

分享
回复
试了试llama2,感觉有时答非所问
1年前·加拿大

0

分享
回复
up主,博客地址分享下
1年前·河北

0

分享
回复
github搜一下 llamafile [灵机一动]
1年前·江苏

0

分享
回复
能不能用AI做一款交友软件:用户一开始是与AI聊天,当AI了解了这位用户的性格后,在交流的过程中,AI将话题引向其他匹配用户。当时机成熟时,AI会分别询问两人是否要见面[害羞]
1年前·辽宁

0

分享
回复
...
🔍通义AI,[666][666][666][大笑][大笑][大笑]
1年前·重庆

0

分享
回复
艾克ai分享
艾克ai分享

粉丝8.0万获赞81.2万

猜你喜欢

推荐视频

最新视频