6
抢首评
2
分享
举报
发布时间:2026-03-27 09:56
糊涂虫
糊涂虫

粉丝18获赞113

相关视频

  • 本地Ollama模型接入软件教程 #ollama #apikey #api 
适用于多个有AI能力软件接入:若手内容管家、若手AI重命名等。
其他非若手软件产品,但使用标准OpenAI API 格式请求的软件同样通用
    01:15
    查看AI文稿
  • 零成本!本地Ollama算力frp内网穿透服务器某书调用 本视频手把手教你:
- 本地电脑部署Ollama + GLM-4.7-Flash(300亿参数)
- frp内网穿透,让低配服务器调用本地显卡算力
- OpenClaw配置+某书机器人对接
硬件要求:
- 服务器:3核4.5G内存即可(十几块/月的小鸡就行)
- 本地:16G显存显卡(4070/4080/3090等)
优势:零API费用 | 数据完全私有 | 7×24小时在线
#OpenClaw  #Ollama  #飞书机器人  #本地大模型  #frp
    07:10
    查看AI文稿
  • 搭建你的个人AI工作室:Ollama 
#AI#Ollama#安装
    07:04
    查看AI文稿
  • 0代码 接入Ollama模型 AI知识库搭建! 平台选择:“Ragflow” or “Anything LLM”?
搭建要点分享~
#ai #零代码 #ai零基础学习教程 #知识库搭建 #AI
    02:02
    查看AI文稿
  • Claude Code+Ollama=永久免费的AI编程神器 通常情况下,Claude Code需要使用Anthropic的付费云模型,但得益于Ollama对Anthropic API的兼容支持,你现在可以将强大的开源模型直接接入Claude Code,在终端中构建应用程序,而无需为API使用付费。
这意味着你可以在终端中使用Qwen、GLM、Minimax等模型以及其它本地大语言模型,同时享受Claude Code强大的自主开发工作流。
在这个完整的配置教程中,我将带你了解:
• 安装Ollama
• 将Ollama连接到Claude Code
• 本地运行开源模型
• 免费使用自主编码功能
• 使用本地模型构建完整的落地页
你还将看到一个真实的示例,我将使用运行在RTX 4090上的本地托管模型,生成一个现代化的WebGL + Three.js落地页。
这个配置方案解锁了完全本地化的AI编程环境,让开发者无需依赖云API就能使用强大的自主工作流。
如果你对AI编程助手、本地大语言模型和开源AI开发感兴趣,这个配置方案将彻底改变游戏规则。
#claude #ollama #ai编程 #ai #编程
    07:28
    Claude Code+Ollama=永久免费的AI编程神器 通常情况下,Claude Code需要使用Anthropic的付费云模型,但得益于Ollama对Anthropic API的兼容支持,你现在可以将强大的开源模型直接接入Claude Code,在终端中构建应用程序,而无需为API使用付费。
    这意味着你可以在终端中使用Qwen、GLM、Minimax等模型以及其它本地大语言模型,同时享受Claude Code强大的自主开发工作流。
    在这个完整的配置教程中,我将带你了解:
    • 安装Ollama
    • 将Ollama连接到Claude Code
    • 本地运行开源模型
    • 免费使用自主编码功能
    • 使用本地模型构建完整的落地页
    你还将看到一个真实的示例,我将使用运行在RTX 4090上的本地托管模型,生成一个现代化的WebGL + Three.js落地页。
    这个配置方案解锁了完全本地化的AI编程环境,让开发者无需依赖云API就能使用强大的自主工作流。
    如果你对AI编程助手、本地大语言模型和开源AI开发感兴趣,这个配置方案将彻底改变游戏规则。
    #claude #ollama #ai编程 #ai #编程
    查看AI文稿