00:00 / 01:00
连播
清屏
智能
倍速
点赞10
00:00 / 06:05
连播
清屏
智能
倍速
点赞229
00:00 / 04:25
连播
清屏
智能
倍速
点赞11
ai来事1年前
VS Code + Llama 3.1,0成本本地代码助手 大家好,我是你们的技术小能手!今天要分享的,是如何将拥有80亿参数的Llama 3.1模型,通过Ollama和CodeGPT扩展,变身为你的本地代码助手。👨‍💻🔍 🌐 安装前的准备 首先,感谢Master Compute提供的虚拟机和GPU支持,如果你也在寻找性价比高的GPU租赁服务,记得去他们的官网看看,还有专属折扣码等你哦! 🔧 Ollama服务启动 在Ubuntu 22.04系统上,我们首先需要确保Ollama服务已经启动。通过sudo systemctl start Ollama.service命令,让Ollama开始工作。 📚 模型下载与验证 接下来,使用Ollama list查看并下载最新的Llama 3模型。这个过程可能会需要一些耐心,因为模型的下载和验证需要时间。 🔄 VS Code扩展安装 现在,让我们转到VS Code。按下Ctrl+P,搜索并安装CodeGPT扩展。这个扩展将是我们与Llama 3.1模型交互的桥梁。 🔗 设置与配置 安装完成后,我们需要在VS Code的设置中配置CodeGPT。选择Ollama作为AI提供程序,并设置好你的偏好模型。 📝 代码示例与解释 打开一个Python代码示例,使用CodeGPT的解释功能,看看它如何为我们的代码添加注释和解释。这不仅仅是代码补全,更是代码理解的飞跃。 🛠️ 代码修复与优化 如果你的代码中存在问题,CodeGPT的修复功能可以帮你一键解决问题。这就像是有一个随时待命的代码审查专家。 📁 项目文件解释 最后,如果你有一个项目文件,CodeGPT同样可以提供帮助。只需选择文件,它就能为你解释文件内容和结构。 🌟 总结 通过Ollama和CodeGPT,我们可以在本地免费使用Llama 3.1,而无需调用任何API。这是一个非常慷慨的工具,无论你是开发者还是学习者,都值得一试。 #llama3#本地ai #编程 #codegpt #ollama
00:00 / 09:22
连播
清屏
智能
倍速
点赞39
00:00 / 02:18
连播
清屏
智能
倍速
点赞1
00:00 / 02:01
连播
清屏
智能
倍速
点赞9
00:00 / 00:42
连播
清屏
智能
倍速
点赞2432
00:00 / 02:39
连播
清屏
智能
倍速
点赞6
00:00 / 08:53
连播
清屏
智能
倍速
点赞3
00:00 / 03:21
连播
清屏
智能
倍速
点赞37
00:00 / 05:08
连播
清屏
智能
倍速
点赞4
00:00 / 01:06
连播
清屏
智能
倍速
点赞1