AI写的网页总要改半天?一个免费插件搞定风格问题 喵用 Claude Code + Minimax M2.5 搭了自己的个人主页 🎉 用 Claude Code 搭配国产大模型 API 做前端的时候,很容易出现 AI Slop(AI审美塌陷)——页面能跑,但风格和细节怎么调都不太对,来回修改特别耗时间。 喵找到了一个解决思路:使用类似 frontend-design-pro 这样的 Claude Code Plugin,它内置了完整的设计规范(配色、字体、间距、布局网格等),让 AI 不再用它自己的"默认审美",而是严格按照设计系统输出页面。 ✅ 完全开源免费,11种风格模板可选 ✅ 通过 Claude Code Plugin Marketplace 一行命令安装 ✅ 喵选的是赛博朋克风 🤖 📝 附:喵的提示词模板(建议先和 AI 一起把 PRD 写清楚再使用) > 阅读 [PRD.md](http://PRD.md),并调用 frontend-design-pro plugin(请先确认该 plugin 已安装且可用,未装好请告诉我)。按照 PRD 的内容搭建个人网站,账户资料和图片资料在 [你的资料文件夹名] 里。强制使用 [你想要的风格,如 Retro-Futurism / Cyberpunk] 风格。严格遵守插件中的完整设计规范(包括配色、字体、间距、布局网格与组件样式等),不要用你默认的样式。先跟我确认方案,让我听听你的理解是否正确。 > 💡 Tips: 方括号 [ ] 里的内容替换成你自己的信息就可以直接用~ 想自己动手搭一个?评论区或私信喵聊聊~ #AI网站搭建 #Vibecoding #Claudecode #AI编程实战 #科技改变生活
00:00 / 02:31
连播
清屏
智能
倍速
点赞0
博弈3周前
使用6张2080ti显卡,每卡22G显存,使用llama.cpp运行MiniMax-M2.5-UD-IQ3_XXS.gguf量化版大模型,大模型为87G大小,130K上下文占用每卡约19G显存,通过vscode远程ssh代码服务器上的opencode进行程序编写时,使用命令CUDA_VISIBLE_DEVICES=0,1,2,3,4,5 CUDA_SCALE_LAUNCH_QUEUES=8x ~/llama.cpp/build/bin/llama-server --port 8000 --host 0.0.0.0 --n-gpu-layers -1 --parallel 1 --ctx-size 130000 --flash-attn on --batch-size 2048 --ubatch-size 512 --cont-batching --no-mmap --mlock --split-mode layer --cache-type-k q8_0 --cache-type-v q8_0 --temp 1.0 --top-p 0.95 --top-k 40 --jinja --chat-template-file /home/boyiu/models/GGUF/MiniMax-M2.5-GGUF/UD-IQ3_XXS/chat_template.jinja -m /home/boyiu/models/GGUF/MiniMax-M2.5-GGUF/UD-IQ3_XXS/MiniMax-M2.5-UD-IQ3_XXS.gguf,最大化发挥显卡性能,大模型智商最高,极致压榨显卡性能,在0上下文的情况下,首句话速度可达43token/s,首次上下文占用约为13K,首句回复速度为27token/s,当上下文占用为20K时,速度降为22token/s,当上下文占用50%左右时,速度降为11token/s,速度比minimax2.1略有提升,可增加更多上下文,但会牺牲token速度,财经资讯分析程序已建立基础功能,可实时获取最新资讯,并进行api调用分析,从获取最新资讯,到分析结果不到3分钟,完全适用现有策略,后面将增加新闻源获取途径,增加个股独立新闻分析功能#大模型 #量化
00:00 / 00:29
连播
清屏
智能
倍速
点赞596
00:00 / 05:04
连播
清屏
智能
倍速
点赞88
00:00 / 01:38
连播
清屏
智能
倍速
点赞20