查看AI文稿
🍍Loading.ai
🍍Loading.ai

粉丝1012获赞5535

相关视频

  • cc-switch解决Claude桌面端更新后无法用国产模型 本期视频就以DeepSeek为例,上期文章是以智谱模型为例。希望能帮助到大家,感谢大家的观看。大家多多点赞、评论、收藏。爱你们哟~
#claude更新 #claude桌面 #claude #deepseek #deepseekv4
    02:51
    查看AI文稿
  • 七个隐藏技巧帮你快速上手Claude桌面端!!! #ai #人工智能 #ai新星计划 #claude #ai智能体
    02:38
    查看AI文稿
  • 装了Claude桌面端却用不了?6个常见问题一次说清!!! #ai #人工智能 #ai新星计划 #claude #ai智能体
    03:13
    查看AI文稿
  • 更新claude桌面端显示连接报错??? 30秒解决问题#ai  #人工智能  #ai新星计划 #claude #ai智能体
    00:55
    查看AI文稿
  • Claude Code 桌面端全新升级 用过最新版的 Claude Code,基本可以抛弃终端了
#ClaudeCode #Claude #Anthropic #AI
    02:19
    查看AI文稿
  • claude2终于支持接第三方模型了,保姆级教程 Claude桌面端终于支持接第三方模型了,再也不怕封号和网络问题了,不管是cowork模式还是code模式,直连使用,配上deepseek-v4-pro太爽了#claude桌面端  #claude  #claude2国内如何使用  #ai智能体  #agent
    02:19
    查看AI文稿
  • Thinking模式是如何让Claude Code变聪明的 Claude Code的`/config`里有个thinking mode开关,Claude App的回答前也常挂一段灰色「思考过程」。这一期用claude-tap抓真实请求拆开看——这段思考到底是装饰,还是真的在影响最终答案。 
先说本质。普通模式是 上下文 → 行动;thinking模式是 上下文 → 中间推理 → 行动。中间多出来那段是模型给自己行动之前写的草稿。关键在Transformer,生成下一个token时前面所有token都是上下文,所以这段先写的thinking会被自己读回去当输入。 
请求体两个字段:thinking: "adaptive"让模型自己决定想不想、想多深;effort: "high"控制深度,五档low/medium/high/xhigh/max,档位越高越细越慢。 
响应体content数组两块。我贴了cache.js(带TTL的内存缓存)和app.js(set一秒TTL两秒后get,期望null实际拿到值),问根因和修复。thinking block里干一件事——定位bug在get函数:取出entry但没检查过期。text block给修复:在get里对比`Date.now()`和`entry.expiry`,过期就删除返回null。thinking做诊断,text基于诊断出修复——thinking是text的地基。 
这段思考怎么来的?大模型训练四步:预训练 → 指令微调 → RLHF → Reasoning Tuning。普通模型走前三步就上线,reasoning模型多走第四步。样本格式从"问题+答案"变成"问题+`<reasoning>`+`<answer>`"。比如解2(x-3)=14,普通样本直接给x=10,推理样本先在reasoning里写Step 1、2、3再给answer。模型反复看,就把"先写推理再答"内化成了输出习惯。运行时再靠`thinking: adaptive`字段显式开启——没这字段,模型想推理也没地方写。 
所以开关控制的是模型张嘴前要不要先把思路在心里过一遍。代价是慢一点、token多烧一点;好处是同一个bug它会枚举可能性、排除错误选项,再给答案。 
下次你的Claude Code请求看着没动静,可能就是它在写草稿。 
#claude #个人开发者 #程序员 #AI工具 #张司机
    06:58
    Thinking模式是如何让Claude Code变聪明的 Claude Code的`/config`里有个thinking mode开关,Claude App的回答前也常挂一段灰色「思考过程」。这一期用claude-tap抓真实请求拆开看——这段思考到底是装饰,还是真的在影响最终答案。
    先说本质。普通模式是 上下文 → 行动;thinking模式是 上下文 → 中间推理 → 行动。中间多出来那段是模型给自己行动之前写的草稿。关键在Transformer,生成下一个token时前面所有token都是上下文,所以这段先写的thinking会被自己读回去当输入。
    请求体两个字段:thinking: "adaptive"让模型自己决定想不想、想多深;effort: "high"控制深度,五档low/medium/high/xhigh/max,档位越高越细越慢。
    响应体content数组两块。我贴了cache.js(带TTL的内存缓存)和app.js(set一秒TTL两秒后get,期望null实际拿到值),问根因和修复。thinking block里干一件事——定位bug在get函数:取出entry但没检查过期。text block给修复:在get里对比`Date.now()`和`entry.expiry`,过期就删除返回null。thinking做诊断,text基于诊断出修复——thinking是text的地基。
    这段思考怎么来的?大模型训练四步:预训练 → 指令微调 → RLHF → Reasoning Tuning。普通模型走前三步就上线,reasoning模型多走第四步。样本格式从"问题+答案"变成"问题+`<reasoning>`+`<answer>`"。比如解2(x-3)=14,普通样本直接给x=10,推理样本先在reasoning里写Step 1、2、3再给answer。模型反复看,就把"先写推理再答"内化成了输出习惯。运行时再靠`thinking: adaptive`字段显式开启——没这字段,模型想推理也没地方写。
    所以开关控制的是模型张嘴前要不要先把思路在心里过一遍。代价是慢一点、token多烧一点;好处是同一个bug它会枚举可能性、排除错误选项,再给答案。
    下次你的Claude Code请求看着没动静,可能就是它在写草稿。
    #claude #个人开发者 #程序员 #AI工具 #张司机
    查看AI文稿
  • #claude claude桌面启用开发者模式,配第三方。
    00:59
    查看AI文稿
  • 5分钟Claude桌端升级deepseek-v4-pro问题 Claude桌面端升级最新版后模型id前加claude前缀后,无法使用deepseek-v4-pro,5分钟解决#deepseek  #claude  #claude桌面端  #claude接deepseek #ai工具  #ai编程  #ai编程工具
    01:27
    查看AI文稿
  • 零命令行!5分钟快速上手 Claude Code 桌面版 #编程 #claude使用方法 #claude#claude code桌面版#AI编程
    02:17
    查看AI文稿
  • Claude桌面端(非CLI)接入国产大模型! 小米百万Token创作激励计划,免费的额度如何才能发挥最大作用?视频来告诉你!#Claude #Token #Openclaw #大模型 #教程
    02:12
    查看AI文稿
  • 不喜欢用命令行的有福了✌️ claudecode 终于有了官方的图形界面✌️
国内模型就能接入,不需要账号和登录,小白友好。
#ai新星计划 #真实生活分享计划 #claudecode #cowork
    01:40
    查看AI文稿
  • 喜大普奔,最新版 claude code Desktop APP 终于支持配置第三方大模型了,且不需要 cluade 账号, 手把手教你配置,不用再面对 terminal 的黑框框了
    02:21
    查看AI文稿
  • #Claude #ai工具学习 Claude Code桌面版接入小米mimo和deepseek模型实用教程
    01:36
    查看AI文稿
  • Claude桌面客户端免登录:操作教学 #claude桌面 #claudecode免费 #AI教程 #AI工具 #大模型本地部署
    01:43
    查看AI文稿
  • Claude桌面版接入DeepSeek!开启联网的保姆级教程 #Claude #DeepSeek #AI教程 #大模型 #保姆级教程
    01:26
    查看AI文稿
  • Claude code桌面端接入deepseek#Claude #deepseek #claudecode #Claude桌面端 #deepseekv4
    00:48
    查看AI文稿
  • 1min解决Claude code更新后无法使用国产模型! 今天Cloud code更新之后,很多小伙伴都遇到了无法使用国产模型的问题,可以尝试一下视频中的办法,希望这个视频可以给你带来帮助!
#claude更新 #claude桌面版 #AI #claude教程 #Deepseek
    00:45
    查看AI文稿