大家好,今天来给大家讲解一下可乐扣的桌面端,他接入了国内的第三方大模型之后,是如何实现联网搜索的功能的。现在呢,我们先来做一个试例,我们现在以小米的这个咪蒙模型为例啊,问他一个问题,今天杭州的天气怎么样? 我们稍等一下来,我们来看它是没有办法实现这个 websearch 的 功能的,那我们其实是可以取现救国一下的,具体采用这个 web fetch 的 方式,那么该如何实现这个功能呢?我们点击左上角三条杠,然后点这个 developer, 然后点这个 configure third party inference, 然后选中这个 sandbox 和这个 workspace, 点击这个选项右边的这个 allow all, 然后点这个 apply locally 重启,然后我们再回到这个绘画,我们再问它一遍, 我们稍等一会儿 看它,这个结果很快就出来了,这个其实是通过 web fetch 的 功能来实现的,它没有使用这个 web search 的 功能,我们可以来问它一下,你使用 web search 的 功能了吗? 所以说它其实是没有实现这个 web search 的 功能的,但是我们用这个 web fetch 曲线救火,实现了一部分的联网搜索能力。那有的朋友可能就要问了,如何实现这个 web search 的 功能呢?这个很简单,其实我们换一个大模型就可以了, 还是点左上角三条杠, developer a figure third party influence, 我 们切换成智普的模型,然后我们再问同样的问题,今天的杭州天气怎么样? 你看我们智普这个模型,其实就可以使用这个 web search 功能,我们可以看到智普的这个 web fetch 的 功能是关闭的,那为什么智普可以用,但是小米 miimo 却不行?那是因为 web search 功能它是通过这个 m c p 服务去实现的, 而智浦它本身是带一个 m c p 的 每月额度,可以调用这个联网搜索的功能。而小米咪某呢?我们来看小米咪某,它其实也是带这个联网服务插件的,我也已经开通了,但是为什么不可以用呢?因为它不兼容。 你看在这里 openai 它是兼容这个联网搜索功能的,但是在 osmic 这里它是不支持联网搜索功能的,这个是属于小米,它还没有提供这样的服务,所以说我们没有办法实现这个功能,只能是取现救国,用 web fetch 的 方式去实现。好了,这就是今天所有的内容了,祝大家用的愉快。
粉丝1012获赞5535

今天这期视频以 deepsafe 为例,因为收到群友以及评论区的反馈,说我上一期出的视频零四期有很多朋友用了之后,模型方面还是存在一些问题,比如说虽然设置的是 deepsafe v 四 pro, 但是实际上返回的是 flash 模型, 就因为我上一篇文章写的是以智普模型为例子的解决方案,那么视频就换成 deepsafe 为例。第一步我们需要下载 cc switch 这个软件,具体的下载方案呢,你可以在我的抖音群内找到,或者说你自己直接用浏览器搜索一下就可以了。我们下载之后点击右上角的这个黄色的加号,我们以 deepsafe 为例,点击这个 deepsafe, 然后我们往下滑, 在 api k 这里我们填入密钥名称,这里随便填,我们点一个测试吧请求地址,它是默认填写的,如果说官方有要求的话,以官方要求为准。然后我们再往下划看这块的模型选择,如果说官方准备好的话,我们直接点这个获取模型列表就可以了,如果发现获取不了,那我们就手动输入就可以了。 比如说我们想用的模型是 deepsea v 四 pro, 那 我们就直接输入 deepsea v 四 pro 就 可以,要注意一般都是小写。然后我们全都换成 deepsea v 四 pro, 默认是这个是最高级的,然后这个是中级,这个是低级, 以此类推,把这个选择最高级的模型,这个次一等,这个再次一级,这个名称要注意看一下,因为后面我们是要一一对应的,比如说这个模型的话,它是 deepsea v 四 pro, 之后在 cloud code 桌面端的话就是要对应这个模型的,我们点击保存 这里就可以发现有了这个测试用的模型。接下来我们来配置路由功能,点击左上角的设置,点击路由,点击本地路由,点击路由总开关,勾选 cloud 这个服务地址,需要记住我们后面会用到,那我们 c c switch 的 方面就配置完成了。 那我们来配置 cloud code 的 桌面端,点击左上角三条横杠,点击 developer, 点击 configure party inference, 进入 connection, 我 们点击右上角新建一个模型,比如是 deepsafe 测试用,点击 confirm, 在 base url 这里填写的就是我们刚刚说的那个服务地址,我们粘贴一下,然后 api k 照例填写我们的 deepsafe v 四 pro 的 api k 继续往下滑,在 model list 这里我们点击添加,我们在这里填写 cloud o p u s, 注意都是小写,如果支持一照上下文的话,我们就点击打开再添加第二个模型。 如果说你只用两个模型,那基本上到这就够了。这里的 cloud o p u s 模型与这里的 deepsea v 四 pro 模型对应这里的 cloud s o n n e t 模型与这里的 deepsea v 四 flash 模型对应。如果说你还有其他需要使用的模型,那你就继续点击添加,如果没有的话两个就可以了。然后我们点击 apply locally 重启,打开 cc switch, 点击启动。然后我们问一下你好, 测试模型发现可以使用,那我们就解决了这个问题了。好了,希望能帮助大家,祝大家用的愉快。

装好了靠的桌面端,但又对着屏幕发呆,那么这七个隐藏技巧,哪怕你是纯小白,看完也能直接起飞!建议点赞收藏加关注,防止以后找不到哦!大家好,我是冰好!技巧一,进入软件,直接在对话框里敲这段指令斜杠, set up, call work, 就会像一个老手一样带你选职业装插件配工具,傻瓜式的操作,五分钟帮你全部搞定。个别插件报错的话,直接跳过就好了,完全不影响你的后续使用。技巧二,靠的桌面端,满屏的英文看不懂,是不是真的很崩溃? 别慌,我自己歪着抠等了一个汉化神器,安装之后,菜单栏点一下,一键汉化重启,靠的直接变成中文,想切回去,只需要点击恢复原版就可以恢复到汉化前的版本了。 画画之后还可以随意切换其他语言。这个 app 只改变你的 app 语言,不会动你 call 的 任何配置文件,快捷省心。技巧三,别让 ai 再乱翻你的电脑了, 看见输入框下面这个工作区按钮没有?点击它旋转你现在的项目文件夹,这等于给 call 的 划定了一个圈圈外的隐私文件,它绝对不碰! 切记,千万别把整个电脑硬盘给全选了!技巧是,一堆文件直接扔给靠的,他绝对是懵逼的。聪明人的做法就是点击加号,或者直接把对应的文件拖进去。 比如说我扔一份,销售一笑给他付上去,然后说按月汇总,找到下滑最大的三个品类,指定上下文,不仅省创意,干活还贼精准。 技巧五,这个功能百分之九十的新手都会漏掉。打开设置里的 global instruction, 在 这里写一句,所有的回复必须用中文,之后不管你怎么问他,他都会用中文来回你。以后你的回复格式、口吻、风格全都可以放在这里,收益极其夸张。 技巧六,嫌,每次都要重新调教,太麻烦。设置里面把 memory 的 记忆功能打开,你随便提一句,我是做电商的,多用转化率分析,下次新对话他直接按你的习惯来, 用的越久他就越了解你,简直就是专属的神仙助理啊!最后一个技巧,如果你经常找不到你的历史绘画,在侧边栏点击 vivo 会打开一个完整的任务列表,在这里你可以多选绘画,一键存档, 在这里也可以看到你之前存档的绘画信息。重要的绘画可以点他们侧边的三个点,点击固定,直接置顶,下次直接就能找到。完成了任务,想把绘画从侧边栏删除, 直接点击存档,就会保存到你的任务列表里面。学会了这七条技巧,那么你对靠的桌面端的使用就算正式出师了,我会持续更新更多靠的桌面端的进阶玩法,不想错过的话,赶紧点个关注吧!

装了 cloud 桌面端,但又用不起来,我猜你们八成是卡在这几个问题上的。今天一条视频我给你们讲的明明白白, 建议点赞关注加收藏,防止以后找不到哦!大家好,我是 win 好。 问题一,搜外部网址的时候直接报错,提示无法访问,这是为什么?这是最常见的问题,原因是 cloud 桌面端默认所指的外部网址的访问。 解决这个问题很简单,点击 developer, 点击 configure free party inference 侧边栏点击 sandbox and workspace, 然后找到 allow egress hose, 点击 allow all 保存重启,再进入对话框,然后你就发现可以访问外部的网址了。问题二,上传图片的时候 a i 完全读不 懂,这不是靠的桌面端的问题,是你用的模型不支持多模态,你得换一个能读的懂图的模型,国产模型里面通一千万字谱,还有 kimi 这几个都是支持识图的 deepseek 的 v 四,它的多模态已经在飞度测试了,相信在不久的将来可以用上。问题三, skills 到底怎么在 co work 上面用 skills, 你 们可以理解成为 ai 的 快捷指令,把你常用的提示词、流程打包成模板,然后一键调用,不用每次都重新写。那么在桌面端怎么使用 skill 呢?很简单,第一步, 添加 skill, 点击对挂框旁边的加号,选择 manager skills, 进入 skill 的 管理页,然后点击页面里的加号,选择 create skill, 然后点击 upload a skill, 把你从 skill 网站上下载好的压缩包拖进来, 它就会添加成功。第二步,使用 skill, 回到对话框,直接输入一个斜杠,会弹出你装好的 skill 列表,选中你要用的那个 skill, 再补上具体的提示词发送就可以使用了。第三步,删除 skill 还是进到 manage skill 的 页面,找到要删除的那个 skill, 点击右上角的那三个点,然后选中 uninstall, 就 可以卸 载干净了。这就是 skill 的 具体使用过程。问题是 cooke 模式和 co 的是开发模式, co work 默认跑在沙箱里面, skills 和 co 模式是隔离的,不会改坏你的电脑,写文档,做表格,处理图片这些小活 直接用 co work 来做。 co 的 模式直接跑在本地权限大,写代码,跑指令,提 gift, 相当于是 call co c i i 的 格式化操作台和 c i i 都是共用一套 skills 和配置的。办公选 co work, 写代码选 co 的 问题五,开了开发者模式,怎么退回正常登录模式呢? 如果你之前为了接第三方 a p i 开的开发者模式,现在想切回 entropic 的 账号登录,点击 app 左下角,然后点击 sign out, 等待 app 重启,重启后点击 sign into entropic, 就 可以切到账号登录了。点击 continue with gateway, 就 可以回到选择 gateway 和登录的页面。问题六,想同时配置不同厂商的模型怎么办?还是进入到我们的 configue free party inference, 点击 new configuration 命名之后还是和之前同样的操作。当你把这些问题都搞懂之后,靠的桌面端用起来就会丝滑 无比。想用 ai 提效,但又受不了靠的和 gpt 太贵,那几十块的国产大模型加靠的桌面端就是你最好的选 择,直接让你的办公效率翻倍。不会接靠的桌面端的话,可以翻我上一期的视频,后面我还会持续更新更多靠的桌面端的教程,关注我,不要错过。

windows 和 mac 用户今天刚更新 cloud 的 桌面端的,你们是不是也谈了这个报错显示模型直接失效,第三方 a p i 连不上呢?不用担心,我已经找到解决方案了,只需要改一个参数就可以解决。先打开你们的 configure free party inference, 然后将你对应的那个模型 id 改成 cloudsonnet 四杠六或者靠的 opps 四杠七就行。目前比较好的解决方案就是这样的,你想继续使用的话,就把它改成靠的厂商的那些模型名字,也不影响使用, 也是可以正常用的。其他的 base, u, r, l 和 api key 不 用改,改完之后保存在本地,然后就可以正常的连接了。 测试完之后是可以正常访问的。虽然他的模型选择显示的不是以对应厂商的那个模型的名字,但不影响使用。

cloud code 桌面端这次升级直接把终端党最头痛的几个问题全解决了。今天 cloud code 桌面端进行了全新升级,新增终端窗口、拖拽式布局、 预览面板、多绘画、变形等功能。下面我们就一个一个的来看。 首先最直观的变化是左侧新增了绘画管理,侧边栏支持多绘画分组展示,以项目的方式进行管理。现在你可以在一个窗口中同时运行多个 cloud 的 绘画,不用再开一堆终端标签页了,那自然都在同一个窗口里了,终端自然也得跟得上。这次 cloud 的 桌面端也内置了终端功能, 可以直接在应用内构建项目,再也不用切出去了。那当我们改完代码之后,该怎么看改动呢?这个新版本中还重构了地府查看器, 每次修改可以更清晰地看到改了哪些内容。那如果你的项目使用了 get, 你 还可以随时切换到不同的提交记录进行查看,回溯起来非常方便。那改完代码之后,你还想看到最终的效果,就可以直接在新增的预览面板里面看到, 该页面展示的就是本地的前端项目,不仅可以直接在应用内进行预览,还可以选中页面的对应元素,直接让 cloud 进行修改。 对于整个页面的布局可以直接进行鼠标拖拽, 我们可以像搭积木一样,把各个面板拖到你想要的位置,打造出自己最顺手的工作台。还有个很容易被忽略的小功能, side chat, 快 捷键是 command 加分号。 当我们有一个主任务正在跑时,我们突然想问额外的问题,那我们不需要打断主对话,可以直接呼出一个临时的对话框,这种方式可以保证我们的上下文完全隔离,不会污染。这个功能就类似 c r i 中的 b t w 命令。 最后呢,就是数据面板新建绘画的首页有图形化卡片和类似 git 风格的活动热力图, 那我们通过切换 tab 页还能够看到各个模型的用量分布。那这次更新下来, cloud co 桌面端基本上可以作为一个独立的工作台来使用了,不再只是终端的附属品。那大家看完这个视频,会不会从中端迁移到桌面端来使用呢?

club 的 桌面端,从此不管是 co 的 模式还是 co work 模式,我们随便可以用了,再也不用担心 club 的 会封我们的号,也不用管它具体怎么认证。接下来啊,我会用这条视频手把手带着朋友们,用简单的三步,把 club 的 桌面端的模型换成其他的任何模型。 这几天体验下来啊, deepsea v 四 pro 真的 几乎和 opus 四点六一样能打。如果朋友们之前已经装过 club 的 桌面端,那我们先要退出登录,每 装过的话呢,安装一下就可以了。然后呢,我们保持未登录状态,点击菜单栏的 help 按钮,再点击这个 troubleshooting 按钮。在弹出的二级菜单中啊,点击这个 enable developer mode 按钮,然后呢,再弹出的菜单点击 enable, 这样我们就打开了它的开发者模式。这个时候啊 cloud 会 重新启动,等它再次启动后,啊,菜单栏就会多出一个 developer 按钮,这个时候呢,我们点击这个按钮,在弹出的菜单中点击这个 configure third part 按钮, 这个时候呢,就会进入到这个页面。这里我们要选择 gety 模式啊,然后我们要填一下 gety 的 best url, 这里其实就是我们要填写的模型的 best url。 那 这里呢,我用 deepsea 的 v 四 pro 给朋友们演示一下。不过 deepsea 有 个遗憾哦,就是图片理解它一直没有,所以呢,我们如果配了 deepsea 模型的话,发截图它是无法识别的。那这个问题呢,我们如果配了 deepsea 模型的话,发截图它是无法识别的。那这个问题呢,我们输入这个就可以了, 因为这个是兼容 astropac 的 best url, 然后下面 getaway apikey, 这里我们就填写我们自己的 deepsea apikey 就 可以了。然后呢下方这里的 modlist, 因为现在 deepsea v 四有对话和推理两种模型,对应 flash 和 pro 这两种模型,所 所以呢,这里我们要填一个 deepsea 微四 flash, 那 下面这个开关我们可以点开啊,点开它呢就是支持一兆上下文了,下面呢我们点这个按的按钮,再添加一行,我们填 deepsea 微四 pro 开关呢,也可以打开啊。最后呢,我们点击这个按钮, 那可乐会再次重启,重启完成,打开后啊,就是那个熟悉又陌生的界面,看四个 deepsea 的 模型,我们现在执行一个任务,看看效果怎么样啊。

我们打开 color code, 加斜杠 config, 然后往下滑,这里有一个 thinky mode 开关,你有没有好奇过,打开它和关闭它到底有什么不一样?我们再打开看 color 的 桌面 app, 我 们问了一个问题,然后界面上会显示一段小字,我们点开它,会展开一段思考的过程。那你有没有想过,为什么在回答之前会有一段思考的过程呢?它对我们最后拿到的答案有没有影响?为什么要把它思考的过程展示给我看,直接给我答案不行吗? 我们先把 thinking 模式的本质讲清楚,普通模式是这样的, cloud code 每轮发给模型一大堆上下文,比如系统提示词, cloud 点 m d, 工具说明,还有你的问题等等。模型读完了,直接预测下一步,它可能是回你一句话,然后可能是调一个工具,可能是跑一个命令,改一个文件,从输入到行动,中间没有东西, 简单任务,这样是没问题的,比如说把按钮的文案从 a 改成 b, 但是任务一复复杂就容易出错了。比如说你说用户偶尔反馈请求会丢数据,那么直接动手只会盯着最显眼的代码改, 但是偶尔出现的问题原因他可能是在缓存,可能是在网络,也可能是引发冲突。得先把可能性列全,才能一条一条排除,没有中间这一步推理,那么模型只能撞运气了。 thinking 模式不一样, a p i 允许模型在最终输出之前先生成一段 thinking tokens, 里面做的就是假设、排除和定位,把可能性都输一遍,然后再生成行动方案。注意这里技术上它不是 call code, 外面再套了一个什么多域算法,而是模型的 a p i 的 输出结构和 token 的 预算发生了变化, 多出来一段中间推理的 token, 关键在于 transform 的 特性,生成下一个 token 的 时候,前面所有的 token 都它的上下文。所以这段先写出来的 thinking token, 它并不是给你看的装饰,而是模型自己用的,它后续生成结果的时候,会基于输入的上下文,加上自己刚写的 thinking tokens 来决定。 所以一句话总结,普通模式是上下文直接生成行动,而 thinking 模式是上下文先生成中间的推理,然后再行动。中间多出来那段就是模型给自己行动之前写的草稿。我贴了两段代码进 coloco 的 cash, 点 j s 是 一个带 t t l 的 内存缓存,分别实现了写函数 set 还有读函数 get, 然后 app 点 js 是 一个测试用力。我们先 set 了一条数据, user 杠一,然后 ttl 是 一秒, 然后我们尝试两秒钟以后 get, 然后期望值是 now, 但是实际行为并没有过期,还能读到值。所以我们问他,我说 bug 是 什么原因,然后是怎么修复的,不用写代码。 然后他回答我说 get 里只读取了缓存里的值,然后并没有检查这个 ttl, 所以 过期这个行为从没发生过。这个缓存实际上是一个普通的 map, 然后还是一样,我们用老朋友 cloud tab 抓取一下这个问答后面的请求,看看 cloud code 里 dink mode 是 如何工作的。打开 cloud tab 抓到请求,有两个字段决定了 dink 的 行为。第一个是 dink 字段,它的值是 adaptive, adaptive 不是 开启思考,而是让大模型自己看着办,让模型根据当前问题的复杂度,自己决定要不要启动思考模式,还有思考有多深入。然后第二个是 effort, 它的值是 high after, 就 一句话告诉模型大概想多深,档位多高,思考的 token 越多,答案越细,但越慢,档位越低,那么少想几步跑得快。一共它有五短,一共是 low, medium, high, extra, high max。 我 们打开服务器返回的响应,主要就看这个 content 的 数值, 里面主要包含两块,一个这个 thinking block, 还有一个这个 text block。 我 们先看 thinking block, 你 看它这里就做了一件事情,就是定位到 bug 是 在这个 get 函数,它取出了值,但是并没有检查这过期时间。 然后我们再往下看这个 text block 的 正式回答,它的修复方案就是在 get 里加一步,对比这个 date 的 now 和 entry 的 过期时间, 过期了就从 map 里删掉,并且返回闹它结尾还给这个修法起了一个名字叫这个啊,惰性清理,英文叫 lazy eviction。 所以 看到这里 thinking block 的 作用就是找到 bug, 然后 text block 的 作用就是修复这个 bug, text 的 这个动作都对得上 thinking 里做出的思考判断。所以说 thinking 并不是写完就扔掉了草稿,而是得到 text 里动作的这些基础。所以总结一下 thinking 模式和普通模式输出的区别。 普通模式,它的 content 的 序组里只有一个 block, 就是 type, 是 text, 装的就是答案本身。但是 thinking 模式下多了一个 block, 是 type, 是 thinking, 它排在 textblock 的 前面,装的是模型给自己写的推理草稿,所以同一个模型同一套预测下一个 token 的 生成机制,区别只是模型在 thinking 模式下输出的最后的 text 答案。之前会把 thinking block 里的写的内容当做上下文都读一遍再做调整。 所以 text 里的答案它并不是模型的第一反应,而是过了一遍推理之后的结果。你可能会想,这段思考是如何产生的呢? 底层模型还是 transformer 机制,还是预测下一个 token? 那 么区别是在训练的部分。现在大模型的训练大致分为四步,第一步是预训练,让模型读海量的文本,学会原本身。第二步是指令微调,教他跟着指令回答问题。 第三步是 r l h f 人类反馈强化,教他如何答得更顺畅,更符合人类的偏好。普通模型走完这三步就上线了,那么看到问题直接吐答案,像 sonnet, 然后 opus 这种 reason 模型会多走。第四步叫 reasoning tuning 推理后训练,这一步未给模型的训练数据格式就变了,它会从问题加答案变成问题加 reasoning 标签再加答案。比如解方程这个二 x 减三等于十四, 那么普通指令微调的样本直接教它输出 x 等于十。那么推理后训练给它的样本会先在 reasoning 标签里写 step 一 展开括号,那么 step 二两边都加六,一项得到二, x 等于二十。 step 三两边都除二,得到 x 等于十,然后才会在 answer 标签里给出 x 等于十。于是模型反复看这种逐步拆解问题的样本,它就学会了遇到复杂问题先把每一步推理写出来再回答的输出习惯, 所以 reasoning 并不是外挂的算法,而是模型在训练里就多学会的一种输出习惯。但是光有习惯还不够,运行的时候还得有 api 协议配合。我们看回请求的时候,那个 thinking 等于 adaptive 的 字段,它就是告诉服务器允许这个模型在 content 里输出一个 thinking block, 没有这个字段,模型就算想推理也没地方写。所以一句话,推理的能力来自于训练里多的那一步。 reasoning tuning 推理后训练,然后运行的时候会被这个 api 的 协议显示开启。回到开头那几个问题, thinking mode 开关控制的是模型,在张嘴回答之前,要不要把思路在心里过一遍,过这一遍的好处,你看到了同一个 bug, 它会每举各种可能性找到合理答案,代价呢就是输出的慢一点,但是 token 呢,也稍的多一点。

兄弟们,这个 cloud code 啊,可以使用中转站了,怎么起用呢?点这个 help, 然后 troubleshooting, 选择起用开发者模式 enable。 我 这个已经是起用过了啊, 好, enable 之后,哎,这怎么没让我设置啊?点它,然后这有一个 developer, 然后选择配置第三方, 这个时候输入你的第三方的 bios u r l 还有 a p r k, 然后应用它会让你重启,重启之后,那么你就可以用中转站的方式来启用这个 cloud code, 还有 code work 一 些东西。 记住要设置一下里面这个隐私这个地方,把这个地理位置把它给关掉, ok。

我们可拉的桌面端升级到最新版本后啊,第三方模型就加载不出来了,还会爆出这种错误,上上条视频呢,我说在模型 id 前加个可拉的前缀就可用了,但后来我发现哦,它默认且只能调用 deepsea v 四 flash, 那 这样一来呢, deepsea v 四 pro 我 们就没法用了。 这条视频呢,给朋友们分享一个最简单粗暴的解决方法哦,快的话五分钟就可以解决。我花了五分钟啊,让 codex 给我写了一个很轻的项目,现在啊,我只需要进入项目目录执行这条命令,那项目呢,就会在我电脑的本地启动啊,看它启动成功了。 那朋友们,这个项目啊,其实随便哪个工具都可以实现。我是给 cortex 说了这段话,然后他就帮我实现了。那朋友们如果想自己做这个项目,也可以用我这段话,当然也可以自己描述啊,反正都是大白话。等他开发结束呢,我们复制他给我们给出的命令,在终端中运行,让项目在本地跑起来就可以了。那 接下来呢,我们验证一下,我们现在打开卡拉的桌面端,那模型这里呢,我选择 v 四 pro 一 兆,这个呢,是我当前 deepsea 的 talk 用量,现在我给他选择一个我的测试项目,给他稍微大一点的工作量吧,走你。然后呢,我们顺手可以看看配置页面发生了什么变化,我现在打开配置页看 getaway bios u r l 这里变了啊,上面这里呢,现在用的不是我们以前默认的那个了,而是它直接帮我们创建了一个 proxy。 现在我们再回过来看 deepsafe 操作的消耗,看 pro 消耗了五毛六,这样就起活了。

首先呢,我们进入这个 cloud 的 官方网站 cloud 点 com, 然后找到这个 windows 系统的这个下载文件,就是桌面端,我们点击下载, ok, 我 们下载完毕,我们就直接安装 文件,一共大小是两百三十兆左右,耐心等待一下啊。 好,安装完毕了,我们打开开始菜单,找到这个 cloud 的 快捷方式,点击打开, 然后进入这个 cloud for windows 的 这个软件界面以后点击左上角的三横横杠,然后点击后尾帮助,然后选择 drop show button, 然后再选择。 然后呢我们再次进入这个菜单,选择 developer, 就是 开发者的意思,然后选择配置第三方的接口, 然后出现一个新的菜单,然后我们在下面就是网关下面可以看到,呃,你使用的新的第三方大模型的 base url 地址和这个 api, 我 们举个例子,我们填入那个 delete, 那 你要提前准备好啊,然后这里要填入这个 base url 地址, 还有这个 api, 然后这个 er, 这个宾馆,这个相对代理的意思。 好,我们填完以后直接点击提交, 然后现在试一下输入,看能不能使用,比方说我们输入你是谁, ok, 现在看这个状态基本上应该是 ok 的, 没有问题,你看下面就是 flash 和 pro 两个模型,你看现在就出现了,我是 glada 的, 但是实际上我们用的是 gasket 模型。 其他的这些部分菜单的话也非常简单,就是新建任务啊,项目啊,定时器啊,自定义啊,这个是你的日常记录啊,这是你的空间,空间,这是上下文。

cloud code 桌面端呢,它现在支持接入第三方的模型了,那我们该如何接入第三方模型呢?这个视频就来教会你。我们先点击这个 cloud 的 客户端,然后进行安装, 然后安装完成之后会有这样的一个界面,但是我们不要登录,我们直接点左上角的这三个横杠,然后依次点击 help troubleshooting, 然后是 enable developer mode, 然后我们继续点 enable, 这样子我们就打开它的开发者模式,然后它就会重新启动,然后我们就在弹出的这个页面中呢,选择这个 configure party 这个按钮, 然后我们就会进入到这个页面,然后我们选择 getv 模式就可以了,现在不就到了一个这样的 getv 的 界面了吗?然后 getv 呢,就是我们要填的一些东西,现在右上角这个是默认,然后我们可以添加模型,点这个 new configuration, 就新建了一个模型名字,可以随便命名,比如说我们要用小米的 mini, 我 们就可以改成小米 mini, 然后在这个地方 base url, 就是 要填写小米给的那个访问链接,然后这个 getv api 就是 要填写你的那个密钥,然后现在填 base url 复制, 然后我们现在密钥也填写完了,在这个位置添加它的模型。比如小米的模型是一个微某 v 二点五 pro, 然后把这个一照的上下文打开,然后点这个 apply locally, 它就会重启,我们等一下, 然后重启之后,我们就可以发现这块有可以选的模型了,就可以正常使用了。那我们如何切换模型呢?也很简单,点击左上角三个横杠 developer, 然后点这个 configure third party inference, 我们刚刚不是添加小米了了吗?我们现在可以换一个,然后点这个 new configuration, 比如说我们现在要添加智谱的,然后在这个该填的位置填上合适的就可以了,依旧像刚刚一样,然后我们就可以切换了,我这块是有已经创建好的,我就给大家演示看一下。 依旧是重启,然后我们就可以在这里选模型了。 ok, 这就是今天的全部教学内容了,希望大家用的愉快。

on cloud 桌面客户端 co work 支持接入国内的大模型,也就是说你不需要有他的账号,你也可以去用他的桌面客户端啊。用这种方式去使用 cloud code 是 不是会比用终端命令行要爽很多?怎么配置?点赞收藏一下,留出一步步的来演示。点开顶部菜单,有个 help 帮助选项,选择 troubleshooting, 这里面有个很关键的打开开发者模式,选中同意,这个时候它会重启这个客户端,重启之后你会发现上面有个很关键的打开开发者模式 third part info, 默认选中 get away。 这里面就是你的第三方模型的 u r l 和 a b i key 这块大家使用 c c 或者龙虾类都很熟了,都会有对应的 base u r l 我 用的是小米的模型啊,贴进去,对应的 key 贴进去,然后关键这一步啊, model list 要把你的模型的 id 要加进去,这一步不做的话,你也配置不成功,有时候用的是 miimo。 二点五好应用, 重启一下,好,这个时候你就会看到这个客户端可以正常执行啦。这个是适合小白的 call work 模式,默认选的是 demo 模型啊,这个适合给刚刚上手的用户,有这么一个图形界面,去做你的一些任务,去做你的 skill。 但是如果说你已经习惯用 cloud code, 比较习惯命令行终端的模式,左上角可以切换成 code 模式,你看这是六叔 使用了一个记录用的模型,这个模式就跟你用终端是一样的,适合有一定基础或者适合编码的那些人,这个也比终端的体验感要好很多。确定好你的一个工程目录文件,这里面去选择它的模式 啊,计划模式授权的方式,你看可以正常使用啊,它作为客户端的其他的功能也都是可以去用的,直接去 create new skill 去链接你的本地的 app。 是 不是让我们 c c 终于有一个官方的格式化途径界面了,爽不爽?好了,按这种方式配置一下吧。我是油叔,关注我持续风靡的 j 酷白了个白。

穷鬼们有福了,之前在使用可乐的扣子的时候,你必须在这个终端里面才能接受第三方模型,而最近他们更新了一个开发者模式,现在开始可以在这个桌面版本里面就可以接受第三方模型,而且不需要登录 之前的话,它强制强制你登录可乐账号的,我们来演示一下到底怎么使用,手把手教你。首先你要在这里下载这个桌面版本,我这边已经下载好了,所以我就直接安装演示,下载好之后会有一个这个 dmg 文件,双击它要把拖动进来安装,然后等它安装好之后, 大家可以看这个应用程序里面双击它打开,确定打开就会得到一个这样的页面,以前你在这里点开始是必须要登录的他,你不登录他还不行,那现在怎么办呢? 我们可以看一下,首先你打开这个 help, help 里面选择第二个,然后这里开启开发者模式,点击它, 这个时候他会让你确认就确认,大家可以看一下这个地方就多出来了一个开发者的一个选项,然后在这个地方选择配置第三方的接口,这个时候就会敲出这么一个页面,然后你就在这个地方配置上你的中转站也好,还是你买的那些 gim 八 kimi 的 那些订阅 codeplay, 我这边的话就演示一下我自己这边的,我先我复制一下我的这个 api key, 然后配置一下我的这一个网关地址,然后这里直接点击应用, 其他啥都不用改,然后等待重启,重启之后你看它跟之前不一样了,它这个地方就不需要你强制登录了,而是会出现一个在网关里面使用的方案, 点击第一个大家就可以看到启动成功了。然后因为我刚刚已经配置了第三方的 a p i, 所以 我那个是一个,是一个比较完善的终端,所以它里面什么模型都有。 比如我们可以找一个测试一下,比如我用这个 kimi 二点六做一个测试,这个时候我们就等待他回答就可以,他有时候回答感觉透风一样,他有时候会回答自己是 cloud, 然后用的是把它自动给我切完成那个 google 了, 选择一下这里会有个坑啊,他默认有的时候会突然给你切换到第一个模型,有的时候你需要重新指定一下,但是一般只会在对话里面第一次会出现这个问题。 ok, 大家可以看到这个时候我们就已经配完成了,他自己已经说他已经知道自己用的是 k 二点六了,其他的话大家可以自己探索。

cloud code 终于出桌面端了,而且支持国产模型,这对于新手来说会更容易上手一些。想入门 ai 也可以从这里开始。以前用老板 cloud code 特别麻烦,还要用 cc switch 来回折腾,步骤多到绕晕。现在 cloud code 的 桌面端一出来, 直接简化到离谱,两步就能配置好,配置好信息就能用,不需要复杂的流程,我个人也比较推荐。接下来手把手带大家一步步操作配置。第一步,先装好桌面板,安装完成,打开软件,不用登录,直接点顶部 help, 在 单栏找到开启第三方插件的选项,我这边已经开过了, 所以不显示,你们第一次进来都会有这个入口,我也把入口样式截图放好了,照着点就行。点进去之后就能看到 developer 开发者选项,选择三方配置,就会弹出配置文件页面,核心就是配置网关,这里可以自定义命名,随意切换,还能复制现有配置再修改,非常方便。我已经提前配置好了,教大家怎么自己填写, 只要填杯子 u r o 和配置信息,再添加对应模型就行,模型可以手动输,也可以直接添加。很多小伙伴肯定好奇我用的配置 都是从哪里来的,今天一次性讲清楚,全都教你们怎么配置。首先先先说小米配置获取方法,有两种方式,第一种,参加小米官方活动,可以直接领取免费额度。第二种,直接注册小米 ai 开发者账号,注册完成 新用户直接送免费体验额度。讲完小米,再来说 deepsea 配置怎么获取,看这里,只需要配置基础信息就能使用,点击新建配置信息生成后直接复制保存,直接叫我配置里的填写就行,官方皆可,文档 也是同一个地址,然后就开始对话,开启你的 ai 之旅了。整套流程就这么简单,配置完就能无缝切换小米 d p c k 模型。

可 log 客户端下完以后免登录操作,下载完以后打开,然后到达登录页面,不要登录, 点到那个 help, 点那个 trouble 收听,进入引爆 develop model, 然后进入这开发者模式,然后引爆。开启了开发者模式之后就点那个上面那个 develop, 然后选那个 config 这个第三方的这个引用,点这个,然后就到这个界面,这个就选 get rid 这个 url, 就 潜入这个。比如说你用的是 deepsafe 啊,你用的国产模型用就用填你自己用的模型的那个 api, 就 这个网址, 如果你用 deepsafe 就 填这个,然后这个 api 就 填你申请的 api, 然后是这些都不用懂,只需要在这里添加艾特以后加上你的模型就行,模型名称就可以。 这里我选的是 deep deepsea vs flash 这个,然后其他都不用填,然后就点这个 apply 就 行,申请就行。 ok, 设置了完了之后你就可以打开,打开那个 cloud 客户端,进去之后你可以测试一下你的模型配置有没有配对,告诉一下几何模型,哪个模型陌生名称是吗? 你看我运行了是 deepsea vs flash, 就 我刚才配置的,然后这个右下角也显示了这个模型的名称。 ok, 到此结束了。就是客户端 cloud 完全免登录使用你的国产冒险可以,而且这个客户端现在功能很强大的,它不只是 cloud 客户端,它也是 cloud code 客户端,它是两个合二为一的, 你看它还支持这个 cooke, 就是 那个多个 agent 运行。而且一个细节,现在这个 cloud code 的 客户端也也有中文文档,没仔细看就行,它有中文文档,有详细的介绍,怎么使用、怎么管理、怎么配置,可以去学一下, ok。

deepsafe 接入 claw 的 桌面板并打开联网搜索全流程操作过程,打开开发者模式, 进入 config 设置, 进入 deepsafe 接口文档, 复制 urao 生成 api, 填入 ura 二和 api, 填入模型名称,打开 em 上下文, 进入 sandbox 设置,点击 allow 打开联网应用修改重启软件测试联网 回复是美国时间,重新发问 正确。

cosco 的 桌面端接入 deepsafe 第三方 api 教学,点开应用后点击右上角,在 help 里继续点击, 在这个位置有一个开启开发者模式,启动后在右上角点击开发者,继续点击第三个, 进入这个界面,保持 get 位,输入 url, 可以 去 deepsafe 官网寻找,复制后粘贴,然后输入自己的 a p i。 接下来添加模型信息, 我这里添加 deepsafe v 四 pro, 开启一百万上下文,然后就可以正常使用了。 想要 cloud code 的 中文语言的方法很简单,随便使用一个 ai 告诉他你需要 cloud code 的 桌面端中文语言包,他就会推给你,还是完全免费的。

今天收到很多群友以及评论区的反馈,更新了 cloud code 之后发现无论是 deep sec 还是其他第三方模型都没有办法使用。如果说你遇到了这个问题,可以按照我说的来做,尝试解决下这个问题。我们点击左上角三条杠,点击 developer, 点击 configure party inference, 在 connection 这个界面往下划,我们找到 model list。 在 模型清单中呢,不管是什么模型,我们都改成 os 默认模型,比如 cloud o p u s 四点七,然后我们点击 apply locally 等待重启,重启之后他就可以继续使用了。虽然说这块的模型名字和原来不一样,变成了 cloud code o p u s 这里的模型,但是实际上跑的还是单方模型,可以正常的去执行任务了。希望我的方法能给大家解决一些问题。今天就到这里了,希望大家用的愉快。