你的电脑是不是找不到主策略? gpe d i t 点 m i c 很多功能啊,需要主策略完成。一般的系统家庭版是不带这个功能的,我们只需要在添加上就可以使用了。 点赞收藏备用吧。我们在桌面啊新建个文件,填入以下命令,点击文件另存为保存类型为所有文件,文件名为一点 bet, 点击保存 右键生成这个文件,以火里来身份运行。安装完之后啊,我们就可以使用主抽列功能了,文件内容评论区支取吧。
粉丝8.8万获赞122.1万

最近香港大学开园了一个项目,叫 nano bot。 nano bot 是 一款超轻量级个人 ai 助手,仅用约四千行代码即可实现核心代理功能。 nano bot 内置了五个 skill cq, 本质上一个 markdown 文件,里面用自然语言告诉 l l m 遇到某类任务时该怎么做。它不是代码插件,而是提示词工程的模块化封装,把人类的最佳实践写成 markdown, 在 需要的时候喂给大模型。 这个设计很聪明,你不需要会写代码就能给 ai 加能力。我们让 nano bot 列出它的四 q 和对应的功能。 skill creator 技能作用是让 agent 自己创建新技能,它会自己生成 skill, 点 m d。 自我进化微的天气查询,用于获取天气和预报,无需 api 密钥。 还有一些需要额外依赖的 skill summarize, 内容摘要总结或提取文本转入内容。 team x 终端绘画管理,用于远程控制 team x 绘画。 github 与 github 交互。这里我们提问,让他帮我们查询当地的天气。 l l m 会调用 read file 读 read skill, 点 md, 按照 skill 指令执行返回结果。我们看查询结果。今日二六年二月四日,温度十一点八摄氏度,天气多云阴天。我跟他说帮我做一个翻译技能 c q, 文件夹下多了一个 translate, 它会自己生成 skill, 点 m d, 写好触发条件,放到 workspace 目录。下次你说让它翻译这段话,它就自动加载使用了。下面我们来一起本地部署 nano bot。 它用了 lightlam 做模型路由,理论上支持一百多个模型。 openai, 智普 d p 格莱玛本地模型,我们按照官方命令克隆项目并安装依赖,安装依赖完成后运行驶使化命令,它会生成 config 点接收文件。这里我们用的是性价比高的智普 glm 四点七模型。 需要注意的是前缀过时问题。 nano bot 代码里用的前缀是基普,但来铁来来米已经在二五年十二月改成了 z i i。 智普不认识老前缀处理后的 api 了,所以报令牌已过期。错误, 我们需要修改 schema 点 py 和 linux provider 点 py 文件。原来字段叫 gpl, 改成 gai 后 nano bot 才能正确读到你 can fake 点 jason 里 z i 下面的 api key 深度对比 opencloud 和 nano bot 架构 下面是我觉得最值得聊的部分。 opencloud 和 nano bot 架构下面是我觉得最值得聊的部分。 tik 经济学用 ai agent 做事,每一次对话都要把系统提示词、工具定义既能描述打包发给大模型,这些东西,哪怕你只是问一句,二加二等于几。 opencloud 系统提示词大概一万四千个 token, 工具定义八千个 token, 您还没问问题呢,光底噪就已经两万两千 token 了。 nano bot 系统提示词压缩到三千到五千, token, 工具只保留了九个核心的定义,开销两千五百 token, 同样的简单查询大概六千六百 token, 省了百分之七十二。再看复杂任务,比如读文件、分析内容,搜索网页跑五轮工具调用 open core 要烧掉十二万 token 的 输入, nano bot 只要三点五万,差了三倍多。为什么差距这么大? 我叉了七个维度来看第一个系统提示词, openclaw 是 全量注入,不管你问什么底噪固定一万四千 token, nano bot 做了精简核心指令压缩,既能只放一个 xml 锁影加样。第二个,反射循环, 这个差异非常关键, openclaw 有 深度 reflection 机制,出错了会反思,反思完重试,重试失败再反思,听起来很智能, 但最坏情况下五轮反射成本直接放大十倍, nano bot 没有反射失败就报错,好处是绝对不会成本失控,坏处是复杂任务的自愈能力弱一些。 第三个,工具加载策略, opencloud 是 二十多个工具全量注入,加上所有 skill 原数据,假设你十次对话只用了一个 skill, 剩下九次全是浪费,会白白浪费。十万 token, nano bot 用了一个巧妙的两级加载 系统提示词里只放技能的 x m l 锁影大模型,看到锁影后自己决定要不要加载完整内容。 第四个,上下文压缩, openclaw 有 autocompaction, 但预值设在五万 token, nanobot 完全没有压缩消息,只会追加敲现了 api, 直接报四百错误。第五个,工具返回结果, opencloud 的 浏览器工具可能返回完整网页 html, 动辄几万 token, nano bot 用 brave search api 返回结构化加载,不过是要和文件读取,两边都没做截断, 但是这个 brave search api 申请需要绑卡,大家有条件的可以尝试一下。第六个,塞设历史管理, openclaw 保存完整消息,包括中间的工具调用列五十轮对话后历史可能超过五万 token, nanovo 只存问答,对中间的工具调用过程不存, 所以增长慢很多,五十轮也就一点五万 token 左右。再看 skills 系统两边都用四 q 点 m d 文件定义技能,但加载策略完全不同。 openclaw 是 全量注入,所有技能都塞进系统提示词, 好处是模型随时能用任何工具,坏处是不管用不用都占 token。 nano bot 在 系统提示词里只放一个技能,所以列表模型看到所以后判断需要哪个技能,再用 red file 工具加载完整内容, 多花一轮调用,但省了大量偷看。你看现在 cloud 的 system prompt 里也有类似的 siegs 列表, mcp 协议本质上也在做同样的事。 skills 这个模式以后一定是标配,不管什么 ai agent 框架,最终都要解决怎么把领域知识高效注入给模型这个问题。 最后总结一下, openclose 定位全能但昂贵,它的功能覆盖确实最全,反射机制让它处理复杂任务时有自愈能力,但代价是每次对话的固定成本高, 存在成本失控风险。 nano bot 代码量只有百分之一,但该有的 react 循环工具调用技能系统一样没少。它不适合所有场景,但对于个人开发者和小团队来说,性价比极高。这期就到这里,觉得有用的话点个赞收藏一下,我们下期视频再见!

兄弟们,我最近发现了一个超神的 ai 工具奥鹏克,他居然能帮我做 a 股量化交易,今天给大家演示一下他到底有多强。首先奥鹏克帮我梳理了 a 股的 交易时间是上午九点三十分到十一点三十分,下午是三零零十五零零集合,计价是九小时十五分钟到九小时二十五点。要注意 基础知识, openclock 直接给我整理的清清楚楚,省得我到处查。然后我让 openclock 给我设 置一个百分之二,最关键的是他把策略代码都没有写好直接, 而且他连拍 手数据用 twice 免费版,交易终端用华泰,策略框架,用自己的 python 脚本。最让我惊喜的是 openclock 看市场偏弱下,偏股占百分之六十六,平均偏股百, 韩邦高德涨百分之二十,安达韦尔涨百分之二十 以上,并且有积 极的对决意识。关注我,咱们下期继续聊。


ai 代理 openclaw 颠覆投研与交易。百度 app 接入普及智能工具。近期开源 ai 代理 openclaw 以惊人交易表现引爆全网,再度刷新大众对 ai 生产力的认知。 海外博主为其注入五十美元启动资金,设定自主盈利支付为 a p i 费用,否则清零消亡的生存指令。该 ai 仅用四十八小时便将资金滚至两千九百八十美元,更有用户借助其全自动高频套利策略,一周在 pollymarket 预测市场获利十一点五万美元, 相关话题迅速登顶社交平台热搜。 opencloud 运作逻辑严谨高效,每十分钟扫描平台近千个,预测市场,依照 cloud api 进行推理,结合气象、体育、加密货币等多维度真实数据,捕捉定价偏差, 当溢价空间超百分之八,便依据凯丽准则计算最优仓位,单仓严格控制在总资金百分之六内,并快速执行交易。其投研效率远超人工,可在十分钟内完成腾讯、美团、拼多多等巨头年报研读,精准提取关键信息,顶级交易员也难以企及。 这款以龙虾为标识的 ai 代理可不属于个人电脑与云端,能定制为私人智能助理,实现美股财报日历扫描、标的筛选、交易信号实时推送、持仓报告自动生成等功能,七成以二十四小时监控全球社媒趋势、 利润达标或逻辑变动时及时提醒。目前 opencloud 已登录百度智能云等国内平台,无开发基础,用户也可轻松操作。外媒消息显示,百度 app 于二月十三日正式接入该工具。 opencloud 的 爆火,标志着 ai 从辅助工具向自主执行智能体进化,大幅提升金融投研与自动化操作效率。但业内提醒,投资伴随风险,用户需谨慎决策,牢牢掌握资金流向决定权,理性看待 ai 工具的辅助价值。

如果你已经用了 linux 很多年,大概都注意过一个小细节,在终端输入 solo 密码时,屏幕上不会显示任何字母。没有字母,没有星号,也没有原点,只有光标在闪。 它的目的是避免旁人通过屏幕预测出密码长度或输入节奏,从而提升隐私保护。近年来,有个项目正在推进,叫 sunda rs, 它本质上是对传统 sunda 的 一次底层重写,不同之处在于它不再使用 c 语言 而改用 rust。 开发者希望通过 rust 重写,在保持使用方式不变的前提下,让 sunda 本身更安全、更稳定。 不过,这个项目仍在持续开发中,即将发布的乌崩 two 二十六点零四还不会用它取代现有 soluto。 很多人不知道,密码输入时显示星号的功能一直都在,只是默认没开启。这个选项叫铺位 back, 起用后每输入一个字母就会显示一个星号,这样用户能确认键盘确实输入成功,也能通过星号数量判断是否输错长度。 使用方法也很简单,运行 sudo v sudo 输入密码,进入配置文件,添加移行 default printback, 保存退出之后再执行 sudo, 就 能看到新号提示了。 别看只是显示新号这种细节变化,它其实代表了一种设计理念的转变。记得点赞关注哦!

今天的任务是教大家用不同的工具来查看同行的广告。在实际工作中,我们投手一般是先用 bixby 去找趋势和灵感,再用广告资料库对感兴趣的同行进行深度分析。首先在 bixby 里面可以找到某个特定行业最近什么类型的广告最火,哪种创意形式比较流行,比如做宠物用品的。 在上面筛选条件工具就会帮我们找到高互动的广告。我们就可以借鉴这些反复出现的爆款元素,还可以把那些频繁出现广告表现也不错的广告主名称记下来,然后去广告资料库里面去搜索这些广告主主页名。如果看到这个广告在活跃投放,而且已经跑了九十天,说明这个效果绝对是稳定的。

全站营销三大投放工具如何进行正确使用?那么今天这个视频来讲解一下。首先全站营销这个工具,它是覆盖京东全站的流量资源,包括搜索跟推荐。整体出价,它是以智能型出价的一个竞价原理, 然后系统会自动寻找高转化人群,那么他的整体出价投放逻辑是基于买家的行为偏好,比如这些客户他之前浏览商品,浏览什么店铺,加个微付款, 收藏商品等等。还有基础属性就是性别、年龄,然后他所在的地区、城市等级、职业、学历等等,包括他的一个购买数据,比如说他历史购买的一些商品,他的品类啊,品牌啊,价格啊,购买的品质啊, 购买金额等等,这些综合维度去根据转额率的一个预估,并且去投放。那么首先这边的话,它有三个投放工具,单笔推广、全推广、更新推广。单笔推广,从正面意思来理解的话,它是属于具体的单笔优化,它的核心投放逻辑总共两种,一种是目标成交团币,一种是最大化获量。 那么前面这个它是基于你设置的目标成交团币去达成你这个目标,后者是设置当日预算的目标, 然后系统进行一个这种出价,在目标预算范围内尽可能去获取订单。那么相对于前者最大化后量,它的爆发力也会更强,但是也会相对不可控。然后控头产品它会更可控一些, 那它的核心逻辑就是投放广告团比优化控制,所以这种中高客单价以及利润比较高的产品它会更适合,那么它的爆发是落后于后者的最大化,而最大化更适合一些竞争力比较强的产品,如果说你想要去快速爆发,选择最大化是会更适合。 然后全店推广它是属于一键投放全店商品,那么它的投放出价也是属于智能投放策略,自动调整出价和预算分配。 但是由于这种投放工具它的逻辑是属于优选,所以它更适合于前期全店的一个款式赛马,它并不适合单品的投放,如果说你要单品具体去优化,最好选择前面的单品推广。当然这种工具它投放也比较适合一些 sk 比较多的店铺,并且有这种简易投放需求,商家也就说我可能不太想去折腾这个推广, 只要设置一个推广工具就可以,那么也行。那么第三个就是新品推广,他必须要包含新品范围,比如说他要 淘集新品,打标新品,或者他至少初时上架要三十天这种商品,那么新品推广比前面的单品推广他的爆发力我们测试下来 会相对来讲比单频信号来得强。但是由于它主要投放的是新品,如果说你链接基础比较薄落,那么进行一个优化好链接再去测试工具会比较适合。所以这个是三种工具的一个方法逻辑跟使用策略,它可以结合自己投放目标以及自身店铺的 su 情况来进行选择。

通过这五个简单步骤,你将能够交易一套真正有效的文件策略。第一步,在更高时间框架上识别你的失衡区,这就是你的关键位置。第二步,在较小时间框架上等待流动性扫单价格需要扫掉最近的高点或低点。 第三步,结构突破价格,先扫流动性,然后打破趋势,这确认了这个走势是真实有效的。第四步,使用斐波纳气工具测量区间,从摆动高点测量到摆动低点。第五步,在该区间的百分之七十一位置入场。即使你亏掉一半的交易, 你仍然可以赚钱。你们大多数人都是在一个迫使自己扩大止损的位置进场,而是反过来会导致糟糕的风险,会暴笔。等待价格回到区间,让他回撤到你的水平,然后再进场交易。这是基于规则的,这是可重复的,这也是你开始建立交易信任感的方法。测试两周,然后看看你的胜率会发生什么变化。