粉丝1706获赞1.1万

今天介绍一下呃,关于把自己的个人数据然后导入到 q 力补的这个过程啊。因为,呃,我们也知道雅虎的,雅虎台阶的数据实际上啊,质量并不是很高嘛,所以我们找一些方法,然后看一下如何去解决。 那我最近呢也调研了一些,呃呃,一些客户端吧,或者一些财经的一些服务,包括像万德 iphone 的 toys, 还有啊佛台啊啊,这这这一些的数据员, 对于个人投资者来讲啊,找到一个便宜又好用的一一种方案,可能是比较好的,一个 个一个前提吧。所以说,呃也调研了一下那 iphone 的,呃,那万德的话,因为价格比较高,另外呢,他只是开放给那个机构投资者,所以这个基本上 就啊考虑了。另外呢,像那个东方财富啊,里面他会有一个 choice, choice 的话,我在某宝上也买了一下 一个月的权限,发现他导出股票的数据的时候啊,最多只能导出三百只股票,那总共有四五千只股票,你要导全部导出的话也非常费劲啊。 iphone 的话,那么也不太容易 啊,也需要呃支付相当多的,呃也也也,这个这个这个这个账号也不太容易拿到, 所以我最后就在某宝上买了一个佛泰安的账号,佛泰安的账号的话,呃把这个所有的数据 啊都导出来了。从一九,我是从一九九一年一月一号啊,我导到了八月十四号,那么他的数据总共有四个 g 啊,那么如果说啊,感兴趣的同学如果想要的话,可以一键三连 我我呃,然后私聊我我我给大家啊,我已经把它传到那个云盘上去了,那么总共是四个 g 的数据,但是这个国泰安的数据呢,实际上并不是。呃,跟呃 q 力股那 这么完整的契合,我们也看一下啊,就是他整个的数据格式呢,是呃, 这有些差异的。首先第一点呢就是它的它的这些数据呢,呃, 只有那个呃开盘价,最高价、最低价啊,然后那个收盘价还有交易量, 那实际上是没有负全因子的,就是在导出的时候他是没有负全因子的,那负全因子呢?他是把它作为一个独立的一个 一个数据把它放进来,对,所以这个时候你就可能就需要做一些,呃,对,这个是,呃这个是负弦因子。另外呢它的指数像那个呃日历本,它是做,呃用那个 csr 三百、固山三百是作为那个 基准吗? smart, 所以它呢也是独立出来的一个一个数据,所以就意味着它我们需要把这三个数据合起来一个呢,就是啊负全的数据, 不全的数据呢,他大家也能看到他,是啊有交易日期,然后包括股票还有那个前付权的因子,后付权的因子还有累积的这个付权因子, 累计的前付权和累计的后付权啊,那我们也知道我们用的是后付权吗?因为后付权的话是那个力度或者是做回测是是需要支持的,所以我们就需要把它合到那个 要到信息里面去,这是第一点。第二点呢就是这个指数的数据,就是三百啊,这种啊指数数据呢,也要把它合进去,但是他的这个整个的 这个呃字段的名称啊,啊可能跟这个股票的价格实际上并不是完完全对齐的,这个里面可能也会有一些差异, 那么我们基于这些情况呢去看一下,就是首先我们啊先导入,对吧?先先用炮,对吧?用炮 啊。另外那我们第一个呢就是把股票的所有的 c、 i、 d、 v 的数据全读进去,这个我们就稍微写一些脚本,对吧?用那个 type 把它链接起来啊, 差不多,因为他应该有三个多 g 的数据嘛,那么应该是需要四十多秒的时间,那我们就可以看一下啊,啊,把这个数据导进去了之后呢 啊,同时呢我们也把啊这个,呃那个负悬因子也把它导进来,是吧?这是我之前导进来的,大家可以看一下。 呃,那么同时呢,我们需要把这个股票的价格和因子把它合起来,合起来的话,因为因子的话它只有因子发生变化的事那一天才会有因子的那个 数据,所以所以这个时候呢,我们就需要啊去填充啊,去填充,我们是拿交易日期和那个他的代码相同的 情况下,然后如果说啊中间有 not 的,那我们就把它一样,大概是这样,我我感觉应该没什么错误啊,那么比如说这种负全因子就可以啊, 那么做完这一点的之后呢,我们我们看一下他的数据,就会把这个对应的数据呢,同时把后面的因子,然后都放进来了, 然后因为,呃整个的,呃整个的那个 qd 部,它在那个股票代码的前面都加上一个 s h 和 s z, 所以我们啊 为了跟这保持一致啊,我也把它加进来了,我就要执行一下这一个函数,就是也,嗯,一些那个数字在前面的就是六零啊,九百啊,用那个 s, 零零啊,二零零三六零,用 s, 对,嗯,对吧?这种是,当然我们也有 有一个叫啊零零三零零零零三零零的护身指数,那一个是还可以,是这个我们会有一些特殊的交代啊, ok, 他执行完了之后,我们去啊过了一下 hide, 对吧? 哦,就把那个 s z 和 s h 给加起来,加完了之后呢,我们因为它的字段呢,跟 clevel 的字段也不一样,所以我们需要把原先的那个字段名称改成新的字段名称, 那么那么这个里面,比如说这种后付钱因子,我们就叫 factor, 那最后呢我们就可能导出来啊,是是这样一个数据日期, 那种开盘价最高最低交易量 factor change, 然后我们把那个指数 把它放进来,这是指数,包括零零三零零这种指数,也把这样的字段把它对齐,因为指数的话我们也要把它加上 sssd, 那么把它合起来,然后做了一个墨纸,对吧? 设置的话,那么这里面是那的,我就都是默认为零,默认零的话我们就看一下 其中啊合起来,合起来了完成之后呢,我们就会把因子啊,然后放进去, 是这样一个,那这样你会发现有一些 factor 他就变成零了,那在这个地方我们需要把它重新替换一下,因为因此你是零,他就没有。那这个时候我们就要这些工作做完了之后呢,我们就把那个数据, 然后啊以的 q 力补的一个股票,一个文件夹的形式 拆出来,所以我就在这个这个里面把它拆出来,那因为我之前已经跑完了,大概是这个样子。对,每一只股票可能就是是这么一个模式。 那这样的话执行完了之后呢?我们再执行他的那个脚本,就是 heaven the script 的那个脚本,然后把它对齐就好了。 这里面叫 gta, 就是国家的前前,前面的拼音我没有跟那个雅虎的混在一起啊,就是后面可能需要多一些个性化的配置。那特别注意的一些一些地方,就是比如说迪塔这个可以不填,因为它本身就是我已经把它调了啊,包括呢写字段,这个字段的 顺序不能不能变啊?你如果变了的话,你实际上是很多数据你是看不到的。上面这一些呢,实际上就是我们作为通过呃个人数据,然后去转换成 qd 数据的这么一个过程,今天就这样,谢谢。

大家好,今天我要给大家介绍一个能让散户投资者战斗力飙升的神器 qlib。 qlab 是 我见过最接近机构内部框架的开源工具,它就像是把机构花几百万打造的重型武器,改造成了我们散户也能轻松上手的便携装备。 qlab 这个由微软亚洲研究院在二零二零年开源的 ai 量化平台,让我们第一次拥有了和机构类似的研究工具。 它完全免费开源,可以在本地运行,不需要依赖云端支持从多因子模型到深度学习的各种策略,还内置了完整的回测系统和风险分析模块儿。 最让我惊艳的是 qlab 的 全流程流水线设计,从 a 股美股数据的自动下载和清洗,到因子构建、模型训练,再到回测验证,整个过程只需要一个简单的 q run 命令就能搞定。 更贴心的是,他连数据源都帮我们准备好了,连 yahoo finance 的 美股数据都能直接获取。还有现成的模板代码可以直接使用,新手也能快速上手。下一期,我会带大家从零开始,用 qlab 构建一套完整的量化策略体系。 相信我,当你真正用上这个工具后,你会发现做量化投资其实比你想象的要简单得多。

建一个呃微软公布的量化大模型啊,量化系统,人工智能的量化投资平台, 然后关注,有三十八点六 k 的 关注啊, 那它有一些什么功能?它是基于 lm 的 工业数据驱动研发的,自主净化的,然后量子量化因子挖掘,量化模型优化 啊,量化金融管道,这是它的一个 top 图 啊,这个一直都有更新的,二零二四年八月八号啊,想研究量化的可以尝试一下。这个很强的,功能很多 啊,叫 qlab, 是 一个开源的人工智能为导向的呃,量化投资平台啊, 它的框架原代码都是公开的,快速启动安装 多可多可那个容器安装 这些图形界面也有啊,分析的图形界面,预测预测信号模型,预测图形都很完整, 有想研究的可以下载去研究一下。 它有那个呃强化学习模拟趋趋势决策、 量化数据及动物园 app 学习框架, 功能很多的 啊,有有感兴趣的想做量化的可以去研究一下。都是开源的 啊,然后在呃 gitlab 上搜 q l i b。

推荐一款强大的 ai 量化投资开源平台, crib 核心优势,全流程支持,包含数据处理、薄型训练、回测等完整 m l pad 覆盖、因子挖掘、风险建模、组合优化、订单执行等。量化投资全面条 丰富模型库,集成了 ahistim、 transform、 l s、 t m 等众多搜特量化模型,还支持自定义模型贡献,灵活易用,提供自动化研究工作流,也支持通过模块化接口构建个性化研究流程,满足不同研究者的需求。 近期推出的二 d a 针更是结合 l l m 技术,支持自动化因子挖掘和模型优化, 为量化研究注入新活力。无论是想快速验证量化策略,还是深入探索 ai 在 金融领域的应用,可以都能为你提供强大的工具支持。


如何用 openclaw 这个工具啊,来搭建属于自己的 a 股自动量化交易系统,以及它为什么可以帮助普通投资者像专业机构一样进行交易。首先咱们要聚焦的主题就是 ai 量化交易的时代已经来了,那在这个领域当中, openclaw 到底是用什么样的方法 取得了让人觉得不可思议的成绩呢?就是在二零二六年的时候,这个 openclaw, 也就是之前的那个 club debug, 它有另外一个名字叫 ai 大 龙虾, 他就是用五十美元作为出使资金,然后在短短的四十八小时之内,通过自主的规划和执行任务,把资金做到了两千九百八十美元。哇,这个收益率高达百分之五千八百六十对,那他背后的这个操作逻辑是不是也非常的复杂? 其实它的核心逻辑还是非常经典的,就是它每十分钟会扫描和预测一次市场,然后通过 ai 的 深度推理,再加上多维度信息的交叉验证,去寻找定价错误的一些机会。最后它会通过凯利准则去控制仓位, 所以它做到了在风险非常低的情况下进行高频的套利。这个东西到底是怎么帮我们这些散户去突破量化交易的壁垒的? 以前量化交易其实主要是机构玩家的一个游戏,因为他们有很多的资源和专业的团队。那现在 openclaw 他 把这些复杂的交易策略变成了可以自动运行的代码,你只要有电脑有网络,就可以让他帮你去执行,无论白天还是黑夜都可以不间断的运行, 可以帮你避免因为情绪波动而做出的一些错误的决策,同时他也可以实时的去监控市场,帮你去处理大量的数据,这些其实都是我们作为个人投资者很难去做到的。 那你觉得这个 ai 交易和传统的人工交易相比,他有哪些核心的优势呢?首先他最大的不同就是他把你的投资思路转化成了一种毫不动摇的执行动作,所以他完全不会受到情绪的影响。 然后他也可以做到不间断的监控市场。对,并且还可以同时去分析多个标的,这其实都是人脑没有办法做到的。这是不是意味着只要我有一个比较好的策略, open clock 就 可以帮我把它的效果最大化?是的,但是前提是你的策略得是非常清晰的, 就是你要告诉他买什么,什么时候买,买多少,什么时候卖,这些都要非常明确,他才能够去帮你精准的执行。 就像有一个很厉害的交易员说过, openclaw 是 最忠实的交易员,他不会质疑你的策略,只会用最高的效率去完成任务。所以我们让 openclaw 作为大脑,专门负责去收集数据,分析新闻和市场情绪,然后去产生交易的信号。 对,那双手呢?其实就是我们的这个量化平台,它会专门去接收这些信号,并且执行交易和做风险控制。哎,那这中间的这个数据流动和交互是怎么实现的呢?这个嘛, q m t 负责去提供实时的行情和历史数据, 通达信是用来做板块分类的, a k share 是 用来拿财务数据的,然后这些东西都会汇总到 openclaw 这边来,最后通过飞书、钉钉或者 qq 来实现这种指令的发送和报告的推送。那首先它会定时的启动, 然后它会通过 qmt 去拉取目标股票的实时价格和成交量,同时也会通过 a k share 去获取最新的财务指标。 嗯,之后呢,它会结合一些技术指标,比如说均线啊, macd 啊,再加上一些基本面的数据来综合的判断到底是买入还是卖出。一旦它确定了交易的信号之后呢,它会生成一个标准化的交易指令,比如说股票代码、买卖方向、价格、仓位啊这些东西。 然后它会通过 hdtp post 这种方式推送到 qmt 的 交易接口。那你也可以选择通过微信或者飞书来人工确认 之后量化平台就会监听这些信号,收到之后就会自动的去执行交易。同时它也会实时的监控你的持仓, 一旦达到了你的预设的止损线,它就会帮你自动的平仓。为了保证你的系统可以七天二十四小时不间断的运行,最好的选择还是云服务器。对,那国内的话,你像阿里云、腾讯云这些主流的厂商都是可以的,他们都提供了 opencloud 的 一键部署,你就不需要自己去折腾那些复杂的环境配置了。

嘿,各位,欢迎来到节目。今天如果你还没听说过的话,有个新的量化算法要出来了。它叫 tabocontos, 它来自纽约,来自纽约大学的团队以及谷歌。 他们推出了一项技术,将彻底改变我们运行全量模型的量化版本的能力,但精度能达到百分之一百或百分之九十九,具体是多少还不确定。 所以我已经经历了英雄之旅的故事。我不管那旅程叫什么名字吧。你知道的,当你真的对某件事感到兴奋时,然后就像我现在所处的阶段一样。嗯,幻灭感。不过我会继续走下去。我会现场展示它是如何运行的。如果你想在家跟着玩,我会向大家展示所有不同的实现方案,我也会展示我得到的结果。 你自己也会看到这其中是否有惊人之处。现在已经有一些争议了。这项技术内部,如果你去查看反馈论坛,基本上看看他们的论文里面提到对 rabbit q 有 点小意见。 我爱这个局面的命名。他们跟这帮人杠上了。然后 rabbit q 出现了。对方说,其实你们在问怎么实现我们的原代码,却没给我们署名, 所以他说 turbo combo 这种 rabbit q 的 保证并非最优,以及学术上的争执。 mark 二零二五年一月的邮件显示,他已将我们的 c 加加实现迁移至 python, 并请求我们协助调试。 所以这里有点像是猫狗大战。但无论如何,我们还是来看看这项技术本身吧。所以这是一个两遍的过程,它能在四比特甚至更少的情况下工作。它们降到两位,如果有效,那就太神奇了。它们使用其中一位比特对 j l 进行量化。 j l 是 我永远忘不了的名字, 尽管我记不住他叫约翰逊林德斯特拉塞。他们对该内容进行量化,那是其中一个位被送到那里,而你提供的其余位,无论是一位,二位还是三位,都进入 ms 最优量化期。如果你想参与进来,实际上可以去 mlx vlms 里查看拉取请求。 实际上有两种实现方式,所以这里有个 at 比特和 at 比特 k v i。 而且如果你去 v l m 或 mx v l m 还有第三个版本, 那还有第三个我都试过了。现在这些实现,两者都只做第一条路径。但别担心,我们也实现了双路径方案。我会向大家展示这一切,它们都在正常工作。这个是实验性的,这一版比较慢, 它全都在 cpu 上运行,但代码是用 python 写的,所以很容易跟着看明白到底发生了什么。这个版本开始将其放入着色器中,具体来说是 metal 着色器,但它实际占用的内存比声称的要更多, 因为它实际上也将完整的浮点十六位结果存储在内存里。所以你实际上并没有节省任何内存。但跟着看仍然很有帮助,因为你可以真正看到量化和减量化之间的流水线,以及所有相关的东西。 所以如果你想跟着操作,也可以在这里查看拉取请求,而且我也把它实现到了这里的推理中。我会向大家展示所有不同的结果和一切。所以,如果你进入设置选项卡,并在模型上下文进度中,你会有正常的十六位微量化版本,你有九位,这几乎是无损的。我会向你展示这究竟意味着什么, 它甚至能降到三点五倍。然后我们有了四比特 turbo, 三比特 turbo 和二比特 turbo。 你 可以选择不同的量化级别。所以,既然我已经跑完了所有实验,我先展示第一个版本。 我们生成了一千个 token。 我 做了一个有趣的测试,没有盲目的让它写代码或生成一百个 token, 而是给它一段已经生成的完整圆代码块来填满它的上下文窗口,并要求它做出修改,添加一个第一人称视角的太空船。 所以它得管理那个上下文窗口,把它量化到低位。希望我们能得到一些好的针线和测试,希望能得到正确的函数。我们去看看那里会发生什么。所以,如果以未量化的一箭头可以运行它,我们需要占用大约一点九二 gb 的 显存。 当我们用九位进行量化时,内存减半,只约一点一 g 字节。 你将它量化到四点五 bit, 现在只需零点五 gb。 而对比之下,当你将其量化为四减 b turbo 时,实际上使用的内存略少一些,为零点五一 gb。 你 甚至可以让它占用更少空间。但我为了保持精度,所以保留了 float 三十二伏点类型。其实你也可以用 float 十六,此外还有 intel 八可功力用。 如果你想在家尝试的话。总之,相比四点五倍自量化方案,这样能获得更好的内存节省效果。你甚至可以降到更低。你可以降到三点五倍,那是零点四 gb。 而且你甚至能降到三比特 turbo, 那 是零点四 g, 所以 仍然略少一些,你甚至还能降到二比特。但我想展示的是,它确实生成了代码,但让我们看看生成的代码到底长什么样。所以,如果我们在这里用全景度运行它,地球依然连贯。现在,我们这里有一艘飞船, 我们遭遇了小行星撞击,并在随机位置形成了一个幻。在这个例子中,我正在这里运行 mini max。 然而,当我进入飞船时,这就是完整的位置。 他给了我一些令人困惑的控制权,所以他是第一第一人称,而非第三人称。所以这些现象纯粹基于随机 token 的 选择。因此,根据你选择的模型不同,可能会发生各种随机情况,但至少你能对完整版本的样子有个概念。当我们 进行九维精度,实地球依然清晰可见。如果你想了解这些演示的背景,我之前在另一段视频中用上下文精度跑过这些测试,你可以去查看并找出具体 的损失等情况。不过,我们是如何走到这一步的呢?这有点像续集采用了 turbo 量化技术。虽然九位在这一点上很酷,但看看这个漂亮的飞船,我们可以四处飞行。它仍然保持了良好的上下文连贯性。接呃, i g 下来,我会展示最终的保真度和复杂度细节,但让我先给你们看一些真实的运行结果。这是九位,八点五位,效果依然不错,触发小行星撞击也正常。恭喜!错!尽管我不确定刚才发生了什么。砰!环形结构 依然存在完全相同的情况。六点五位同样有效。除了看看那艘飞船,稍微有点不一样,但这可能只是随机性的差异。五点五依然不错, 四点五依然表现不错。然后当我们降到三点五位时, 三点五位。这时我们开始遇到运行时错误,程序就像崩溃了一样,所以切换到斯比特 turbocont。 所以 再次我们看到了美丽的地球,它并未失去保真度,我们可以进入飞行模式。看的这个我得说这艘飞船真是太美了。 这艘飞船外观非常漂亮,就像你能看到阴影以及上面的光照效果一样。这艘飞船看起来非常漂亮,所以我说这看起来真的非常好。四减 bit double point 三减 bit double point 你 现在已经丢失上下文了。在实际的地球上,之前我们在做三点五位时就开始遇到运行时错误了, 而这次我们实际上遭遇了变异错误,无法变异,没头狮子,导致地球上下文丢失。 这里还有一种技术被提出,并写出了论文,即混合精度量化。它们的做法是根据各层所需的位置动态调整,量化的程度有时提高,有时降低,所以我做了一个非常基础的版本。我认为头两层和最后两层最为关键,尤其是在进行量化的操作时, 我一直将其保持在思维保证度。而当我只用标准的三点五比特进行放射量化时,再次出现的情况是,我们仍然没有 erp, 并且依旧会遭遇运行时错误。 然而,对于三减被特博旷庭,目前这只是一个单次通过的解决方案。现在我们有了地球,也拥有了飞船,看我们能在飞船里四处飞行。所以除非我们运气好,否则结果显而易见, 我们确实取得了一些改进好的,而到了两位进度时,我们完全失败,简直糟糕透顶。所以这就是目前的情况。现在我要展示它运行的情况,以防你不太清楚目前的状况。我们的四减 bit turbo, 我 就跑一下那个, 所以你可以看到这它正在生成 token。 它每秒大约生成十三个 token。 现在这是一个很大的上下文窗口,大约八千个 token, 而这个版本可以被加速。所以现在我们在每一层都要反量化,以便传入正常的点击计算。现在我们可以将其融合到金属着色其中,让它运行的更快。 但这就是当下的现状。如果我们进入令牌检查器,那么让我们获取一些商值吧。我们可以看到这里来自原始版本的完全未量化版本。我们可以看到这里是用可控制飞船更新的代码。这里是更新后的代码,可控飞船。我已添加了一个有几何体构建的飞船模型, 所以它不再选择 geometry, 而那是原本排名第一的词源。你在这里可以看到,在微量化的原始版本中,有百分之四十一的概率指向那里。当我们进行四位量化后, geometry 就 不再是概率最高的词源了。它现在以百分之三十二成为第二高频词,而之前是百分之四十一。几何体则现在是百分之四十一。 所以它们在那边某种程度上互换了位置。仅仅是由于这种精度损失的情况,所以你可以看到这类错误,而且这也取决于种子值。尽管我在以零温度运行这种太难策略,试图使其尽可能精确且可复现, 那你可以看到它开始漂移了。所以你可以看到 controls 是 这里最顶部的形之一,而 html 则显示为 doc type。 它在顶部开始变写代码,此时使用的是全精度,而在 turbo 四时开始出现差异。 为了确切了解发生了什么,他正在监控量化版本与全精度版本之间的精度损失情况。因此我定制了一个版本来监测这一状况。在十六位下没有任何损失。服务达到百分之一百,误差为零点零零九位则是最高能达到的八位水平,分组大小为三十二。 再次,我们得到了完全相同的与显相似度,平均绝对误差为零点零九,所以这非常低。当我们降到四点五倍时,平均绝对误差为零点一五,所以这比零点零零九高多了。 我们看到结果非常非常相似。现在说到四减 bit turbo, 它只是使用了第一遍的 mse 步骤。 我们得到的平均绝对误差实际上比四点五位更低,但人高于五点五位,因此他声称这是一种近乎无损的量化。 如果你关注的是实际保真度,即缓存中实际的比特及其真实数值,你会发现他远不如你想象的那么无损。 就像九位是零点零九,这里四减比特波是零点一二,而到了三比特时,数值为零点二三是高得离谱, 而那个二比特仅仅是零点五。这简直是巨大的情况差异。但再一次强调,这衡量的是实际比特内容的真实保真度以及比特间的偏差。所以我们更进一步考察了最终结果的困惑度。 你们知道,当我在这里展示顶部 token 发生变化时,比如从 geometries 变成了 geometric, 这就是困惑度的测量指标,它反映了顶部 token 的 致信水平。 这些是我们用五百个 tokens 得到的结果,所以用完整版本,复杂度是零点零七。深层的 top token 与预期完全一致。因为我们采用了贪婪策略,温度设为零,种子也设为零, 所以一切都完美。对上下文采用九比特量化后,再一次实现百分之九十九点六的首个 token, 准确率 非常高。我们只漏掉了两个 token, 所以 我们只漏掉了两个 token, 分 期非常非常低。使用传统的思维量化和仿射量化时,困惑度现在是一点一七,所以变高了。而我们的 top token 准确率已降至九十七点二,所以只有百分之五。五百个 token 中有十四个被选错了, 但当选错时,他们以百分之三十的比例投票。现在说到斯比特 turbo 方案,采用 e pass 配合 m i c 时,我得到的困惑度几乎遍布各处。 嗯,比四位放射量化的略低一点,所以略低一点。所以这个是一一七八,那个是一一一七。 现在我在运行的这个模型是拉玛 e b, 因为它跑得非常快,我得到了一些结果,却得等上永远。也许换个模型会跑得更好,但我这只是展示一下我得到的结果。现在我也对其进行了修改,实际上加入了第二遍的量化步骤。 johnson lindsay stress 量化。我喜欢这个名字,非常好。现在那个方案的问题在于,它不是把四位都交给 msc 以获得最高精度,而是牺牲其中一位用于一次位的二次量化。正是通过这种纠错机制,他们才取得了惊人的成果。 但当我那样做时,困惑度飙升至一点五, top token 准确率降至八十八点二,所以情况更糟了,这对我来说更糟。如果有人感兴趣,我可以分享我正在运行的代码,但再次,我已经展示了个代码,如果你想查看的话,所以目前已经有两三个版本可以查看,而且都是开源的, 而且是的,所以我们看看到了三位会发生什么。而这个版本实际上使用了我们之前提到的缺失位置策略,即前两个和后两个部分采用思维量化,因为这是我们运行时唯一能得到一些结果的方案, 所以这个你知道的百分之九十五的次元准确率,所以单词通过的效果不错。这比两遍的高,但仍低于一遍的思维, 而且它仍然低于传统的斯比特仿生量化啊。经过两遍处理后,困惑度直接飙升至十五点三八。所以我希望那个就像我现在正在这座山的三角。我已经跟他折腾两天了,做各种实验就为了把它搞定。 那就是我现在所处的位置。告诉我你们用这种量化技术发现了什么。因为是的,我真不知道他们是怎么得出这些结果的,而且他们的结果就看看这里完整位置得分达到了百分之九十九点七,他们的得分达到了百分之九十九点七。 他们说其他所有版本都是垃圾,而且他们的那个是最好的,它是无损的。分数相同,他们还在用 lama 三点一八 b 进行真入草堆测试,所以他们的结果令人惊叹。 但话说回来,请记住,我们这里用四减比特波量子生成的版本也达到了同样的效果。看吧,小行星任务依然成功,这真是激动人心的时刻。 接下来会很有趣地看到还有哪些量化机制会出现。另外,关于它们使用的模型还有一点信息呢,是 mini max 和 lma one, 这是我尝试过的型号。 请大家告诉我,你们在家试过哪些模型?如果想一起参与,可以看看这个 m l x l m。 这里有两个版本, p i p a 重离子板,非常简单易懂。 还有一个 turbo quant, 就 在这个这儿,它占用更多内存,不过你仍然可以跟着做,所以它非常好,那是第一遍。还有,如果你去 m l x v l m, 那 是由一个名叫 prince blessy 的 天才少年制作的, 它太棒了!而且它还有一个版本,你可以去看看。我试过了,它其实没怎么行得通,所以告诉哇, turbo quant 会成为量化的英雄吗?我真正喜欢的是。我要这么说,看看他们的论文, 我也很期待尝试其他方法,以便确切了解情况发生的怎样。这真的很酷,告诉我你们怎么想? 希望大家觉得这个视频有用,并且看的开心。

今天我们来聊一聊既硬核又充满创造力的话题,如何从零搭建一个属于你自己的量化投研平台。你可以把它想象成创造一个现代化的投资工厂。它不只是一个简单的交易软件哦,而是一套集合数据、研究、决策和丰富于 一体的自动化系统。今天我就带你们走一遍这座工厂的完整建设蓝图。第一步是先画好设计图纸,也就是确定需求。你要明确这个平台的核心目标是什么,是用来做高频交易还是中长期的资产配置,它需要处理哪些数据,对接哪些市场,想清楚这些,你才能够找到合适的技术框架。有了图纸,第二步就是打好地基, 也就是数据的获取和处理。数据是所有量化策略的基石,你需要建立稳定的数据管道,像流水线一样把行情、财务报告等原始数据采集进来, 然后进行关键的清洗、整理和存储,把原材料变成可供处理的标准化零件。立即打好后是第三步,创建核心的车间策略的开发与回测。这是你发挥智慧的地方,你用代码将想象转化为实际的买卖,其中最关键的一步就是回测,把策略放在历史数据中,时光倒流去模拟测试,检验它的盈利能力和抗风险能力。 回测不是预测未来,而是排除糟糕的策略,策略测试成功。第四步就是自动化生产线交易执行,你需要将策略代码安全稳定的连接在真实的交易接口,让系统能够自动的执行买卖指令,把决策转化为行动,这要求极高的稳定性和低延 迟,工厂运行起来后,第五次必须配上风险控制与监控。你需要实时的监控投资组合的表现、市场异常波动,并设置自动化止损。这就像是为工厂配置了自动防火墙和消防装置。最后,为了便于管理,第六步可以创建一个指挥中心, 也就是用户界面。通过一个清晰的仪表盘或应用,能够让你更加直观的看到所有策略的运行状况。当然,平台搭建只是开始,运营和维护同样也是关键。听到这里,你可能会觉得这真的是一个庞大而复杂的工程。确实如此,它涉及了很多多领域的专业知识。 因此,一个非常务实的经验是,如果你的个人时间和精力有限,与其从零重复造文字,不如直接借助市场成熟专业的量化平台作为你的起点,这样可以让你更加专注于在策略的核心研究上,而不是繁琐的工程实践。 总之,搭建一个量化投研平台是一个从需求定义到数据、策略执行、风控可适化的系统搭建过程。理解这个完整的流程,无论是你打算亲自构建,还是为了更加专业的使用工具,都直观重要。它让你从一个简单的交易者转变一个拥有系统化能力的投资工程师。希望这份建设指南能为你提供启发。

在量化交易中如何写一个完整的量化策略?大家好,我们今天把量化交易策略的核心构成说一遍,不管是入门级的简单策略还是实战级的复杂策略,本质都是由这些模块组合而成。一般来说,一个完整的量化策略通常包含了四个核心运行模块。 第一个,初步化模块, initialize 策略的基础设定环节,在启动策略时仅执行一次。核心作用是定义权的规则,比如设置交易的股票池初步化权变量,如指定标的配置风控参数,如单股最大仓位等等,是所有策略的起点。 第二个,盘前处理模块, before trading stop。 每个交易日开盘前执行属于预处理环节,核心作用是提前完成当日交易的准备工作,比如筛选符合条件的标的,计算行业平均 pe 量比等静态数据,更新,风控预止,避免盘中实时计算导致卡顿或者延迟。 第三个也是最重要的盘中运行模块,盘的对头,盘中执行是策略的核心交易环节,所有买卖操作实时数据效验都在这个模块完成,直接对计交易执行。第四个,盘后处理模块, offer trading end 收盘后执行属于复盘环结合金,作用是整理当日的交易数据, 计算收益,回测输出复盘日子等,使用频率低于盘权处理,可根据个人的交易习惯选择是否添加。 以上就是一个策略完整的四个模块了,这四个模块当中必须要有的就是初步模块和盘中运行模块,盘前模块和盘后模块都不是必须的,根据自己的策略需求编辑就是。好了,今天的分享就到这里了,点赞收藏,下次可以翻出来学习。

大家好,给大家分享一下我是怎么样优化,让那个使用千万三点五三十五 b 的 模型跑出来的速度甚至超越使用九 b 的 模型,而且显存还不易出。 我们先来看一下我这台电脑哈,这台电脑的配置是比较差的哈,那个显卡只是五零六零,它是十六 g 的。 ok, 然后我们现在来考交代一下模型, 我们先来看一下速度,等一下再来跟你们详细说如何操作,还有参数的设置。 ok, 我 们现在随便问问你是谁, 看到没有,这边的速度是将近六十,就是六十多克每秒,如果说没有在录屏的话,可能还能超过一些,然后我们这边随便吧,我就随便敲了,然后我们看一下我的显存占用哈,一直保持在十四点八十五 g 以内 速度的话,他很平稳,也不会有溢出啊什么的,应该算是极致的优化了,像这种的话,你拿来,呃,本地养虾或者说干嘛的都是还不错的。 那有有可能就说,呃,有的人会觉得说我这边上下文可能说只给到四零九六哦,这样子的话可能说会不够用,然后拉高会不会爆显存,或者说速度会不会降很多。 ok, 那 我们现在关掉重新来试一下。 好,我把这个这里啊,我,我现在我们来改一下哈,我这边的参数都已经设置好了,现在这边四十六,我们直接给他拉到多少?先拉到一半吧,就这个模型它总共是二百五十六码。好,那我们现在拉到幺二八。 好, ok, 好, 保存一下,放下我,好,我们重新跑一次, 加载速度还是比较快的。 ok, 好, 我们现在再来重新测一下它速度,速度肯定会有有降,但是你看还是能到五十五帧,每秒 五十五,五十六,我们现在是在已经拉了一半了,已经说非常够用了,平常我们正常普通聊天啊,还有一些做一些事情,包括养虾啊,都不需要设置到这么大。 ok, 我 们现在试着把它拉满,看一下速度有多少来关掉。 好,我再编辑一下,嗯, 二五六,再一个把它上下文直接拉到这个模型的顶峰啊, 我们再来测一下速度,还有一个显存,只要显存不会溢出,它可以控制在这里,它是不会降速的, 看到没有,我们即便把它的上下文拉到最高,它也还有,只是这样的每秒一一两个都可以, 是吧?然后我们看一下显存占用,显存占用的话一直还是保持在这个数值,包括内存他也是没有动的,几乎就说没有用到内存交换啊什么的, 对吧?这样的话,说句实话,这速度比使用九 b 这方面都还不错,都还更好。来一会跟你们说我是怎么样做到的。 ok, 好, 我们现在先关掉哦,我现在这这下是没有开那个加载视觉模型,他这样子的话,他的显存占用大概是十四点八, 然后如果说要加视觉进去的话,会多出一个 g 左右,也是完全可以跑的,只是说速度可能上没有差多少,就是说显存占用上面会多个一个 g 左右,因为如果说看你用途啊,那平常如果说没有用到要那个 要带视觉的话,像养虾或者说什么的 open cloud, 这是就完全没有必要说去开那个视觉模型的,那我们现在来加载视觉模型来再试一下 啊,这个是图图纹的,就是我有加载的视觉模型,我们看一下它的显存占用跟速度, 因为我这个电脑是刚开有加载时间,目前第一次可能会启动慢一点。 ok, 好 的,我要比如说。嗯,使用中文可以把我的所 看一下速度,加载 s 九,它的速度也没有差多少,差,差三个多帧左右每秒。然后我现在试着拉一张图片进去,嗯,这边左边有一张图, 看他推理的也速度怎么样,你看包括推推图,他也是比较快的,也基本上没有动,就是说因为你图片的话,他第一次进去他要识别图片,可能会有些人,我们重新再拉一次, 你看他的速度的话,几乎可以忽略五 g 吧。 然后我们现在试着把这个带视觉模型的,然后且把它的上下文我们也给它拉满。 嗯嗯,视觉哈也改到满吧。 呃,为什么会这么快呢?怎么说我也是研究的比较久,要尝试的不同的优化参数,然后最终还有就是自己量化的模型它的, 我们先看一下这个速度。嗯,接下来我们是拉马龙。呃,二五,那个他现在的速度现在是有降,他有一些, 毕竟他带了视觉嘛,没有带视觉的话会好很多。拉一张同样拉这样子, 那如果说我们我看一下,我们来看一下显存单元, ok, 现在是十五点六,它会比不带视觉的情况下多出零点八个 g 左右吧。 那如果说我们现刚才有看的在我,我们再再来试一试。我在本地运行那个九 b 的 九 b 的 模型,它小很多嘛?我看一下速度, 嗯,那启动为多少?那同同样也是那个带视觉四零九六的, 它的速度是六十六哦,多了多了十左右吧,但是你要想一个是九 b, 一个是三十五 b, 它的体量差差距是非常大的,那模型的性能上面那肯定也是有差异的, 所以说这样子的话,它的速度几乎可以跟那个如果说差十左右,或者说差六到八 token 每秒,那让你们选择,你们是选择使用三十五币还是选择用九币呢? ok, 还有就是说还有一个使用方法,就是怎么样让这个模型呃,拥有联网的能力。好, ok, 我 们现在借助这个软件来使用它, 就是说我们不使用拉玛 c p p 原本的 ui 端,然后我们使用这个第三方的软件来调用这个 api。 我 们本地的 api 啊,我们话题跟新一个话题,因为我这边已经 这个是我前面颜色都好,然后这边那个关掉 网上搜索,我们比如说这边就可以选,比如说百度啊,还有壁印啊,还有谷歌啊等这些,我现在选个百度,然后然后查一下天气。 哦,我刚这个是刚刚忘了切的,切成那个叫什么三十三十五片的那个模型。 好,但是不管怎么样你可以看到了,他是通过这边来连的话,他就会有可以联网,可以搜索到网网上的信息,再来那个 帮我们来热来看一下这速速度。他的我们换,换成九 b。 我 这边不用动,换成三十五 b 的 那个 中文的吧,这边日常用不需要这么多吧?我这边就随便设一个,就四零九六五吧,一半吧,有个八二零。 因为像这边切换模型其实已经没有意义,因为我们设置的那个 api 的 端口啊,这些是一样的,我添加的只要后台我们启动的是哪一个脚本啊?那实际运行就是这个模型, 我想要是先先打开新的新的那个 啊, ok, 他 这边也是一样的,那个这边加号的话,因为这个是啊带图,带图的那个 我们来这里可以看到速度也是五十四标准,然后这边来看,嗯,查询一下那个今天的热点是 你看,因为我们这边通过借助这一个软件,它就能让我们本地模型拥有联网思考能力, 他这个速度的话就比较不准,因为有的说让他直接回答你联网的话,这个会比较准一点,然后这边的话因为他要上网去拉取很多的数据,然后获取的内容有点多,这个就看你查询的内容。 ok, 你 看这些都是就等于说拥有了联网的能力嘛。 嗯,包括来自哪里什么的,这些它都有提供。其实跟 比那个使用 open class 就是 小龙虾的话,联网会方便一点,小龙虾的话你的还要接入一些。嗯, a p i 啊,或者怎么样怎么样。 我们现在来说一下,为什么我使用这个三十五 b 的 模型,速度 相比于九 b 几乎没差,而且在我使用的是五零六零的情况下,速度能达到将近六十,或者说没有录屏的话可以达到六十几。这边重点就是这个模型,模型的话这个模型是 f p 四 g g u f 的, 这个是我自己量化的,因为我之前尝试,因为电脑性能比较差嘛,我就尝试着说,哎,怎么样呢?那个速度更快, 然后后面就说,因为毕竟我是五零系显卡,那我就尝试着说给它量化成 f b 四的四项,那原本的模型是这个,这个它原本的模型是七十一点九九,然后我量化之后的大小的话是 十八点四、十八点四,但是有一点红,你要知道。嗯,在五零七里面 lp 四的量化相比于呃使用 q 四啊什么的, q q 六啊什么的都会更好,因为它的压缩是没有没有像那个 g g u f 那 个 q 级的那种 性能损失那么多的,它可以说现在就是保持在一个性能和性能又上来了,速度又提上来了,显存占用也下来了,所以说它这是最适合这个模型使用的方式。 而且就是说这个模型他还有一点,这怎么说?呃,是这个,懂的都懂哈。他这个是有经过优化的,就是比如说像原本的千万三点五的话,你会出现说你问他一个问题, 哪怕问他一个理好,他可能都思考个半天,打开思考模式的话,那么这个优化之后他就是说思考上面会更准确一点,然后也不会思考那么久。还还有一点,我们可以设置这边可以设置让他思。 嗯,你的脚本里面。 老板你看我们这边设置一个这个第一项,第一项参数,这个零就是代表不思考, 我把这一项删掉的话,他就完全按原本模型的思考模式。呃,他还有一点,还有一种方式,比如说我们这边设置二五六,或者说平常思考或 这是二五六,就说它思考只会思考最多到这个数值以内就不会出现说过度思考,你也可以根据你的需求,比如说你是那些代码啊什么之类的,你可以设置到幺零二四、二零四八, 但是即便不设置这个都会比原本的前文那个来的更好一些。那我们下一次用二五六看一下它就开始思考模式。嗯好,我们先来, 我要你是谁?他现在就会开始思思考,你看他的思考只用了二点七秒 哦联网忘记关了。 但他这个模型哈有一点问题就是他思考经常还是会出现中文英文相互的, 他这个是搜索网络资源再来重新。我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要我要 我要我要我要我要我要我要我要我要我要我要我要。 他就不会说恢复出现烟雨啊什么的 啊,这是一些最简单的问题啊,像我们这边有设置在二五六的那个他就不会说出现,他就只有一些简短的思考, 其实这个模型我们把它关掉它也会,也不会像以前那样子会一直循环一直循环。要说一个问题给你弄半天啊,这边速度的话也有五十六个头。 ok, 好, 现在来给大家讲一下。 呃为什么距离这么快?我是原本使用这个的模型,他是七十七级给他量化之后 氧化成 f p 四的 g g u f 的 时候使用,我也试过使用不同的那个端口来装,就是像 l m 丢丢啊,还有 欧莱玛呀,还有这个,对,只有这一个它的优化是最好的,然后参数设置上也很关键, 那这就不用说嘛,这个就是改为零,那就是不思考,然后改为几的数值,就是让他最大思考范围, 如果说把它删掉,他就按全默认的那个,这个就是我们,呃,就是运行这个脚本后,这个启动 的 ip 啊,还有端口啊,这是我们给他自己的一个模型秘密啊。这个设置的话就是上下文,比如说最大可以设这个模型就是二五六, 然后这个就是同时可以开几个端口一起用,就比如说局域网内,或者说几个 能一起使用一起连,然后设置为一,它的性能会更好一点。然后这边我设置一个,就是说设置一个 q 四的那个量化那种运行,它只会让显存相对再节省个一两百兆吧, 然后这就这些就是一些加速,然后还有这个就是几乎我已经设置好,就是什么温度啊什么的这些,这个具体大家去那个吧。 ok, 好, 现在主要其实其他也没有,就是这个一个这个模型 九 b 的 话,它是原本这个官方的就是这个的,然后那这一个模型 m k 四的是我自己量画的。好, 呃,到嘴,我们现在看一下使用这个模型啊,将这些的光料就使用我们刚刚自己另外的接入小龙虾,让他看一下怎么样小 龙虾我们就只需要纹那个这个设计,这个已经非常够大,上下纹 就不用带视觉啊,带视觉也可以,就说不带视觉的话,像我们十六 g 的 显存的话,它就可以稳稳的在保持在十五以内吧,因为它会更稳定一些,毕竟很多小龙虾它就挂在电脑上长期在用。 你看我们家这个打开,然后我们这个小龙虾的已经是在运行,我这里是刚安装的, 第一次像那个小龙虾连接的话,它会读取很多它系统,也就是我们之前设置的一些上下文具,比如说昨天的问题啊,或者一些东西,它就会让它读取完才开始才充满。 ok, 大家我现在试着让它。嗯, 在我的桌面 文件的文件夹,然后一边的。 嗯,大龙与大 并在 创建的, 然后文档的内容 主题两个一千字,一千字如 分析报告如何让观众一键返回。 ok, 我 给他看一下使用我们的这个模型的速度。好吧, 因为第一次的话都会刚接触,第一次都比较慢,你们等待一下, 你像我这个技能什么昨天晚上刚刚重新安装的, 很多技能什么都没配,现在他第一次的话都要自己去搜索,自己去找怎么弄。 ok, 他 已经好了,在桌面大容量换了一个一万零一个分期报告。 ok, 我 们来看一下有没有。 ok, 有 了,大容量一万零分期报告。嗯,你看 这个我不知道他写的是什么东西,他可能他没有理解吧。那个我再重新按他的一键双联 我也不用吧。嗯,看一下再一次创建 一个文本,文本里面写个三千字,看下多久。呃,言情小说 内容。内容呢?还是? ok, 看一下我们用本地使用这个模型来养虾速度怎么样? 如果说是日常使用,个人建议就是说使用,像刚才那个直接联网来使用会好一点哦,速度还是比较快的哈,他把这些内容,嗯, 我们看一下,朗读朗读一下, 我忘记了,我这边没有人,那个什么。 ok, 我 们进去等一下去周边看看我们家里面有没有啊,毕竟你的第三名。 ok, 而且啊 也帮我们保安,你看可以是可以的,他来养家的话,你看我们看显存,一只挂在里面,也就是保持在这个,只要显存不超不超他的速度都不会下降。 好,我现在把这个雅马仕 p p 的, 还有这个软件以及模型我都看一下,有需要的话一键三连,到时候 给分享给你们啊。第一次做视频说话各方面都不利索,多担待啊,谢谢。