什么是一新模型?一新模型是一种数学模型,用于描述物质的铁磁性。该模型由物理学家恩斯特一新在一九二四年提出。 他在依维情况下求得了该模型的解析结,并证明了他不会产生相变。依新模型的基本思想是将物质中的原子看作具有两种可能的自旋状态加一或负一,并假设原子之间只有最近邻的相互作用。 这样物质的总能量可以用一个哈密顿量来表示,其中包含了自旋之间的交互作用能和自旋与外加磁场的作用能两部分。一新模型可以用统计力学的方法来分析。 通过计算配分函数和自由能,可以得到物质的各种热力学性质,如磁化强度、笔热磁化率 等。一新模型虽然是一个非常简化的模型,但却能够结实物质在不同温度下发生相变的机制,特别是在二维或更高维度的情况下。一新模型可以显示出从无序项到有序项的转变及铁磁性的出现和消失。 二维方经格一新模型是最经典的例子。他在一九四三年,贝拉斯昂萨格求得了精确的解析结, 并且发现了一个临界温度。在这个温度以下,物质具有自发磁化,而在这个温度以上, 物质失去雌性。这个结果也是养理定理的一个重要应用,它表明了相边过程中物理量的奇异性和对称性的迫缺。本期视频就到这里,感谢大家收看。
粉丝49获赞836

一百八十九、蒙特卡洛方法概率型数值计算大家好,这一集我们来讲理论,物理计算物理里最强有力的数值方法之一,蒙特卡洛方法。 一句话抓住核心,蒙特卡洛就是用随机抽样来算确定性问题,把复杂积分、高维问题变成简单的统计平均。 很多物理问题,比如高维积分统计,物理配分函数、量子场论,路径积分,粒子输运皆细算不动,网格算不下,就靠蒙特卡洛。 他的基本思路特别简单,用随机性解决确定性。一、把要求己的问题转化成某个随机变量的期望。二、用计算机生成大量随机数,模拟这个随机过程。 三、对结果做统计,平均平均值就是答案。它在物理里的应用几乎全覆盖。第一,统计物理模拟一心模形象变波色,爱因斯坦凝聚经典气体分子运动, 用蒙特卡洛直接抽样微观状态算出温度压强伤。第二,量子场论与格点模拟 路径积分本质是无穷为积分,格点场论用蒙特卡洛采样场配置算出质子质量,夸克禁闭强相互作用。第三,粒子物理与输运过程, 粒子在物质中闪射、衰变、辐射、能量沉积都是随机过程,直接用蒙特卡洛逐事件模拟。 第四,高维积分,物理里的多维积分,维度越高,蒙特卡洛相对精度越高, 远胜过普通数值积分。第五,不确定性分析,实验误差参数、不确定模型、敏感性分析都用蒙特卡洛快速评估。它的最大优势, 不害怕高危,不害怕复杂,只害怕运气差,只要样本足够多,结果就收敛到真实解。 可以说蒙特卡洛是人类对付复杂高维非限性物理系统的终极数值武器。这一级是计算物理、统计物理、量子场论数值方法的核心内容。建议点赞收藏, 持续更新理论物理系列,向系统学习的朋友点个关注,也欢迎在评论区聊聊你觉得随机模拟为什么能算出确定的物理结果?我们一起讨论。


嗨,大家好,欢迎来到理解深入学习的第十课,我是你们的主持人 joy。 大家好,我是赛,很高兴能和大家一起继续我们的深度学习之旅。赛,我们前面几课呀,聊了神经网络的结构,深层,浅层都讲了, 还讲了损失函数,就是怎么衡量模型做得好不好。对,我们现在知道了模型长什么样, 也知道怎么量化它的表现了。那今天是不是要聊聊怎么让模型学得更好,怎么找到那些最好的参数,让损失函数最小化呢?没错,你猜对了, 今天我们的主题就是模型拟合,我们会深入讨论梯度下降和随机梯度下降这两种核心算法。听起来就很重要,这可是让模型真正动起来,学会东西的关键步骤啊。可以这么说, 理解这些你就掌握了。训练神经网络的核心秘密赛,你能不能先简单说说模型拟核到底是什么意思?嗯,简单来说,模型拟核或者说训练模型学习参数,就是指我们找到一套模型参数 phi hat, 这套参数能让我们的神经网络在训练数据上表现的最好,也就是让损失函数 l of phi hat 的 值最小。 哦,就是找到那个最佳配方是吧?让模型预测的结果和真实结果最接近。对,是这个意思。 这个过程呢,通常是迭代进行的,不是一下子就能找到的。我们会先给参数一个出示值 f, 比如有 n 个参数 f 零 f 一 等等,直到到 f n, 一般写成列式量,然后重复两个步骤。第一步,计算损失函数关于参数的导数,也就是梯度偏 l 百偏 f 梯度。嗯,听起来有点数学,不过我们学生都有点基础,应该能明白。别担心,你可以把它理解为方向,它告诉我们如果沿着某个方向调整参数,损失函数会怎么变化。 数学上一般也理解成一个劣势量,第二个分量就是偏 l 百偏 f i。 第二步呢,就是根据这个梯度来调整参数,目的是让损失降低。明白了,就像我们在一个山坡上,先看哪个方向是下坡,然后就往那个方向走一步。 没错,就是这个形象的比喻,我们希望这样一步步走下去,最终能走到山谷的最深处,也就是走势函数的局最小值。那我们今天讲的第一个方法,梯度下降,就是来解决这个怎么走的问题吗? 对,梯度下降法,英文叫 gradient descent, 它是训练神经网络最标准、最基础的方法之一。我们的目标是找到一个参数组合,让损失函数 l a f i 最小。 嗯,就像我们之前说的找山谷最低点,它从一组随机地出使参数开始,然后一步步地迭代。第一步就是计算损失函数对每个参数的导数, 这些导数合在一起就形成了我们说的梯度。导数就是变化率嘛,那梯度就是告诉我们每个参数的变化会怎么影响总损失了。完全正确梯度会指向损失函数上坡最陡峭的方向。 第二步,我们根据这个梯度来更新参数,更新规则是前参数 five 减去一个学习率 out 乘以 t 度偏 l 白偏 five 减去,那不就是往反方向走了吗? 这里停一下。赛老师为什么要往反方向走?可以给一个简单的证明吗?首先,我们的目标是最小化损失函数, 但是直接最小化,除非是最简单损失函数,我们很难直接求出这个极小点参数。那么我们就没有办法了吗?办法是有的, 那就是我们将直接最小的目标改成通过改变参数,尽可能的把损失函数变小,甚至反复这个过程使得损失函数逐步的达到或靠近最小值。 对于每一个这样的改变步骤,我们的短期目标变成了最小化。 l of 括号斐 t 加 delta phi 括号减去 l of phi t, 并且确保这个目标值是负数,意味着参数改变后,损失函数值变小了。我看到 delta 了, 一旦出现了 delta, 是 不是意味将要使用 delta 展开?是的,如果 delta phi 则够小,那么可以将 l f 括号 phi t 加 delta phi 括号进行 delta 展开,并且仅仅保留一阶 项。于是短期目标变成了最小化偏 l 百偏 phi 作为一个矢量点乘参数变化矢量 delta phi, 并且是负值。 我看到了,我知道矢量内积只有在方向相反时才能达到最小负值,对吧?是的,所以可以推导出 delta phi 必须正比于负的偏凹百偏 f。 哦,我明白了,所谓学习率凹法就是这个正比的比例系数。没错,因为梯度指向上坡,我们想降低损失,所以要沿着下坡方向走,就是梯度的反方向。 这里的学习率 alpha, 它决定了我们每一步迈多大。哦,原来是这样,学习率就好像我们走路的步长,步子迈大了可能走过头,迈小了又太慢。精辟, 这个阿尔法可以是固定的,也可以是动态调整的,比如通过线搜索来找到最合适的布场。那什么时候停下来呢?总不能一直走下去吧?当我们走到山谷的最地点时,那个地方的表面应该是平坦的,也就是梯度会变成零, 也就是偏 l 白偏 far。 等于零的地方,参数就不会再变化了。在实际操作中,我们会监测梯度的大小,当它足够小时,就认为算法收练。 赛尼刚才提到了山谷,那是不是所有的损失函数都长得像一个碗,只有一个最地点呢?问题都问得好贼。我们先看一个简单的例子,比如我们第二章讲过的宪信回归模型, y 等于 f of x phi, 它的损失函数通常是最小二乘损失,也就是 l of phi 等于 i 个小 l i 之合。 其中小 l i 是 第挨个训练样本对损失的贡献,也就是括号 f f x i phi 减 y i。 括号平方 等于括号 phi 零加 phi e 乘 phi 减 y i 括号平方。这个最小二乘损失有什么特别之处吗?这个最小二乘损失作为 phi 一 和 phi 二的二元函数,长得就像一个非常规则的碗, 这种函数我们称之为凸函数。凸函数就是说无论我从哪里开始走,只要一直往下,最终都能走到最低点,对吗?对,凸函数的特点就是曲面上任意两点之间连一条线,这条线都会在函数上方, 这意味着它只有一个局,最地点,所以梯度下降。在这种情况下,无论从哪里开始,都能找到那个最优解。那太好了,听起来很简单啊,可惜阿卓现实中的大多数非限性模型,包括我们后面要学的神经网络, 它们的损失函数都不是图函数,它们是非图函数。非图函数会怎么样呢?会给我们带来什么麻烦?嗯,想象一下,非图函数的山谷地形会复杂很多, 它可能有很多个小山谷,也就是我们所说的局部最小值。比如教材中给出的那个伽博模型,局部最小值就是说,我以为我走到最低点了,但其实旁边还有更低的地方,只是我没发现完全正确。 在局部最小值那里,低度也是零,你往任何方向走,损失都会增加,但它并不是整个函数空间里损失最低的那个点, 那个才叫全举最小值。这就麻烦了。那剃度下降法岂不是很容易被骗,以为自己到了终点,结果只是个假终点。 是的,梯度下降法的一个主要问题就是,它的最终目的地完全取决于你从哪里开始。如果你出土化的参数不陷在一个错的山沟里,那它就可能停在那个局部最小值。找不到全区偶遇节。除了局部最小值,还有别的坑吗? 还有一种叫安点的地方,就像马鞍的形状一样,在安点梯度也是零,但它不像局部最小值那样往任何方向走损失都增加,而是某个方向损失增加,另一个方向却在减少。哇,这地形也太复杂了吧。 那梯度下降遇到安点怎么办?如果你不是正好在安点上,梯度下降还是有机会逃离的。 但问题是,安点附近通常很平坦,梯度很小,我们可能会误以为已经熟练了,然后就提前终止了。看来在高维空间里找最小值,用梯度下账法还真是充满了挑战啊。正是如此着哎, 因为神经网络的参数可以有数百万个,损失函数非常复杂,想要找到局最有解,或者说一个足够好的解。传统的梯度下降确实很有局限性,那我们是不是就没办法了? 总不能每次都从头开始,然后祈祷他能找到最好的吧?当然不是,这就是我们今天要讲的第二个核心算法,随机梯度下降。 static gradient descent, 简称 s g d。 s g d 试图通过在每一步的梯度计算中加入一些噪声来解决这个问题。噪声怎么加?噪声机制其实很简单,在每一次迭代中, s g d 不 会用全部的训练数据来计算梯度, 而是随机选择训练数据的一个小部分,我们称之为小批量或者 batch。 哦,就是说每次只看一部分数据的表现来调整参数, 对,它根据这个小批量数据计算提度,然后用这个不那么准确的提度来更新参数。 这样一来,每次迭代的方向就不一定完全是沿着最陡峭的下坡方向了,甚至有可能暂时往上坡走。没错,就就好像你在走路的时候,脚下偶尔会踩到小石子,偏离一点点方向。 但正是这种不确定性和噪声,让 s g d 有 可能从一个山谷跳到另一个山谷,从而逃离局部最小值。哇,这听起来太聪明了,有点像在复杂地形中故意给自己一点随机性,反而能找到更好的路。可以这么理解, 我们通常会把整个训练数据集便利一遍,这叫做一个 epoch 或者一个回合。在一个 epoch 里,我们会把所有数据分成很多个小批量,然后依次用它们来更新参数。 比如用斐 t 减 alpha 乘上对一个 batch 中的数据, bt 的 所有样本损失的偏导数偏小 li 比偏斐的总贡献更新斐 t 加一, 其中 t 代表当前参数数据, t 加一代表更新后的参数数据。那这个 batch 的 大小有没有讲究啊? 当然,有,一个 batch 可以 小到一个样本,也可以大到整个数据级。如果 batch 大 到整个数据级,那它就完全等同于我们前面讲的全批量梯度下降,也就是常规的梯度下降。 还有,通常 batch 是 从数据集中无放回抽取的,直到用完所有数据。明白了 batch 大 小是可以调整的参数,并且可以确保便利完整的数据级。 那还有没有其他方式来理解 s g d 呢?嗯,还有一种角度是, s g d 在 每次迭代中,其实是在一个不断变化的损失函数上执行确定性的梯度下降。 因为每次选的 bug 不 同,它对应的损失函数也就不一样。哇,这真是个很有趣的视角,它不是在同一个山谷里走,而是在很多个稍微不同的山谷里跳来跳去。 对,但尽管有这种变化型,任何一点的期望损失和期望梯度平均下来,仍然和全批量梯度下降是一致的。 正是这种地形的不断变化,让算法自然地逃离了静态的局部陷阱。塞,听你这么一说, s g d 简直是解决飞突问题的一大法宝啊, 它还有什么其他优点吗?当然有。首先,虽然它加入了噪声,但每次迭代仍然能改善对当前小批量数据的尼合。其次,因为它会无放回的抽取样本并循环便利整个数据集, 所以所有训练样本最终都会做出贡献。嗯,公平公正。第三,只用一小部分数据计算提赌计算开销更低,尤其是在数据量非常大的时候,效率提升非常明显。 第四,就像我们说的,它能理论上逃离局部最小值。第五,它降低了卡在安点附近的几率, 因为总有一些 batch 能产生足够大的梯度,帮助我们离开评判区域。哇,这么多好处啊!最后一点也很重要。 有研究表明, s g d 为神经网络找到的参数,在实践中通常具有很好的泛化能力。泛化能力就是说,模型不止在训练数据上表现好,在没见过的新数据上也能表现好,对吧?正是如此。 不过, s g d 不 一定会在传统意义上收敛到一个精确的点,但我们希望当它接近局最小值时,所有的训练数据点都能被模型很好地描述。 这个时候,无论选择哪个 batch, 梯度都会很小,参数也就不再大幅变乏了。听起来很实用,那我们是不是可以一直用固定的学习率呢?通常不会。在实践中, s g d 经常会配合学习率调度使用 学习率 r 法会从一个较高的值开始,然后每隔几个 e poke 就 按比例减小。为什么要这么做呢?逻辑是这样的,在训练早期,我们希望算法能大胆探索参数空间,在不同的山谷间跳跃,找到一个比较合理的区域, 步子埋大一点没关系,但到了后期,我们大致已经在一个不错的区域了,这个时候就需要更精细地调整参数, 所以减小凹法,让每一步的改动更小。哇,今天的内容信息量好大啊!从模型拟合的定义,到梯度下降的原理,再到随机梯度下降的巧妙之处。没错, 这节课我们算是把深度学习模行动起来的核心算法讲清楚了。但是本章的内容尚未讲完, 下一课我们将会继续讲动量法、阿当算法,还有超参数训练算法,听起来也很精彩,大家记得收听哦! 再次感谢赛的精彩讲解,也谢谢 joey 的 提问和总结。好的,那我们今天的理解深度学习第十课就到这里,我们下期再见!再见!

接下来我们来讲逻辑模型的基础知识哈,它的要点和 property 是 一样的,都是为了把 y 等于一出现的概率固定在零到一之间。逻辑的模型长成这个样子,就是说某个事情 y 发生的概率等于一加一,然后 上面有一个信息组合再分之一,这个信息组合就是我们最熟悉的这个多元回归式的一个形式哈,为什么这个模型的名字叫做逻辑呢?因为它的形式来自于这么一个函数,它叫 logis function 函数。这种函数的特点是形状是 s 型曲线,而且输出范围一定在零到一之间。 在 statement 里面呢,我们就是用 logit y x 这个 code 来跑。需要注意的是,无论在 probit 这个是之前的 probit 式子哈,还是在 logit 模型里面,我们都不能直接把模型跑出来的系数直接解释为 y 等于一概率的一个变化,因为这个外面是透了一层函数的计算的,它不是一个现行的关系。所以说对 logit 的 probit, 我 们需要进一步的去计算编辑效应因子因子的 effect。 比如说在 logit 里面,我们就要跑这么一个命令,我们跑一个 margin d y d x x at x 等于零点二,等于零点二等于多少? 如果说我算出来的 margin theta 告诉我是零点三一,那么这个系数的意思就是,当我的 x 从零点二增加到零点三,那么 y 等于一的概率会增加零点三一,乘上零点二减,对,乘上零点三减,零点二是一个百分之三点一,也就是说,如果我的 x 从零点二增加到零点三,那么 y 的 概率会增加百分之三点一,是这个意思。

为何交叉商不用 mse 呢?什么叫 mse 呢?它是军方误差,它军方误差呢?它适合房价这类连续数字的任务,用在分类上呢,模型就会很迷茫,容易导致梯度消失,学不下去。 交叉商的优势呢,天生就是为为分类而设计的,选 a 还是选 b, 它的对错误的惩罚更重,梯度更平滑,会让模型收敛的更快,效果更好。 我们在多任务学习的落实里面呢,就是模型,它有时会偏科,是吧?我们可能让模型又学 a 这个任务,又学 b 这个任务,那想让所有的任务齐头并进怎么解决呢?就像同学们学微积分一样, 就是一会学微积分,一会学哎,就是算数,微积分呢,它的难度很大,算数呢,难度很简单,我们这里的难度用在模型里面就是 l 式来表现, 就是模型呢只会攻克难题,把简单的任务就越学越差。那么解决方案呢,就是给简单的任务成一个更大的权重,强行让模型重视它或者动态去调整这个机制,哪个任务学的慢,就自动给他加权重。所以说这就多任务学习的一个落实平衡的问题。 然后工程实现呢?我们怎么能稳定的计算呢?在理论和实践之间呢?还有隔着一个鸿沟。这一章我们讲讲。工程师们为了防止 电脑算报,想出了各种巧妙的方法,比如说 softmax, 它是一个就是,嗯,就是它是一个什么函数呢? 它是会把模型,会把原始的一一个原始分数,比如 logit, 就是 比如说它是输出是二五一,它是一个多分类或者多标签的一个一个一个函数。 softmax 呢的作用就是把它们强制归一化,比如说它分出来了一个数字,然后把它归一化到一的概率之后呢,让 就是分出来的每个分布的概率强行加出来,等于一计算过程,就是通过一个分蛋糕的机制,让分数最高的选项获得一个最大的一个概率的一份额。最终呢,我们得到概率之后呢,就可以用交叉商损失函数来评估模型猜的准不准。 就是比如说他分出 abc 三个分类,那么 b 这个分类可能概率最大,那么我们就认为他分的越准,大概是应用是这样的, 那 softmax 与交叉双计算呢?在多分类和二分类的计算上略有不同,就是多分类的计算呢,就是 softmax 会将所有选项的分数变成概率,最后找到正确答案对应的概率,并其对数取取负号,最终就是最终的 loss。 二分二指交叉商呢,它就是会在四和否两个当中去选,所以说它不需要用 softmax, 只需要用一个 sigma 的 函数就可以将分数压缩到零到之一之间。比如输出零点八的概率就代表四,输出零点二的概率代表否?那我们认为这个结果输出零点八的概率代表四的概率更大,大概就这个意思。 如果我们为了防止缩 fitmax, 算就是算报呢,就是它会有一个溢除的一个风险啊,就是比如说 x 特别大的时候,在那公司里面它是溢的,就是 x 方 就是 x 特别大的时候呢,电脑就存不下,就会报错,变成无穷大。所以解决的方案呢,它就是平移法,在分子分母上同时除以 e 的 最大值,然后把所有的输入的分数都减去那个最大的那个数值。 举例说明,就是原先是这样的一个一个分布,减去最大的这样一个分布了,变成这样的一个比较小的这样一个分布,这样算出来概率一模一样,其实这就是一个。怎么说呢?一个平移法吧,就是一个数学的一个一个技巧,这样他其实算出来概率是一样的,但是电脑就不会清,不会爆掉,大概是这么一个问题。 好了,这一张就谢谢大家观看,不知道你们学的没有,我其实还是理解的蛮深的。好,我们下一张再见。拜拜。

他是重新定义宇宙的男人,他是世界物理学界的真神,你可以划走,请你花一秒钟为这位物理学家献上一朵电子鲜花。他就是杨振宁,二十世纪最伟大的物理学家之一爱因斯坦终生未解决的四大难题,他解决了三个,霍金在他面前只能自称小弟。国际物理学峰会上,他稳居 c 位, 而上一个坐在 c 位的就是他的同事爱因斯坦。以上咱们先不谈,咱们先来学习他的理论方程。

我们来看这样一导体,如图,在平面直角坐标系中,点 a 的 坐标为零十二。点 b 为 x 轴上移动点,以 ab 为边,在直线 ab 的 右侧做等边三角形 abc。 若点 p 为 o, a 的 中点连接 pc, 则线段 pc 长度的最小值为多少? 点 b 在 x 轴上运动,点 b 的 运动轨迹是条直线,那么点 c 的 运动轨迹也应该是条直线。求 p c 的 最小值, 那么利用垂线段最短就可以求出最小值。但这道题我们用手拉手思想来解决一下。 点 c 在 等边三角形 a、 b、 c 中,如果我们把点 p 也放在一个等边三角形中,那么就可以构造一个手拉手模型。 我们以 a p 为边,在线段 a p 的 左侧构建等边三角形 a p q 连接 q b。 三角形 abc 和三角形 a p、 q 都是等边三角形, 所以角一加角二等于角二加角三等于六十度, 所以角一等于角三。又因为 a b 等于 a c, a q 等于 a p, 所以三角形 a q b 全等三角形 a p c, 所以 q b 等于 p c。 我 们求 p c 长度的最小值,就是求 q b 长度的最小值。当 q b 垂直 x 四轴时,此时 q b 最小。 下面让我们来求一下 q、 b 的 最小值是多少。我们过点 q 作 q m 垂直于 y 轴,交 y 轴于点 m, 因为 q m 垂直于 y 轴,所以角 q m o 等于九十度。 又因为 q、 b 垂直于 x 轴,所以角 q b o 也等于九十度。又因为角 b o m 等于九十度,所以四边形 m q b o 是 矩形, 所以我们求 q b 的 长度,就是求 m o 的 长度。 a 点坐标是零十二,所以 o a 的 长度是十二点, p 是 o a 的 中点,所以 ap 等于 po 等于六。因为 q、 m 垂直, ap 等边三角形三线合一,所以 mp 等于二分之一, ap 等于三, 所以 m、 o 的 长度是九。所以 q、 b 等于 m, o 等于九。所以线段 p、 c 长度的最小值为九。

好,我们来看这道题,那么对于这样一个呃,直接写出极限的答案的题来说,它是什么呢?我们看到这样的极限, x 趋于正无穷, x 的 阿尔法之密除以 a 的 x, 嗯,这是 a 啊,这是阿尔法啊,嗯,区别不大,对吧?那么我们应该反映出什么呢? 啊?看长相学计算应该看什么长相?看长相就是,你能看出来这是一个什么函数,这是个什么函数?下面这个 a 的 x, 这个 x 在 指数上面,这个叫指数函数, 这个 x 在 下面那个阿尔法是个常数啊。哎,那么这个叫什么?这叫密函数啊。下面这个 no x 是 个对数函数,所以这一类啊,这个什么?这个是一个,这是一个密函数, 所以这个我们把它叫什么呢?我们平时把它叫密值,对关系,密值对密函数,指数函数,对数关对数函数。这上面这个 y 等于一的 x 是 对数函数,这个 y 等于 x 的 一次方, y 等于 x 平方, x 三次方,这些属于密函数,这个 y 等于零。 x, 我 们有没有说成对数函数啊?我们有没有说成对数函数啊?好,那么密值对,它们在 x 去无穷大的时候 都取无穷大的,但是呢,这个指数函数飙的特别快,看到没?这个密函数慢慢多了,这个对数函数,他就是最没出息的无穷大,他虽然是无穷大,但他特别慢,或者反过来说,他虽然特别慢,但他还是无穷大。 所以仅仅从图这个形式,我们就应该能看出来他们怎么了,他们就是只要你能意识到分母是指数函数,分子是密函数,那么它一定等于零。这个分母是密函数,分子是对数函数,对数函数特别慢,特别慢的,它一定为零,就这样子, 哎,就这样子。所以这个密解对关系啊,这是我们一定得掌握的一个模型,一定得掌握的一个模型,哎,好,那么至于怎么证明啊,你可以用路易达去去求解,去证明。哎,哎,我就不在这里讲了, 哎,所以这是必须掌握的这个模型。我们在以后抓大头啊什么的这个做题过程中啊,就要能够意识到,不只是看到这个式子,看到式子一定要能够翻译出来,它是密函数,它是指数函数,它是对数函数。 好,第三个怎么快速写出来呢?那么这里也有对数函数,这里也对数函数,这里也对数函数,对数函数,对数函数。怎么办?换个圆嘛,所以我们要能够意识到可以换圆啊。 x 去正无穷,那么令 t 等于 t 等于零。 x, 那 么 x 去正无穷,它去正无穷,那么这个 y 就是 这个 t 嘛,它也去正无穷,所以 t 也去正无穷, 在正无穷的时候, non, t 减去 t 除以 t。 好, 一样,要大胆的抓大头啊,抓大头,哪个大头?在刚刚讲的密值对关系,这个密值对关系,我们先写出来啊,指数函数远远大于这个密函数, 远远快于对数函数啊,应该叫指密对,但是平时说密对求惯了,因为密密函数用的最多啊。好,那么这是一个什么?这是一个 t 的 一次方,相当于是一个密函数,这是一个对数函数,在密函数面前对行,对数函数慢,乌龟 提掉,这就是负题,求题等于负一,就这么简单啊,所以这道题我们通过看长相就应该能够看出逆函数、指数函数、对数函数这个,呃,大小关系、快慢关系,准确的说叫快慢关系,要敢于抓大头,包括在第三个里面敢于去换元, 快速意识到换元,不是想半天要换元立马换元立马丢掉啊,这样的题你是能够整个三个做出来,应该就十秒钟都做出来的好吧?

我数学成绩常年保持前十的秘诀就是学会函数。函数公式对于我们做题有两个显著的好处,第一个是填空选择题,可以秒出答案,其他同学要算半天,你因为会函数解析式,答案几乎是秒出。第二,对于大题,很容易找到解析思路。 其他同学啊,把答题思路看出来需要十几步,你呢,三四步就能看出来,因此啊,极大降低了你的思维难度,帮你赢得更多的考试时间。就是用这本高中函数全解,汇总了高中常考的所有函数知识点,把这些都吃透了。 无论是基础题还是综合大题,都能找到解析突破口,比如函数的单挑性判断,以及最难的零点存在性问题等。这些结论啊,都是课本上没有, 但是考试可以秒出答案的推导结论,一定让孩子吃透掌握每个结论,还带有视频讲解,不会的老师手把手带你推导解题思路。配套的导数和圆锥曲线也整理好了 一套三本,无论是高一高二打基础还是高三总复习,都很实用,赶紧安排起来吧!

今天呢,我们来讲一下什么是奇偶性。那首先什么是偶函数?偶函数顾名思义就是有配偶的意思,就是 couple, 所以 偶函数它的图像是关于 y 轴对称的,也就意味着我可以画出来的图像一定是长这样,哎,关于 y 轴对称,你看就是左边,右边那有自己的配偶,那大家也看到这就是偶函数,那什么是奇函数呢?奇函数的图像是关于 圆点中心对称的,对吧?奇函数顾名思义就是一个人很孤独,所以奇函数的图像也很孤独,就是一条线。关于圆点中心对称,那这个就是奇函数。那奇偶性怎么考呢?它考的往往就这几个点。第一个奇函数,我们可以得到 f 负 x 等于负的 f x, 应该大家都知道吧,这是个偶函数的话,那我们就可以得到 f 负 x, 应该是等于 f x。 ok 啊,这应该大家都没问题。第二个很重要,就常见的基偶模型。什么叫常见的基偶模型呢?好来,比如说什么时候是基函数啊? x 的 基次方就是个基函数,对吧? x 的 立方, x 的 五次方分之一,等等等等啊,这些都是基函数。比如说 sin 的 x, 这是个奇函数。 tan 准的 x 也是个奇函数。还有什么东西是个奇函数?比如说 e 的 x 之方减去 e 的 x 之方分之一,这个也是个奇函数。比如说 log a 的 括号的根号下的一加上 c x, 括号的平方加减 c x, 这个也是奇函数,这是对数。那对数还有什么?比如说 log a 的 括号的上面是 c x 加一除以 c x 减一。或者是你可以写成 log a 的 括号的 c x 再减一 除以 c, x 再加一,对吧? ok, 这个也是一个奇函数啊,常见的 c 函数的几种考法。那什么是偶函数呢? x 的 偶次方就是个偶函数呗,比如 说 x 平方, x 四次方分之一,等等等等啊,比如说 cosine 的 x 也是个偶函数呗,又比如说 e 的 x 次方加上 e 的 x 次方分之一,这也是个偶函数呗。所以实际上你看,当我们看到复杂函数的时候,那么我们就看一下就有没有积,有的 常见模型可以让我们把这个,把它给用出来,这个在我们整个做题的过程当中特别重要,比如说我们来看一下这题,你看这题呢,就非常变态,超级复杂,那它一定不考代入。在这里的话,先跟大家去讲一个很简单的结论, f x, 我 把这个两个换个位置,可以得到是二零一 七的 x 减去二零一七的负 x 值方加上 log 的 二零一七倍的括号下的一加上 x, b 方加上 x, 括号再加上二,这是 g 还是 o? 那 很明显呢?其实你看这是个 g 函数吧,这是也是个 g 函数,对吧?这是我们刚刚讲过的,就两个都是个 g 函数。好,那我们知道这个东西是个 g, 但这里是加二吧,你说这有个加二,加不是常数,常数应该是个 o 吧,那咋办?什么是 g? 移一下,下面 f x 减二为 g, 所以 你看,也就是说 g x 假设是等于 f x 减二的话,这个时候我们可以看到 g x 一定是 g 函 数,对吧?常见它不是个 g, 减了个二,它不就应该是个 g 吗?对吧?所以 g 应该怎么算呢?你要把四移向过去, f 的 三 x 加一,括号减二,再加上 f x 减二,大于零啊,把四拆成两半, 前面是不可以写成 g 的, 三 x 加一,后面可以写成是 g x 大 于零,对吧?我们其实就可以知道这函数是个什么函数,这是个 g 函数,可以看到很明显单调递增啊,因为二零一七的 x 字方,你很明显看到它就一定是递增,对吧?单调递增,那怎么办呢?直接把括号 拿下来,大于零改成大于零不变,所以可以得到是四 x 大 于负一,也就是说 x 大 于负的四分之一,可以吧? ok, 好, 这个大家有没有问题?学会了的话,大家来看一下这道题,打出你的答案。 苦练十年,不如名师指点,每周我都会在抖音粉丝群分享独家的大招资料,需要的话大家可以进群领取。

驻马店、信阳、南阳、三门峡、漯河的高三党们,这次五式联考的数学卷你们做哭了吗?别慌,今天博主带大家极速复盘这套神仙试卷,尤其是最后一道折叠题,简直是高考风向标!不懂这个模型模考绝对吃大亏!赶紧点赞收藏,我们马上开讲!第一点, 选填有坑,基础不牢,地动山摇。这次选择题第六题直接搬出了古代数学家僧一行的鬼影算法,考三角函数实际应用。第七题,等差数列结合,基本不等式求最值,看着简单计算量去暗藏玄机。填空题第十三题的概率统计, 稍微不留神就会掉进次品率的陷阱。记住,新高考越来越喜欢这种披着文化外衣的计算题,审题必须慢准狠! 第二点,大题重逻辑,立体几何回归本质。第十七题,立体几何没有复杂的间隙套路,反而考察线面垂直的正弦和二面角的正弦值。很多同学习惯无脑间隙,结果算到怀疑人生。其实这道题用几何法找垂心两步就能秒杀,这就是在提醒大家, 回归课本定义,别只会死算!第三点,压轴题王炸折叠问题变双曲线!最精彩的来了!第十九题,圆规画圆再折叠,这不就是经典的折纸定义圆锥曲线吗? 题目让你把圆周上的点折到圆外,定点轨迹,直接就是一个双曲线。第一问送分,第二问直接上重心,内心面积范围,综合性极强。这道题如果没看出 m c m d 等于二 a 这个核心定义,后面根本没法动比。这类动态定义题型绝对是二零二六年高考的超级热点,必须吃透!总的来说,这套卷子重思维,轻套路,强计算,它不是在考你会背多少公式, 而是在考你面对新情境时的拆解能力。还没做完或者做错的同学,别气馁,现在暴露问题就是赚到了。想要这份试卷的解析版,评论区扣六百六十六分,或者直接点个关注后台私信我,免费发给你。

我们接下来讲解天津市中考二十二题的高频考点。我们 boss 模型 在这里面的话呢,有两个三角形重叠摆放,它重叠摆放后的样子就是我们 boss 模型,给大家展示一下是这个三角形哎,重叠摆放共这二边 a, c 这就是我们 boss 模型 图形特征,他有公共,他有公共的直角 c。 往后的话,他的一一条直角边是共线的 b, c, d。 共线 a, c 为他的公共直角边都有 a, c。 直边。嗯,往后在这面做题之间的话,先写 b, d 等于是 c, d 减去 bc, 为了引导你自己转换哪个边。 bc 等于 k 一 倍的 a, c。 那 么这道题是贪念的角 c a b dc 等于 k 二倍的 a a c 那 么这 k 二就贪念角 c a d b, d 等于是 k 一 减去 k 二倍的 a, c。 这道题做题的口诀就是共线,先写差比例,带 a、 c 一 步出结果。