粉丝1477获赞2648


在自然语言处理中,我们经常需要对文本进行处理,比如文本分类、情感分析及其翻译等等。但是计算机无法像人类一样直接理解和处理文本,因此我们需要将文本转化成计算机能够理解和处理的形式,即将文本表示成像样的形式, 这就是词向量表示的概念。词向量表示的核心思想是将每个单词表示为一个向量,使得这个向量能够捕捉到单词在语义上的相似性和相关性。在传统的文本表示方法中,我们通常使用的是词带模型,即将每个单词看作独立的, 将文本表示成一个词频向量。但是磁带模型无法处理词语之间的关系,无法捕捉到单词的语义信息。为 为了解决这个问题,我们引入了词向量表示的概念。词向量表示可以将每个单词表示成一个固定长度的向量,使得相似的单词在向量空间中的距离较近,不相似的单词距离较远。 这样的表示方法可以更好地反映单词之间的关系和语义信息。那么,如何生成这些词像样呢? 这就要引入我们今天的主角沃尔达尔外科模型。沃尔达尔外科的一种基于神经网络的词响亮表示模型,由攻破于二零一三年推出。沃尔达尔外科模型包括两种架构, 连续磁带模型 co 和 sky 模型。 co 模型的思想是在已知上下文单词的情况下预测中心词。我们将上下文单词的词像量相加,然, 然后输入到一个全连接层中,输出中心词的词项量。 skybread 模型则相反,他是在已知中心词的情况下预测上下文单词。我们将中心词的词项量输入到全连接层中, 输出上下文单词的词向量。 word 二外模型通过不断的调整词向量,使得相似的单词在向量空间中距离较近,不相似的单词距离较远。这个过程中使用了一种叫做副采样的技术, 可以使得模型更加高效和准确。经过训练,我们可以得到每个单词的词像量表示可以应用到各种自然语言处理任务中。当然,我这外科模型的应用不仅仅局限于单词的表示,还可以用语短语、 句子和文档的表示。一种常见的做法是将一个短语句子或文档中所有单词的词项量求平均,得到一个平均词项量作为该短语句子或文档的表示。词项量表示和沃尔盖 rap 模型的应用非常广泛, 他们已经成为自然语言处理中不可或缺的一部。词像量表示的优势在于可以更好地反映语言信息,因此,在许多自然语言处理任务中都取得了良好的效果,比如情感分析、文本分类、机器翻译等等。 需要注意的是,词项量表示和 word 二百模型并不是万能的,他们有一些局限性,比如在处理罕见单词和多一词时效果不佳。因此,研究人员们一直在探索更加先进的 文本表示方法和模型。总之,词向量表示和沃尔巴模型是自然语言处理中非常重要的技术,他们为我们理解和处理文本提供了很多便利。希望今天的介绍可以让大家对词象量表示和沃尔巴模型有更深入的了解。

冒后是最重要的埋团运算符之一。他以多种不同形式出现。要获取非单位间距需要指定增量。串联是连接小矩阵已形成更大矩阵的过程。 成对的方括号即为串联运算服务。删除行和列,只需使用一对方括号即可从矩阵中删除行和列。例如,删除矩阵 x 的第二点。根据逻辑和关系运算创建的逻辑项量可用于引用此数组。假的 x 是一个普通矩阵, 而是一个由某个逻辑运算生成的同等大小的矩阵。 对于 nine 和 inive, 结果为 false。 fight 函数可用于确定与指定逻辑条件相符的数组元素的锁引。 find 以最简单的形式返回锁引的列项量 转至该向量,以便获取锁引的形象量。例如,使用一为锁引,选取换方矩阵中的质数的位置。

前几节我们讲了各种特征提取的一些方法,然后有食欲的、频率的,还有食品欲的等等,那么特征提取出来之后,就是要对这个特征进行一个分类或者预测,那么最终达到对不同样本, 不同状态的一个分类或者预测的目的,也就是通过特征来对不同状态进行分类。 那啊就是我做视频有个原则,就是喜欢把这种复杂的一些东西往简单的讲,让大家尽可能的清楚明白啊,直接入门科研啊。然后这节我们主要讲这个分类,然后就是故障诊断,它包含故障诊断啊等等。 那么首先是我们的数据的一个类型,我们先看一下工作区, 那么分类问题,它包含这么多数据,那这么多数据,首先第一个是,嗯嗯,这几个数据我都导入到工作夹工作区,我们看一下,嗯, 那么首先首先是一个,呃, feature 样本一,那么 feature 样本一是什什么意思呢?就是它是五百零五五百零五乘以, 它是五百零五五百零五乘以十三的一个矩阵,那么五百零五就代表 样本一,对吧?样本一的五百零五个样本,那样本一就代表第一种状态的各个特征,然后每个样本包含十三个特征,同理, 本二样本二是五百零四乘以十三的一个矩阵,那么它代表什么呢?它代表样本二,也就是第二种特征, 第二种状态的各个特征,那五百零四就是五百零四个样本,那么每个样本包含十三个特征, 然后因为训练的时候需要把样本一和样本二包含起来,同时进行训练,所以我们生成了一个 feature all 这个矩阵,那这个矩阵就是 一千零九,一千零九怎么得到的?就是五百零四和五百零五相加,得到这个一一千零九,那么当然列数还是十三十三列,所以呢,那他就是有一千零九个样本,那么每个样本还是包含十三个特征, 那么同理,有了特征了,我们是不是要预测它的它的标签,也就是它的 y, 有了 x, 这个是,呃, 它是相当于输入,然后我们要预测它的输出 y, 那么它的 y 就包含一千零九个标签,那么这一千零五就就是标签,哎,就代表 有一千零九个样本对应一千零九个标签,那么同理这个 x 也是 x, 是我生成的一个,呃 呃,这个是矩阵类型的,而这个是表类型的,大家注意一下。嗯,然后同样同样呢也是一千零九个样本的特征,一千零九个样本的标签我们来运行一下, 挂了啊。那么首先是我们把这个工作区给清空了,清空了之后,我们首先把 feature all 倒进来, feature all 还有这个 y o 倒进来,那么这不是我们的输入,这是我们特征的输入,这是我们标签,所以我们现在要开始进行一个分类的目的了。怎么分类呢? 我们直接打开 a p p, 最简单的方法, a p p 里边有机器学习和深度学习,那么直接用这个,呃, classification learner, 也就是分类学习器,对吧?我们直接使用有监督的呃,机器学习,对,对数据进行一个分类,我们点一下, 那么首先是新建一个绘画,嗯,那么我们的数据是从工作区来进行选择的,所以选工作区,那么它自动识别出来了我们的数据机变量,也就是我们的输入是 x, 对吧?输入是 feature all, 然后然后我们的响应呢?就是我们的 测结果,那应该是从工作区来进行选择,那应该是 y, 对不对?这样就选择完了,我们把这些特征全部添加,全部添加就可以了。然后这里边选择交叉验证,还是说选择留处法验证,还是选择无验证?这根据我们的目的,好吧?然后这些交叉验证, 骨折交叉验证,咱们的是定义,直接可以百度就可以明白。交叉验证也就是呃,通过把数据机划分成, 划分成呃各个样本集,然后来防止这个数据的一个过硬核,那流触法也是一样的一个道理,都是防止过硬核,那无验证的话,那就是 那就是不采取任何的一个措施防止过硬核,对吧?你觉得你,你的精度高了,那你就过硬核,那你就尽量的让他硬核的程度高一点,那你就选择无验证,那你如果想选择交叉验证呢?你就选择 交叉验证就行。咱们就按交叉验证来说,然后是开始绘画, 选择了特征之后,嗯,我们直接点训练,我们先看一下效果,好吧?呃,因为我们要知道他的呃准确度到底是多高,我们直接点训练,呃,训练的过程会比较长,因为我的特征选择比较多,大家稍等一下, 然后这边显示他已经在 训练,然后这样他的准确度就是百分之九十九点七,也就是,呃,我一千多个样本,他的预测值大部分都比较准确,对吧?准确率相当要高了。然后我们可以看一下他,他预测的一个错误的一个数据是在哪啊?首先是,呃, 我这我这个数据是两两个状态,对吧?这是状态一,或者说这是状态二,好,这蓝的是状态一,然后这个是状态二,那么他的目的就是把这两个状态分开,然后可以发现他有正确的和不正确的,大部分都正确了,只有一小部分零点 零点三不准确,那么这百分之零点三如何表示呢?那就是这些点,这些离群点,然后我们可以看一下这些他的他的一个状态,这些离散点,然后当然我们这是观察密和这个方差的 一个关系图,我们也可以找其他的,比如说你和这个呃,偏读的一个一个关系图, 能很明显的发现有两个离群点,那就也就是这两个离群点代表了我们的一个误差,他没有准确的预测到,对吧?那么有的人肯定说了,我十三个特征选择有点多,那么我可以想少选一点特征,那你可以这样来选,比如说,比如说我通过这个平均值来选一个特征,或者方差来选这个特征, 那我就把这些勾给去掉,然后就留这两个特征来进行训练,然后我们点 char 两个特征,也就是删了十个特征,只留两个特征,那么我们进行训练, 然后你看如果你只选了两个特征的话,这样他的准确率就比较低了,说明特征的增加会有利于准确度的上升。 同样的我们也可以选其他两个特征,比如说选择这个和这个前两这两个,然后我们继续点训练, 通过这两个特征我们能发现他的准确率是九十九点七。我们可以发现之前我们选了十三个特征,他的准确率是九十九点七,我们现在就选了两个特征,他的准确率仍然是九十九点七,说明这个特征的选择对我们的这个呃,分类的效果是有一个比较大的影响的。 那我我们之前选了十三个,他是九十九点七,现在我们选了两个,他仍然是九十九点七,那也就是我们的特征是有是有多余的,对不对?是有勇于现象的,所以这个特征的选择,那就需要大家自行来进行选择,好吧,根据我们自己的数据来进行特征的一个选择, 从而达到自己的分离的一个目的。然后这是这个啊,当然我们也可以选择一些其他的一些方法,这个是精细度,精细数的一个方,一种方法我们也选择,可以选择这么多方法,你可以选择线性方法,你可以选择中等数、粗列数,数,就是 你看二叉数码就是对一个东西进行分类,继续进行分,继续进行分,根据数据的形式来进行分类。呃,这里边的一些定义我们直接大家百度就就能看懂。然后同样是线性判别, 我们可以用线性的也就判别来对我们的数据进行一个分类,也可以用逻辑回归分类器,然后也可以用 朴素背业、四处分离器,这些都是比较传统的机器学习方法。那最常用的还是支持向量机,我以支持向量机来一个介介绍吧。比如说我用这个线型 srm 来进行训练,我们来训练,我们来 训练这个,这个第四个,好吧,我们来进行训练。哎,我们可以发现通过这个线性训练,我们能,哎,确实通过 sum 的线性这个函儿,我们可以对这个数据 能达到一个更高的准确率,九十九点八,对吧?然后,呃,这个图的这个图的导出就非常简单了,将图导出为图框,然后你就可以直接运用到论文中,对不对?然后你可以另存为, 另存为,比如说另存为各种类型的一个图片,大家自己保存。好吧,这就我都不再多说了 啊,同样的道理,是啊,一个混淆矩阵的一个一个看法,那么混淆矩阵代表啥意思呢?混淆矩阵代表这是我的两类,这是你的预测类,对吧?你的预测是要预测状态一和状态二,但是他真实呢类 也是状态一和状态二,那就那这个对角线也就代表对角线,也就代表你的状态一,你的预测也是状态一,所以五百零五大部分都是对的,但是只有两个离群值, 他正常,他应该是状态二,但是你预测了,就是你预测错了,你预测中状态一了。所以这就是我们的一个混淆矩阵,他可以直观的显示我们的模型的一个准确率,对角线是是正确的,其余的都是错误的,大家自行解释一下,好吧?然后平可以再看一下平行坐标图, 那这个平行坐标图图代表我们这个横是如何进行选择的?然后最终达到我们的一个分离的一个效果 啊?各个特征的一个选择,最终达到我们想要的输出,那么这就是一种呃,普通的传统的积极学习的一种方法,各种,那么最 常用的可能就是啊这种 srim 或者呃最近的分类器啊,像 knn 呐之类的,或者这种这种其余的数大家自行自行试一下,好吧?然后我们,然后我们把这个 这个关了,然后我们假象讲讲另一种学习的学习的思路,嗯,那么当然我们也可以用,我们先清除一下, 当然我们可以也可以用比较啊,比较,呃,就是比较好的一些呃数据学习的方法,比如说深度学习,但是这个深度学习它是针对于图像数据来说的, 所以我们不要用不了这个,那我们只能用这个,呃,这个这个神经学习拟合的一个方法,用这个方法,那么用这个方法之前呢, 我们首先要将我们的数据导进来,首先是 x 和 y, 我们的输入是 x, 我们的输输出是 y, 这是他的标签,标签我把它定成一和二了,因为这个是这个,我们做的任务是一个你和任务,你和任务,所以我们的标签必须是一个数,一个具体的数, 那么前前几类就是第一类数,对吧?然后我们往下看,这是第二种状态,这是两种状态,那么好了,一个特征,一个标签,那么我们还是用这个分类器来进行分类, 那么首先我们可以知道我们的输入就是我们的 x, 对吧?我们的通过一系列的隐含层的一些计算和输出层的一些计算,最终达到我们的输出是我们的标签,也就是一或者二这两种状态,对吧?那么所以呢,我们要进行下一步,我们要把输 输入导进来,输入是 x, 输入是 y, 然后这里边需要注意一下,那我们的样本数是一千零九,对吧?我们的样本数是一千零九,所以我们这样选,选择这个这个标签,我们是一千零九个样本啊,对应十三个元素,这十三个元素就代表你的特征,然后这是 yy 呢,就代表一千零九个样本, 每一个样本对应一个标签,对不对?然后点下一步,我们有输入了,有输出了,开可以开始训练了, 但训练之前我们需要把训练的一个呃训练级要划分一下,一般来说我们的训练级是百分之七十, 然后我们的呃验证级百分之十五,或者测试级是百分之十五,这样他自动划分和标签,然后这些英文解释大家自己翻译一下,然后就非常好理解为什么要验证级,为什么要测试级,大家自己百度一下,验证 的目的也是就是减少过滤盒,测试器是呃,为了验证我们这个模型的一个有效性,然后我们点下一步,然后我们可以选择一个隐含层的一个节点的个数,然后一般来说,呃, 你的特征越多的话,你的应含成结点应该越多才行,大家自己选择,如果我选择,比如说我选择,我也可以选择十,当然我可以选择十五,我们接着选择十五吧,我们认为这个我的输入比较多,我们就选择十五,十五个结点来进行一个呃一个训练,然后下一步, 下一步,这我们可以选择一些优化的一些优化的一些方法,大家有背也思,背也思优化方法,然后这些呃这些 skill 的就是应该是平均均度的一些呃的一些优化算法,然后这个是 这个是这种优化算法,大家自行百度一下,然后我们点,我们如果想选用第一种的话,我们点训练,我们看一下这个训练的效果,然后这是训练的 performance, 这是一个效果,那么这是一个效果。我们可以发现,嗯,他这三种训练的一个过程, 他的曲线是不一样的,按理论上来说应该这三个曲线是越接近越好,为什么?因为你的训练级的误差曲线,如果跟测试级和验证级的误差曲线相近的话,也就代表了你这个魔性的有效性,对吧?那么现在有点不相近, 可能是我们的一个要训练的一个优化算法没有找好,那么我们可以找这个另一种优化算法,背一丝优化算法,我们看一下训练, 然后我们点这个 bs 的优化算法,可能啊,可能有点,又有点差了,你 他的他的一个训练机和测试机明显的不一样,那说明这个优化算法也是不合理的。那么我们再找一个优化算法, 哎,我们没有点,没有点 retreat, 点一下 retreat, 然后训练好了之后我们点 performance, 哎,这个我们就可以很明显的发观察到这个,这个 这个优化算法他就比较合理,因为他代表了我们的测试机,呃,训练机、验证机和测试机这三个这三种优化算法的效果是一致的,也就代表这个模型 不管在哪一种训练题上,他都是有效的,那是最有效的,所以我们画一下这个他的训练的一个状态,然后这是他梯度的一个变化,这是他离群值的一个变化,然后大家自己看一下,然后我们再看一下这个这个误差,误差的一个 统计误差,这个统计他是最合理的,呃,中线代表没有误差,那理论上来说,我们的所有数据越靠近这个中线肯定越好,他的效果是越好的,但是现在他没有做到这样,但是也不错,为什么呢?因为他的误差基本上最接近,大部分都趋近于顶, 对不对?他的误差最最高的误差也就零点四,这是零点六,也就是那这 误差不是那么大,但是,呃,最小的误差呢?那基本上接近于零了。这些这是最小的误差,基本上都接近于零,越靠近中线是越好的,说明我们这个数据分布的一个有效性,也就是,呃,他能准确的啊,得到这个误差 这壶茶的统计表,然后我们关了,最后我们点,我们点这个拟合曲线, 哦,不是,这个不是,这应该是 regression 这个铝合曲线,那么这个铝合曲线代表啥呢?也就是 首先是四个,是四个验证机,对,是三个验证机,比如说第一个是训练机,然后是验证机,然后是测试机,这三个验证机,然后是所有的所有的数据,也就是把训练机、验证机和测试机所有的数据加起来统一的进行显示。这是这四幅图, 那第一幅图代表啥意思呢?第一幅图啊,第一幅图,这是你的目标,对吧?你的你的标签,你的标签是一或者二, 那你的输出是不是应该也是一或者二,他俩应该是之间相互对应的才对,所以这根这根曲线,这个二值越接近于一,说明代表你这个拟合程度越好,也就代表你这个模型的效果越好。那这四幅图 是一致的,那么那么他的 r 值已经达到零点九二了,也就意味着你的标,你的这个标签和你的呃,你的预测值和你的真实值是相相互比较吻合的,说明你达到了一个分类的一个效果,对吧? 那这就是啊整个一个预测的一个过程,一个分类的一个过程, 然后呃基本上工具箱,工具箱也就是这样式的,如果大家如果大家想自己学习自己的一个呃,呃深度学习的一个网络的一个构建,那么还需要呃通过深度学习的一些算法来进行实现。但是深度学习一般来,一般来说呃在这个拍份上实现比较容易, 在这个白的 lab 上可能时间会相对要复杂一点,然后主要就是用这个,呃这个 colourth education 和这个神经网络,简单的神经网络的一个一个训练。呃,今天的分类视频就讲到这里。

大家好,欢迎收看求索歌的 matalaba 教学视频, 这里是我的 qq 号和微信号,欢迎同学们加我为好友,一起探讨麦特那个问题。今天我给大家讲解的是详解二维曲线图的绘制, 这里是我们今天的教学内容。首先通过一个二维折线图绘制的引力,给同学们引出 mac lab 绘图函数 plot 的调用格式。 接下来通过四个具体的绘图案例,详细讲解 plot 函数的多种调用格式和不同类型曲线图的绘制。 在视频的后半部分,还会给同学们讲解希腊字母和一些特殊字符在麦特拉卜里的写法, 坐标系和曲线属性的一些常用设置,以及 figu 图形的保存方法。首先来看引力二维折线图的绘制。 二维平面内有四个坐标点,这四个坐标点的横坐标和纵坐标列在了下面这个表格里, 第一行是这些点的横坐标,第二行是这些点的纵坐标。有了坐标值,我, 我们就可以将这四个点在坐标系里画出来。 接下来将这些点使用线段依次连接, 就可以绘制出三根二维折线。这样的一个绘图过程在 matalebaby 使用二维曲线绘图函数 plot 来完成。 我们将离散点的横坐标定义在变量 x 里,将离散点的重坐标定义在变量 y 里。 plot xy 这句代码 mataba 就会将这些离散点连成线。 二维曲线的基本要素是曲线上的离散点。在绘制二维曲线图时,我们需要先定义出曲线上离散点的横坐标 和重坐标。 需要说明的是,离散点的横坐标 x 和重坐标 y 可以是项链或者矩阵的形式,在后面的案例中会给同学们分 分别讲解和演示。下面到迈特拉布里演示一下二维折线图的绘制。 打开原程序代码 a 二杠一, 将四个离散点的横坐标定义在项链 x 里。将四个离散点的重坐标定义在项链 y 里。 plot x, y 将离散的坐标点连成线。运行一下这一段代码, 我们绘制出了四个离散点的折线图,用鼠标点击四个坐标 点所在的位置,显示这些点的坐标值。 右击鼠标删除所有的 data tips。 还可以使用坐标系右上方的 data tips 工具, 点击一下坐标点,配合键盘上的左右键或者上下键,依次查看这些点的坐标值。 重新回到课件。 通过二维折线图的绘制,我们现在知道了二维曲线的绘图过程是将离散的作 标点连成线的过程。需要注意的是,计算机是一个离散系统,我们只能使用有线数量的离散点来绘制曲线。 现在我们初步了解了 plot 函数绘制二维曲线的过程和方法。一起来看一下 plow 函数常用的调用格式。 将离散点的横坐标定义在 x 里,重坐标定义在 y 里。 横坐标 x 和纵坐标 y 可以是项链或者矩阵的形式。最简单的调用格是 plot x, y, x 为横坐标, y 为纵坐标。绘制二为曲线。第二种调用格式多了一个参数, lying spec, lying spec 用来设置曲线的显示效果。 关于拉音 spac 的具体解释,我们等一会儿再讲。 第三种调用格式里有多组的横坐标和纵坐标,这时白特拉伯将绘制出多组的曲线, 分别是低族曲线 x, e, y。 一,您现在收看的是玉兰版的 mac lab 教学视频,获取完整版的 mac laba 教学视 和。更多的学习资源请联系求索哥的 qq、 微信或者手机 扫一扫下面的二维码,可以加求索哥的 qq、 个人微信、微信公众号、微博和抖音。

同学们好,我是你们的小新老师,从现在开始我们学习 mataba 最优化算法的线性规划问题, 首先我们要了解一下线性规划的概念,那么什么是线性规划问题呢?就是,嗯,带线性约束的现行目标函数的最小化问题, 那么这个相信规划的数学模型呢,就是我们这一块内容,那个 ststs 点, t 点就是呃对应的我们对这个数学模型的一个边一个呃约束条件, 那么 a 乘 x 小于等于 b 呢,是我们这个函数模型的一个不等, 是约束,那么 aeq 乘以 x 等于 bq 呢,就是我们数学模型的等式约束。 然后呢,还有对自变量就是决策变量的一个上下线的一个约束。好,那么学了,我们看到了这个数学模型有这么多的参数,那 我们需要对这个这么多的参数呢做一个呃线他的这个数组的一个规范。那么首先呢 f 就是我们的数学模型 里面的 f, 然后角色变量,嗯,还有我们的 b 就是约束不等式,不等于是约束条件,还有 bqlbub 是作为是一个项量的数组, 那么 a 和 aq 呢?是一个矩阵的书桌。然后呢我们 mataleva 对于这个数学模型的这个现行规划的求解呢,提供了一个一个函数,那我们了解一下这个函数的用法, 那么这个函数就是 lanprog, 首先我们要看一下它的吊用格式, 那么这个调用格式呢?和之前我们讲的呃,在呃在这个单面量的里,单面量最油化问题里面讲到的基本上类似, 我们可以看得到之前我们讲过一个 fmimbnd 的一个呃优化问题的一个 matalaba, 对应的函数 也是 ffvlexit flag, 然后我们对应的他的讲解是最优解,还有目标函数最小值以及退出的条件。那么我们对应的学习一下今天的 今天的这个函数的用法。首先我们还是要讲解一下我们这个函数后面需要需要设置的这些参数, 比如说我们需要设置 a 和 b, 就是我们对应限行限行不等式约束,然后 aeqbeq 呢就是对应的限行等式约束。 lb 和 ub 就是对应的决策项链呢?下届,下下届项量和上届项量。那么 options 是也是对这个优化参数选项呢,做了一做一个嗯相应的设置。那么今天呢,也会对这个 options 做一个初步的一个讲解,嗯,然后举例说明。 为了举例说明这个函数的具体用法呢,我们出了一个下面的例子,就是求解下列现行规划问题。首先呢是有这样一个数学模型,然后求解 负 xx 负负三乘以 x 一加十二乘以 x, 二加四乘以 x 三的最大值。那么他的呃约束条件呢?包括以下以下的六点吗? 第一点是不等式约束,那么第三点大家也可以看得到,也是不等式约束,因此呢,我们要对这个地方要做一个标准化, 然后呢写成对应的右面的这种形式,让他都变成小于等于什么,小于等于什么,因此我们的第 我们可以看到左边第一行也是小于等于什么,但是呢第三行是大于等于十,因此呢,我们要把等式左右两边都乘以负一,然后等式变大于号,变成小于等于号。 好,这个是关于标准化这一块,我们做一个解释,那么除了这个不等式约束条件呢?其他的等式约束条件和上下线上下上下结 上下届的这个标准化是不需要再进行的,那么我们通过标准化之后的这个模型, 呃需要在 mataleb 里面做,对应的就是参数的呃数组,那么矩阵形式和项链形式,那么之前我们也 提到了这一点,就是这几个项链,这几个变量已经或者是参数码是一个项链的形式,那么然后这两个为矩阵的矩阵的形式, 那我在这里已经都列出来了,那么 f 呢,就是负三负十二和负四,负三负十二负四,那么 a 呢是对应的, 不等于是呃约束条件里面的,那么包括两个,包括两个,因为呢有三个自变量,所以呢我们要写三行,第一行呢是八 负一九,这里是八负一九,那么回车站另起一行,那么负二是负七,负二是负七,以及我们第三行如果没有在做这个不等式约束条件的话,我们都默认为零。 好,然后对等式右边,不等式右边呢做一个复制余币,复制余币,我们复制是一个项量的复制,然后把十复十、五复十,五复十以及零,然后填进去, 相应的等式约束条件和不能式约束条件也是同样的。然后我们这一块 l b 和 ub 呢,是对应我们的角色变量的一个上下线,做一个呃设置,那么 inf 其实就是, 嗯,无穷,真无穷,还有一个富的 inf, 富的 anf, 嗯就是代表的是呃富无穷, 好,接下来我们根据 ppt 里面的这个函数模型呢,在 macam 里面实际进行编程,解决这个现行规划问题。那我们把不等式约束 条件我们已经写好了,直接复制过来,以及等式约束条件还有参数的上下届,那么复制过来,这里有一个需要大家注意的地方,就是对于我们的项链来说,我们的项链都是列项量, 列项量的话需要在我们的这个航线量后面加一个单引号,在英文状态下的单引号。 好,我们把所有的呃项链都加了引号之后呢,呃,就完成了这个模型的一个约束条件的呃一个一个设置,然后我们需要看一下我们这个函数的钓鱼格式,钓鱼格式我们可以 直接复制过来,复制过来之后我们看一下 f, 我们有了,然后 a, 我们有了 b, auaq 和 bqlb 和 ub 上下线都已经有了,我们还有一个 options 没有进行设置,那我们先把这个 options 先去掉, 我们运行结果,我们可以看得到我们的运行结果是优化,优化方案已经找到了,而且 呃我们的退出的条件等于一,也是代表这个结果是可靠的,我们可以看到最终的结果是在 x 一, x 二, x 三分别等于这个数值的时候,那么函数模型的最小值就是负到二十三,二十八点 九四四九。那有同学们会问的,问到这个 options 起什么作用呢?那么我我们接下来就是对这个 options 做一个, 做一个初步的设置,然后让大家了解一下这个 optance 是具体来怎么设置的,然后我们在设置之前先对这个文档进行一个就是初步的了解, 嗯,在哦不是在那个迈特拉布里面输入 doc 这个函数命令,可以直接看到他的文档, 这个帮助文档里面因为是我们对对应的是输入的一个变量,因此呢我们直接点到这个音铺的,然后我们找到 options 这一块,我们可以看到 op 城市里面包含了以下的内容,有算法,还有诊断的信息以及需要输出的内容,那么需要设置的最大的一个一个迭代次数,还有优化的容忍线, 容忍度,呃,以及他给了一个例子,我们可以把这个例子复制进去, 复制进去我们我们复制进去好之后,把 options 放到这个函数的最后面, 然后 ctrl 加回车键,我们看一下运行的结果, 好运行的结果就是,嗯,我们把这个重新清理一下,看一下这个结果。 为了便于观察,我们把 optance 这一块将加引号进行进行,不让他输出,然后只对结结果进行输出之后,我们可以看到 这这一部分内容是我们之前没有加 options 的内容,那么加了 options 之后,他大家会发现多了一多了这部分的内容, 那么这部分的内容是什么呢?我们可以看到他是对每一个呃点 叠带的步骤进行了一个呃,进行了一个每一步的每一步叠带的一个结果的一个展示,然后还有优化的呃优化完成的一个呃原因, 我们可以对这个 options 进行一个更改,首先把算法我们可以进行一个更改, 他不是还有其他的算法吗?我们可以换一个别的算法,这个设置的是这个。好,我们可以换成这个试一下, 我们直接把这个里面的引号里面的东西替换掉,然后 display 里面他有三个内容。 好,是在这个里面,我们可以把这个 it 一二换成,换成这个 off 或者是 no, 我们换成 off 试一下, 注意一定不能把引号去丢掉。然后换了之后,我们按回车 ctrl 加回车键, 大家可以看得到加了 off 之后他不会有这个迭代的信息出现, 然后我们可以看到他的运行的结果,换了算法之后,运行结果和上面的之前的运行算之前算法的运行结果是一样的。 好,这个就是关于 options 的一个优化参数的设置,优化像的一个设置吗?然后我们还有一个还需要再看一下,这个文档里面有一个内容需要给大家注意一下, 在这个一三啊,在这个例子里面, 嗯,有一个关于呃解决这个 lp 问题的一个呃问题结构化的一个处理办法,就是以另外一,就是另外一种,以另外一种形式的编程 来解决这个问题。好,我们就按照我们在 ppt 里面的这个函数模型 呢,做一个呃问题的结构化。呃结构化的一个程序,我们把之前的可以注视掉, 按 ctrl 加 r 二直接进行注释,然后我们这部分写问题结构化编程, 他这个编程的好处就是不需要对问,不需要再进行这个函数模型的一个标准化处理。 减去了这个步骤之后呢,我们可能对这个中间的问部署步骤会简化很多,以以免这个问题呃出错, 然后不小心的话把那个你前面的系数给弄错了。好,我们把这一段内容直接复制到 excel。 嗯,复制到这个。哦。呃,曼德拉布里面,我们看到它有 xy 变量,我们看一下它这个函数模型是怎么样的,它是角色变量,是 xy, 因此呢,我们可以把 对于我们这个问题是有 x 一到 x 三这三个角色变量,我们进行跟把这个进行换。呃,替换,嗯, x 二, x 一, 然后还有一个 x 三, x 三里面的内容, x 一到 x 三里面的这个上下上下线我们需要进行更换。好,我这里就全部进行更换, 然后上线。只是无穷大,无穷大也就是 nf, 那么富,无穷就是富的 nf。 好,我们对有色变量已经进行设置完毕,然后对这个函数模型,也就是这个对象进行进行一个设置,我们我们把这个窗口拉小一点,往外观察。 好,我们把这个地方可以替换那个负三乘以 x 一加十二, 二乘以 x 二加四乘以 x 三。 然后后面是这个是要求这个函数模型的最大值,所以说啊,是 xmaxmai 乘以 max。 然后对我们的。呃模型的约束条件呢进行一个设置, 八乘以 x 一减 x 二 加九,九乘以 x 三,小于等于十五。 然后是第二个是负 x 加 x 二 加二乘以 x 三。 好,这个等于。注意这这个地方有两个等于号,一定要记住等式。呃,约束条件是有两个等于号, 然后写第三个约束条件, 二二乘以 x 一 减四乘以 x 二加七乘以 x 三,大于等于十。 好,剩下这三个约束条件就是 我把这个改一下,这个地方, 不好意思,这个地方有点有点错误。好,把这个替换掉。 好,我们把含住模型呃的问题结构化,结构化 已经全部设置完毕,然后我们需要对这个呃函数模型进行处理问题的处理,那么需要对问题处理的话,有还需要进行两个步骤,我们把这两个步骤复制过来 检查一遍。 好,我们运行结果,运行结果仍然是呃,二十,付完。二十八点九四四九。 好,我们今天的线管与 macalaba 优化算法线性规划的内容就先讲到这里,谢谢大家的观看。

项链这个操作你知道吗?项链的成绩啊,这个咱们可以给他看成 a 的磨长,以及 b 在 a 项链上的投影的长度这一段。 这个对于咱们做题呢非常有帮助啊,你做题都直接找到这个长度,乘以这个长度,瞬间解决啊,非常的快啊。 咱们举个例子啊,看一下例题头边长为二的一个正三角形啊,等边三角形 abc 中 ap 的话等于他 啊,那么代表我这个屁点一定是在他的中线上。他问的是 bp 乘以 bc, 那么这个题就很简单,直接找到 bc 的长度是二,然后 bp 在咱们这个投影上就是这一段对吧?中线的话就是一,所以一乘以二,答案就等于二。 然后再来一道啊,立体二,他的这个也是一个等边三角形,边长为一啊,这个地点呢,他是一个中点,一点呢, 是一个三等分点,然后这个靠近于这个 c。 然后这个题的话,咱们也可以去这样子去操作,他说这个 a d, 那这个乘以这个 b, 大家要注意,他们此时这个角度是一个钝角,咱们提前给他填上一个符号,然后找到 ad 的长度。当然 ad 的长度可以计算出来,他是一个中线,三线合一,这个就是二分之一,这个是一,至少二分之根号三, 所以就等于负的二分之刚好三,乘以我们的这个 b 在他的 ad 上的投影长度啊,咱们给他做一个垂线段过来, 所以这个投影就是这两段啊。这个 b 在 a d 的投影就是这两段合起来。他他的话直接用相思来算啊,这个东西他比他是一比三,所以他比他也是一比三,也就是咱们二分之跟三再乘以一个三分之一。 ok, 算出来负四分低。

等一些东西,我用用一小模拟场景的这个方式给大家去解释。像项链是什么?也就是大家常问的一个问题,到底什么是项链?我们只知道啊,召回,项链召回。但这个项链到底是个什么东西? 那么在数学中他的概念是既有大小又有方向,方向的量。比如说这个东西我们最知道他是有方向的,而且他是有大小的啊,我们从数学概念当中知道这两个点就行了,就就行了。那么我们 如何更好的这个理解这个项链以及项链的由来?我们从这个模拟业务过程中给大家就是一步一步的梳理,可能这样理解起来更更简单啊。 如果我要是把那些公司啊告诉你们,你肯定就是感觉更蒙了,那么我们就模拟啊,用场景用用这个现实我们搜索的场景去模拟,去理解这个项链 一个点,就是说当我们有一定需求,或者是当我们去搜索关键词查询词的时候是吧?那么对于我们根本就不知道搜索引求是怎么去工作的对不对?那么我们第一个搜索引求,可能第一个任务就是干什么呀,要要意图识别, 也就说对于引球来说的话,引擎来说的话,他他他也都要知道你到底需要什么,是不是你可能你看有很多同学去输输入的时候,他并不一定按正规的 呃手法去输,是不是有可能会带错别字是吧?有可能特别符号,有可能都是呃,有可能还都是一些这个语法上的错误对不对?那么你输入进去呃之后,那么系统第一个第一步就是要干什么呀,要要知道你的意图,要识别你的意图。那么 怎么去判断你的这个意图呢?系统怎么去判断你的意图?其实就经过你两个呃信息。第一个信息就查询词,也就是你查询的查询的词,查询的就是关键词呀。啊,不管你查的什么人造词也好,都有错别字也好,符号也好,系统都会经过一个呃, 改正是吧,通过他的一套理论,他的一套算法给你改正改正,判断一个你的判断一个羽翼。那第二个就是 客户身份识别,这一个也就是我们大家是最难理解的,就是他身上的一个标签,有时也就是这个用户对吧,是吧,登录上阿弟的这个用户,他的一个身份上的标签就是吧,性别,年流,消费层次, 最近对这个对这个类目的类目产品的点击,点击状况,收藏状况,加购状况,以及 时间的效率。就说就是最近三天有没有点击是吧。啊,他如果他是七天点击,八天点击,他的这个标签就比较弱了。所以说其实说白了啊,他的两大信息,一个就是查询时就是他死死的,一个就是他以往的过去标签。也就是通过这两种方式,我们可以精准的判断 明确这个用户的一个搜索意图。那么如果这个引球,这个明确了搜索意图之后,那么这个引起这个搜索引擎他们,他就要把这个搜索意图转化为这个 个搜索引擎能理解的一种方式,对不对?那么理解的一种方式就是什么呀?就是查询语法把,从而获取就是用户意图相关的这个搜索结果,其实这个很好理解,他是怎么去转化的呢?那么就是我们经常经常说的分词, 比如说这个各路大神给大家去演示的这种分词。比如说像我们搜索一个圆领 t 恤,其实呃圆领 t 恤这个系统可能就是分析以后就会给我们分成这个这这这个方式啊,大家可以去去看一看,就说他会 换转换成计算机这个语法语法语言是吧?这个这一点啊,这一个点我相信大家都都都是理解的,就就是去看一下啊,系统如何和我们标题分词的。我标题分词的这个原则是什么呀?是不是?也就是说他们必须得有,都有什么原则, 他们的颗粒力度要小,也就是说像花花公子,花花公子,如果如果把花花公子改成一个品牌商是最好,像花花公子,其实这个也能识别出来他们的品牌。像这个 道题写的还是比较可以的,也就是说他们就是词与词之间,是不是词与词之间是比较明确的,那么分词就是就是改成转化成语,转化成计算机语言的话,那就是钱大的一个艾特,这是一个单独的一个有一个单独的分裂, 也就相当于我们在给大家讲这个讲召回的时候啊,讲召回的这个概念啊,讲召回的这个概念的时候,系统是什么呢?系统是不是 首先就是根据我们的这个,根据我们的标题,根据我们的标题,然后进行一个拆分,拆分完之后,这个搜索的工作原理就是做工的流程就是 进行分裂,分裂完分瓷之后,然后然后对于每一个分裂进行一个呃计算机语法的一个呃裁剪,呃这个转换,转换 之后他进行单独的一个召回,单独一个召回就说是他就说你这些分词,其实在这里面的你的分词除了名词以外是吧,也就产品词以外,就是很多,就是修饰词是不是也有可能就是不,你不管是什么样的词,最主要的就是让你要让系统 转账,系统就是你的这个你的这个词明确的表明呃,或者是介绍这个产品是一个什么东西,或者是满足这个我搜索意图的这个需求 啊,说着说着意图的需求,这就是分裂啊,这这就是这就是分裂的这个背后的一些意义啊,就是可以改变成我们这种茶性的语法。那么呃简单的步骤我已经给大家去演了演示了。那么召回的 机制啊,召回的机制到底是怎么去排序的呢?其实就是第一肯定就是对我们关键词进对我们的标题进行分词,分词转化为可查询的这种语法。查可查询的语法之后就是每一个列就是进行了分,每一个分词就是每一列,每一个列他就会勾线, 就会构建成这个什么呀倒排,所以的一个词典,有时候我搜索这个词,就是系统已经给我建立好了这个倒排,所以是吧,倒排,所以是一个什么样的概念 是吧?在七点零大家已经给给大家去讲了,这个要灿烂的给大家去讲倒盘,所以是一个什么概念?倒盘,所以就是说他会通过这个,通过通过建构所以的方式来加快对商品的商品的检索,这个是什么?就是 就是对每一个商品需要被检索的这这个子单元建立一个。所以就说在你上架之后,系统就会把你的产品经过每一个给你分分裂,分裂成子单元,每一个单元都会给你这个进行组合。也就说他这样做的好处就是什么呀? 就是说他会在通过指端员快速的找这个商品,而不是说而不是需要我把你所有的数据库就游遍所有的数据库全部去找找你的产品。这样的话你比如说 t 恤 是吧,我全部这个圆领 t 恤,我全部把圆领 t 恤符合圆领 t 恤已经这个建立一个子弹严给你排练的好,你比方说像这个像这个短袖 t 恤,我就短袖的给你全部全部这个产品给你这个收集好是吧,你比如说大码 t 恤,大码全部给你收集好,就是提前系 已经跟你说句话,只要是你搜索这个圆领 t 恤的时候是吧,我就会瞬间的就可以给你这个 给你这个是一个结果对应,也就是一个搜索对应一个结果,就就在这里面直接去搜。而不会像就是如果你不建立这个大牌双引的话,你会在所有的这个产品库里面去搜 t 恤的我也能看到是吧,可能是大码的就是这这个只要是和 t 恤一月份的就是这个,呃雪纺的 t 恤我也能看到。就是说这个数据库会很大,这样的话就会浪费你很多的精力和时间 是吧。我这样说能理解吗?我这么说能不能理解啊?就是提前其实就是已经有个结果,这就是建立道道牌,所以的这个,呃,建立这个道牌,所以是吧。也就是说,对,这样建好了,就是更好的,更好的这个 干什么呀,不浪费资源。对于对于消费者的话,他是提高了搜索的速度,搜索的精准性,对吧?他是这样,他是有这,他是有这这一个好处的。所以说,其实说白了,如果你要再深挖一点的话就是 这不就是一个入词的一个概念吗?是不是我提前系统已经提前给你分裂好了,就把这个产品圈在里面了。你比方说这个雪纺 t 恤,圆领 t 恤,大版 t 恤 是吧?他有一个这个,这个,如果你收圆领的话,是不是?你收这个圆领的话,这个这个圆领是一个非常指向性明确的话,他就会在这个 呃,如果你要是不带原理,或者是你这个标题里边啊,有的同学说我要是进行召回的话,如果我这搜索呃我我平时 本来我的意图就想购买这个圆领 t 恤,也就是说我的意图是圆领 t 恤,但是我的标题里边没有圆领 短,没有圆领。但是呢,呃,但是呢,就是点击我的宝贝的这些用户,他经常都是看了好多圆领之后,然后再点击我,到最后反而会会购买我是不是,哪怕是就算是, 就是这些用户的一些行为数据,他的一些点击反馈,反背后反馈的一个意图就是我满足 满足这种搜索意图需需要需要圆领的收圆领 t 恤的意图。那么我的这个宝贝照样也有圆领 t 恤的意向意图,明白吗?这就是为什么好多就是中午的时候 有个同学问我,在群里说哎,我看这个标题里面没有这个搜索的匹配的这个词,为什么能搜索到,而且他的销量是零, 就是因为召回的这个机制。他不光是我们以往认知的坑产权重或者是文本相关性来进行召回的。以前我们的召回是什么呀? 是吧?首先讲的是文本相关性,也就是说白色呃,就是呃,就是圆领 t 恤,必须是圆领 t 恤百分之百的这些字匹配。然后相关,这就是讲的相关性。后面的讲究的是什么呀?讲的是坑产,以前的模型是统计学模型,统计学模型就是什么样,谁的坑产高 是吧?我就让这个词排在前面。以至于现在大部分人把这个标签或者是把项链 还理解成这个这这一个一地这一个点啊。理解这一个点为什么,就说为什么现在不行了, 是不是不行,为什么刷坑产,特别是刷搜索。关键是坑产不行了,就是因为在招回的过程当中,他是通过向量招回,但 这个项链的这个概念,他是有很多元素组成的项链的项链的有很多元素组成,但是但是这种元素背后都反映了一个意图,都反映了一件事,他的这表面特征就是他有共同的一个特征 是吧?我不管取什么样的元素,我功能背后的反应的特。反应的特征就是什么呀?就是精准的意图,购物意图。明白吗?这个意图,这两种意图,搜索意图的识别。因为我们从这个从这个上购物平台, 你不管你搜索也好,不搜索也好是吧,要么就是搜索场景,要么就推荐场景,那么搜索的场景是直接你有明确的查询词 是不是,然后我识别了你的意图来给你匹配,结合你的身份,借我你以往的浏览的一些这个身份识别,我给你进行这个呃匹配是不是,你就算是不没没有搜索任何关键词,那么那么你上了淘宝以后,我会根据你身份 客户的身份识别。也是你本来的历史行为轨迹,一些历史的行为轨迹也是你历史的点击曝光点击的一些数据,收藏加购的数据,历史的点击率,历史的是收藏加购率。我通过这种 这种数数据也能反映出来你的意图,你的爱好,你的偏好是吧。这背。其实这个就是量,就是限量的问题了。

下面我们来看两个比较特殊的项链,一个是零项链 记作,这样 他的长度为零,注意,千万不能写成零,零是一个数量,而不是相量。 零项链的特殊之处在于他的方向,由于膜为零,起点中点重合,所以无法确定具体的指向,于是我们规定零项链的方向是任意的, 注意,零项链是具有任意方向,而不是没有方向。另一个是单位项链 及长度为一个单位的项链。注意,单位项链不是某个项链,而是一类项链,只要磨为一,无论什么方向都是单位项链。 如果把平面上所有单位项链的起点放在同一点,那么这些项链的中点就会构成一个单位圆。 正是因为项链本身具有方向的属性,所以项链之间是不能比较大小的, 像类似这种不等式都是没有意义的。再比如,单位项量大于零项量,这种说 法也是错的,只有把向量去方向化,即变成向量的模,才能比较大小。此时就是单纯的比较两条线段的长短。 也就是说,但凡涉及项链的膜的问题,实际上就是线段的长度问题。这就又回到了初中的平面几何,下面我们来看几道和项链的膜有关的题目。 在这个图中,小正方形的边长为一则。项链 ab 的膜等于多少?项链 cd 的膜等于多少? 项链 e、 f 的磨等于多少。很简单,利用勾股定理,项链 ab 的磨等于根号下三的平方,加三的平方等于三倍根号二。 项链 cd 的摩等于根号下一的平方,加五的平方等于根号二十六 响亮。 e、 f 的摩等于根号下二的平方,加二的平方等于二倍,根号二。
