哈喽,大家好,我是活泼可男,今天呢我来给大家讲一下怎么用神经网络来求解我们的评委方程,也就是我们的 pinn 这种方法。 嗯,那首先呢我们看一下我们要求解的这个篇文方程的这个形式,他是这样一个形式,然后以下呢是这个篇文方程他所考虑的一个边界条件。 然后呢我们这个篇文方程它其实是有解析解的,它的解析解呢我们其实可以写成 x 平方乘于 e 的负 y 这样一个形式,就是求解的话我这里就不求解了,就大家可以自己去求解, 然后的话我们说一下求解的思路,首先呢我们先导入库,然后呢我们设定基础的一些参数,然后我们再通过就是定义一些函数来计算不同位置这些函数的一些 十,然后呢我们建立我们的这个 mlp 基础的一个神经网络啊,再接着呢我们就利用我们已有的这个定义的神经网络和我们已知的上面这个函数呢,我们就可以计算出来这个对应的这个误差, 然后我们通过这个呢来建立误差函数,然后用于获得我们的这个误差值。接着呢我们就可以调用我们的这个排套尺,然后来进行训练迭代,最终呢我们就查看我们最终训练的一个结果, 那思路是这样一个思路,接下来就我们就详细看一下代码,然后这个代码的话,就首先我们可以看到这是一个这样的一个形式, 嗯,首先我们先导入库,就其实只需要这个 touch 就可以进行完成运算了,其实这两个呢是用来我们绘制我们的图的,然后我们可以看到这里是 的代数,然后网格的密度,然后内置点的个数,边界点的个数,以及我们选择这个 pd 数据点的个数。嗯,好,接下来呢我们先定义了一个这个随机随机数,这个随机数是干嘛用的话,就是说用来保证我们每次运行的结果都一样, 因为参数是默认初始随机化的。然后如果我们每次都进行随机的话,那每次训练的结果可能都是不固定的,那我们为了保证我们的结果可重复性的话,我们把这个随机数呢全都给他固定起来,嗯, 这里呢我们就随便给他设了一个初始的随机数,这个是可以随便改的。接下来呢就是我们就进入我们的第二步,就是开始定义我们的这个计算函数,首先呢是一个内点,内点 点的话其实指的就是我们那个计算区域以内的不不包含边界的地方。就是内点的话,其实是这么一个概念,就假定说呢,我们在这样一个区域内就是这就是零,这是一,这是一,然后这是 x, 这是 y, 然后呢我们在这样一个区域内求解,那内点呢就是指这一片区域内不包含边界的这一片区域内的一个数值,那 内点的话我们可以看到就是它首先利用这个 touch the run 产生,就是随机数产生 n 个, 这里的 n 呢是等于大 n 的,大 n 的话在我们上面已经是进行了定义,那这样的话我们就产生了 x、 o、 y 它的随机点,也就是我们在这个平面上产生了一千个随机点,那这样的话我们利用这个, 利用这个篇文文方程,我们可以计算等式右侧的这个值,也就是这个值我们是可以进行计算出来的啊,那我们可以去通过计算获得把这个值保存在这个里面, 然后呢我们就把这个 x 和 y 呢就分别进行一个记录进行追踪,也就是说我们设置这个东西呢,就说明我们 x y 的数值呢,它是可以进行追踪的。 接下来的话,我们就按照上面这样一个方法,就是把我们其他的六个编辑条件呢,分别都就是按照这种方法去给他写出来。 首先呢就是先产生那个随机的位置,在这个边界上产生随机的位置,然后我们计算出来这个边界上他那个等式右侧的一个值,然后我们把这三个数值呢去给他返回过来,其实 可以对应到我们这里的这些东西,然后这里的边界条件呢和我们这些边界上的这些函数呢是一一对应的。这里呢我就不详细一个一个说了,其实都是 先在边界上产生随机的点,然后再计算这些点对应的这些值,然后再把这三个对应的值呢去给他进行返回这样一个操作。那完成对边界的操作之后呢,我们最后一个呢是对他的内点的一个处理, 这个的话就是也是随机在那点产生随机数。但是不同于之前的是我们直接利用解析解来计算了这个数值, 然后呢对他进行了一个返回,那接下来的话就是来进行我们神经网络的一个建立了,就是类的话,就是我们的这个 lmlp 神经网络,然后呢去定义我们的。 说实话接下来的就是他的一个神经网络有几个输入,两个输入,然后到一个输出,然后中间呢是有三个隐藏层,然后每层呢是有三十二个神经元,两个输入,然后三十二个神经元,然后三这一层, 一层一层,然后三十二到一一个结果。接下来的话我们定义了一下损失,损失函数的话是用的这个 mse 均方方差其实就是把每个数据点所产生的方差取一个平均值,在这个网页的话有一个详细的解释,大家有兴趣可以自己去看一下。 然后这里是一个导数的一个定义,就是求导,因为我们在计算过程当中实际上是要用到求导的,然后如果是一阶的情况下的话,他就用这个来进行求导,然后 然后如果是不是一阶是多阶的话,就用这个来这里的话, u 就是我们的求导函数,然后 x 的话就是我们的这个自变量,就是如果他接受大于二的话,相当于是给他写了一个求导循环,就是让这个 outer 一直减一, 减到它等一的时候,然后它就会自动跳到这样一个呃一街道当中,呃,接下来的话是对损失的一个计算,首先呢是先对还是对内点进行损失计算,然后我们通过刚才这个内点函数的调用呢,我们可以获得 x y 和这个 我们对应的这个等式右边的这个数值,嗯,然后我们可以通过我们的神调用这个神经网络,也就是这个 u, 然后踏实点看,把 x、 y 呢组合成一个数组,组合成一个 速度,可以简单理解为组合成一个速度,然后输入到 u, 然后我们就会得到,就是得到对应的一个结果输出,然后我们把这个输出呢和我们的这个 cond 就是我们这个等式右侧这个结果呢进行一个比较。这个 这一部分呢其实呢就是相当于是我们这这一部分,就是等式左侧的这一部分进行了一个处理,然后我们的这个 com 就是等式右侧的那一部分,嗯,所以说他们两个取一个 los, 就是 我们的那个误差吧,相当于,然后其他的话是在边界上,边界上的话也是这样的,就是这个前面是等式左侧,然后这个呢是等式右侧,我们可以就是把它跟这个呢去一一的去对应起来,然后呢我就不一个一个说。 嗯,那最后这个数据的话,他也是这样的,就是但是他直接通过这个神经网络预测到一个结果,然后就直接和我们这个呃解析解的结果进行一个对比,然后求得一个误差。 那接下来的话就是我们的训练过程了,训练过程首先是我们要定义一个 u 等于 mlp, 然后呢是定义我们使用这种算法,然后去给他初始化一些参数 进行训练,然后接下来就是循环了,循环这么多次,然后首先是踢肚,踢肚清零的一个操作, 然后呢我们把所有的误差全部加起来,就是把我们所有的误差全部加起来,这里呢我把后面这个去掉了,当然这个后面这个呢也可以去加上没有问题,然后我们再反向 计算梯度,然后呢更新步数,更新网络中的参数,然后如果他是一百步的话,我们就输出他的那个运行的步数,那就是这个循环结束之后,其实我们的神经网络训练呢,就算已经完成了, 完成了之后呢,接下来的这些呢都是就是用来看结果的。我们接下来要做的话就是产生一些数据吧,就是产生一些我们 产生一些我们这个计算区域内的一些点,产生一些计算区域内的点,然后呢我们利用这些点呢 来看一下我们实际的结果,和我们利用神经网络预测的结果的一个区别啊,这些呢是对那个初始产生的点的一些处理。嗯,那我们利用这个 网格化呢,把这个 xc 就是产生一个类似于这个 xc 的一个数据,然后呢同时产生一个 xm 和 ym, 然后呢我们再对它进行重新 嗯处理啊,然后还有就是把他们组合,然后组合完之后呢,我们就可以利用这个神经网络,其实我们这个 u 呢就是我们训练好的那个神经网络,他是自己带参数的, 好,我们直接运行这个就可以进行预测了,然后呢我们实际的这个结果呢是通过这个 x x x 的平方乘以这个 e e 的负 y 次方,然后这个呢解析解来进行计算的,然后很容易呢我们就可以计算出来误差以及最对应的一些结果,然后我们开可以找出来最大误差。那下面的的话就是把它这个图 呢去给大家进行画出来,我们可以看一下它的一个结果,首先呢是我们通过 t i p i n 得到的一个结果,然后呢是通过我们实际的这个解析解得到的一个结果。接下来呢是一个误差,我们可以看到其实误差是非常小的,是完全可以接受的。 那这个的话就是我今天给大家分享的一个内容,如果你觉得这个视频对你有用的话,请给我一个一键三连,非常感谢。
粉丝6743获赞7305

哈喽,大家好!欢迎大家来到列维教育 ai 课堂,我是今天的中央老师张老师。呃,上节课呢,我们带着大家一起来用 pass 很实现了一下这个提速下降上法。然后呢,这节课我们通过这个拍到此啊,来实现这个线性礼盒的一个小例子。 让我们新建一个工程啊,我在这里面新建一个项目这次的零一, ok? 呃, 好。那么今天呢,我们会呃使用一下我们之前在环境搭建的一个课里面哈,给大家介绍过的这个深度学习框架。拍到此啊,来实现我们上节课呃自己用 pass 写的那个呃线性礼盒的一个问题。好。第一步我们先导入我们需要的呃套尺包 啊,这里面要注意一下啊,就是我们安装的这个框架呢,他全名叫开道尺哈。但是但是呢,我们在这里面引入的时候呢,倒的是 touch, 不是开道尺啊。 ok。 然后呢,呃,我们这里面同样要需要使用到我们上节课给大家所介绍的那个梯度下降算法啊,但只不过呢,这一次我们不需要自动,自动就是自己手写去完成哈,因为这个拍到时,这个框在里面呢,已经帮我们提供好了。 那么这个东西它叫优化器哈,它是存放在我们这个 touch 里面的 optim 这个包下面啊,我们以 from 的形式来导入这个包啊, from touch in part 我们的 optim ok? 好。那么同样的让我们用那个呃画图工序啊。马特勒马特勒利把我们的这个最后结果展出来。 a pipelot as a pipelot as prt okay 好。第一步我们先呃创建我们所需要的这个数据啊,这里面要注意一下啊。呃,拍到此里面呢,他在呃运行的时候所需要用到的数据类型啊,必须全部是张亮吞手类型的啊。所以说我们在这里面呢,呃,使用拍到此来创建我们所需要的数据。 好,先创建我们的这个 x 的点啊, touch 点 arrange 啊。然后呢,我这就从零点零一开始啊,然后取到一啊,然后不长文,我们取零点零一。 ok。 然后呢,东西的 ys 呢啊,我们也给他创建一个线性的一个方程啊,这里面我就给他造一个三 三 x 啊, xs 好,然后加一个四啊。那么呃,我再给他加一些随机的照点啊, touch 点 run, ok。 那么前面我们这里面呢,从零点零一开始取到一的话,一是取不到的啊,那相当于说我们可以取到零点九九啊,然后不常给的是零点零一,那么总共我们可以取到九十九十九个 xs。 那同样的哈,我在这里面呢,加的这个照点的时候,就要和上面的这个数字匹配啊,这就给他加九十九个, ok 啊。那么数据造好了。造好之后呢,我们把这些数据呢先呃售出来看一下啊。 ok, 把我们的 x s, 我们的 y s 说出来。 好,我们仔细看一下。 ok 啊,这就是我们所造的一些随机的一些样本。好。然后呢,同样的方式啊,我们也是构建一个现行方程 啊。然后呢,让这个信息方程呢去你和我这一对数据啊。只不过呢,我们这次采用的方式哈,是使用拍拖时来实现的。 ok, 好。那么同样的,我们拍拖时里面的推荐大家采用面相对象的变身思维啊,我们就构建一个这个赖一个模型啊, 好。这个模型呢,它实际上这个模型呢,它实际上相当于呢我们今天给大家所介绍的那个感知机模型啊, ok。 那么拍到这里面,在创建模型的时候呢,他必须要继承啊,我们的 touch 点,嗯嗯,点 model 啊,相当于我们所构建一个负累 嗯嗯,点 model ok 好。然后呢,呃,继承这个类之后呢,我们重写两个方法啊,勾到两个方法,第一个是我们的银手 好。然后呢,在这里面去构造我们 super 的这个应急手啊,负累的一个应急手 ok 好。然后呢,呃,这个银手里面哈,它主要的目的呢,是初始化我们这里面所需要的一些模型的参数 好。那么我们在这里面就构造我们两个呃,所需要的两个参数啊。第一个是我们的 wsf 点 w 啊,就等于啊。那么我们在这里面呢,把我们的这个 w 哈构造成我们拍到这里面的这个呃参数 啊。那么怎么来怎么来构造呢?哎,我们采用这个 touch 点 nn 啊,下面有个 parmeters, parmeter ok 啊。然后呢,我们在这里面呃,给我们的这个 parmeter 负一个出创的一个值啊。我们这就以随机数的方式来给他复制 好。由于我这里面所构建的 w 就为一个哈一个,所以说我们这给他给个形状,形状就为一 哦。那同样的,我们还需要构建一个 b, 点 b 啊,就等于 touch 点,嗯嗯, parameter ok 好。也是以这种随机的方式来构建这个 b 啊,点 rand 好。那么 w 和 b 构建好了啊,只要我们在这个方法里面啊,去构建我们的模型,构建完成之后呢,我们就要去使用这个模型。那么我们在同样的我们也是重载我们负累的这个 four 味的方法 啊, forward 的这个方法好。然后在 forward 的里面呢,传入我们所需要的这个数据 x, 好。然后呢,我们就拿这个 x 来勾结我们的模型哈。我们所需要的这个模型就是一个线性的方程,和上节课我们所介绍的这个 pattern 手写这个题的下降是一样的道理哈, 好。那么我们在这里呢,把 x 输入到我们这个模型仓库里面去啊,就是拿这个 x 和这个 b 啊做相乘,乘完之后呢,再加上啊,再加上我们这个偏一辆啊,偏一辆 b, ok 啊。那么就得到我们的结果为输出啊。然后我们这里面直接返回我们最后所计算一个结果啊,返回结果就为 cf, 点到六啊,呈上一个我们的这个地方的 x, 再加上一个我们刚刚所构建好的这个参数 b, ok。 这就是我们最后所返回的结果。好。然后呢,我们拿到这个结果之后哈,啊,这和我们上级课所这个思想是一致的。 我们把数据输到这个模型里面,然后呢,这个模型返回我们的输出。接下来呢,我们拿到输出和我们前面的这个标签,而 y 之间呢,哎,就可以用它来对比,得到我们的一个损失啊。根据损失呢反向求导更新, ok 啊。那么我们在在里面,在这里面呢创建一个主管术。 好。首先第一步呢,先十里画出来我们刚刚所创建的一个模型 lie, 就等于 lie ok, 好。然后呢,呃,我们创建一个优化器啊, optionoptimopty 就等于啊,这我缩缩写了哈,因为我们前面打了一个包,叫 option, 这不能聪明啊。那么 opp 就等于 optym 啊,点一下啊,采用一下。就是我们直接采用这个拍照纸模型自带的这个优化器啊,就是我们上节课给大家介绍的那个贴度下降啊,这里面他已经自带了。就是我们这个 oppotimesgd。 就是我们上一课给大家所说的那个随机剃度下降法啊。然后呢,我们要拿这个随机剃度下降去干什么呢?去优化我们这个赖这个网络里面的什么参数啊。那么传入我们这个模型啊,这个模型里面的这个参数啊,参数 啊。然后呢,我们上节课说过哈,我们的 tc 下降在实现的时候呢,他需要有一个不长啊,一个学习率对吧?就是我们的拉姆拉纸。那么这边我们传这个拉姆拉纸啊,哎,老二给他给一个零点,零点一的一个处处化 啊,零点一的一个不长纸啊,不长纸。 ok? 好。然后呢,哎,我们接下来就开始取我们的这个呃数据啊,来开始训练。 那么同样的道理哈,这里面我们肯定训练一次的话呢,是是达不到我们的一个效果的。所以说我们在外外层的定一个训练的,训练的轮次 apos ok, apos in range 好,别说我这里面呢,让他训练三十次。好。然后呢,我们取出我们想要数据 xs 和我们的 y in the zip 啊。我们前面那个数据是 xs 和 ysok 啊。取出我们的 x 和 y 之后呢,接下来我把我的这个数据 x 传入到我们刚刚所构建好的这个模型里面去啊,然后得到我们的输出啊,这以 y 来接受我们的输,而以 szz 来接受我们的输出啊。那么有了输出之后, 好,消防线有了输出之后呢,啊,我们就可以拿这个输出啊,和我们的标签之间呢啊,对比得到我们的损失。 ok, 那么我通过 z 减 y 啊,然后算下来的平方啊, z 减 y 的平方呢,当成是我们的一个损失啊,损失。然后呢,这以 los 变量来接受 ok 啊。那么得到损失之后呢,呃,和我们上节课所介绍的那个梯度下降的这个 流程是一致的哈。我们通过这个损失来求得我们的这个 w 和 b 的一个导数只。只不过呢,拍到此,他提供了一个自动求导的机制啊,这个求导机制是 loss 点 backward。 好,我们只需要调用这个 backward 函数呢,他就直接可以自动的对我们的落实进行去了。好。那么我们求完导出之后啊,需要对我们的梯度进行更新。那么怎么来更新梯度呢?哎,我们这里面更新梯度的是 通过我们刚刚所定的这个优化器来更新的啊,我们直接钓鱼 opty 点 step 啊 step 这个函数啊,这个函数的目的呢,就是更新我们这个模型内部的这个权重啊,就是搭配合币这两个权重。而且我们在上节课的时候时,带着大家实验说,我们说过哈,每更新一次呢,实际上我们 这个 w 的这个值和币值哈,会发生一次变化啊。所以说我们重新从,就是说我们在求梯度之前啊,我们需要呢,把我们这之前上一次的这个 w 和币的这两个梯度值啊,要给它清零一次。那么清零呢?采用这个 opti optim 点 zero grab, ok 啊。那么这几个步骤哈,实际上在我们整个拍到此的模型设计时候,他都是固定的。一般来说我们都是 得到输出啊,然后呃,通过这个输出和标签之间呢,得到我们的损失啊。然后呢,通过我们的优化器,第一步先清空我们的梯度 啊。然后呢,呃,通过这个闹死来求得我们整个模型的一个导数啊。然后呢,再通过这个优化器呢,来更新我们的梯度, ok。 那么在 focus 的内部呢,我们经过多次的训练之后呢,哎,我们就会求得我们最终想要的,想要的这个 w 和壁纸 啊。啊。那么我们在这里同样的哈,我们还是把这个训练的过程啊,给大家展示出来好。因此我们在这调一下,开一下我们这个画图的一个绘画模式 啊。在开启在呃绘画之前啊,放循环之前呢,先开启我们的绘画 ion 第二名的 ion 函数啊。然后在这里面我们开始绘制啊,好。呃,我现在这里面把我们的这个呃 w 和壁纸啊,都瘦出来 啊,都打印到我们控制台啊。那么我们的 w 和 b 呢,现在是属于我们构建的这个赖对象里面的哈。我们通过这个对象来调用我们的 w 和 b。 好,我们拉一点 w, w 啊,由于这个赖点 w 呢,他现在这个参数的形式啊。而这个参数呢,这个参数呢,他是个张亮腾扫类型哈。所以说我们在这个地方呢,我们希望看到的就仅仅是这个 w 和 b 这两个数值啊。 因此我们需要从战狼中把这两个值取出来。怎么来取呢?调用 item item 这个函数 ok 啊,那么这是我们的 w 的值。然后呢,再取出我们的 b 值,点 b 点 item ok 好啊,把我们的 w 和 b 的这两个值我们打印出来哈。然后呢,呃,我们开始绘制。在绘图之前呢,我们先清空一下这个屏幕啊, cla 清空一下我们这个画板啊。然后呢,我们开始画我们的这个呃数据啊,先把数据给他描描绘上去,点 plot 啊,我们的 xs 和 ys 啊,以画点的形式啊,把这些数据呢给他汇聚出来啊。然后呢,我们把 嗯模型啊,就是把我们这个模型所绘制的一条直线呢啊,也给他勾点出来啊。好。我们这呢,同样的道理啊,跟上节课一样,我们以 v 的形式呢来接受我们这个模型最终输出的这个外指啊,那么传入我们这个来点 w 啊,呈上一个啊,我们这里面所构建出来的这个呃参数啊,就是我们 xs 里面所取出来的纸哈,我这以一来表示 啊,再加一个来点 b 啊, four e 音我们的 xs ok 好,那么这是我们网络最后通过这个呃 xs 这些数据呢,得到最后的输出啊,一个歪值 ok。 然后我们把这个值呢以线的形式啊 给他绘制出来啊。 plot 点 plot ok xs 和我们的 y 啊。那么这我们就不加点了哈,因为我们现在要的是把这是用 v 来结束的哈。我们现在要的是把这个模型的呃函数啊给他绘制出来啊。好,所以说直接绘制他的折线图就可以了。 好。那么在这个绘制动漫图的时候呢,我们需要让这个绘制的过程哈,稍微暂停一下,我这给个零点呃零零一秒吧。啊,零点零零一秒啊。不,不要让它停的太久,停的太久的话,我们这个速度可能会比较慢啊。然后呢,在绘制完成之后呢,我们把这个呃绘画给它关掉啊,不要只点瘦 啊,把最后一次结果保留下来。然后呢,把这个绘画给它关掉点 iofok 啊。那么整个模型的构建就呃 呃完成了。呃好,接下来我们来执行看下这个效果啊。 ok 啊,这是我们之前所汇聚出来的一些时机的点啊。呃,在这里我把我把这一行注释掉吧,不然的话,我们要需要手动关闭一次啊。好,我们再来执行一下。 哎,我们可以看到啊,就是我们所会就出来这条直线啊,这条方程的函数,他在不断的靠近啊,我们的这一条呃线性的一些理想的点啊。然后我们稍微给他给一点时间啊,来看一下他最重要的一个礼盒的这个效果 啊。我们可以看到这这条这条线哈。这条线呢,他现在已经和我的这些点呢靠的比较近了。但实际上他最终可以呃非常准确的表述出来我这些点的一个 呃分布的一个情况哈。然后我们再来查看一下这个我们这边所预测出来的这个 w 和 b 的一个值,而我们所构建的这个 w 的参数呢,它为三啊。然后目前呢所学习到的这个 w 的值哈,为二点六七啊,二点六九啊,到二点 七二点七左右了哈,我们可以看到他在不断的调整,然后这个壁纸呢,啊,这个壁纸呢,也在不断的靠近于这个四哈,因为我们这个四旁边是加了一些随机的一些照点的哈,所以说他最终肯定是非常靠近我们这个真实的,这个值得 好。我们可以看一下这个 w 现在已经非常非常接近了哈,已经达到二点八级了。然后呢,这道线的斜率哈,已经非常接近于我们这这个呃模拟出来的这些数据的一个呃斜率 好。实际上呢,如果我们这给他给再给一些时间的话呢,那最终这个打本时哈,他会非常靠近三啊,就为三点零零零零零零几啊,或者是二点九九九九啊。 其实现在你看他现在已经可以大部分的纸,他都已经非常靠近上了。而且这个目前的我们这条函数哈,这条函数的一个图像啊,也是呃,我觉得是非常完美的,可以表示出来我们这些点的一个分布情况了, ok 啊。那么呃实际上呢,我们这节课啊,这节课的一个内容呢,和上节课的内容呃,非常相近啊,只不过我们上节课呢,是通过这个拍摄 啊,自己手动的来实现这个提出下降的啊。那么我在实际的这个开发任务中啊,呃,我们一般都是通过这个深度学习框架拍到此 啊,来代替我们之前所遇到的一些数据性的问题啊。比如说今天我们可以看到这个贴图像样,这贴图像样这一部分哈,我们直接可以采用这个呃拍照,这里面所自带的这个随机贴图像样优化器啊, 调一下这个优化器对吧,然后给他给一个学习力啊,我们就可以拿来直接来使用了,包括那些求导的过程哈,直接通过调用我们这个拍照纸里面自带的一个自动求导函数啊,就可以完,就可以帮我们完成我们之前的一些数学工作。好,那么实际上呢,有了这个, 有了这个基基本的这个杆子机啊,杆子机的这个线性方程,这个模型之后。好,我们是我们接下来就可以完成更加复杂 的一些问题哈,啊,包括呢,大家都知道这条这条这条点哈,这一堆点呢,呃,它是非常靠近一条直线的是吧?那么在日常生活中呢,我们的一些数据,如果你把它绘制到这个二维平面上面的时候呢,啊,它实际上并不是一条 完全的直线啊,他一定是一条非线线的东西啊,可能是一条曲线对吧啊,那么呃,我们下节 课呢,就带着大家啊,以同样的方式,在我们这个感知区模型的基础之上呢,啊,如何构建出来一个呃,比较复杂的这种呃模型啊,来解决我们的一些非线性问题。 今天的内容呢,就先到这里啊,感谢大家的收看啊。这里是列维科技,专注人工智能上海研究,我们下期再见。


