电脑如何像人一样思考?人工智能(一)机器学习与神经网络(46)

作者: admin 分类: 科学 发布时间: 2021-08-21 20:36

        刚才我们说房价只取决于面积,这很显然是不合理的,对吧?房价可能有很多的影响因素,比如说你是在哪个城市的呀,你距离市中心的远近呢,你小区的环境好不好啊,对吧?你这个楼层怎么样啊,你这个朝向。很多很多的因素。那我们把这很多很多个因素呢作为输入的XXEX rge到XN。这样一来呢你就会发现房价有可能是这样一个函数啊,叫做WEXE加W2X2加一直加加到。w, nx, NI, CEISS2H到XN都是它的输入端,而WEW29W都是参数。

        最后我们再加上一个B这个呢就是一个更加详细的分析房价的一个模型是吧?我们通过一大堆的训练。找到这个W1W2WWA以及B这些参数的最优值。这个最优只能够让损失函数最小。哎,这就是一个成功的训练了啊,我们找到了一个。房价的模型对我们称之为回归的一个分析。除此之外还有一个分类的分析,你比如说我给你一大堆的这个肿瘤的ct照片啊,哪一个是良性的,一个是恶性的。我都告诉你,然后让你给我一个新的这个肿瘤照片,问你这是良性还是恶性。

        这种你叫分类,分类问题的本质,其实也是画一条线,把良性和恶性给分开,对吧?我给你一大堆猫的照片,给你大堆狗的照片,然后你区分猫和狗其实还是画一条线。所以说白了我们不管是什么人工智能问题,都可以把它最后画成一个数学问题。而这个数学问题就是寻找参数的最优值。那我们的方法呢就是所谓的梯度下降算法。其实利用梯度下降算法来训练这个参数啊,非常类似于人的学习和认知过程。我们之前讲过皮亚杰的这个认知发展理论。

        所谓的同化和顺应,吃一堑长一智,这就和机器学习的过程是一模一样的,是吧?好,那么我们说完了这个梯度下降之后呢,我们再来说一个在人工智能里面啊经常会出现的一个词叫做神经网络。啊,神经网络大家有可能啊在搜索人工智能的时候吧,经常会蹦出来这么一张图是吧?呃,一些小圆圈儿。然后呢怎么着啊,每两个圆圈,每两层之间哎都有连接。这种呢其实就是一个神经网络图啊神经网络图。他的意思呢就是左边的叫做输入端,输入层啊,从这个输入层输入了一大堆的一大堆的这个自变量。比如说ICER sre是大公司。这就是输入上输入的,输入完了之后经过一大堆处理呢,最后到右边就是输出是吧?左边是输入,右边是输出,中间呢我们称之为隐藏啊,那么这种神经网络呀实际上它是来源于人类对于大脑的认知。说大脑里边有几百亿个神经元,这些神经元怎么组成的呢?哎,说研究的人大脑中的这些神经元发现吧,他们组成了这个节奏。

        首先呢左边呢我们称之为有数图。哎,叫做竖图,他用于啊接收上一个信号。然后这个信号呢经过中间的哎这个神经元叫做轴图。经过轴突的处理之后,他会有选择的向下释放,而向下释放的这个呢就叫做突触啊,说人的大脑里边儿啊。他这个神经元长得就是这个样子,它可以从上面呢接收很多很多个信号。

        接收完了信号之后,他会进行选择,也许会向下一级释放信号,也许不像下一级进行释放信号。1943年呢美国神经科学家麦卡洛克,还有皮孜,他们两个人提出的一种理论当中理论是说呀说这个每一个神经元它都是一个什么呢?都是一个多输入。多收入,然后呢单输出,哎,就是你有很多个输入,你可以啊从很多个神经元得到一些信号。得到完了之后,经过综合处理,如果你认为有必要,你就会向下游输出信号。所以叫多输入单输出,而且这个输出的信号只有两种,可能,要么就是零,要么就是一和计算机非常类似,对不对?所以他们就提出了一种模型啊,人工智能模型就叫M。P模型啊叫麦卡洛克皮质模型是吧?这个mp模型呢就是说每一个神经元它其实啊都是由很多个输入端,最后呢也只有一个输出端,你看。

        我们这个神经元这个神经元它有很多个输入端,从一个两个三个输入输入完了之后他只有一个输出。虽然我们画了两条线,但实际上他只有一个手术,他是把这一个输出。给了两个刺激是吧啊,你看他接收到很多个输入,最后只有一个输出,再把这一个输出给很多个刺激,这就是mp模型。如果我们在画的仔细一点mp风险,大家可以看看这个样子。有一个神经元。那么左侧呢有很多个输入,这很多个输入所接收到的信号呢就是一大堆的这个X比如X1X2X3对吧?每一个X你在输入的时候都会成立一个权重。

        W1W2W3。这就是我们刚才所说的这一部分,对不对?最后你还会加一个B这个加一个B叫预值,所以把它加起来。然后最后我们再加一个B。加完了这个数之后,就会得到一个值嘛,得到了这个值,你是否会选择向下游输出呢?此时就会有一个函数F这个函数F我们称之为激活函数。就是他会进行选择。我要不要把这个数输出,刚才说了输出要么就是零,要么就是第一,对不对?他输出要么就是零,要么就是一。这个激活函数长什么样呢?有很多很多种激活函数,比如比较比较常用的结构函数叫seager more I的函数。

        这个函数会长这个样子是吧?横坐标纵坐标啊,这个函数叫ify。他等于1除以1,加上E的负Y司命是吧?所以呢他就长的是哎这个样子,如果你这个外要是零的话。那么这个值正好是零点儿5,如果外置非常大,他就非常的接近于一。如果这个值是一的话,他就会选择向下游输出。啊,如果说你这个值非常接近于你能算出来这个激活函数非常接近于0。他就会不向下游输出,如果你算这个机会,函数是0.5呢,他就有50%的可能向下游输出,也有50%的可能性不向下游输出。所以它是一个未定的。啊,那我们生活中不也是一样吗?对吧?你看到一个物体,你可能会认为啊他是个猫,你也有可能会认为他是个狗。你在多看一会儿你就会说哦,这个我有99%的可能性说他是狗,但实际上呢实际上他可能是一个玩偶,是不是他可能是进步,是猫,也不是搞出个玩偶。所以即便是人类判断呢,他也是有一定的可能性的啊,所以他就存在这样的一个激活函数,选择向下要数据或者不参加要输出。

        把这一大堆神经元组合起来,就是我们所看到的这张图了。

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!