当先锋百科网

首页 1 2 3 4 5 6 7

Networks

多层感知机

1103990-20181206105650909-78287221.png

1103990-20181206105809711-1460949089.png

1103990-20181206110006113-1076863721.png

1103990-20181206110210523-796437717.png

不是说这个神经网络要与人的大脑神经完全相似,也不是说要多么的强大,而是在一定程度上模拟了人脑神经元的能力,就足够了

1103990-20181206110416269-1816553372.png

1103990-20181206110639739-665419647.png

为什么要w0呢,因为没有w0超平面一定会经过原点,所以w0和x0是很重要的。

1103990-20181206110908211-751115530.png

1103990-20181206111206846-1074749209.png

一个样本相当于知错就改

1103990-20181206111456178-201432772.png

理解公式背后的含义,学习率控制每次修改的幅度,很多公式之间都有相似的共性。小的学习率比较稳健。

1103990-20181206111757127-1286786623.png

1103990-20181206111947603-491416673.png

1103990-20181206112114693-928012413.png

1103990-20181206112218785-1998563460.png

感知机不能解决线性不可分问题

1103990-20181206112519377-758156843.png

1103990-20181206112553343-1469855305.png

1103990-20181206113144625-1176716323.png

1103990-20181206113401969-1165162378.png

把复杂的问题分解成简单的问题

1103990-20181206113644749-816525536.png

sigmoid便于求导

1103990-20181206113852605-1946875023.png

t是期望输出,o是实际输出。

要把公式连在一起,不要以为这些公式都是天上掉下来的,一个公式接着一个公式,那样的话脑子会炸掉的,与感知机的很相似,多了一个东西 sigmoid求导 感知机是线性 求导等于1

1103990-20181206114519389-855708416.png

输出层神经元,知道误差,计算很简单。隐含层神经元不知道期望输出是多少。2个人做事,直接做事的人责任是很容易认定的,我不是直接做事的人。
张三李四都是我派出去的,那么责任都由我承担,反馈给我,反馈回来。但是并没有这么简单。如果张三和我关系特别好,听我话,李四不太听话,除了反馈回来,还要乘以哦权重。

误差信息传回来再乘以权重,相当于关系或者说影响力。

1103990-20181206115323108-1508153079.png

1103990-20181206115332973-1682272432.png

1103990-20181206115503762-1322164282.png

1103990-20181206120103704-656161084.png

转载于:https://www.cnblogs.com/ioveNature/p/10076812.html