机器学习 – 神经网络:“线性可分离”是什么意思?

我正在阅读汤姆米切尔的机器学习书。当谈论神经网络时,米切尔说:

“Although the perceptron rule finds a successful weight vector when
the training examples are linearly separable, it can fail to converge
if the examples are not linearly separable. “

在“线性可分离”的情况下,我有什么问题能理解他的意思?维基百科告诉我,“二维空间中的两组点线性可分离,如果它们可以被一条线完全分开”。

但是,这是如何应用于神经网络的训练集?输入(或动作单位)如何线性分离?

我不是最好的几何和数学 – 有谁可以解释我,就像我是5? 😉 谢谢!

假设你想编写一个算法,根据两个参数来决定大小和价格,如果一个房子在同一年销售,那么它将被卖掉。所以你有2个输入,大小和价格,一个输出,将卖或不会卖。现在,当你收到训练集时,可能会发生输出没有被累积以使我们的预测变得容易(你可以根据第一个图来告诉我X是N还是S?第二个图表如何)

        ^
        |  N S   N
       s|  S X    N
       i|  N     N S
       z|  S  N  S  N
       e|  N S  S N
        +----------->
          price


        ^
        |  S S   N
       s|  X S    N
       i|  S     N N
       z|  S  N  N  N
       e|    N N N
        +----------->
          price

哪里:

S-sold,
N-not sold

正如你在第一张图中所看到的,你不能真正地将两个可能的输出(卖/不出售)分开一条直线,无论你如何尝试,线路两边始终都有S和N ,这意味着您的算法将有很多可能的线,但没有最终的正确线分割2个输出(当然,预测新的,这是从一开始的目标)。这就是为什么线性可分离(第二个图)数据集更容易预测。

http://stackoverflow.com/questions/13976565/neural-networks-what-does-linearly-separable-mean

本站文章除注明转载外,均为本站原创或编译
转载请明显位置注明出处:机器学习 – 神经网络:“线性可分离”是什么意思?