机器学习之数学之旅:机器学习中的数学基础
机器学习之数学之旅:机器学习中的数学基础可以看到,2w就是沿着w的方向把它拉伸了2倍,而1/2w就是沿着w的方向把它压缩了一半。加法搞定之后,我们再来看乘法。确切地说,是数乘。啥意思呢?就是向量和一个数相乘。我们还是以向量w为例,来看看2w和1/2w的几何含义:就是把两个向量对应的元素相加,很容易理解,对吧。那向量加法的几何意义是什么呢?假设另一个向量y=(1,-2),我们把w y画在坐标轴上:这次我们用动态的观点来看w y:首先我们进行向量w的运动,从O点跑到A点;再进行向量y的运动,从A点跑到D点(我们把向量y从OB平移到了AD),最后向量OD就是w y的结果了。思路是有了,那到底该怎么计算呢?我们把w和y的运动分解成水平方向的运动和垂直方向的运动。那从水平方向上看,w运动了2,y运动了1,一共运动了2 1=3;从垂直方向看,w运动了1,y运动了-2,一共运动了1-2=-1.所以D点的坐标就是(3,-1)。
这是《机器学习中的数学基础》系列的第2篇。
- 铺垫
在介绍各种“高大上”的名词之前,我们先来看下向量的几何意义。现在有一个2维向量w=(2 1),把它画在坐标轴上就是这个样子的:
我们可以把它看成是从原点(0,0)出发,终点是(2 1)的一段路径或者一个箭头,也可以把向量w抽象为1个点(因为所有的向量都是从原点出发,可以忽略掉路径),这个点的坐标(2 1)就是它的向量坐标。
接下来我们来看向量加法,用公式表示是这样子的:
就是把两个向量对应的元素相加,很容易理解,对吧。那向量加法的几何意义是什么呢?假设另一个向量y=(1,-2),我们把w y画在坐标轴上:
这次我们用动态的观点来看w y:首先我们进行向量w的运动,从O点跑到A点;再进行向量y的运动,从A点跑到D点(我们把向量y从OB平移到了AD),最后向量OD就是w y的结果了。
思路是有了,那到底该怎么计算呢?我们把w和y的运动分解成水平方向的运动和垂直方向的运动。那从水平方向上看,w运动了2,y运动了1,一共运动了2 1=3;从垂直方向看,w运动了1,y运动了-2,一共运动了1-2=-1.所以D点的坐标就是(3,-1)。
加法搞定之后,我们再来看乘法。确切地说,是数乘。啥意思呢?就是向量和一个数相乘。我们还是以向量w为例,来看看2w和1/2w的几何含义:
可以看到,2w就是沿着w的方向把它拉伸了2倍,而1/2w就是沿着w的方向把它压缩了一半。
- 精彩的部分来了
有了上面长长的铺垫,神奇的一幕马上就要发生了!我将用一个公式来理清基、线性组合和向量空间这三个概念。
在此之前,让我们先平复一下心情,再回过头来看看向量w(2 1):
现在,需要一个思维跳跃,我们把w也看成是两个向量的和。是哪两个向量的和呢?从上图中可以看出,w可以被认为先水平运动2个单位,再垂直运动1个单位。所以w是水平方向的向量2i和垂直方向的向量j的和。其中,向量i=(1 0),向量j=(0 1)。因此,w可以表示为:
我们把i,j就叫做构成平面的一组基(可以看出,任意向量都可以由i和j构造)。而2i j就叫做i和j的一种线性组合。为了更加一般化,我们把i和j的系数分别设为a和b(a、b可取任意值),那么ai bj就被叫做i和j的线性组合。从几何上说,ai bj所张成(形成)的空间就叫做向量空间,也叫做线性空间。对于二维向量来说,所形成的向量空间就是整个平面。
以上就是全部内容,你都看明白了吗?有不清楚的地方可以及时评论哦。