谈一谈对ai的认识(还不快来了解下AI的知识)
谈一谈对ai的认识(还不快来了解下AI的知识)为了避免大家觉得头疼,尽量没放上相关公式。大家只需要了解其中的概念即可。我们将两个分布相乘就可以得到一个新的分布,新的分布会处于两种分布之间。也就是说我们通过这种手段优化了模型的参数。但是连乘的时候会很难处理,因此我们对式子进行取自然对数的操作。因为这种操作不会影响导数极值的位置(自然对数是单调递增的)。然后再求偏导就变得稍微简单一些了。贝叶斯统计首先需要有一个先验分布(包含具体的参数),这个是由我们根据经验给出的一个分布。然后通过数据点使用似然估计得到一个分布函数,这是会发现后一个分布函数和先验分布函数之间有不少差距。
我们知道了学习就是为了给模型找到合适的参数,那么具体该怎么寻找呢?
有两种比较常见的方法,一种是最大似然估计,另一种是贝叶斯统计(或叫推理)
最大似然估计的简单理解就是为已有的数据集选择一个合适概率分布,这个概率分布是假设的,比如可以选择正态(高斯)分布,那么对于这个分布函数就会涉及到其中的一些参数(正态分布中就是指μ、σ)。
这样我们可以写出关于每个数据点的概率表达式,接着整个事件概率的时候就可以将这些概率相乘(假设这些数据点是独立的)。为了计算合适的参数,我们可以对各参数求偏导数。
但是连乘的时候会很难处理,因此我们对式子进行取自然对数的操作。因为这种操作不会影响导数极值的位置(自然对数是单调递增的)。然后再求偏导就变得稍微简单一些了。
贝叶斯统计首先需要有一个先验分布(包含具体的参数),这个是由我们根据经验给出的一个分布。
然后通过数据点使用似然估计得到一个分布函数,这是会发现后一个分布函数和先验分布函数之间有不少差距。
我们将两个分布相乘就可以得到一个新的分布,新的分布会处于两种分布之间。也就是说我们通过这种手段优化了模型的参数。
为了避免大家觉得头疼,尽量没放上相关公式。大家只需要了解其中的概念即可。
如果有希望了解更清楚一些的朋友可以参考这里(这里的解释会比较便于我们理解):
https://baijiahao.baidu.com/s?id=1589101017486203264
几乎所有的算法都可以用四个元素来描述:特定的数据集、代价函数、优化过程和模型
代价函数(Cost Function )指的是用来表示模型预测值与真实值之间差距的函数,代表的是所有样本误差的平均。相对应的就是损失函数(Loss Function ),它计算的是单个样本的误差。
对于非线性的模型在进行求参数的过程中,并不是一次就能求出,而是需要一个持续优化、迭代的过程,如梯度下降等方法,遇到这种情况就需要选定一种合适的优化方法来获得参数。
目前已经有了很多种算法,每种算法都有它们各自的优缺点,合适的才是最好的。
-------------------------------------------------------------------------------------------
欢迎大家关注本公众号,小编将努力呈现精品的内容给大家!
原创不易,请大家多多支持~
我的头条主页:http://h5ip.cn/Crxy
每天1分钟,了解人工智能行业基础知识