您现在的位置: 主页 > 资讯 > 人工智能AI > 人工智能原理
本文所属标签:
为本文创立个标签吧:

人工智能原理

来源: 网络用户发布,如有版权联系网管删除 2020-05-12 

人工智能原理 神经网络——“智能”的由来

从简化的角度上讲,神经网路的核心功能在于分类[1]:将大量数据进行相关处理、提取特征并投影到特征空间,并通过激活函数引入非线性,进而对特征空间进行切割,将“目标特征”提取出来,进行分类。由于逻辑问题往往可以建模为若干个分类问题的叠加,因此神经网络在解决逻辑性较强的问题时往往有着出色表现。
具体而言,神经网络引入“目标函数”这一优化概念,通过反向传播算法使得目标函数不断下降,同时在隐藏层中使用激活函数以赋予目标函数“非线性”(例如,我们可以将sigmoid函数看作是一种阶梯函数或者分段函数,其作用是对数据空间进行分割),在一个具体的隐藏层中,不同的平面对空间进行了不同的分割,但这些分割之间是没有逻辑关系的,我们可以在下一个隐藏层中对这些分割进行逻辑运算以实现更加复杂的分割。因此,只要不断增加隐藏节点和隐藏层数,理论上而言就可以实现对空间上任意区域的分割或特征提取。
具体到某一次训练上,当数据流入神经网络,乘以相关权重并通过激活函数,得到相应的预测值/分类结果,我们将计算结果与实际进行比较,将差值反馈给网络,使其根据反馈继续进行梯度下降(梯度可以理解为多元函数的导数,沿该方向函数的上升速度最快,因而沿反方向下降速度最快),使得我们的目标函数值也得以不断减小,最终达到我们希望的精度。
通过以上的过程,我们就构建出了一种分类器,该分类器既可以是多元的、也可以是简单的二分类问题。因此,只要我们能够对显示过程中的具体场景进行建模(例如发言预测),理论上而言就可以实现预测功能,也就是所谓的“人工智能”。


              查看评论 回复



 

网站地图

围观()