第八十四章网络实现的机器学习笔记  学医路漫漫

关灯 护眼 舒适     字体:

上一章 目录 下一页(1/6) 繁体版

亲爱的书友,您现在访问的是转码页面,会导致更新不及时及无法正常下载,请访问真实地址:http://m.biquto.com/65415/86.html

以新的思想来指导计算机的底层运算来比较人类智能,构建局部自组织能力的可成长的体系,使得其遍历到足够高维的层次。这种概率的运算与之前微积分的发展历程是一致的,即通过贝叶斯计算吧概率进行迭代运算,对应于微积分的无穷小量的加和,从而构建更高维度的结构,我认为就是类似于无限维的网络。因此我们可以以网络的各种性质来指导具体的算法构建和计算机运算,从而最终达到我们需要的对大规模数据的识别并且挖掘出有意义的信息。其中概率和统计是核心,我们之前一直希望构建的序列的运算就是一种对信息的处理。由于个人能力的有限,我们只能希望能够通过现实世界已有的成功经验当做一种seed序列,匹配到理想中的无限维序列,并找到其衍伸序列,与具体的现实建立一定的对应关系,如同bla算法揭示的。

(一)监督学习(参数/非参数算法,支持向量机,核函数,神经网络)。(二)无监督学习(聚类,降维,推荐系统,深入学习推荐)(三)在机器学习的最佳实践(偏差/方差理论;在机器学习和人工智能创新过程)

我们构建算法需要提前选择一定的可运算的统计量,各种定义的统计量的相对组合模式可以对应于微分方程,是我们最后可以运算的对象。我的理想是以网络的观点来对医疗信息的处理。各种性能需要一定的定义,然后才能在这个基础上继续评价和改进。可以模仿算法评估的底层计算次数。

网络的可学习性,对于新节点的关系连接可以等价于概率的贝叶斯计算。

实现人工智能的方法不是模拟人类,人类的智能是生物层次的大规模试错得出的一条可行的途径,对于机器的智能来说,有参考价值,但必须走不同的道路,只有这样才能弥补数亿年来的生物进化过程。

具体的应用,通过良好的定义能够逼近我们想要的问题,从而解决它们。理解各种医疗的数据,逼近最关键的不动点本征,为我们的具体应用提供极好的工具。

所谓的学习是基于大规模的训练集(网络数据),在个体的各种关键性的具有特定信息的特殊序列(接口),不断靶定,提供特定路径表达的概率,从而提供个体化的服务。这如同波函数的坍缩。关键是通过试错,排除和选择可能的路径,并在这个基础上不断遍历。学习导致的退火即路径形成是我们想要的结果,并且能够通过这种迭代不断优化。

我们有这样一个信念:总存在不同的变量之间可以以本征的线性关系表示,其他的可以视为这种关系的分布的不同位置。前者可以是房价和面积的关系,后者可以是房价和医院距离的关系。

基本假设:存在一定的统计分析,对不同变量构建回归的关系。而且进一步可以表示为微分方程的多层次耦合的结构。这一切都是基于已有的大规模数据收集的基础上才能做出的模型构建和判断做出。

多路径:不同的方式可以拟合现实的数据,这是马尔科夫序列的表达的结果。

连续性假设,这是各种问题答案存在的理论依据。

多指标的关系构建,如abcdefg分布与癌症的发生有一定的概率连接,假设分别是10%20%30%40%50%60%70%,具体的表达序列可以以邻接矩阵表示,然后我们可以观察大规模的病人和健康人,+表示-不表达,abcdefg+++++++则有着最大的患病概率,abcdefg-------患病概率最小,其余的表达模式的患病概率是一定的分布,我们希望能够通过对这种数据的模式的挖掘来对现在新来的一个检查的个体做出比较可靠的预测。我们一开始用布尔函数来表示,然后再推进到具体的概率表达和贝叶斯运算。

对于同样的问题,机器学习的思路是分类,以一定的特征做分布,然后提取出一定的边界函数作为评价的标准。理论上,无限的特征分类可以对应于现实中每一个具体的人的情况,这些特征的综合考虑就可以得出高概率成立的结论(与线性代数的傅里叶级数相似,当然我们要考虑精度和快速收敛)。这也是我一直在思考的序列与具体情况的对应。当然这样计算的规模和难度就极大,从而使得这种算法没有应用价值,因此根据自然界必然会存在的分布这种情况,我们可以预料到聚类的存在,即部分关系会具有更短的距离,和外部明显不同。实际上,这种聚类也是存在不同的分布,如其不同区段的序列比对。支持向量机能够处理无限多的特征。(定性描述,我们需要以概率的形式来改进,对于可能的特征之间的相互作用以概率来表达,即序列耦合形成的高维结构,参考dna二级结构形成)。

这种聚类的存在对应于网络学说就是社群结构的形成,这是对应于节点之间关系的高维结构,是利用节点之间的相互作用形成的高于中心节点的二级结构。这通过对连接度的比较(不同的标准对应于不同的路径形成)可以得出高维结构的形成。因此本质上这种分布是先于定义存在的,即我们想要的模式识别(基于一定规则做大规模的计算判断,因此确定规则是很重要的,如新闻的聚类就需要确定关键词的数目之类的)。

在这些基础上,我们要建立高维的组学思维,理解大规模的数据是作为我们选择性表达的基底,即我们认为的隐马尔科夫模型的隐状态的矩阵(各种状态的相对比例),


第八十四章网络实现的机器学习笔记(1/6),点击下一页继续阅读。

『加入书签,方便阅读』

上一章 目录 下一页 TXT下载