各种能力的测量/量化是各种研究的基础。
各种情况的整合能力,即数据的高维理解/模式识别可能是多层次的耦合处,即关键序列的构建,可能具有一定的相似性。
本质上这种模式识别需要对所有情况(如2^n)进行遍历/枚举,但问题是这种运算量就太大了,可以说是指数级爆炸的np难问题,因此我们需要各种限制条件即边界(根据经验)来减少运算量。我们还可以通过提取出高维的结构在这个层次进行运算,如把各种情况以二进制的形式来表示然后进行按位运算(与、或、异或、取反、移位)。而且根据生物信息学的动态规划来其实我们可以找到局部最优解来不断逼近整体最优,我们可以根据特定的小规模的最优解求解,然后在该部位进行延伸运算。我们还有各种遗传算法、神经网络、模拟退火等等来进行特定路径的坍缩,即对有限的有意义的情况的选择,这往往是低概率的,我们需要在统计层次进行筛选。
第五篇思想
我们的思考本质上是对不同对象进行组合,不断升维形成高维模式,最后能够与现实世界有一定的对应。所谓的太阳底下没有新鲜事就是我们能够组合的底层对象是有限的,但其组合形成的高维结构其实也是一种客观实体,只是一般人很难理解并加以承认,也即使说,有时眼见未必为实。这种组合能够形成有意义的模式的概率很低,但在我们全球人类形成的圈子中,有着大基底,于是我们就有比较可观的具体模式实现(期望=概率*基底数,大数定律,模式涌现的数学基础)而且这不完全是随机组合的,我们有经验并且可以不断传递下去,于是我们能够沿着前人成功的经验走下去,同时避免前人失败经验揭示的坑,这是一种局部最优化的遍历对整体最优的逼近。
足够高维的结构能够进行各种运算,如学习行为,记忆,乃至个性形成,这是大脑的底层神经元组合形成的不同层次的模式。大脑的算法是对环境的适应来制定一定的打分矩阵,高于一定分数就可以继续生存(分数越高,继续维持的概率越大),然后在这个基础不断形成高维的模式。具体的实现是各种分子网络、基因表达网络对突触树突形成的影响,能够在概率的层次形成统计层次的运算。我们可以通过一定的基因变异来观察可能的基因的影响。当然经验也是一种贝叶斯算法。
在这个概率矩阵的基础上,网络具有一定的稳定性,如切除左脑后可以由右半脑来部分接替其功能,具体的底层是神经元连接结构即高维模式的形成。学习-经验形成—大脑神经元连接模式。
大脑的发育,对各种底层特征的识别,然后进行不断升维遍历,最后能够识别复杂的模式。这是一种从底层往高维遍历的构建过程,经验就对应于不同层次的神经元连接的模式,都是高维结构。可以以一定的脑电图,fmri等等技术来观察,可以发现记忆变化对大脑结构的影响。
大脑没有自动的机制,一切都是基于学习,从遗传的信息、从实际生活的信息来形成最终高维模式。
具体模式形成的不动点关系,特定高维功能与特定脑区的相关性。
记忆的存储,这是各种高维层次运算的基础,我们可以套用图灵机的概念来理解。任何各种变量的调用就是基于记忆进行的,任何不同的组合可以以一定的运算来联系。
第六篇意识
意识作为量子物理的哥本哈根诠释的一部分,其实是作为一种宏观的概念来描述的,我们需要以概率的观点来理解意识,其做出的观测本质上只是模式的模式识别,是一定信息的排列组合,本质上是一种低概率的模式的涌现,然后通过遗传信息的传递使得我们形成一定的聚类,但相对于这个社团之外的事物来说,意识是极低概率产生的事物。其具体的底层实现机制也是各种模块的形成,这与当前的程序是相通的:从底层的变量出发,不同的连接方式等价于不同的运算符,然后可以在这个基础构建一套逻辑运算系统,从而形成一个个有一定封装的模块,最后能够通过其选择性地组合形成一定的高维结构,对应于各种我们认识的高维事物(往往很难理解)如意识、记忆等等。这往往是低概率以至于我们不敢相信其会发生并且能够形成如此精致的关系,我们目前只能认为有两个方面:1是宇宙尺度的各种组合尝试使得特定模式涌现出来。2是概率没有我们想象的那么低,即组合不是完全随机的,而是背后有一套我们暂时不可理解的机制。那么我们可以接受为自然有一定的倾向,甚至能够积累经验,使得特定的组合发生的概率比其它小,即有一定的聚类,那就暂时理解为网络的幂律分布。在一定程度上,其揭示的自由/随机是不存在的。
脑部不一定有特定的区域与特定功能对应,而是通过多模块之间的关系形成来整体调控。这种高维结构与全身的调控有一定的对应,不同的活动对应于不同的区块,但其底层都是神经元的信息传递。要理解这种高维的过程,我们的研究需要收集大规模的数据然后识别出一定的模式,不然如果通过对疾病即极端个体的检测或者施加一定的处理如破坏脑皮质的特定区域是低效率的,毕竟大脑是动态变化的,可以有一定的功能互补。因此要从底层理解,然后摸索出其高维结构形成的模式,即把大脑视