
熵力学的熵变化展示
完成初步的模型开发后,万丘林教授建立了可训练变量的随机描述权重矩阵和偏置向量。进阶的训练将会在哈密顿力学中给出详细的配置,并且进一步表现隐藏变量的动态。那么,实验的后半部分揭示了什么样的问题呢?
人工神经网络与宇宙模型
完成了整个人工神经网络构架后,万丘林教授得到了初步的结论。首先是平稳熵产生的原理及神经网络在两个不同极限下的动力学。
在这一部分的研究中,神经网络表现出了两个限制,第一个限制结果主导由可训练变量被随机处理,系统由此产生的动力学显示处由泛函描述的量子和经典行为负值。

在第二个限制中,隐藏变量被随机处理,但它们的动态受到可训练变量的限制。结果表明,系统的动力学表现出由引力度量理论的作用所描述的行为,例如广义相对论。
这两种限制结果证明,人工神经网络构架有可能将稀疏和深度神经网络映射到密集和浅层神经网络中,而且不会失去神经网络的学习能力。这意味着该模型可以描述量子和引力的双重学习动态。

结合相关的理论和人工神经网络模型推演,万丘林教授认为宇宙在其基本层面上是一个神经网络。为什么人工神经网络可以通过自主学习来获得如此强大的能力,甚至能够模拟出现代物理学的框架?
这一点我们可以从人工神经网络和深度学习中来大概了解,人工神经网络基于生物神经元这个概念获得而来。生物中的神经元在每一次的信号交换中都能够获得强化,最终发展出一条强壮的神经通路,这条神经通路便是生物神经网络的节点和路径。

类似神经元工作模式的人工神经网络
人工神经元在网络构架中同样也利用了这一点,每一次的输出都相当于是一次学习的行为,然后在每个路径中寻找到最优解。为了找到神经元的输出,人工神经元会取所有输入的加权和,由从输入到神经元的连接的权重加权。
在深度学习中,人工神经网络通常被组织成多层,每一层神经元仅与前一层和紧随其后的神经层的神经元相连接。接收外部数据的层面为输入层,产生最终结果的层面为输出层。而隐藏层在它们之间是零个或多个的存在,两层之间可能有多种连接模式。

深度学习的行为模式更加复杂
了解到这些基本的概念后,最后我们来看看万丘林教授自己对于宇宙神经网络的看法。
宇宙深度学习行为揭示了什么?
人工神经网络在相关的学习过程中可以被分列为三种学习范式,即监督学习、无监督学习和强化学习,每种学习方式应对不同的学习任务。万丘林教授采用的随机神经网络,通过向网络中引入随机变化、随机传递函数或者随机权重来构建整个框架。

这样做的好处在于,随机神经网络能够成为优化问题的有用工具,因为随机波动有助于整个神经网络摆脱局部最小值。不过最为特别的是,人工神经网络的深度学习过程被业界称为“黑箱”,因为科学家们也不知道人工神经网络究竟是怎样在深度学习中得到迭代进化的。

随机神经网络的工作
在宇宙神经网络的研究中,万丘林教授认为这只是一种可能性,并不是说人工神经网络可用于分析物理系统,或者说发现物理定律,就由此表明它是整个世界的实际运作方式。
人工神经网络的建设很容易被证明是错误的,所需要的方法就是找到一种它自己都不能描述的物理现象。然而事实证明,神经网络的动力学太复杂,在随机变量的极限行为部分,它可以描述神经网络的相关自由度。