贝叶斯机制是实空间上的概率算法,与模糊数学、遗传算法都是类似的,都还是数理逻辑制。 所谓的语词向量空间上的贝叶斯机制,仍然是通过经验空间(已有知识库)上的关联概率大小,形成一个梯度方向(这里有一个所谓的随机函数微分和积分,你应该找来学习学习,它在做由抽象数学定义应用数学的微积分),但其选择时仍然是某个阈值判断,仍然是数理逻辑判断;即便是类似遗传算法上的,变异随机挑选机制,也只能说其逻辑判断阈值,也仅仅是增加了若干区间而已,骨子里仍然是数理逻辑的结构,就像模糊数学给出的权值策略一样,仍然是各种数理逻辑上组合策略(或路径)。也就是说,计算机上给出的随机数是伪随机的,是有限区间的一个“分形”或一个“覆盖”。 遗传算法到最后接近最优值时,变异已跳不出最优(奇点)点的势范畴了。 量子神经网络是运行在希尔伯特空间上,即波函数共轭对称复空间;它是真正的概率空间;这里的关键是欧拉联络,即两个复元素乘积为实数,就意味着空间中量子事件由概率性“坐实”为实事件,事件的发生。所以说,量子神经网络中的量子神经元之间的连接是虚连接,是量子信号下的量子事件的一个一个“坐实”连接;它的整个网络刻化或分形,是由量子栅格给出的,可以定义出任意几何拓扑;它的逻辑链路是真正意义上的随机,但又由随机概率梯度给出学习方向。实空间上的概率学习和概率选择,无论如何都不能做到真正的随机概率梯度。因为,它的物理机制是网络实连接机制,不可能运行在复空间上,所以说,其逻辑只能是数理逻辑,其学习机制只能是数理逻辑下的数据搜索。 注意,贝叶斯下的经验库建立,仍然是傅立叶函数空间上的一个实分形机制,即建立一个学习空间上的有限覆盖。 你要仔细学习一下贝叶斯学习机制或原理,但是,仍然过渡不到量子状态空间上的“复学习〞,关键在于其物理机制决定了这里的“鸿沟”。 人脑有情感,有各种各样的虚幻、无逻辑或跳跃的梦,人工智能没有,永远都不可能有。 我们用遗传算法时是胡子眉毛一把抓;它的交叉规则(运算),是染色体拓扑层次上的,就是数组上的操作;而它的变异规则,是DNA码片拓扑层次上的,就是数组某个元上的数字位的异或操作,还不是移位编码操作(这是有数理逻辑的,非随机的操作,所以说,计算机语言编码是数理逻辑上的)。 那个你所谓的“立体矩阵”与三阶张量的区别,就是这种代数拓扑结构的不同;“立体矩阵”是矩阵运算下的逻辑顺延,只能说有一部分成立,应该说“立体矩阵”在矩阵运算下不完备;而三阶张量是张量运算规则下的代数体系,至少是一个群,即张量群,也可能是张量拓扑,就类似DNA拓扑一样。我们所用的遗传算法,将DNA拓扑缩编为一个群了。群与拓扑的经验存储容量,天差地别。 你的改进研究方向,可以关注神经网络拓扑构造,即将平面矩阵形式的网络,向立体,至少是分层拓扑网络推进。