用我前两天发的关键词和 GPT5 学习模型的原理,
其实你会发现模型的本质,是发现了一种在普适性的输入和输出之间建立数学关系的方法。
这个方法就是训练。
训练就是用数值优化在输入与输出之间的一个高纬的普世的而非单一的函数。
训练完成的 LLM 其实就是一个高纬的普世函数。
你可以说,他基于数学(训练过程仍然是已知数学)而颠覆了数学(习得包括数学的能力,但是这种能力的表达方式和已知数学完全不同,是无数的节点和权重)。
所以,今天我们可以用比已知数学函数低得多的效率和更高的算力开销,来重新得到之前总结的很多规律了(而且很可能也得到了一些未知的)。
听起来很傻,但是很重要。
因为这种非常低效的矩阵乘法和加法的运算,换来了升纬的规律表达方式。
或者更直白的说,更低效,更贵,所以,更通用。