人工智能先驱杰弗里·辛顿的工作彻底改变了人工神经网络,启发了像ChatGPT这样的模型。他的最终目标是通过在AI中模仿大脑的过程来理解大脑如何学习。传统理论如赫布学习(“一起激活的细胞会连接在一起”)对于复杂任务来说显得不足。相反,现代AI使用反向传播,这是一种基于误差信号调整连接的算法。
最近的研究表明,生物大脑可能采用类似机制。例如,一项2023年的研究发现,小鼠中的神经元对独特的误差信号作出响应——这是反向传播的重要组成部分。研究人员还在调整算法,使其更符合生物学原理,或探索其他方法,如牛津大学提出的“前瞻性配置”,该方法在突触之前调整神经元活动。
尽管有这些进展,由于实验复杂性,要证明任何理论仍然具有挑战性。然而,识别大脑的学习算法可以显著推进神经科学,并可能进一步增强AI的发展。
(Science & technology)
via 老裕泰 - Telegram Channel