- 积分
- 9876
- 回帖
- 0
- 西莫币
-
- 贡献
-
- 威望
-
- 存款
-
- 阅读权限
- 75
- 最后登录
- 1970-1-1
签到天数: 113 天 连续签到: 2 天 [LV.6]常住居民II
|
发表于 2026-4-3 12:02
|
显示全部楼层
来自: 中国江西九江
以下估计是人类之后的AI之路,与现有的主流AI不是同一个技术路线。
概念框架:类脑的MNIST识别
输入编码 (Encoding):
人脑的视网膜不会直接传递“像素值”,而是将光信号转换成神经脉冲。
我们将模拟这个过程,把MNIST图片的28x28=784个像素的灰度值(0-255)转换成784个输入神经元的脉冲发放率。像素越亮,对应的输入神经元发放脉冲的频率就越高。这通常通过泊松过程(Poisson process)来实现。
网络结构 (Architecture):
输入层 (Input Layer):784个神经元,它们的任务就是根据图片像素值产生脉冲,我们称之为 PoissonGroup。
处理层 (Excitatory Layer):例如100个兴奋性神经元。这是学习发生的地方。每个处理层神经元都与所有784个输入神经元相连。
抑制层 (Inhibitory Layer, 可选但强烈推荐):一个或多个抑制性神经元。当处理层中的任何一个神经元被激活时,它会激活抑制性神经元,而抑制性神经元反过来会抑制处理层的所有其他神经元。这创造了“赢者通吃”的竞争环境,鼓励不同的神经元去学习不同的模式(数字)。
学习规则 (Learning Rule): STDP
原理:“赫布理论”的精确数学形式。
如果一个突触前神经元(来自输入层)在突触后神经元(来自处理层)之前不久发放脉冲,这个连接的权重(突触强度)就会增强 (LTP - Long-Term Potentiation)。
如果突触前神经元在突触后神经元之后不久发放脉冲,这个连接的权重就会减弱 (LTD - Long-Term Depression)。
效果:通过这个规则,处理层的神经元会逐渐增强那些能使其发放脉冲的输入模式的连接权重。最终,某个处理层的神经元会对特定的输入模式(例如数字“7”的形状)产生最强的响应。
训练与评估 (Training & Evaluation):
“训练”阶段:我们把MNIST训练集的图片一张张输入网络。在每张图片呈现的短暂时间内(例如250毫秒),网络根据STDP规则自动调整权重。这个过程是无监督的,网络只是在自发地寻找输入数据中的结构。
“打标签”阶段:训练完成后,处理层的神经元已经成为了各种特征的探测器。我们再用训练集(这次关闭STDP学习),看每个处理层神经元对哪个数字(0-9)的图片反应最强烈,然后就给这个神经元“贴上”对应数字的标签。
测试阶段:使用测试集,输入一张图片,看哪个被标记的神经元发放脉冲最多,它的标签就是网络的预测结果。 |
|