报道介绍日本东北大学与未来大学团队利用活体大鼠皮层神经元、高清微电极阵列和PDMS微流控薄膜构建闭环储备池计算系统,借助微孔与微通道将神经元限制成格型与分层两种拓扑,从而显著降低神经元间同步性(两两相关性由0.45降至0.12)。在无需外部输入的条件下,系统通过实时机器学习自主学习并生成多种周期性信号(4s/10s/30s 的正弦波、三角波、方波)并能逼近洛伦兹吸引子等混沌轨迹,格型网络表现最佳。当前瓶颈包括训练停止后自主运行误差增加及约330毫秒的反馈延迟限制快速波形追踪,团队计划通过专用硬件降低延迟,探索在脑机接口和神经假体中的应用。
4 月 7 日消息,科技媒体 Tom's Hardware 于 4 月 5 日发布博文,报道称日本科学家成功训练大鼠皮层神经元,利用实时机器学习框架自主生成复杂时序信号。
日本东北大学与未来大学研究团队集成活体神经元与高密度微电极阵列及微流控设备,构建了“闭环储备池计算”(Reservoir Computing)系统。该系统无需外部输入,即可自主学习和生成周期性及混沌波形(Chaotic Waveform),执行 AI 计算任务。
**技术核心在于利用 PDMS(聚二甲基硅氧烷)微流控薄膜约束神经元连接方式。**研究发现,无物理约束时,培养神经元会形成高度同步化网络,无法学习目标信号。

为此,团队将神经元胞体限制在 128 个微型微孔中,通过微通道连接,构建了格型(lattice)和分层(hierarchical)两种网络结构。这种设计显著提升了网络动力学维度,将神经元两两相关性从 0.45 降至 0.12。

测试结果显示,格型网络在所有目标波形中表现优异。系统能生成周期为 4 秒、10 秒和 30 秒的正弦波、三角波及方波,并能逼近三维混沌轨迹洛伦兹吸引子,学习阶段预测信号与目标信号相关性超过 0.8。东北大学教授山本英明表示,活体神经元网络不仅是生物学系统,更可作为新型计算资源。
不过该技术目前依然存在性能瓶颈。训练停止后,系统自主运行时误差增加。反馈环路约 330 毫秒的延迟,限制了系统追踪快速变化波形的能力。
科研团队未来希望通过专用硬件降低延迟,扩展其在 Brain-Machine Interface(脑机接口)和神经假体设备中的应用。
IT之家附上参考地址
- Online supervised learning of temporal patterns in biological neural networks under feedback control