9月8日消息,今日,中国科学院自动化研究所宣布,该研究所李国齐、徐波团队与沐曦MetaX合作,成功研发出类脑脉冲大模型瞬悉1.0(SpikingBrain-1.0)。
据介绍,该模型基于团队原创的内生复杂性理论构建,在国产GPU平台上完成全流程训练与推理,显著提升了大模型高效处理极长文本或数据序列的效率和速度,展示了构建国产自主可控的新型(非Transformer)大模型架构生态的可行性。
据了解,当前主流的Transformer模型,在处理超长文章或对话时速度会非常慢且成本极高,造成了巨大的资源消耗。
与当前主流大模型架构(Transformer架构)不同,瞬悉1.0借鉴大脑神经元内部工作机制,清晰地展示了一条不断提升模型复杂度和性能的新型可行路径。
该模型仅需约主流模型2%的数据量,就能在多项语言理解和推理任务中达到媲美众多主流模型的性能。
中国科学院自动化研究所表示,这是我国首次提出大规模类脑线性基础模型架构,并首次在国产GPU算力集群上构建类脑脉冲大模型的训练和推理框架。
其超长序列处理能力在法律与医学文档分析、复杂多智能体模拟、高能粒子物理实验、DNA序列分析、分子动力学轨迹等超长序列任务建模场景中具有显著的潜在效率优势。
本次发布的大模型为新一代人工智能发展提供了非Transformer架构的新技术路线,并将启迪更低功耗的下一代神经形态计算理论和芯片设计。
网络端试用端口网址:https:https://controller-fold-injuries-thick.trycloudflare.com
中文技术报告网址:https:https://github.com/BICLab/SpikingBrain-7B/blob/main/SpikingBrain_Report_Chi.pdf
模型代码网址:https:https://github.com/BICLab/SpikingBrain-7B