
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年8月,浙江大学发布全球规模最大的类脑计算机“Darwin Monkey(悟空)”,采用第三代类脑芯片Darwin 3,拥有超20亿脉冲神经元与1000亿突触连接,逼近猕猴大脑规模,功耗仅2000瓦。该计算机由960颗自研芯片组成,支持运行DeepSeek等类脑大模型,并可模拟多种动物大脑。研究团队还开发了全新类脑操作系统,优化资源管理与任务调度。项目依托浙江大学与之江实验室合作研发,为人工智能和神经科学研究提供新工具,助力脑科学探索与类脑AI发展。
原文链接
在大模型竞争中,算力与效率的平衡至关重要。端侧部署面临算力瓶颈,面壁智能与清华大学提出了不同于MoE的新路径——神经元级稀疏激活技术,既保持性能又大幅降低资源消耗。
这项技术源于脑科学灵感与工程创新结合。CFM是一种原生稀疏技术,通过模型自身的稀疏特性提升参数效率,显著减少内存占用。与MoE相比,C...
原文链接
人类大脑包含约860亿神经元,其复杂性令人震惊。这些神经元通过“脑连接组”相互连接,是理解学习和记忆的关键。绘制完整神经线路图面临巨大挑战,据哈佛神经科学家杰夫·利希特曼表示,仅存储此图谱的数据量就超过了地球上所有硬盘的总容量。
利希特曼教授指出,大脑是精简系统,能执行复杂需求。探索认知的征途如同攀...
原文链接
【摘要】11月16日,北京师范大学、广东省智能科学与技术研究院和中国科学院生物物理研究所等单位的科研人员合作,在感觉神经领域取得重大突破。研究团队揭示了感觉神经元的发育机制,并在此基础上构建了人类背根结节类器官。这一成果为理解人类感知冷热、疼痛、触压等外部刺激提供了新的视角,同时有望成为慢性疼痛等疾病的新型药物筛选工具。该研究已于近期在国际学术期刊《细胞》上发表,标志着我国在神经系统研究领域迈出了重要一步。此项创新不仅具有重要的科学价值,还可能在未来带来医疗领域的革新。
(注:摘要精简至200字左右,但保持了关键信息的完整性)
原文链接
标题:揭秘为何大模型误判“9.9<9.11”:《圣经》和日期神经元影响
MIT和UC伯克利的研究团队通过新工具揭示了大模型为何会错误判断“9.9<9.11”。这个谜团的答案令人意外——与《圣经》经文、日期、重力等概念有关。特别是,《圣经》经文相关神经元的激活被设为0后,大模型的准确率提高...
原文链接
日本九州大学科研团队在《自然·通讯》最新发表成果,开发出AI工具QDyeFinder。这款AI能从小鼠大脑图像中自动识别并重建神经元,通过超多色标记协议和颜色组合匹配技术,实现高精度神经元结构追踪。与现有机器学习软件相比,QDyeFinder在轴突识别上表现出更高准确度。这一创新技术有望加速大脑神经网络研究,提升理解大脑功能的新突破。
原文链接
2024年6月,科研团队发布了一项突破性成果,他们开发的DD-DC新型神经元网络模型揭示了神经元对环境控制的强大力量,这可能推动人工神经网络更接近大脑运作。与传统的单向信息传递不同,DD-DC模型允许神经元反馈影响早期处理,类似于微型控制器。研究发现,神经元间的随机性有助于适应变化,且某些类型的噪声能提升性能。尽管如此,模型的高计算需求限制了其大规模应用,未来研究将聚焦于特定领域的深入分析,并结合其他技术提升AI的可靠性和准确性。这一进展由Flatiron Institute和印第安纳大学的研究者在《美国国家科学院院刊》上发表。
原文链接
上海交通大学IPADS实验室发布了手机推理框架PowerInfer-2,显著提升了在移动设备上运行470亿参数大模型的性能,速度提升高达29倍。该框架解决了手机内存和算力不足的问题,通过动态神经元缓存与异构计算,使得Mixtral 47B模型在手机上达到11 tokens/s。PowerInfer-2.0还包括Turbo Sparse优化技术,可有效降低内存使用,适用于资源受限的场景。团队已开放稀疏化模型权重,预示着大模型技术可能加速从实验室走向实际应用,如手机、车载和智能家居。
原文链接
加载更多

暂无内容