17岁高中生参与顶尖AI论文发布 引发技术社区热议
17岁高中生参与前沿AI算法研发
近日,月之暗面发布《Attention Residuals》技术报告,提出以注意力机制替代Transformer中固定的残差连接结构。该方法在Kimi Linear 48B模型上实现等效算力利用率提升25%,推理延迟增加不足2%。这一成果标志着算法设计与底层基础设施协同优化的重要进展。
青年研究者引发技术圈关注
论文联合一作之一陈广宇(英文名Nathan)年仅17岁,目前就读于惠州贝赛思国际学校。他于2025年11月加入月之暗面,其GitHub上的Flash Linear Attention开源项目为其进入机器学习领域的起点。此次参与的论文被评价为兼具实验验证与理论支撑,体现算法与系统层面的深度结合。
团队协作获本人澄清
面对外界关于“个人主导”的传闻,陈广宇在X平台明确表示:「这样一篇涵盖算法设计、基础设施适配、实验验证与理论分析的论文不可能由一人完成」。他强调张宇与苏剑林均为同等贡献者,并提醒公众勿轻信谣言。苏剑林为旋转位置编码(RoPE)提出者,张宇为Kimi Linear核心作者之一,三人共同推动了该技术落地。
黑客松冠军与学术突破并行
陈广宇曾于2025年3月在由Moonshot Academy主办的「Moonshot 48」高中生黑客松中夺得冠军,该赛事聚焦生成式AI与高效计算架构,与本次研究成果高度契合。其教育背景与实践经历展现年轻一代在前沿科技领域的快速成长。
声明:文章不代表币圈网立场和观点,不构成本站任何投资建议。内容仅供参考!