资讯

这项由复旦大学计算机科学学院的宋雨容、刘晓然等研究者领导的研究发表于2025年8月,论文名为《Sparse-dLLM: Accelerating Diffusion LLMs with Dynamic Cache Eviction》。有兴趣深入了解的读者可以通过arXiv:2508.02558v1访问完整论文。研究团队还包括来自上海创新研究院和上海AI实验室的科研人员,体现了产学研的深度合作。 当 ...
在科技迅速发展的今天,人工智能(AI)已经逐渐融入我们的生活中。而最近,复旦大学计算机科学学院的研究团队,带来了一个令人振奋的消息:他们开发了一种名为Sparse-dLLM的技术,可以让AI对话速度提升近10倍。这一研究成果不仅在学术界引起了广泛关注,也为普通用户的日常生活带来了新的期待。 这项研究由复旦大学的宋雨容、刘晓然等研究者主导,论文名为《Sparse-dLLM: Accelerating ...
近日,生物医学工程学院陈武凡、戚力团队在稀疏光声层析成像图像重建的研究取得新进展,在中国科学院一区学术期刊《Photoacoustics》发表了最新科研成果:Image reconstruction of multispectral sparse sampling photoacoustic tomography based on deep algorithm unrolling.
2月18日,DeepSeek官方在海外社交平台X上发布了一篇纯技术论文报告,论文主要内容是关于NSA(Natively Sparse Attention,原生稀疏注意力),官方介绍这是 ...
该论文提出了一种名为NSA(Natively Sparse Attention,原生稀疏注意力)的新型注意力机制。NSA是一种用于超快速长文本训练与推理的、硬件对齐且可原生 ...
最后仔细想想,NSA的解法应该是在dynamic sparse attention想要保证每个token attend不同block的限制情况下的 唯一解法了。整个 kernel设计就像刀尖上戴着镣铐 ...