资讯

在荣获本届ACL最佳论文的4个团队中:DeepSeek团队(梁文锋参与撰写)和北京大学杨耀东团队各摘得一篇。另外两篇则分别归属CISPA 亥姆霍兹信息安全中心 & TCS Research & 微软团队以及斯坦福大学 & Cornell Tech团队。
目前,大语言模型的核心技术之一是 注意力机制(Attention) 。传统的全注意力机制在处理长文本时,计算量会随着文本长度的增加呈平方级增长,导致模型响应速度变慢,训练和推理成本高昂。例如,在 64k ...
2025年7月27日至8月1日,第63届 ACL(计算语言学年会)在奥地利维也纳举行。今年大会总投稿量突破8000篇,创历史新高,最终主会论文接收率为20.3%,Findings 接收率为16.7%。根据大会官方数据,中国作者首次在第一作者占比中过半 ...
全球人工智能领域的顶级会议ACL 2025公布了其年度最佳论文奖。来自中国的DeepSeek-AI团队凭借其开创性研究 《Native Sparse Attention: Hardware-Aligned and Natively Trainable ...