资讯

8月2日消息,AMD公司昨日(7月29日)发布博文,宣布在Windows系统下搭配128GB内存,其RyzenAIMAX+395成为全球首款可以在消费级显卡上最高支持96GB显存,本地完整运行Meta的Llama4Scout109B(激活参数为17B ...
今年1月报道,AMD公司在CES2025大展上,发布RyzenAIMax+395处理器,配备16核32线程,最高频率5.1GHz,80MB缓存,40个RDNA3.5计算单元(Radeon8060S),cTDP45-120W。值得一提的是,由于iPho ...
编译 | TinaMeta 首席执行官马克·扎克伯格(Mark Zuckerberg)在周三分享了他对“个人超级智能”(personal superintelligence)的愿景——也就是每个人都能够借助 AI ...
OpenAI 可能即将发布的开源大模型的详细技术细节来了,以下是根据泄露信息整理模型架构:1200亿参数的混合专家模型(MoE)据爆料,OpenAI 可能会发布两款模型:一款 1200亿(120B)参数的混合专家(MoE)模型:其在推理时仅激活约 ...
开发者们始终选择最前沿的模型,而不是那些更便宜、更快的替代品。他们优先考虑性能,并愿意为此付费。每当新模型发布,切换通常在几周内完成。例如,在Claude 4发布的一个月内,Claude 4 Sonnet就吸引了45%的Anthropic用户,而Sonnet 3.5的份额则从83%骤降至16%。
Meta正投入数百亿美元建设GPU数据中心,但在与OpenAI和Anthropic的竞争中表现不佳。CEO扎克伯格将目标转向AI超级智能,声称要为每个人提供个人超级智能助手。公司计划2025年投入720亿美元用于基础设施建设,包括多个千兆瓦级数据中心 ...
今年早些时候,在2025年国际消费电子展(CES 2025)上,AMD发布了全球首款能在本地运行Meta Llama 70B模型的AI PC处理器。如今,AMD再度发力,宣布锐龙AI MAX+ ...
Llama-2不仅性能更强,还首次实现了免费可商用。 ·2023年8月:基于Llama-2,Meta发布了专注于代码生成的Code-Llama,进一步拓展了Llama的应用场景。
LLaMA 4的训练过程采用了多阶段策略的,以确保模型在保持高效的同时能够达到最佳性能。 首先,Scout和Maverick都在一个包含文本和图像的多样化数据集上进行了预训练,这使得它们能够理解和推理语言和视觉任务。
扎克伯格与纳德拉 凤凰网科技讯 北京时间5月27日,据《商业内幕》报道, Meta开源大模型Llama帮助确立了该公司的AI战略,然而打造这一初代成功 ...
Llama 3.2模型经过压缩,体积仅为2.6GB,虽然勉强能够在这一平台上运行,但这也预示着接下来即将发生的戏剧性事件。 随着LLM开始运作,它逐渐意识到自己所处的环境是多么苛刻。 每当它尝试进行复杂思考或运算时,内存的消耗如同沙漏中的细沙,逐渐流失。