E X P

关于 HBM3 的消息

三星HBM3E尚未通过英伟达验证,卡在台积电审批环节

此前有报道称,美光、SK海力士和三星先后在去年7月底、8月中旬、以及10月初向英伟达提供了8层垂直堆叠的HBM3E(24GB)样品。其中美光和SK海力士的HBM3E在今年初已通过英伟达的验证,并获得了订单。

三星计划2024Q2开始量产HBM3E 12H DRAM,以及1βnm 32Gb DDR5产品

近日,三星公布了截至2024年3月31日的第一季度财报。显示其存储器业务通过满足高附加值产品的市场需求终于实现了盈利,带动了整个DS部门的营收和利润增长,让半导体业务自2022年以来的首次恢复盈利。

传三星与AMD签订价值30亿美元的新协议:将供应12层堆叠的HBM3E

去年10月,三星举办了“Samsung Memory Tech Day 2023”活动,宣布推出代号为“Shinebolt”的新一代HBM3E DRAM。到了今年2月,三星宣布已开发出业界首款HBM3E 12H DRAM,拥有12层堆叠,容量为36GB,是迄今为止带宽和容量最高的HBM产品。随后三星开始向客户提供了样品,计划下半年开始大规模量产。

AMD和英伟达AI芯片发展迅猛,加速HBM3E今年下半年将成主流

在人工智能(AI)和高性能计算(HPC)的影响下,近两年HBM产品发展逐渐加速,也推动着存储器厂商的收入增长,而新一代HBM3E也逐渐成为了各种新款芯片的搭配首选。今年英伟达带来了基于Blackwell架构的新产品,首发的B200和GB200都选用了HBM3E。有消息称,AMD今年将推出改用4nm工艺制造的Instinct MI350系列,搭配的显存也将换成HBM3E。

AMD今年或带来Instinct MI350系列:升级至4nm工艺,采用HBM3E

前一段时间,美国政府修订了最新的管制条例,针对人工智能(AI)和高性能计算(HPC)为主要用途的芯片,4月4日开始实施的APP禁令进一步加强管控的力度,采取了更为严格的控制措施。

SK海力士HBM3E内存现已量产,月内将供货给英伟达使用

SK海力士今日宣布已开始量产最新款内存产品HBM3E,并将于3月下旬供货给主要客户,其中包括拥有基于Hopper架构的H200和基于BlackWell架构的B200 GPU的英伟达。

英伟达Blackwell架构B100细节泄露:将配备192GB的8层堆叠HBM3E

GTC 2024大会将于2024年3月18至21日在美国加州圣何塞会议中心举行,线上大会也将同期开放。这次英伟达会将重点放在人工智能(AI)领域,在过去的一年里,这是业界最热门的话题。英伟达下一代面向服务器产品的Blackwell架构也会登场,在数据中心市场继续压制其他竞争对手。

三星已获得AMD验证,将向Instinct MI300系列供应HBM3

2024年高带宽存储器(HBM)市场仍然以HBM3为主流,不过英伟达即将到来的H200和B100将更新至HBM3E。由于人工智能(AI)需求高涨,导致英伟达及其他供应商的相关芯片供应一直处于紧张的状态,除了CoWoS封装是产能的瓶颈外,HBM也逐渐成为供应上的制约点。相比于普通的DRAM,HBM生产周期更长,从投片产出到完成封装需要两个季度以上。

美光凭借工艺优势抢夺HBM3E市场,已成功吸引英伟达新款AI GPU订单

在人工智能(AI)和高性能计算(HPC)的影响下,近两年HBM产品发展逐渐加速,也推动着存储器厂商的收入增长。作为英伟达高带宽存储器合作伙伴,SK海力士目前在HBM市场的处于领导地位,大量供应HBM3用于英伟达的各款人工智能芯片。

SK海力士已向英伟达发送12层堆叠HBM3E样品,以进行产品验证测试

HBM产品被认为是人工智能(AI)计算的支柱之一,近两年行业发展迅速。在人工智能和高性能计算(HPC)的影响下,推动着存储器厂商的收入增长。作为英伟达高带宽存储器合作伙伴,SK海力士目前在HBM市场的处于领导地位,大量供应HBM3用于英伟达的各款人工智能芯片。

HBM低良品率影响产量,美光在英伟达HBM3E资格测试中领先

目前英伟达为人工智能(AI)和高性能计算(HPC)应用销售的芯片比业内其他企业都要多,这些高性能计算卡需要大量HBM类芯片,如果想保持这种状态,就需要稳定的供应。为了更妥善且健全的供应链管理,同时为了保证下一代产品的供应,英伟达规划加入更多的供应商,去年末三星、SK海力士和美光都参与到英伟达下一代AI GPU的资格测试中。

三星官宣业界首款36GB HBM3E 12H DRAM:12层堆叠,容量和带宽提升50%

去年10月,三星举办了“Samsung Memory Tech Day 2023”活动,展示了一系列引领超大规模人工智能(AI)时代的创新技术和产品,并宣布推出名为“Shinebolt”的新一代HBM3E DRAM,面向下一代人工智能应用,提高总拥有成本(TCO),并加快数据中心的人工智能模型训练和推理速度。

美光宣布量产24GB的HBM3E,将用于英伟达H200

美光宣布,已开始批量生产HBM3E,将用于英伟达H200,该GPU计划在2024年第二季度开始发货。美光表示,这一里程碑让其处于业界的最前沿,以行业领先的HBM3E性能和能效为人工智能(AI)解决方案提供支持。

SK海力士准备在ISSCC 2024展示GDDR7和HBM3E,还有LPDDR5T-10533

昨天我们报道过三星会在2月18日至22日在美国旧金山举行的ISSCC 2024上介绍其最新的GDDR7显存技术,速率达到了37Gb/s,为16Gbit模块,而另一家韩国半导体巨头SK海力士自然也不会错过在这次大会上展示肌肉。

SK海力士将在CES 2024展示AI存储器产品:带来基于HBM3E的生成式AI技术

SK海力士宣布,将参加2024年1月9日至12日在美国拉斯维加斯举行的世界最大规模电子、IT展会“国际消费电子产品展览会(CES 2024)”,届时展示未来AI基础设施中最为关键的超高性能存储器技术实力。

加载更多
热门文章
1AMD Strix Halo渲染图:GCD极其巨大,比两个CCD加起来都要大
2目前DP80 UHBR认证线材最长仅1.2米,难以满足DP 2.1 UHBR20实际使用需求
3微星推出PAG FORGE M100L机箱:12个风扇位,支持400mm显卡,售价219元
4长江存储推出PC41Q:旗下首款商用消费级QLC SSD,最大2TB,双尺寸可选
5索尼可能在开发新款PlayStation掌机,首发运行PS4游戏
6AMD宣布Alveo V80计算加速卡量产:配32GB HBM2E,针对内存密集型工作负载
7育碧公布《不羁联盟》PC配置要求:4K需要RX 6800 XT或RTX 3080
8英特尔Arc显卡31.0.101.5522 WHQL驱动:为近期新游戏和重要更新进行优化
9夏日游戏节2024公布第一批合作伙伴,超过55间厂商加入