2025年10月1日至4日,福建省科技馆成功举办“科学之夜”大型科普活动。本次活动以“智趣AI幻夜奇旅”为主题,在国庆黄金周期间为广大公众打造了一场融...
2025-10-10 0
(报告出品方/作者:东方证券,刘洋、李一涛)
1.1:英伟达 AI 算力卡性能提升的同时带来功耗大幅增长
英伟达 AI 算力卡功耗随型号架构迭代而持续增长。随着 AI 算力的爆发式增长,英伟达算力卡型 号及架构也同步持续迭代。自 2022 年 Ampere 架构首次以 AI 训练为目标推出以来,AI 算力卡功 耗持续提升。同年英伟达发布的 Hopper 架构针对 Transformer 模型进行优化的同时,功耗大增 75%至 700 瓦。随后 H 系列产品从 H100 持续迭代至 GH200,算力卡功耗从 700 瓦持续增长至 1000 瓦。直到 2024 年 3 月 GTC 大会,英伟达推出最新一代 Blackwell 架构系列产品,以 Full B200 为代表的高功耗 AI 芯片功率已高达 1200 瓦,而采用 1 Grace CPU+2 Full B200 GPU 异构 架构设计的 GB200 功耗更是高达前所未有的 2700 瓦。
GB300 芯片参数及 AI 性能达到全新高度的同时,功耗同步大幅增长。2025 年 3 月英伟达 GTC 大会上,黄仁勋发布了基于 Blackwell Ultra 架构的 GB300 芯片。GB300 芯片基于台积电最先进 的 4NP 工艺制造,拥有 160 个流处理器(SM)单元,每个 SM 单元包含 128 个 CUDA 内核,总 计 20480 个 CUDA 核心。它还配备了 640 个第五代 Tensor 核心,以及 40MB 的 TMEM(Tensor 内存),进一步增强了其 AI 计算能力。单张 GB300 具备 288GB HBM3e 显存与 15P FLOPS FP4 算力,成为全球首个支持百万 token 级推理的算力平台,AI 性能达到全新高度。但从另一方面来 看,GPU 芯片功耗同样进一步提升。GB300 单卡功耗高达前所未有的 1400W,较上代产品 Full B200 增长 200W 或 16.67%,并且英伟达下一代代号为“Rubin”架构的产品功耗或在此基础上 继续提升。
整体来看英伟达显卡的 AI 算力功耗比并不高。随着 AI 算力卡的功耗不断提升,AI 计算能力 (TOPs, Tera Operations Per Second) 逐渐成为衡量 GPU 性能的重要指标。无论是 AI 训练、推 理加速,还是 Stable Diffusion、ChatGLM 等本地 AI 模型部署,显卡的 AI 处理能力都直接决定了运行效率。我们根据英伟达官网参数,整理了英伟达中高端 AI 算力卡的 AI 算力与功耗,并计算 得到算力功耗比指标。其中英伟达 GB200 INT8 算力高达 20000TOPs,考虑其 2700 瓦的功耗之 后,其算力功耗比仅有 7.41 TOPs/W,甚至不及前代产品;英伟达 B200 每瓦算力为 9.0 TOPs/W, 相较前代产品 B100 同样有所下降。
1.2:ASIC 较 GPU 等通用算力芯片具备更高的效率
ASIC 芯片是一种为特定应用或功能定制设计的集成电路芯片。ASIC 是 Application-Specific Integrated Circuit 的缩写,中文翻译为专用集成电路。它是一种是针对用户对特定电子系统的需 求,从根本上定制化设计与制造的专有应用程序芯片。与 CPU、GPU 等通用算力芯片不同, ASIC 的设计目标是高效、低成本地实现特定任务,提供业界领先的效率和性能。其计算能力和计 算效率可根据算法需要进行定制,是固定算法最优化设计的产物。ASIC 芯片模块可广泛应用于 人工智能设备、虚拟货币挖矿设备、耗材打印设备、军事国防设备等智慧终端。
ASIC 为单一任务定制硬件架构的特点与 AI 推理需求高度契合。根据承担任务的不同,AI 芯片主 要可以分为 AI 训练芯片和 AI 推理芯片两类,其中 AI 推理指的是用已训练好的模型处理数据的过 程。例如用训练好的图像识别模型识别照片,或用语音模型转写语音等都是 AI 推理范畴。一旦模 型部署,其算法逻辑与计算流程会长期固定,几乎不需要调整。这种固定性正好匹配 ASIC 为单 一任务定制硬件架构的核心优势,可以直接将推理算法的计算逻辑、数据路径固化到芯片中。相 较于 GPU 中用于训练的动态调度模块、通用内存控制器,ASIC 去掉了所有无关的通用计算单元, 让硬件资源 100%服务于推理计算,因此 ASIC 相较 GPU 等通用算力芯片具备更高的效率和性能。
ASIC 芯片在面积、能耗、集成与价格方面相较 GPU 具备明显优势。CPU、GPU 等传统芯片通 过读取、执行外部程序代码指令而生成结果,而 ASIC 芯片读取原始输入数据信号,并经内部逻 辑电路运算后直接生成输出信号,因此 ASIC 针对特定应用设计的特性有效提高了电源性能和效 率,在面积、能耗、集成与价格方面也具备明显的竞争优势。面积方面,ASIC 芯片在设计时避免 冗余逻辑单元、处理单元、寄存器、存储单元等架构,以纯粹数字逻辑电路形式构建,有利于缩 小芯片面积。由于芯片面积较小,同等规格晶圆可被切割出更多数量芯片,有助于企业降低晶圆 成本。能耗方面,ASIC 芯片单位算力能耗相对 CPU、GPU、FPGA 较低。GPU 每算力平均约消 耗 0.4 瓦电力,ASIC 单位算力平均消耗约 0.2 瓦电力,更能满足新型数据中心对能耗的限制。集 成方面,因采用定制化设计,ASIC 芯片系统、电路、工艺高度一体化,有助于客户获得高性能集 成电路。价格方面, 量产后的 ASIC 芯片价格远低于 CPU、GPU、FPGA 芯片。
算力功耗比是海外 AI 巨头转向自研 ASIC 芯片的重要原因。ASIC 芯片凭借定制化的硬件架构, 可针对特定 AI 任务(如图像识别、自然语言处理)优化算力分配,在大规模量产的情况下能够有 效降低单位成本。例如亚马逊的 Trainium 芯片在推理任务中比英伟达的 H100 GPU 便宜约 30% 至 40%,随着产量的增加,ASIC 的成本优势会更加明显。因此对于数据中心等需要大量部署 AI 芯片的场景,使用 ASIC 芯片能够显著降低硬件采购成本。
1.3:海外 AI 巨头积极推进自研 ASIC 芯片布局
当前定制化算力竞赛进入深水区,海外 AI巨头争相推进自研 ASIC芯片布局。英伟达除了在 GPU 算力卡外,同样积极布局ASIC芯片业务。其自主研发的数据处理单元DPU属于ASIC芯片范畴, 目标为数据中心等 AI 应用场景提供更优化的算力解决方案;英特尔推出的视觉处理器 VPU 同样 属于 ASIC 芯片,能够在机器视觉相关的 AI 任务中表现出色,适用于智能安防监控、自动驾驶等 图像识别;亚马逊发布的基于 ASIC 的 AI 芯片 Trn2UltraServer 和 Amazon EC2 Trn2,通过单个 Trn2 结合多颗 Trainium2 芯片,可提供强大算力,助力 AI 应用在云端更高效地运行。Meta 通过 与博通合作,最早将于今年第四季度推出其首款 AI ASIC 芯片 MTIA T-V1,规格或将超过英伟达 下一代 AI 芯片“Rubin”。
博通 ASIC 业务已服务于谷歌、Meta 等多家客户。博通借助台积电的 3nm 与 2nm 工艺,以及 3D SoIC 封装技术,大幅提升 ASIC 芯片的性能和功耗效率。受益于定制 AI 加速器(XPU)和网络业 务增长,三大客户(谷歌、Meta、字节)贡献主要收入。在第三财季,博通的 XPU 业务已占 AI 整体收入的 65%,来自三大客户的定制 AI 加速器需求持续增长。在最新业绩沟通会上,高管透 露公司收到第四位神秘客户下达的超 100 亿美金的订单。经多方证实确定为 OpenAI。OpenAI 此 次定制的 AI 芯片将仅供内部运算使用,以降低对 NVIDIA GPU 的依赖。
1.4:终端用户部署 ASIC 后的核心痛点是省电
电源分配网络(PDN)是将电源功率输送给负载的实体路径。PDN 全称为 Power Delivery Network,中文翻译为电源分配网络,是将电源功率从电源输送给负载的实体路径。PDN 是电子 设备中至关重要的组成部分,它负责有效分配电源并维持电路板上的电源完整性。电流通过 PDN 从电源端流向负载端,再通过负载端流回电源端。通常一个完整的 PDN 包括电源模块(VRM) 到器件焊盘(板级设计),再从封装到芯片管脚(芯片设计),以及其他所有无源元件及其与电 网的连接。
传统横向供电模式存在不可避免的 PDN 压降与损耗。在横向供电模式 PDN 设计中,通常假设导 线为理想模型,即无阻抗(R0=0Ω)、无寄生电感(L0=0pH)、无寄生电容(C0=0pF)。但 在实际情况下,任何金属都存在微小的源阻抗与寄生电感,导致 PDN 传输电压不再与电源输出相 等。例如点亮一只灯泡需要 5V 电压 1A 电流,在理想导线模型下,电源只需要输出 5V。但实际 情况下,由于正负极导线均存在 8mΩ的阻抗,正负极导线会存在大约 1Ax16mΩ=0.016V 的压降 与 0.016W 的损耗。若想点亮灯泡,电源需要提供 5.016V 的电压。此外,随着流经 PDN 的电流 越大,电流在源阻抗两端产生的压降越大,最终产生的 PDN 损耗也越大。
随着处理器内核电压降低,电路容许的 PDN 压降也逐渐降低。传统的 CPU 与 GPU 内核电压可 高达 3.3V,而海外巨头最新的高端芯片内核电压已下降至 0.8V-1.3V 甚至更低。按数字逻辑 1 为 高电平测算,假设 0.8x 为逻辑 1,则老处理器逻辑 1 的电压范围为 3.3*0.8=2.64V 到 3.3V,电路 容许的 PDN 压降可达 660mV。而新处理器的电压范围为 0.8V 到 1V,因此在设计上仅容许 PDN 压降为 200mV,相较老处理器的容限低了 3 倍。根据欧姆定律,若负载端消耗同样的电流,则新 处理器的 PDN 阻抗需要降低至少 3 倍。
由于 AI 算力功耗提升,PDN 损耗同样明显增长。当前数据中心多采用横向供电系统,PCB 板上 的电源稳压器通常放置在电路板顶部、处理器的周围。随着 AI 算力功耗提升与核心电压下降流经 芯片的电流不断增长。另一方面,稳压器与负载点之间距离的增长,同样成为造成 PDN 损耗增加 的重要因素。根据 MPS 数据,采用 8 块 GPU 服务器的 PDN 能量损耗可高达 15%-20% ,由此带 来的年电费因 PDN 损耗增加数万美元。另一方面,由于横向供电模式的电源模块距离 AI 芯片较 远,难满足微秒级瞬态电流需求,容易因电流波动而致系统电压跌落。 终端用户部署 ASIC 后的核心痛点是省电。现代数据中心的每个机架平均提供 3kW - 5kW 的功率, 为服务器、存储器和网络机架供电。大部分功率会供给 ASIC,以确保其能高效率工作。因此,传 统 12V 电源架构被广泛采用。随着 AI 算力不断增长,省电成了终端用户部署大功率 ASIC 后的核 心痛点。早期 AI 市场超级计算机的整个电源系统需要 3200W 的功率。第二代 AI 功率需求增长了 三倍,使整个电源系统的总功率达到了 10kW。由于分配大电流时功率损耗随电流的平方 (I²R) 增 大,必须在背板或走线中使用更多的铜来控制配电损耗。这样最终会限制系统的功率传输。
2.1:采用垂直堆叠设计的电源模块能够有效降低 PDN 损耗
垂直堆叠相较横向供电设计能够有效降低 PDN 损耗。针对 AI 加速卡集群,垂直供电是较好的解 决方案。在垂直供电的方案中,电源模块直接安装在处理器 PCB 另外一侧的下方,通过垂直堆叠 实现电源模块与处理器的近距离耦合。这种方法将 PDN 路径缩短至毫米级,极大地减小了传输路 径寄生参数对电源质量的影响与 PDN 损耗。另一方面,垂直堆叠设计通过将功率器件堆叠在模块 顶部,配合微通道液冷板,将电源模块的热阻(ThetaJT)大幅降低至 0.5K/W 左右,同样有助于 降低 PDN 损耗。
2.2:电感体积需明显减小以适应垂直堆叠电源模块
垂直堆叠电源模块由于小体积高度集成,内部电感体积也需要大幅减小。采用垂直堆叠设计的电 源模块在占用空间小的同时,集成了驱动MOSFET (DrMOS)、电感和输出电容等多款关键被动元 器件,并且在超小体积内实现两路 130A 输出电流,以高效率高集成度等多重优势助力 AI 芯片供 电,破解能源与散热困局。因此在电源模块减小占板面积的同时,对内部电感的设计、体积、功 耗密度等方面也提出了全新的要求。
模组式电感相较分立式具有更高的功率密度和更小的解决方案尺寸。模组式电感通过垂直堆叠的 方式,相比分立式负载点(POL)解决方案,可以提供高达 60%的高功率密度,不仅简化了 PCB 的布局和功率级设计,还能最大限度地减少外部元器件以及电源变换器的使用,大大优化了补偿 网络设计。通过采用单片电源 IC 结构和定制集成电感设计,同时结合垂直封装技术,模组式电感 模块的封装尺寸相较分立式可缩小高达 40%左右的占板面积。由于高度集成化,模组式电感可在 PCB 板上更靠近芯片,从而具备更高的供电效率。
模组式电感由于占板面积小,可在 PCB 板上更靠近芯片,从而具备更高的供电效率。一个典型 的模组式电感通过采用一体成型的封装技术,在单个封装内集成了单片 IC、电感和其他选定的无 源元件。由于电子元器件直接贴装在引线框架上,使得模组式电感可比分立式电感节省高达 40% 的占板面积,从而实现更高的功率密度。更重要的是由于模组式电感占板面积下降,使得在 PCB 板上为芯片供电的电感位置可以更加近负载。由于电感与芯片之间的电路距离明显减少,使得驱 动电路和功率 FET 栅极之间的寄生电阻明显减少,进而令系统与电路板间损耗同步下降,显著提 高了功率 IC、芯片电感与 PCB 板之间的供电效率。
2.3:金属软磁粉芯更能满足电感对小体积大电流的需求
AI 服务器高功率大电流场景对芯片电感性能提出更高要求。在 AI 服务器中,由于芯片需要处理 大量数据,其功耗较传统服务器更高。功率上升的同时,芯片核心电压却不断下降。根据功率= 电压×电流可知,当功率不变时,电压下降意味着电流提升。因此对电感器饱和电流和大电流承 载能力也提出了更高要求。电感需要具备优异的饱和电流特性,从而避免磁芯饱和导致电感量骤 降。如果采用传统的铁氧体电感需要并联较多的电感才能提供较大的电流。在当前 PCB 面积不断 增大、使用率趋于饱和的情况下芯片电感对大电流小体积的需求日益突出。
磁芯材料性质直接影响电感体积与性能。由于电感的工作原理基于电磁感应定律,当通过电感的 电流发生变化时,磁芯会产生感应电动势来抵抗这种变化,而产生单位感应电动势的大小,主要 取决于磁芯材料特性。铁氧体作为最常见的磁芯材料,其饱和磁通密度 Bs 值较低(0.3-0.5 特斯 拉),意味着磁芯能够承受的最大磁场及电流较低,而金属软磁粉芯电感的 Bs 为 0.9-1.6 特斯拉, 因此在相同的工作条件下,采用金属软磁粉为磁芯的电感体积可以比铁氧体减小 70%。
大电流对电感材料的温度稳定性也提出了更高的要求。随着 AI 算力功耗持续增长,以及算力芯片 电压持续下降,流经电感器的电流不断增大。一方面,电感需要具备更高的电流承载能力,才能 够应对电路中更大的电流波动。另一方面,当流经电感的电流持续增大时,不仅会导致电感发热, 还可能引起电感的磁性能下降,降低电能转换效率,甚至影响整个电路的稳定性。因此大电流对 电感材料的温度稳定性也提出了更高的要求。为了满足 AI 大功率方案设计需求,电感材料必须具 备高饱和电流、低损耗、低温升等特点。
金属软磁粉芯在高功率应用下综合性能较好。根据不同磁芯材料的划分,软磁材料可分为铁氧体、 金属软磁粉芯(Fe-Si-Al)、非晶软磁(Fe-Si-Bl)与传统软磁材料等种类。其中铁氧体虽然拥有 100%的磁性材料含量,但其由于磁感应强度较低,因此电感体积较大,难以适应 AI 服务器芯片 小体积高功率的应用场景;非晶软磁材料具有较高的磁感应强度,尤其适合小型化高功率场景, 但可塑性方面较差,因此对于磁芯材料的成型工艺要求较高;而纯铁等传统软磁材料由于电阻率 较大,带来的磁芯损耗较高,也不适用于高频应用场景,因此综合来看以 Fe-Si-Al 为代表的金属 软磁粉芯成了最适合小体积大电流的电感材料。
3.1:海外 AI 巨头 26 年 ASIC 出货量或超 GPU
谷歌、亚马逊等 AI 巨头正加速自研 ASIC 芯片部署。根据电子工程网报道的供应链调研显示,当 前英伟达在 AI 服务器市场价值占比超过 80%,而 ASIC AI 服务器价值占比仅为 8-11%。但从出 货量角度分析,谷歌、亚马逊等 AI 巨头正加速自研 ASIC 部署。谷歌方面,预计 2025 年 TPU 出 货量可达 150-200 万片,亚马逊 Trainium 2 ASIC 出货量约为 140-150 万片,而英伟达 AI GPU 供应量为 500-600 万片。2025 年谷歌和亚马逊的 AI TPU/ASIC 合计出货量已相当于英伟达 AI GPU 出货量的 40%-60%。向后看,随着 Meta 从 2026 年、微软从 2027 年开始大规模部署自研 ASIC 解决方案,海外 AI 巨头 ASIC 出货总量有望在 2026 年中超越英伟达 GPU 出货量。
Meta 预计于 2025 年底至 2026 年出货百万级 ASIC 芯片。根据电子工程网报道的供应链调研显 示,Meta 已与台积电签订长期产能协议,计划在 2025 年底至 2026 年间分阶段推出多款 MTIA 系 列芯片,其中首款 ASIC 芯片 MTIA T-V1 将在 2025 年第四季度推出,由博通负责设计,搭载复 杂的主板架构(36 层高规格 PCB),并采用液冷与空冷混合散热技术,负责组装的包括 Celestica 和 Quanta 等厂商,预计出货量为 30 万至 40 万片;MTIA T-V1.5 预计于 2026 年中期 推出,其芯片面积或翻倍,计算密度接近英伟达 GB200 系统,同时出货量目标也提升至 50 万至 80 万片;采用更大规模 CoWoS 封装与 170KW 高功率机架设计的 MTIA T-V2 预计于 2027 年发 布,剑指万亿参数模型训练。
3.2:26 年 AI GPU 与 ASIC 对金属软磁粉芯一体成型电感 需求量或超 4 亿片
B300 一体成型电感使用量或大幅增长。根据田村(中国)预测,英伟达 GB300 NVL72 服务器 预计使用 4800-5000 个一体成型电感。具体来看,英伟达 GB300 NVL72 共包含 72 个节点,每个 节点配备 2 颗 GPU(总共 144 颗 GPU)和 1 颗 CPU(总共 72 颗 CPU)。在内存与存储方面, 系统配备了 20TB 的 HBM3e 和 40TB 的 DDR5,需要配备独立的电源管理芯片。
26 年 AI GPU 与 ASIC 对金属软磁粉芯一体成型电感总需求量或超 4 亿片。我们假设 2026 年英 伟达 GPU 出货量不低于今年的 600 万,并且明年海外 AI 巨头 ASIC 出货量不低于英伟达 GPU 出 货量。根据田村(中国)对 GB300 使用一体成型电感数量的测算,GPU 方面,单卡或使用 32 片 金属软磁粉芯一体成型电感,测算得到2026年英伟达GPU电感总需求量1.92亿片。ASIC方面, 金属软磁粉芯一体成型电感的使用量取决于功能和架构。高性能 ASIC 芯片由于功能及操作复杂, 通常会使用十几到几十片电感来满足这些复杂的高频电路要求。我们假设海外 AI 巨头单个 ASIC 平均使用金属软磁粉芯一体成型电感数量为 30 片,假设 2026 年 ASIC 出货总量为 700 万,测算 得到 ASIC 对电感总需求量为 2.1 亿片。故我们预计 2026 年 GPU+ASIC 对金属软磁粉芯一体成 型电感总需求量或超 4 亿片。
4.1:DDR5 内存首次采用板载电源 PMIC 方案
在电源管理方面,DDR5 内存相较 DDR4 最大的区别是添加了 PMIC 供电芯片。内存是同步 CPU 和内存之间的数据传输,相当于 CPU 和硬盘之间的缓冲区。通过内存,CPU 可以快速访问和处 理数据,而不用频繁读取速度较慢的硬盘。DDR5 是第五代双倍数据率内存技术的缩写,它是计 算机系统中用于存储数据的一种高速随机访问内存类型。由于大容量和高速率的 DDR5 颗粒对电 源完整性提出了更高的要求,相较于前代 DDR4 产品,DDR5 内存的供电模组位于内存条的背面, 并且 DDR5 内存条在 DIMM 上加入了 PMIC 供电芯片。
DDR5 内存供电模式变化,使得对电感的要求较 DDR4 提高。由于 DDR5 内存的供电架构发生了 重大变化,因此供电方式由之前的多相大电流集中供电变为双相较小电流分布供电。DDR5 内存 供电架构的变化深刻影响了电感形态,使得电感形态由大尺寸大电流组装式演变为小尺寸薄型化。 并且根据 JEDEC 对 DDR5 电感的要求,Server DDR5 电感最高转换效率要求达到 92%以上,对 Client DDR5 电感最高转换效率要求达到 90%,供电损耗要求较 DDR4 进一步提高。
根据 JEDEC 行业规范,单个 DDR5 颗粒需要至少 3 颗芯片电感。由于 DDR5 内存不同于 DDR4 内存条,通过板载 PMIC 为内存模组中不同组件(DRAM、RCD、SPD hub 等)提供所需的电源, 单个 DDR5 颗粒需要集成 3 个高效降压 DC-DC 转换器 SWA/SWB/SWC,才能将 5V 输入电压精 准地转换为 DDR5 内存模组各组件所需的 1.1V 和 1.8V 电压。具体来看,PMIC 提供 1.1V VDD、 1.1V VDDQ 和 1.8V VPP 电源给 DDR 颗粒供电,才能更好地在 DIMM 上控制电源,并且改善信 号完整性和信噪比。
4.2:DDR6 内存条芯片电感用量有望进一步增长
DDR6 标准在内存性能与能效方面较前代要求提高。近日,JEDEC 固态技术协会发布了最新的低 功耗双倍数据速率 6(LPDDR6)标准 JESD209-6。DDR6 与与已经公布的 LPDDR6 规范类似,单 通道位宽也将提升 50%来到 96bit,同时子通道划分也从 DDR5 时期的 2× 32bit 细化到 4× 24bit; 原生频率方面起步 12800MT/s,最高有望来到 16800MT/s,并且带来了片上 ECC、CA Parity + MBIST、PRAC(每行激活计数)和元区域分割功能,确保数据完整性、捕获内存错误以及可靠 性的各种增强。
电源管理方面,DDR6 强制使用两个 VDD2 电源,较 DDR5 进一步增加。根据 JEDEC 标准, LPDDR6将采用更低电压以降低动态功耗,并引入 DVFSL(低功耗动态电压频率调节)等功能, 以便在低频运行期间调节电压。在动态效率模式下,LPDDR6 可在低功耗状态下实现单子通道运 行,在电源效率方面较 LPDDR5 有显著提升。预计 LPDDR6 将采用比 LPDDR5 更低电压、低功 耗的 VDD2 电源供电,并强制使用两个 VDD2 电源,对应电感使用量或较 DDR5 进一步增加。
5.1:铂科新材掌握的气雾化粉末制备技术较水雾化具备优势
铂科新材的气雾化粉末制备技术较水雾化具备优势。金属软磁合金粉末的粒径越细、含氧量越低, 则制备的磁粉芯的软磁性能越好。铂科新材是气雾化制粉的工业化鼻祖,其掌握的气雾化金属粉 末制备技术通过采用高速气流冲击金属熔体,由碰撞将气体的动能转化为金属熔体的表面能,使 熔融金属流被击碎成细小液滴,然后在气流氛围中快速冷却凝固形成粉末。气雾化制粉是一个多 相流耦合的复杂物理过程,由该技术所制备的粉末具有流动性高,O、N、H 含量低,粉末粒度分 布可调控范围大等优点。通过对比显微照片可以进一步发现气雾化粉末较水雾化粉末具有较高的 球形度,较为适合压制成粉芯。
5.2:铂科新材的金属软磁粉芯产能有望持续增长
铂科新材的金属软磁粉芯产能有望持续增长。根据公司投资者关系活动记录表披露,2024 年公司 具备金属软磁粉芯年产能 1.2 亿片。2024 年 11 月公司公告定增募资 3 亿元,结合自有资金总投 资 4.54 亿元建设新型高端一体成型电感建设项目 2 亿片。2025 半年报披露当前项目建设进度已 达 39.1%,计划 2025 年实现完全竣工,争取 2026 年实现满产。展望 2027 年,我们预计随着公 司新产线运行效率持续提升,以及 DDR6 内存带来的中期需求增量,公司金属软磁粉芯产能有望 在 2026 年的基础上进一步提升。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
精选报告来源:【未来智库】。安全验证 - 未来智库
相关文章
2025年10月1日至4日,福建省科技馆成功举办“科学之夜”大型科普活动。本次活动以“智趣AI幻夜奇旅”为主题,在国庆黄金周期间为广大公众打造了一场融...
2025-10-10 0
(报告出品方/作者:东方证券,刘洋、李一涛)一、痛点:省电是 AI 终端用户部署 ASIC 的核心痛点1.1:英伟达 AI 算力卡性能提升的同时带来功...
2025-10-10 0
前言苹果刚刚发布的 iPhone 17 系列在性能与能效上都有明显升级,在有线快充上也进行了规格提升,同步推出的40W动态电源适配器(最高 60W)新...
2025-10-10 0
2025年10月9日,影视飓风创始人Tim做客《罗永浩的十字路口》播客,送给了罗永浩一台2TB版iPhone 17 Pro Max,收到Tim赠送的i...
2025-10-10 0
【CNMO科技】随着大家生活水平的提升,做家务正在被各种各样的扫地机、洗地机等产品所取代,而用户则能够解放双手休息一下。不过当前市面上的对应产品也...
2025-10-10 0
2025年10月1日,OpenAI推出的Sora2一亮相便搅动科技圈,不少声音将其与“ChatGPT时刻”对标,仅一周就超过deepseek登顶下载榜...
2025-10-10 0
IT之家 10 月 10 日消息,科技媒体 decrypt 今天(10 月 10 日)发布博文,报道称 OpenAI 发布研究报告,称 GPT-5 是...
2025-10-10 0
既然AI是人类有史以来最牛叉的技术。那OpenAI和DeepSeek各自是怎么搞钱的。这是个有意思的切入口。OpenAI下了一个大订单给AMD,但这只...
2025-10-10 0
发表评论