1. 2025 年初以来电子行业市场回顾
2025 年初以来,全球领先企业加速迭代 AI 大模型,大模型 token 处理量快速增长,国内 外云厂商受益于 AI 对核心业务的推动,持续加大资本开支,AI 算力硬件基础设施需求仍然旺 盛,推动 AI 算力芯片、AI PCB、铜连接等板块大幅上涨;半导体行业 2025 年延续上行趋势, AI 驱动存储器价格大幅上涨,美国半导体出口管制不断升级,半导体国产替代继续推进,带动 存储器、半导体设备、晶圆制造等板块上涨。展望 2026 年,AI 算力需求持续景气,云侧 AI 算力硬件基础设施仍处于高速成长中,AI 眼镜、智能驾驶、具身智能等端侧 AI 创新百花齐放; AI 推动半导体周期继续上行,存储器或迎来超级周期,半导体自主可控有望加速推进。 电子行业 2025 年初至今市场表现大幅强于沪深 300。2025 年初至今电子行业(中信)上 涨 38.35%,同期沪深 300 上涨 16.85%;其中半导体(中信)、元器件(中信)、其他电子零组 件(中信)年初至今分别上涨 39.38%、89.51%、66.55%,市场表现强于电子行业指数。
2. 人工智能产业变革持续推进,终端创新百花齐放
2.1. 国内外云厂商持续加大资本支出,推动 AI 算力硬件基础设施需求高速成长
2.1.1. 大模型 token 处理量快速增长,国内外云厂商持续加大资本支出
全球领先企业加速迭代 AI 大模型。ChatGPT 是由美国公司 OpenAI 开发、在 2022 年 11 月发布上线的人工智能对话机器人,ChatGPT 标志着自然语言处理和对话 AI 领域的一大步。 ChatGPT 上线两个月后月活跃用户数突破 1 亿,是历史上用户增长速度最快的消费级应用程序。 ChatGPT 热潮引发全球科技企业加速布局,谷歌、Meta、百度、阿里巴巴、华为、DeepSeek 等科技企业随后相继推出 AI 大模型产品,并持续迭代升级。2024 年以来全球领先企业加速迭 代大模型,更新频率明显加速,2025 年延续密集更新的节奏,大模型能力也在加速迭代升级。
国内前沿 AI 大模型与海外差距逐步缩小。以 OpenAI 为代表的海外厂商在持续引领 AI 大 模型技术,2022 年 ChatGPT 发布后中国领先的大模型与海外领导者的差距超过一年,尽管中 国与海外前沿语言模型的差距持续存在,但如今差距已经缩小到约三个月,阿里巴巴与 DeepSeek 是中国前沿模型的主要推动者。
阿里巴巴 AI 大模型布局较早,已达国际领先水平。2019 年阿里巴巴达摩院与阿里云团队 启动大模型专项研究,2023 年正式发布通义千问大模型。2025 年 9 月 24 日,阿里巴巴在云 栖大会上正式发布通义千问系列旗舰模型 ——Qwen3-Max,Qwen3-Max 是阿里巴巴迄今为 止规模最大、能力最强的通用大语言模型,该模型以超万亿参数规模、36 万亿 tokens 预训练 数据及全球顶尖综合性能,标志着中国大模型技术跻身全球第一梯队。Qwen3-Max-Instruct 的 预览版在 LMArena 文本排行榜上稳居全球前三,超越了 GPT-5-Chat。正式版本在代码能力和 智能体能力方面进一步提升,在涵盖知识、推理、编程、指令遵循、人类偏好对齐、智能体任 务和多语言理解的全面基准测试中均达到业界领先水平。Qwen3-Max 的推理增强版本—— Qwen3-Max-Thinking,通过集成代码解释器并运用并行测试时计算技术,展现了前所未有的推 理能力,尤其在极具挑战性的数学推理基准测试 AIME 25 和 HMMT 上,均取得了满分,表明 其在复杂逻辑推理方面具有突出能力。
DeepSeek 通过技术创新实现大模型训练及推理极高性价比。2024 年 12 月 26 日, DeepSeek 正式发布全新系列模型 DeepSeek-V3,DeepSeek-V3 为自研 MoE 模型,总参数 量为 671B,每个 token 激活 37B 参数,在 14.8T token 上进行了预训练。2025 年 1 月 20 日 DeepSeek-R1 正式发布,DeepSeek-R1 是基于强化学习(RL)的推理模型。DeepSeek 模型 的技术创新主要体现在采用混合专家(MoE)架构,动态选择最合适的子模型来处理输入数据, 以降低计算量;引入多头潜在注意力机制(MLA)降低内存占用和计算成本,同时保持高性能; 采用 FP8 混合精度训练降低算力资源消耗,同时保持模型性能;采用多 Token 预测(MTP) 方法提升模型训练和推理的效率。DeepSeek-R1 发布时的 API 定价为每百万输入 tokens 1 元 (缓存命中)/ 4 元(缓存未命中),每百万输出 tokens 16 元;OpenAl o1 定价为每百万输入 tokens 55 元(缓存命中)/110 元(缓存未命中),每百万输出 tokens 438 元;DeepSeek-R1 API 调用成本不到 OpenAl o1 的 5%。DeepSeek-V3 性能对标 GPT-4o,DeepSeek-R1 性能对 标 OpenAI o1,并且 DeepSeek 模型成本优势巨大,并采用开源模式,有望推动 AI 应用大规 模落地。
大模型 token 处理量快速增长。由于大模型多模态技术与 AI 智能体技术的发展,需要处 理的数据类型及数据量大幅提升,同时使用模型的用户数量急剧增加,推动大模型 token 处理量快速增长。根据谷歌 2025 年 I/O 大会上公布的数据,2024 年 4 月谷歌月均处理的 Tokens 数量为 9.7 万亿,2025 年 4 月达 480 万亿,一年增长约 50 倍,2025 年 10 月谷歌月均处理的 Tokens 数量已达 1300 万亿。根据火山引擎披露的数据,豆包大模型日均 tokens 使用量从 2024 年 5 月 1200 亿 tokens 增长 253 倍至 2025 年 9 月的超 30 万亿 tokens。
北美四大云厂商受益于 AI 对核心业务的推动,持续加大资本开支。受益于 AI 对于公司核 心业务的推动,北美四大云厂商谷歌、微软、Meta、亚马逊 2023 年开始持续加大资本开支, 2025 年三季度四大云厂商的资本开支合计为 964 亿美元,同比增长 67%,环比增长 9%,推 动 AI 算力硬件基础设施需求旺盛。 北美四大云厂商上调 2025-2026 年资本支出预算。目前北美四大云厂商的资本开支增长主 要用于 AI 基础设施的投资,并从 AI 投资中获得了积极回报,谷歌将 2025 年资本支出上调至 910-930 亿美元(前值 850 亿美元),同比增长 73%-77%,预计 2026 年资本支出将大幅增加; Meta 将 2025 年资本支出预算上调至 700-720 亿美元(前值 680-720 亿美元),同比增长 73%-84%,预计 2026 年资本支出增长规模显著高于 2025 年;微软预计 2026 财年资本支出 增速高于 2025 财年(2025 财年资本支出同比增长 58%),持续加大 AI 基础设施的投资力度。 黄仁勋预计超大规模云厂商 2025-2030 年资本支出复合增速高达 46%。英伟达创始人兼 首席执行官黄仁勋表示:超大规模云服务商的资本支出在 2025 年将达到 6000 亿美元,预计 2030 年 AI 基础设施市场规模将达到 3 万亿至 4 万亿美元;因此未来几年,乃至整个十年期, 我们都将面临极其迅猛且极具分量的增长机遇。
国内三大互联网厂商不断提升资本开支,25Q2 阿里巴巴资本开支超预期。国内三大互联 网厂商阿里巴巴、百度、腾讯 2023 年也开始不断加大资本开支,2025 年二季度三大互联网厂 商的资本开支合计为 616 亿元,同比增长 168%,环比增长 12%;25Q2 阿里巴巴资本开支为 386.76 亿元,同比增长 220%,环比增长 57%;预计 2025 年国内三大互联网厂商将继续加大 用于 AI 基础设施建设的资本开支。
人工智能进入算力新时代,全球算力规模高速增长。随着人工智能的快速发展以及 AI 大 模型带来的算力需求爆发,算力已经成为推动数字经济飞速发展的新引擎,人工智能进入算力 新时代,全球算力规模呈现高速增长态势。根据 IDC、Gartner、TOP500、中国信通院的预测, 预计全球算力规模将从 2023 年的 1397 EFLOPS 增长至 2030 年的 16 ZFLOPS,预计 2023-2030 年全球算力规模复合增速达 50%。根据 IDC 的数据,2024 年中国智能算力规模为 725.3 EFLOPS,预计 2028 年将达到 2781.9 EFLOPS,预计 2023-2028 年中国智能算力规模 的复合增速为 46.2%。
AI 服务器是支撑生成式 AI 应用的核心基础设施。人工智能产业链一般为三层结构,包括 基础层、技术层和应用层,其中基础层是人工智能产业的基础,为人工智能提供数据及算力支 撑。服务器一般可分为通用服务器、云计算服务器、边缘服务器、AI 服务器等类型,AI 服务器 专为人工智能训练和推理应用而设计。大模型兴起和生成式 AI 应用显著提升了对高性能计算资 源的需求,AI 服务器是支撑这些复杂人工智能应用的核心基础设施,AI 服务器的其核心器件包 括 CPU、GPU、FPGA、NPU、存储器等芯片,以及 PCB、高速连接器等。
大模型有望推动 AI 服务器出货量高速成长。大模型带来算力的巨量需求,有望进一步推 动 AI 服务器市场的增长。根据 IDC 的数据,2024 年全球 AI 服务器市场规模预计为 1251 亿美 元,2025 年将增至 1587 亿美元,2028 年有望达到 2227 亿美元,预计 2024-2028 年复合增 速达 15.5%,其中生成式 AI 服务器占比将从 2025 年的 29.6%提升至 2028 年的 37.7%。IDC 预计2024年中国AI服务器市场规模为190亿美元,2025年将达259亿美元,同比增长36.2%, 2028 年将达到 552 亿美元,预计 2024-2028 年复合增速达 30.6%。
2.1.2. AI 算力芯片是“AI 时代的引擎”,有望畅享 AI 算力需求爆发浪潮
AI 算力芯片是算力的基石。CPU+GPU 是目前 AI 服务器主流的异构计算系统方案,根据 IDC 2018 年服务器成本构成的数据,推理型和机器学习型服务器中 CPU+GPU 成本占比达到 50-82.6%,其中机器学习型服务器 GPU 成本占比达到 72.8%。AI 算力芯片具备强大的并行计 算能力,能够快速处理大规模数据和复杂的神经网络模型,并实现人工智能训练与推理任务; AI 算力芯片占 AI 服务器成本主要部分,为 AI 服务器提供算力的底层支撑,是算力的基石。AI 算力芯片作为“AI 时代的引擎”,有望畅享 AI 算力需求爆发浪潮,并推动 AI 技术的快速发展 和广泛应用。
根据芯片的设计方法及应用, AI 算力芯片可分为通用型 AI 芯片和专用型 AI 芯片。通用 型 AI 芯片为实现通用任务设计的芯片,主要包括 CPU、GPU、FPGA 等;专用型 AI 芯片是专 门针对人工智能领域设计的芯片,主要包括 TPU(Tensor Processing Unit)、NPU(Neural Network Processing Unit)、ASIC 等。在通用型 AI 芯片中,由于在计算架构和性能特点上的不 同,CPU 适合处理逻辑复杂、顺序性强的串行任务;GPU 是为图形渲染和并行计算设计的处 理器,具有大量的计算核心,适合处理大规模并行任务;FPGA 通过集成大量的可重构逻辑单 元阵列,可支持硬件架构的重构,从而灵活支持不同的人工智能模型。专用型 AI 芯片是针对面向特定的、具体的、相对单一的人工智能应用专门设计的芯片,其架构和指令集针对人工智能 领域中的各类算法和应用作了专门优化,具体实现方法为在架构层面对特定智能算法作硬化支 持,可高效支持视觉、语音、自然语言处理和传统机器学习等智能处理任务。
当前 AI 算力芯片以 GPU 为主流,英伟达主导全球 AI 算力芯片市场。根据的 IDC 数据, 2024 上半年,中国 AI 加速芯片的市场规模达超过 90 万张;从技术角度来看,GPU 卡占据 80% 的市场份额。根据 Precedence Research 数据,2022 年英伟达占据全球 AI 芯片市场份额超过 80%,其中英伟达占全球 AI 服务器加速芯片市场份额超过 95%。
GPU(Graphics Processing Unit)即图形处理单元,是计算机的图形处理及并行计算的 核心。GPU 最初主要应用于加速图形渲染,如 3D 渲染、图像处理和视频解码等,是计算机显 卡的核心;随着技术的发展,GPU 也被广泛应用于通用计算领域,如人工智能、深度学习、科 学计算、大数据处理等领域,用于通用计算的 GPU 被称为 GPGPU(General-Purpose computing on Graphics Processing Units),即通用 GPU。 GPU 与 CPU 在内部架构上有显著差异,决定了它们各自的优势领域。GPU 通过大量简 单核心和高带宽内存架构,优化并行计算能力,适合处理大规模数据和高吞吐量任务;CPU 通 过少量高性能核心和复杂控制单元优化单线程性能,适合复杂任务和低延迟需求。
GPU 是 AI 服务器算力的基石,有望畅享 AI 算力需求爆发浪潮。GPU 是 AI 服务器算力的 基石,随着 AI 算力规模的快速增长将催生更大的 GPU 芯片需求。根据 Statista 的数据,2023 年全球 GPU 市场规模为 436 亿美元,预计 2029 年市场规模将达到 2742 亿美元,预计 2024-2029 年复合增速达 33.2%。
英伟达主导全球 GPU 市场。根据 TechInsights 的数据,2023 年全球数据中心 GPU 总出 货量达到了 385 万颗,相比 2022 年的 267 万颗同比增长 44.2%,其中英伟达数据中心 2023 年 GPU 出货量呈现爆发式增长,总计约 376 万台,英伟达在数据中心 GPU 出货量中占据 98% 的市场份额,英伟达还占据全球数据中心 GPU 市场 98%的收入份额,达到 362 亿美元,是 2022 年 109 亿美元的三倍多。根据 Jon Peddie Research 的数据, 2024 年第四季度全球 PC GPU 出货量达到 7800 万颗,同比增长 0.8%,环比增长 6.2%,其中英特尔、AMD、英伟达的市场 份额分别为 65%、18%、16%。
GPU 生态体系主要由三部分构成,包括底层硬件,中间层 API 接口、算法库、开发工具 等,上层应用。以英伟达数据中心平台 GPU 生态体系为例,底层硬件的核心是英伟达的 GPU 产品、用于 GPU 之间高速连接的 NVSwitch 、节点之间互联的各种高速网卡、交换机等,以 及基于 GPU 构建的服务器;中间层是软件层面的建设,包括计算相关的 CUDA-X、网络存储 及安全相关的 DOCA 和 MAGNUM IO 加速库,以及编译器、调试和优化工具等开发者工具包 和基于各种行业的应用框架;上层是开发者基于英伟达提供的软硬件平台能力,所构建的行业 应用。
GPU 生态体系建立极高的行业壁垒。GPU 一方面有对硬件性能的要求,还需要软件体系 进行配套,而 GPU 软件生态系统复杂,建设周期长、难度大。英伟达 CUDA 生态从 2006 年 开始建设,经过多年的积累,建立强大的先发优势,英伟达通过与客户进行平台适配、软件开 源合作,不断加强客户粘性,GPU 行业新进入者转移客户的难度极大,GPU 生态体系建立极 高的行业壁垒。
AI ASIC 是一种专为人工智能应用设计的定制集成电路,具有高性能、低功耗、定制化、 低成本等特点。与通用处理器相比,AI ASIC 针对特定的 AI 任务和算法进行了优化,如深度学 习中的矩阵乘法、卷积等运算,能在短时间内完成大量计算任务,提供高吞吐量和低延迟,满 足 AI 应用对实时性的要求;AI ASIC 通过优化电路设计和采用先进的工艺技术,在处理 AI 工 作负载时具有较高的能效比,适合大规模数据中心等对能耗敏感的场景;虽然前期研发和设计 成本较高,在大规模部署时,ASIC 的单位计算成本通常低于通用处理器。
AI ASIC 与 GPU 在 AI 计算任务中各有优势和劣势。在算力上,先进 GPU 比 ASIC 有明 显的优势;ASIC 针对特定任务优化,通常能提供更高的计算效率,ASIC 在矩阵乘法、卷积运 算等特定 AI 任务上性能可能优于 GPU;GPU 通用性强,能够运行各种不同类型的算法和模型, ASIC 功能固定,难以修改和扩展,灵活性较差;ASIC 针对特定任务优化,功耗显著低于 GPU; GPU 研发和制造成本较高,硬件成本是大规模部署的重要制约因素,ASIC 在大规模量产时单 位成本相对较低。
云厂商等大厂自研芯片趋势明显,推动数据中心定制 ASIC 芯片市场高速增长。由于全球 头部云厂商、互联网厂商等对 AI 算力芯片需求量巨大,英伟达垄断全球数据中心 GPU 市场, 因成本、差异化竞争、创新性、供应链多元化等原因,越来越多地大厂开始设计自有品牌的芯 片,大厂自研芯片趋势明显;云厂商等大力投入自研 AI ASIC,推动数据中心定制 ASIC 芯片 市场高速增长,预计增速快于通用 AI 算力芯片。根据 Marvell 的数据,2023 年数据中心定制 ASIC 芯片市场规模约为 66 亿美元,预计 2028 年数据中心定制 ASIC 芯片市场规模将达到 554 亿美元,2023-2028 年复合增速将达到 53%。
云厂商自研 AI ASIC 芯片时,通常会与芯片设计厂商合作,然后再由台积电等晶圆代工厂 进行芯片制造,目前全球定制 AI ASIC 市场竞争格局以博通、Marvell 等厂商为主。博通为全 球定制 AI ASIC 市场领导厂商,已经为大客户实现 AI ASIC 大规模量产。博通在多年的发展中 已经积累了大量的成体系的高性能计算/互连 IP 核及相关技术,除了传统的CPU/DSP IP 核外,博通还具有交换、互连接口、存储接口等关键 IP 核;这些成体系的 IP 核可以帮助博通降低 ASIC 产品成本和研发周期,以及降低不同 IP 核联合使用的设计风险,并建立博通强大的竞争优势。 博通 2024 财年 AI 收入达到 120 亿美元,公司 CEO 表示,到 2027 年,公司在 AI 芯片和网络 组件的市场规模将达到 600 亿到 900 亿美元。
DeepSeek 有望推动推理需求加速释放,国产 AI 算力芯片或持续提升市场份额。随着大 模型的成熟及AI应用的不断拓展,推理场景需求日益增加,推理服务器的占比将显著提高;IDC 预计 2028 年中国 AI 服务器用于推理工作负载占比将达到 73%。根据的 IDC 数据,2024 上半 年,中国加速芯片的市场规模达超过 90 万张,国产 AI 芯片出货量已接近 20 万张,约占整个 市场份额的 20%;用于推理的 AI 芯片占据 61%的市场份额。DeepSeek-R1 通过技术创新实现 模型推理极高性价比,蒸馏技术使小模型也具有强大的推理能力及低成本,将助力 AI 应用大规 模落地,有望推动推理需求加速释放。由于推理服务器占比远高于训练服务器,在 AI 算力芯片 进口受限的背景下,用于推理的 AI 算力芯片国产替代空间更为广阔,国产 AI 算力芯片厂商已 完成适配 DeepSeek,DeepSeek 通过技术创新提升 AI 算力芯片的效率,进而加快国产 AI 算 力芯片自主可控的进程,国产 AI 算力芯片有望持续提升市场份额。
2.1.3. AI 驱动 PCB 行业技术变革,AI PCB 厂商有望持续高速成长
PCB(Printed Circuit Board,印制电路板)是电子设备的“神经中枢”,通过预设的铜 箔线路和焊盘,实现电子元器件(如芯片、电阻、电容等)的机械固定与电气连接,替代传统的手工焊接导线,是现代电子设备不可或缺的核心载体。随着电子元器件的片式化和集成化应 用日益广泛,电子产品对 PCB 板的高密度、高精度、高性能、高效率的要求更加突出,多层 板、HDI 板、封装基板、FPC 等高端 PCB 产品的市场地位提升。根据 Prismark 的数据,2024 年全球多层板的市场规模最大,占比达 38.05%;其次是封装基板和 HDI,占比分别为 17.13% 和 17.02%;FPC 占比达 17.00%。
PCB 行业稳健增长,或将迎来新一轮成长周期。根据 Prismark 的数据,预计 2024 年全 球 PCB 市场规模将接近 740 亿美元,同比增长约 5.8%,预计 2025 年将接近 790 亿美元,同 比增长约 6.8%,预计 2029 年全球 PCB 市场规模将接近 950 亿美元,2024-2029 年复合增速 约为 5.2%。人工智能、高速网络和汽车系统等领域的强劲需求或将推动高端 HDI、高速高层板 和封装基板细分市场的增长,并为 PCB 行业带来新一轮成长周期,未来全球 PCB 行业仍将呈 现增长趋势。
AI 驱动 PCB 行业技术变革,AI PCB 持续向高频、高速及高密度方向发展。高性能 AI 服 务器及 AI 算力卡集成了多颗高性能芯片,需要高速信号传输以进行数据交换,并且布线密度越 来越高,PCB 制造商需采用特殊材料与设计以确保信号传输的完整性。高多层 PCB 凭借其能 够实现更短的信号路径及更优的阻抗和电源/接地设计,对于支撑 AI 硬件至关重要;HDI PCB 指采用细线路、微小孔、薄介电层的高密度 PCB 产品,高阶 HDI PCB 可以助力 AI 算力卡实现更高的布线密度与更复杂的电路设计;为满足 AI 领域日益增长的高速数据传输需求,越来越 多的 PCB 厂商已使用 M7、M8 等高速材料,以有效降低信号损耗,确保高速数据传输的稳定 性和可靠性,未来将向采用 M9 等更低损耗等级的材料持续推进;随着 AI 技术的广泛应用和计 算需求的不断攀升,高多层及高阶 HDI PCB 的市场需求将持续上升,推动全球高多层及高阶 HDI PCB 市场规模的持续扩张。 AI 服务器持续迭代升级,有望推动 PCB 量价齐升。在传统服务器中,PCB 主要应用于服 务器中主板、CPU 板、内存、电源背板、硬盘背板、网卡、Riser 卡等核心部分;AI 服务器中 PCB 增加 GPU 板卡、交换板卡等,AI 服务器将为 PCB 带来新的增量。人工智能训练和推理 需求持续扩大,AI 服务器随着 GPU 持续迭代升级,对于 PCB 传输速率、层数、密度、制造工 艺等要求不断提升,将推动对大尺寸、高多层 PCB 及高阶 HDI 的旺盛需求, 其高负载工作环 境也对 PCB 的规格、品质提出了更高的要求,AI 服务器有望推动 PCB 量价提升。
全球人工智能及高性能计算领域 PCB 市场快速增长。北美云厂商的大规模资本投入,正 加速推动新一代 AI 服务器、数据中心等基础设施的建设与升级换代,进而大幅提升对用于高 速运算、高密度互联的高端 PCB 产品的需求,为未来五年全球人工智能及高性能计算领域的 PCB 市场带来强劲增长动力。根据沙利文研究的数据,2024 年全球人工智能及高性能计算领 域的 PCB 市场规模为 60 亿美元,预计 2029 年将达到 150 亿美元,2024-2029 年复合年增长 率达 20.1%。
AI PCB 厂商有望持续高速成长。受益于人工智能领域的旺盛需求,2025 年三季度高端 HDI、高速高层板和封装基板等细分市场实现高速增长。AI PCB 厂商 25Q3 业绩继续高速成长, 其中沪电股份、胜宏科技、生益电子、深南电路 25Q3 的营收同比增速分别为 39.92%、78.95%、 153.71%、33.25%,归母净利润同比增速分别为 46.25%、260.52%、545.95%、92.87%。AI PCB 是 AI 算力产业链中 AI 服务器、交换机、光模块等的 PCB 配套产品,目前 AI 训练及推理 需求持续释放,国内外云厂商持续加大资本支出,AI 算力硬件基础设施需求旺盛,AI PCB 厂 商有望持续高速成长。
2.2. 端侧 AI 加速发展,终端创新百花齐放
2.2.1. AI 眼镜有望成为端侧 AI 落地最佳硬件之一
(报告来源:中原证券。本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)