英特尔(INTC.US)CEO粉碎“带走台积电机密”谣言 在先进制程“生死战”中强调尊重IP

小小MT4 来源:智通财经APP °C 栏目:MT4下载

今年3月开始掌舵美国老牌芯片巨头英特尔(INTC.US)的首席执行官陈立武(Lip-Bu Tan),在最新采访中强力驳斥了外界关于一名英特尔新员工将全球最大规模芯片制造商——即“芯片代工之王”台积电(TSM.US)的商业机密泄露给英特尔的相关报道,称这家美国芯片制造商尊重所有芯片公司的知识产权。

有媒体在本周连续多日关注75岁的罗唯仁(Lo Wen-jen)的职涯动向,他于今年稍早自台积电退休,最近则选择加入英特尔。有媒体报道援引知情人士透露的消息报道称,这位高管在离职前不久带走了前雇主的专有芯片制造技术。

“这只是市场上的谣言和揣测,毫无根据。我们尊重所有的芯片制造知识产权(IP),”陈立武当地时间周四在圣何塞半导体产业协会颁奖典礼期间接受媒体采访时表示。据悉,该项活动向台积电首席执行官魏哲家(C.C. Wei)以及前任董事长刘德音(Mark Liu)颁发了其最高荣誉——罗伯特·诺伊斯奖(Robert N. Noyce Award)。

台积电目前总市值超过1.15万亿美元(中国台湾股市),在基于美股ADR交易价格的市场总市值则高达1.5万亿美元,已成为全球无可争议的芯片代工超级龙头,远远超越了曾经的半导体行业先锋英特尔。

该公司的专有数据和芯片先进制程技术不仅是极为宝贵的商业机密,也是堪称无价之宝的战略资产。有媒体表示台积电方面已开始着手调查关于罗唯仁的相关报道,以判断是否有人违反相关法律。

据媒体霸道,有一位知情人士透露,台积电已启动内部调查,了解罗唯仁是否在未获台积电官方同意的情形下带走一些商业机密。这位知情人士补充表示,目前尚不清楚台积电是否已就潜在的商业机密损害得出任何实质性的结论,并表示由于信息属私人性质,要求匿名。

在今年7月自台积电退休前,罗唯仁主要负责公司的制程策略。他曾一度主管台积电的芯片制程研究与核心技术开发,在推动包括用于制造英伟达与AMD主导设计的最先进AI加速器在内的尖端制程芯片实现量产方面发挥了非常关键的作用。

据了解,在2004年加入台积电之前,罗唯仁曾在英特尔任职一段时间,期间专注于先进技术开发,并曾负责运营英特尔位于加州圣克拉拉的一座大型晶圆厂。他拥有加州大学伯克利分校固态物理与表面化学博士学位。

过去几年里,随着这家美国芯片制造商试图在芯片技术竞赛中全面追赶,英特尔与台积电之间的关系一直非常紧张。英特尔既是台积电的客户,又是其重大竞争对手,而台积电则处于极其优越的市场领军者地位——是苹果公司以及英伟达、AMD以及高通、博通等美国最大规模芯片公司最先进芯片的唯一合同代工厂商。

英特尔前任CEO帕特·基辛格(Pat Gelsinger)曾多次强调,美国在最尖端半导体上对台积电的极度依赖“太过冒险”,这一论调也在两家公司之间制造了诸多摩擦。

浴火重生的英特尔迫切需要大客户来撑起芯片代工业务

对于英特尔而言,掌握领先全球且极度适合量产的先进制程芯片制造技术可谓至关重要。这家美国老牌芯片巨头甚至不惜购置更加昂贵的High-NA EUV光刻机——这也是阿斯麦所交付的全球第一台High-NA,英特尔力争打造出领先于台积电以及三星电子的2nm及以下最先进芯片制造技术。

对英特尔新任CEO陈立武来说,掌握全球领先的芯片先进制程技术不是“加分项”,而是“生死线级别”的战略核心。英特尔公开的技术路线图里写得很激进:“5节点4年”(5N4Y)——从 Intel 7 一路推进到 Intel 3、20A、18A(20A即2nm先进制程,18A即1.8nm先进制程)。

英特尔现在仅仅只是销售自家PC/服务器CPU已经难以实现业绩持续性质的增长,虽然英特尔已经凭借强劲服务器CPU需求走出业绩萎靡的“至暗时刻”,但是股东们想要看到的是英特尔重拾强劲增长曲线,成为比肩台积电的芯片代工巨头,因此英特尔战略已经转向聚焦于做Intel Foundry(系统性芯片代工)——即给别人代工高端先进制程芯片,直接对标台积电。

其中18A与更加先进的16A技术可以说是英特尔能否翻身的关键节点,如果18A在性能/能效上真能对标甚至超越台积电与三星,英特尔才有机会在当前全球需求最为火爆的AI加速器(AI GPU/ASIC等AI核心算力基础设施)为英伟达、AMD以及博通、高通等超级大客户进行先进制程芯片代工。

对于英特尔代工业务而言,高通有可能成为首个大客户。据华尔街金融巨头花旗对高通(QCOM.US)招聘信息的分析,高通可能正在评估英特尔来代工其数据中心专用级别的人工智能集成电路业务(即所谓的AI ASIC)。花旗表示,这些招聘启事都在寻找具备英特尔嵌入式多芯片互连桥封装技术资质的候选人。

高通早在2019–2020 年就推出过面向数据中心/边缘推理的 Cloud AI 100 系列(后续有 Cloud AI 100 Ultra),近期重磅新推出的AI200 / AI250—首次把产品做成机架级(rack-scale)方案,单卡最高768GB LPDDR、重点面向AI大模型高能效推理,并宣称将能够通过体系结构(如 near-memory compute)能够大幅降低AI数据中心运营商们的AI推理算力集群“总拥有成本”(TCO)。

高通近期新发布AI200/AI250两款AI推理加速器以及对应的整机/机架级AI算力集群解决方案,则自2026年开始,有望带动数据中心芯片业务成为高通业绩增长的全新“超级引擎”。AI200/AI250 面向AI数据中心机房级别AI推理算力集群,属于AI专用加速器(AI ASIC)技术路线思路,目标对标谷歌TPU;AI200/AI250 和谷歌TPU 同属“ASIC专用推理/训练加速器”技术家族(高通强调推理与TCO/能效)。