网站首页

产品中心

智能终端处理器 智能云服务器 软件开发环境

新闻中心

关于我们

公司概况 核心优势 核心团队 发展历程

联系我们

官方微信 官方微博
主页 > 新闻中心

ManBetX万博中国有哪些AI芯片初创公司?

发布时间:2024-02-12 10:29浏览次数: 来源于:网络

  ManBetX万博随着越来越多的企业将人工智能应用于其产品,AI芯片需求快速增长,市场规模增长显著。因此,本文主要针对目前市场上的AI芯片厂商及其产品进行简要概述。

  AI芯片也被称为AI加速器或计算卡,从广义上讲只要能够运行人工智能算法的芯片都叫作 AI 芯片。但是通常意义上的 AI 芯片指的是针对人工智能算法做了特殊加速设计的芯片。

  GPU(Graphics Processing Unit,图形处理单元): 在传统的冯·诺依曼结构中, CPU 每执行一条指令都需要从存储器中读取数据, 根据指令对数据进行相应的操作。 从这个特点可以看出, CPU 的主要职责并不只是数据运算, 还需要执行存储读取、 指令分析、 分支跳转等命令。深度学习算法通常需要进行海量的数据处理,用 CPU 执行算法时, CPU 将花费大量的时间在数据/指令的读取分析上, 而 CPU 的频率、 内存的带宽等条件又不可能无限制提高, 因此限制了处理器的性能。 而 GPU 的控制相对简单,大部分的晶体管可以组成各类专用电路、多条流水线,使得 GPU 的计算速度远高于 CPU; 同时,GPU 拥有了更加强大的浮点运算能力,可以缓解深度学习算法的训练难题,释放人工智能的潜能。但 GPU 无法单独工作,必须由 CPU 进行控制调用才能工作, 而且功耗比较高。

  半定制化的 FPGA(Field Programmable Gate Array,现场可编程门阵列):其基本原理是在FPGA芯片内集成大量的基本门电路以及存储器,用户可以通过更新 FPGA 配置文件来定义这些门电路以及存储器之间的连线。与 GPU 不同, FPGA 同时拥有硬件流水线并行和数据并行处理能力, 适用于以硬件流水线方式处理一条数据,且整数运算性能更高,因此,常用于深度学习算法中的推理阶段。不过 FPGA 通过硬件的配置实现软件算法,因此,在实现复杂算法方面有一定的难度。将 FPGA 和 CPU 对比可以发现两个特点, 一是 FPGA 没有内存和控制所带来的存储和读取部分,速度更快, 二是 FPGA 没有读取指令操作,所以功耗更低。 劣势是价格比较高、编程复杂、整体运算能力不是很高。 目前,国内的 AI 芯片公司如深鉴科技就提供基于 FPGA 的解决方案。

  全定制化 ASIC(Application-Specific Integrated Circuit,专用集成电路):是专用定制芯片,即为实现特定要求而定制的芯片。定制的特性有助于提高 ASIC 的性能功耗比,缺点是电路设计需要定制,相对开发周期长, 功能难以扩展。 但在功耗、可靠性、 集成度等方面都有优势,尤其在要求高性能、低功耗的移动应用端体现明显。谷歌的 TPU、寒武纪的 GPU,地平线的 BPU 都属于 ASIC 芯片。谷歌的 TPU 比 CPU 和 GPU 的方案快 30 至 80 倍,与 CPU 和 GPU 相比, TPU 把控制电路进行了简化,因此,减少了芯片的面积,降低了功耗。

  神经拟态芯片:神经拟态计算是模拟生物神经网络的计算机制。 神经拟态计算从结构层面去逼近大脑,其研究工作还可进一步分为两个层次,一是神经网络层面,与之相应的是神经拟态架构和处理器,如 IBM 的 TrueNorth 芯片,这种芯片把定制化的数字处理内核当作神经元,把内存作为突触。 其逻辑结构与传统冯·诺依曼结构不同:它的内存、CPU 和通信部件完全集成在一起,因此信息的处理在本地进行,克服了传统计算机内存与 CPU 之间的速度瓶颈问题。同时,神经元之间可以方便快捷地相互沟通,只要接收到其他神经元发过来的脉冲(动作电位), 这些神经元就会同时做动作。 二是神经元与神经突触层面,与之相应的是元器件层面的创新。如 IBM 苏黎世研究中心宣布制造出世界上首个人造纳米尺度的随机相变神经元,可实现高速无监督学习。

  根据AI算法步骤,可分为训练(training)和推理(inference)两个环节。

  训练环节通常需要通过大量的数据输入,训练出一个复杂的深度神经网络模型。训练过程由于涉及海量的训练数据和复杂的深度神经网络结构, 运算量巨大,需要庞大的计算规模, 对于处理器的计算能力、精度、可扩展性等性能要求很高。目前市场上通常使用英伟达的 GPU 集群来完成, Google 的 TPU 系列 、华为昇腾 910 等 AI 芯片也支持训练环节的深度网络加速。

  推理环节是指利用训练好的模型,使用新的数据去“推理”出各种结果。与训练阶段不同,推理阶段通常就不涉及参数的调整优化和反向传播了,它主要关注如何高效地将输入映射到输出。这个环节的计算量相对训练环节少很多,但仍然会涉及到大量的矩阵运算。在推理环节中,除了使用 CPU 或 GPU 进行运算外, FPGA 以及 ASIC 均能发挥重大作用。典型的推理卡包括NVIDIA Tesla T4、NVIDIA Jetson Xavier NX、Intel Nervana NNP-T、AMD Radeon Instinct MI系列、Xilinx AI Engine系列等。

  训练卡一般都可以作为推理卡使用,而推理卡努努力不在乎时间成本的情况下大部分也能作为训练卡使用,但通常不这么做。

  主要原因在于二者在架构上就有很大的差别,推理芯片通常针对前向传播过程进行了高度优化,以实现高效的预测和分类任务。因此,它们的架构和指令集对于训练过程所需的大量参数更新和反向传播操作支持能力就弱了很多。

  此外,训练芯片通常拥有更高的计算能力和内存带宽,以支持训练过程中的大量计算和数据处理。相比之下,推理芯片通常会在计算资源和内存带宽方面受到一定的限制。同时,二者支持的计算精度也通常不同,训练阶段需要高精度计算,因此常用高精度浮点数如:fp32,而推理阶段一般只需要int8就可以保证推理精度。

  除了高带宽高并行度外,就片内片外的存储空间而言训练芯片通常比较“大”,这是训练过程中通常需要大量的内存来存储训练数据、中间计算结果以及模型参数。相较而言推理芯片可能无法提供足够的存储容量来支持训练过程。

  服务器端:在深度学习的训练阶段,由于数据量及运算量巨大,单一处理器几乎不可能独立完成一个模型的训练过程,因此, 负责 AI 算法的芯片采用的是高性能计算的技术路线,一方面要支持尽可能多的网络结构以保证算法的正确率和泛化能力;另一方面必须支持浮点数运算; 而且为了能够提升性能必须支持阵列式结构(即可以把多块芯片组成一个计算阵列以加速运算)。 在推断阶段,由于训练出来的深度神经网络模型仍非常复杂,推理过程仍然属于计算密集型和存储密集型,可以选择部署在服务器端。

  移动端(手机、智能家居、无人车等):移动端 AI 芯片在设计思路上与服务器端 AI 芯 片有着本质的区别。首先,必须保证很高的计算能效; 其次,在高级辅助驾驶 ADAS 等设 备对实时性要求很高的场合,推理过程必须在设备本身完成,因此要求移动端设备具备足够的推断能力。而某些场合还会有低功耗、低延迟、低成本的要求, 从而导致移动端的 AI 芯片多种多样。

  目前,主流的AI处理器无疑是NVIDIA的GPU,并且,英伟达针对不同的场景推出了不同的系列和型号。例如:L4用于AI视频,L40用于图像生成,H100系列则是大模型,GH200是图形推荐模型、矢量数据库和图神经网络。

  目前NVIDIA的GPU产品主要有 GeForce、Data Center/Tesla 和 RTX/Quadro 三大系列,如下图所示,虽然,从硬件角度来看,它们都采用同样的架构设计,也都支持用作通用计算(GPGPU),但因为它们分别面向的目标市场以及产品定位的不同,这三个系列的GPU在软硬件的设计和支持上都存在许多差异。其中,GeForce为消费级显卡,而Tesla和Quadro归类为专业级显卡。GeForce主要应用于游戏娱乐领域,而Quadro主要用于专业可视化设计和创作,Tesla更偏重于深度学习、人工智能和高性能计算。

  其中,A800/H800是针对中国版(低配版),相对于A100/H100,主要区别:

  随着美国新一轮的芯片制裁,最新针对中国版H20、L20和L2芯片也将推出。

  NVIDIA GPU架构历经多次变革,从起初的Tesla,到Turing架构,再到Ampere、Hopper,发展史可分为以下时间节点:

  其全新的立体像素全局光照 (VXGI) 技术首次让游戏 GPU 能够提供实时的动态全局光照效果。基于 Maxwell 架构的 GTX 980 和 970 GPU 采用了包括多帧采样抗锯齿 (MFAA)、动态超级分辨率 (DSR)ManBetX万博、VR Direct 以及超节能设计在内的一系列新技术。

  Pascal 架构将处理器和数据集成在同一个程序包内,以实现更高的计算效率。1080系列、1060系列基于Pascal架构

  Volta 配备 640 个Tensor 核心,每秒可提供超过100 兆次浮点运算(TFLOPS) 的深度学习效能,比前一代的Pascal 架构快 5 倍以上。

  Turing 架构配备了名为 RT Core 的专用光线追踪处理器,能够以高达每秒 10 Giga Rays 的速度对光线D 环境中的传播进行加速计算。Turing 架构将实时光线追踪运算加速至上一代 NVIDIA Pascal 架构的 25 倍,并能以高出 CPU 30 多倍的速度进行电影效果的最终帧渲染。2060系列、2080系列显卡也是跳过了Volta直接选择了Turing架构。

  NVIDIA GPU 显存有两种类型,GDDR 和 HBM,每种也有不同的型号。针对显存我们通常会关注两个指标:显存大小和显存带宽。HBM 显存通常可以提供更高的显存带宽,但是价格也更贵,通常在训练卡上会使用,比如:H100、A100 等,而 GDDR 显存通常性价比更高,在推理 GPU 或游戏 GPU 更常见,比如:T4、RTX 4090 等。

  传统的 CV、NLP 模型往往比较小,而且基本都是 Compute bound ,所以普遍对显存大小、带宽关注比较少;而现在 LLM 模型很大,推理除了是Compute bound,也是 IO bound;因此,越来越多人开始关注 GPU 显存大小和显存带宽。

  最近 NVIDIA 正式推出 H200 GPU,相比 H100,其主要的变化就是 GPU 显存从 80GB 升级到 141GB,显存带宽从 3.5TB/s 增加到 4.8TB/s,也就是说算力和 NVLink 没有任何提升,这可能是为了进一步适配大模型推理的需求。

  对于同一模型,在同样数量情况下,H200 相比 H100 的 LLM 推理性能对比:

  NVIDA GPU-SXM主要是针对英伟达的高端GPU服务器,NVIDA GPU-SXM和NVIDA GPU-PCIe这两种卡都能实现服务器的通信,但是实现的方式是不一样的。SXM规格的一般用在英伟达的DGX服务器中,通过主板上集成的NVSwitch实现NVLink的连接,不需要通过主板上的PCIe进行通信,它能支持8块GPU卡的互联互通,实现了GPU之间的高带宽。

  这里说的NVLink技术不仅能够实现CPU和GPU直连,能够提供高速带宽,还能够实现交互通信,大幅度提高交互效率,从而满足最大视觉计算工作负载的需求。

  NVIDA GPU-PCIe就是把PCIe GPU卡插到PCIe插槽上,然后和CPU、同一个服务器上其他的GPU卡进行通信,也可以通过网卡与其他的服务器节点上的设备进行通信,这种就是PCIe的通信方式,但是这种传输速度不快。如果想要和SXM一样,有很快的传输速度,可以使用NVlink桥接器实现GPU和CPU之间的通信,但是和SXM不一样的地方就是它只能实现2块GPU卡之间的通信。也就是说,如果有 2 个 PCIe GPU,那么可以使用 NVLink 桥接器(Bridge)实现互联;如果超过 2 个 PCIe GPU,就无法实现 NVLink 的分组互联,此时只能考虑使用 SXM GPU。

  一般来讲,单机内的多 GPU 之间通信分为:PCIe 桥接互联通信、NVLink 部分互联通信、NVSwitch 全互联通信三种。

  TPU 是 Google 定制开发的应用专用集成电路 (ASIC),用于加速机器学习工作负载。TPU 使用专为执行机器学习算法中常见的大型矩阵运算而设计的硬件,更高效地训练模型。TPU 具有高带宽内存 (HBM),允许您使用更大的模型和批次大小。

  一个 TPU 芯片包含一个或多个 TensorCore。TensorCore 的数量取决于 TPU 芯片的版本。每个 TensorCore 由一个或多个矩阵乘法单元 (MXU)、一个向量计算单元和一个标量计算单位组成。

  TPU Pod 是通过专用网络组合在一起的一组连续的 TPU。TPU Pod 中的 TPU 芯片的数量取决于 TPU 版本。

  TPUv2:Google第二代TPU芯片,定位是服务端AI推理和训练芯片。TPUv2 平面图如下所示,紫色的ICI为卡之间的链接;绿色的HBM为高带宽内存。

  TPUv3:TPUv3是对TPUv2的重新设计,采用相同的技术,MXU和HBM容量增加了两倍,时钟速率、内存带宽和ICI带宽增加了1.3倍。TPUv3超级计算机还可以扩展到1024个芯片。每个 v3 TPU 芯片包含两个 TensorCore。每个 TensorCore 有两个矩阵乘法计算单元(MXU)、一个向量计算单元和一个标量计算单元。

  Edge TPU:Google发布的嵌入式TPU芯片,用于在边缘设备上运行推理。

  TPUv4:Google于2020年发布,服务器推理和训练芯片,芯片数量是TPUv3的四倍。TPU v4 芯片如下图所示,每个 TPU v4 芯片包含两个 TensorCore。每个 TensorCore 都有四个矩阵乘法计算单元(MXU)、一个向量计算单元和一个标量计算单元。

  TPU v5e:专为提升大中型模型的训练、推理性能以及成本效益所设计。与 2021 年发布的 TPU v4 相比,TPU v5e 的大型语言模型提供的训练性能提高了 2 倍、推理性能提高了2.5 倍。但是TPU v5e 的成本却不到上一代的一半,使企业能够以更低的成本,训练和部署更大、更复杂的 AI 模型。TPU v5e 芯片如下图所示,每个 v5e 芯片包含一个 TensorCore。每个 TensorCore 都有 4 个矩阵乘法计算单元 (MXU)、一个向量计算单元和一个标量计算单元。

  除此之外,国外还有英特尔和AMD的GPU,微软也计划推出代号为“雅典娜”的AI芯片。

  昇腾芯片是华为公司发布的两款 AI 处理器(NPU),昇腾910(用于训练)和昇腾310(用于推理)处理器,采用自家的达芬奇架构。昇腾在国际上对标的主要是英伟达的GPU,国内对标的包括寒武纪、海光等厂商生产的系列AI芯片产品(如:思元590、深算一号等)。

  Atlas系列产品是基于昇腾910和昇腾310打造出来的、面向不同应用场景(端、边、云)的系列AI硬件产品。比如:

  百度的造芯历史也相对比较悠久了,最早可以追溯到2015年,至今有接近十年的积累。

  2018年,百度推出了第一代昆仑AI芯片,采用的是其自研XPU架构,关键指标如下所示:

  2021年,推出了第二代昆仑AI芯片,采用新一代XPU-R架构,关键指标如下所示:

  寒武纪作为国内最具代表性的AI芯片厂商之一,其发布的AI加速卡有思元270、思元290、思元370。

  思元270系列面向高能效比云端AI推理。思元270采用寒武纪MLUv02架构,思元270集成了寒武纪在处理器架构领域的一系列创新性技术,处理非稀疏人工智能模型的理论峰值性能提升至上一代思元100的4倍,达到128TOPS(INT8);同时兼容INT4和INT16运算,理论峰值分别达到256TOPS和64TOPS;支持浮点运算和混合精度运算。其提供了两款产品:

  思元270-S4,为高性能比AI推理设计的数据中心级加速卡,产品规格如下所示:

  思元290是寒武纪首颗AI训练芯片,采用创新性的MLUv02扩展架构,使用台积电7nm先进制程工艺制造,在一颗芯片上集成了高达460亿的晶体管。芯片具备多项关键性技术创新,MLU-Link™多芯互联技术,提供高带宽多链接的互连解决方案;HBM2内存提供AI训练中所需的高内存带宽;vMLU帮助客户实现云端虚拟化及容器级的资源隔离。其提供了一款产品:

  MLU290-M5智能加速卡搭载寒武纪首颗训练芯片思元290,采用开放加速模块OAM设计,具备64个MLU Core,1.23TB/s内存带宽以及全新MLU-Link芯片间互联技术,同时支持单机八卡机内互联,多机多卡机间互联,全面支持AI训练、推理或混合型人工智能计算加速任务。

  思元370芯片,基于7nm制程工艺,寒武纪首款采用chiplet(芯粒)技术的AI芯片,集成了390亿个晶体管,最大算力高达256TOPS(INT8),是寒武纪第二代产品思元270算力的2倍。凭借寒武纪最新智能芯片架构MLUarch03,思元370实测性能表现更为优秀。思元370也是国内第一款公开发布支持LPDDR5内存的云端AI芯片,内存带宽是上一代产品的3倍,访存能效达GDDR6的1.5倍。搭载MLU-Link™多芯互联技术,在分布式训练或推理任务中为多颗思元370芯片提供高效协同能力。其提供了三款产品:

  MLU370-S4,面向高密度云端推理,支持PCIe Gen4,板载24GB低功耗高带宽LPDDR5内存,板卡功耗仅为75W。

  MLU370-X4,云端人工智能加速卡,为单槽位150w全尺寸加速卡,可提供高达256TOPS(INT8)推理算力,和24TFLOPS(FP32)训练算力,同时提供丰富的FP16、BF16等多种训练精度。

  MLU370-X8,训推一体人工智能加速卡,采用双芯思元370配置,为双槽位250w全尺寸智能加速卡,提供24TFLPOS(FP32)训练算力和256TOPS (INT8)推理算力,同时提供丰富的FP16、BF16等多种训练精度。

  基于双芯思元370打造的MLU370-X8整合了两倍于标准思元370加速卡的内存、编解码资源

  ,同时MLU370-X8搭载MLU-Link多芯互联技术,每张加速卡可获得200GB/s的通讯吞吐性能,是PCIe 4.0带宽的3.1倍,支持单机八卡部署,可高效执行多芯多卡训练和分布式推理任务。

  阿里巴巴集团的全资半导体芯片公司平头哥也发布过AI芯片含光800。一颗高性能人工智能推理芯片,基于12nm工艺, 集成170亿晶体管,性能峰值算力达820 TOPS。其自研神经网络处理器(NPU)架构为AI推理专门定制和创新,包括专有计算引擎和执行单元、192M本地存储(SRAM)以及便于快速存取数据的核间通信,从而实现了高算力、低延迟的性能体验。在业界标准的ResNet-50测试中,推理性能达到78563 IPS,能效比达500 IPS/W。

  壁砺™100P产品形态为OAM模组,凭借强大的供电和散热能力,能够充分解放澎湃算力,驱动包括人工智能深度学习在内的通用计算领域高速发展。

  :基于OCP UBB v1.0标准开发,搭载8张壁砺™100P通用GPU,支持单节点8卡全互连,能够为服务器提供强大的算力。

  :性能强大的 OAM 服务器,首次实现单节点峰值浮点算力达到 8PFLOPS,搭载 8 个壁砺™100P OAM 模组,能够为广大应用场景提供超强的云端算力。

  燧原科技也发布了多款AI芯片,包括云燧T1x/T2x训练系列、云燧i1x/i2x推理系列。采用其自研的GCU-CARA架构。

  除此之外,还有像海光、摩尔线程、沐曦集成电路、天数智芯等发布的AI加速卡。随着美国对国内高端芯片的进一步封锁,希望国产芯片早日崛起。

  本文简要介绍了AI芯片的种类以及一些国内外AI芯片厂商发布的AI芯片。码字不易,如果觉得有帮助,欢迎点赞收藏加关注。

  当半导体投资大面积降温,非头部的创业项目面临融资困难ManBetX万博,裁员甚至倒闭的一幕开始出现。所谓“无泡沫,不繁荣”,过去的热潮让中国半导体崛起了一批明星公司,但随着泡沫消散,一大批陪跑的项目开始走到了悬崖边缘。半导体淘汰赛,来了。

  根据员工的描述,曾多次拨打过该公司总部官方电话,均为“暂时无法接通”状态。这家IC芯片公司就是——诺领科技。从官网可以看到,这是一个颇为豪华的创业团队:

  曾在思科和高通任职,拥有15余年的混模电路设计和带队经验。高通期间,所带的项目组从0做到了全球百人的规模

  同年9月,孔晓骅找来了朋友王承周创办了诺领科技——一家无晶圆厂IC设计公司,主打产品为物联网系统级芯片NB-IoT和Cat-M SoCs

  王承周是联合创始人和现任CEO,他先后拿到北京大学学士学位和加州大学圣地亚哥分校博士学位,曾担任Quantenna 初创技术骨干,同样有着不错的履历和丰富的产业经验

  此外,诺领科技组建的核心团队大多是行业尖端人物,其中70%以上的团队成员有硕士以上学位,且技术团队成员是有10年以上的IC量产设计及相关经验的专业人才。在诺领科技创立初期,南京当地曾派出专门的工作人员牵头联系,帮忙跑工商注册、、银行开户等多个流程,还给予了诺领科技房租和研发补贴等优惠政策。

  2018年底,首个流片的NK6010 NB-IOT系统级芯片(SoC),并在2019年5月成功实现联网测试

  一般情况,做一个通讯芯片需要24-36个月,而诺领科技却用了不到15个月便设计了世界最先进之一的NB-loT芯片,打破国内通信芯片的开发纪录

  2020年,诺领科技获得2亿元B轮投资,投资方既有国内知名VC/PE机构,也不乏当地产业资本

  拳头产品“NB+GNSS”芯片已经实现了通信系统功能和应用的高度集成,同时在功耗和成本上都有一定优势并已经实现量产

  应用上,该系列芯片重点瞄准“物流和供应链管理”细分行业,并将市占率目标定在30-40%以上

  然而到了2021年,诺领科技的对外消息越来越少,仅在公司官网披露了公司将携带NK6010免TCXO版芯片亮相2021 MWC的消息。此外,诺领科技完成B轮融资后便没有了后续融资动作,官方微信消息也停留在今年1月29日。直到今年7月,相关员工在社交媒体爆料了诺领科技最新动态——拖欠了五月、六月两个月的工资。每一个被离职的员工,拿着一份不知道何时兑付,没有具体金额的解除合同协议。

  如果盘点当前中国活跃的AI芯片公司会发现,这些公司基本成立于2018年前后。2020年开始,主要融资都发生在相对成熟的企业,基本已经获得了1-2轮,甚至2轮以上融资的AI企业,这一趋势在之后的两年里更为明显。

  AI芯片的火爆,与其说是AI技术发展的果实,不如说是资本的产物。资本如酒,能壮创业胆。

  忽如一夜春风来,千树万树梨花开。随着AI产业的迅速发展,越来越多的企业都投身到了AI淘金这股浪潮中,而其中最为耀眼的便是AI芯片。

  虽然从AI芯片相对偏长的投资回报周期来看,芯片与资本的逐利本性来看是相冲突的,但是它可以包装成为一个好故事。

  随着各行各业的企业近几年都开始进入IC行业,人才需求量猛增。但是人才培养的速度完全跟不上需求的增长。因此,新进入的企业高薪挖人,高薪抢人已经成为常态。应届生的薪资水涨船高。趋势上看,年薪百万也不是不可能的。

  对于初创公司来说,要对得起投资人的大笔投资,技术团队必须建立起来。往往投资人的压力也比较大,一般需要在一定时间之内,建立多少人的队伍。时间一到,是需要向投资人汇报的。因此,技术团队建设,往往比较急。而恰恰这类企业,由于知名度不够,招人还不太容易招到。正所谓,重赏之下必有勇夫,那就用更高的薪水来吸引人才。如果50%不够,那就双倍。反正投资人的钱是必须要花的。

  其实,也不是所有的初创企业都有实力不计代价的砸钱。如果没钱怎么办?可以许诺股份。由于没有上市,估值就有很大的随意性。因此,招人的时候,可以许诺价值数百万的股份,一样可以吸引很多人加入。当然,到变现的时候,就要看造化了。

  另外一种企业,就是大名鼎鼎的互联网巨头。财富,声望都完全吊打创业公司。这类企业,资金雄厚,认准一个行业,重金投入,然后将整个行业洗牌。

  芯片行业并不是暴利行业。要不是中美科技战,芯片行业可能根本不会吸引众多人才的注意。

  传统芯片公司,像海思这样背后有着实力雄厚的靠山的企业少之又少。长期以来,更多的企业一直在欧美等芯片巨头的阴影之下发展。随着国产化推进,原本只买外国芯片的设备公司,也开始买国产的芯片了。可怕的是还没来得及高兴,互联网公司来了。

  这就出现了非常吊诡的现象:芯片行业受到了前所未有的重视,很多芯片公司也打开了市场,结果赫然发现,自己的团队,或被挖空,或集体出走。

  这些企业的海量资金,完全不是来自于芯片,而是流量。他们可以拿出传统芯片企业难以拿出的薪水,再加上初创公司难以企及的名气,成为了吸引人才无往不利的大招。

  很多芯片的工程师,离开了真正做芯片的企业,进入了没有芯片基因的互联网公司。市场角度看,似乎没有问题。但是总觉得不太对。

  西方的芯片公司忙着合并,收购,做整合。而国内的公司趋势却相反。原有大公司团队纷纷出走,成立创业公司。原因很简单,融资太容易了。

  假设,一个公司的一个soc团队出走,成立一家新的公司。这家公司做的东西必然也和之前从事的方向接近甚至相同。芯片都是低水平重复,这不就是重复建设,浪费资源吗?

  这个过程中,消耗了大量的资金,却没有做出什么有效的效果。只不过,重新做了mask,foundary受益了;重新买了EDA软件,EDA公司受益了;重新买了IP授权,ARM这样的IP公司受益。

  当然,这个过程中,肯定有一些国外的芯片被替代,但是大量的浪费也是必然。不只是资金,人才浪费也极其严重。

  抢人风潮导致员工离职率高。可能刚刚入职一年,一个项目没做完,又被挖走。没办法,薪资跳涨啊,然后这位员工又开始到新的公司熟悉环境。

  任正非曾经就一针见血的说:芯片急是急不来的,不光是工艺、装备、耗材问题。同时称还是要踏踏实实,自知在云、人工智能上落后了许多,不能泡沫式地追赶。

  资本的疯狂的涌入,对AI芯片产业不是好事,过去国内在芯片领域很长一段时间缺乏相应的基础性研究的积累,缺乏行业标准与统一的产业链与应用市场环境。突然一夜之间,一拥而上大炼钢式上马AI芯片项目,这种热情的背后透露出来的是急功近利的产业氛围。

  正如Christensen在《创新者的窘境》所述,所有技术都是从最容易的改变开始,一层一层地改变世界。人工智能(AI)亦如是,技术在循序渐进地成长,但人的印象形成非常快,会迅速建立起一个认知,相信AI一来就能替代50%的工作,但这往往是一个N年之后才会实现的事情。

  当人类出现期望值,会高估技术的应用价值,但渐渐发现技术变现的领域只有一小块时,期望值马上又会回落;但当你只聚焦在某一小块时,技术的影响力又会逐渐扩大,你又会低估它的力量。

  这永远是一个螺旋上升、不断转移的过程,或许此时算法更重要,彼时算力、数据变得更重要。人常常犯的错误,是陷入到极端思维,盲目跟着热点,没有选好一个领域就一头扎进去。

  这一问题同样出现在芯片领域。近年来,硬件公司、算法公司纷纷开始跨界造芯,芯片界出现虚火现象。根本原因就是低端陷阱。

  所谓“低端陷阱”,指的是全世界的半导体市场像一个橄榄球,低端少、中端大、高端少。而中国的供给更像是一个金字塔,有大量的低端、一点点中端、几乎没有高端。从低端到中端和高端,有非常难逾越的屏障,这是中国3000亿的落差所在,而这巨型屏障不是缺钱造成的。

  两者对比,云端芯片的门槛更高,无论是对半导体工艺、封装技术和配套软件都有很高要求,一旦成型,其他企业亦很难进入,可以形成竞争壁垒。同时,这个领域更为通用,前景更广,是让企业真正有希望成为“中国英伟达”的方向。

  但云端芯片也需要更多的资金和生态支持,高门槛使得大多数创业公司几乎加入无望。尤其是在华为与阿里巴巴两大巨头下场,并先后推出云端芯片之后,如今,寒武纪几乎是唯一一家仍在坚持云端芯片方向的AI创业公司。(然而寒武纪当下的生存状态依然阴云笼罩,充满了太多不确定性,参见:寒冬里的寒武纪)

  可这个方向同样困难重重。做云端服务器的条件是拥有生态资源。比如你需要有数据库资源,要训练自己的芯片,这对于大厂是天然的,可是创业公司没有,要花巨资去购买。

  大多国内的AI芯片企业则集中在进入门槛较低的终端AI芯片方面,如云天励飞、肇观电子等企业,均以研发智能视觉芯片为主,也有一些企业在集中研究智能语音芯片。

  芯片和互联网有一个本质区别,互联网不存在核心的产品和技术的壁垒,各家拼的就是执行,钱多能很有帮助。但在芯片领域,钱多起不了太大作用。在中国,能跨越低端陷阱的人寥寥无几,这也解释了为什么今天有些做芯片的公司融了很多钱却没有做出像样的产品。

  英伟达去年全球收入近 270 亿美元,中国市场占 1/4。一些投资人认为,如果一家 GPU 公司能从中国大盘子里切 5% 到 10%,就足以支撑起 1000 亿人民币的市值。

  但能分到蛋糕的人很少。这是一个赢家通吃的市场,它由开发、生产芯片硬件的规模效应,和与硬件配套的软件带来的生态壁垒构筑。中国这批新公司中只会有 1-2 个胜出者,其它人会沦为陪跑;更坏的情况则是全军覆没。

  在融资热潮兴起 1 年多以后,这批 GPU 公司正加速来到产品面市的临界点。这是淘汰赛的第一关。

  自研真相背后的逻辑疯狂造芯,一路狂奔而来,很难照顾姿势优雅,争议和质疑由此产生。

  去年 10 月,壁仞宣布首款用于计算中心的 GPGPU BR 100 已交付流片;1 个月后,摩尔线程宣布其首款全功能 GPU 已研制成功,今年 3 月末,壁仞宣布 BR 100 成功点亮。

  一些半导体从业者不屑 “交付流片”、“研制成功”、“成功点亮” 等说法。一款 GPU 从设计到量产,要经历设计、验证、流片(交给台积电等代工厂小规模试生产)、回片后的功能和性能测试(如数据通路没问题被称为点亮)、送往客户处测试、根据反馈进行软硬件调优、获取订单并交付工厂大规模生产的流程。

  交付流片是芯片研发的必经环节,不代表成功;“成功点亮” 只代表功能没问题,客户是否用还是未知数;“研制成功” 更是意义不明。“这是他们为了融资发明的里程碑。” 一位从业者说。

  自动驾驶芯片公司地平线 月发布了一条言辞强烈的朋友圈,说现在国内芯片创业,流片成功此起彼伏,“投资小白” 不了解,在当前条件下,数字芯片想要流片失败都挺难,流片成功毫无意义,卖出去才是水平。“量产呢?!量产呢?!再问一句——量产呢?革命的春天不是叫出来的,是做出来的好不好。” 这条朋友圈如此结尾。

  其实去年 5 月时,地平线的官方公众号也曾发文章称,其第三代车规级芯片征程 5“一次性流片成功且顺利点亮”。在激烈的融资、招人竞争中,芯片公司不得不更早、更高频地放出进展。

  更大的争议来自超出寻常的研发速度。主要面向军用、信创市场,由国防科大团队创立的景嘉微研发中国第一款GPU (2014 年发布)用了约 5 年,又过了 4 年,才发布第二款产品。

  新一批 GPU 企业中,壁仞的第一款产品在 2020 年 3 月立项,19 个月后交付流片,又 5 个月后点亮。沐曦也曾透露,会在今年发布首款芯片;据了解沐曦的产品也已交付流片。摩尔的速度最为惊人,它在今年 3 月末正式发布第一代产品,这距离研发启动只有 14 个月,是正常节奏的 2 倍。

  加班加点和精简流程,可以部分解释创业公司超常的开发速度。但起更大作用的是一种多数公司不会提及的做法——买 IP。

  IP 是能实现一些功能的成熟设计模块,它就像搭建芯片的积木,在买来的 IP 上做整体架构和完整设计,可以节省工作量、缩短开发时间。

  供应商包括 Imagination 和芯原微电子,尤以 Imagination 为主。这是一家成立于 1985 年的英国企业,在 2017 年被中资凯桥资本以 5.5 亿英镑收购。2020 年,当中方想委派四名人员进入 Imagination 董事会时,被英国政府阻止。

  在过去全球大分工的环境中,买 IP 是一个正常的商业选择。但在如今 GPU 领域不绝于耳的 “自主创新”、“国产自主” 的宣传中,在外界对 “国产替代” 超越商业价值的期待中,到底买没买 IP,买了什么 IP,成了一个讳莫如深的话题。

  AI芯片初创成立之初都以AI为核心,提供基于AI芯片的解决方案。然而,经过这几年的探索,跨过亏损和量产的两大障碍之后,AI芯片公司的AI标签不再那么突出,呈现去AI化趋势,AI芯片公司间的分水岭也出现了。

  在多个从业者看来,AI芯片并非一个独立的存在,“只是场景中的一部分”,如果想让产品真正落地,创业者们需要掌握的是“场景理解能力”。

  早年间,CV四小龙几乎都在探索AI+行业,而“行业”则包含金融、零售、安防、汽车、物流等领域,不同点在于各自的领域各有侧重。从2019年前后,CV四小龙开始讲起了“独特”故事:

  旷视把目标定在了AIoT上,所有业务都要带上“物联网”。基于此,还打造了“算法+软件+硬件”的一体化产品体系,推出物联网时代的AIoT操作系统。目前,在招股书中,其主要业务分为物联网解决方案、城市物联网解决方案、供应链物联网解决方案

  依图则在探索应用场景过程中发现了产业链上的“芯片”一环,于是打开了“算力提供商”的新世界,以人工智能芯片技术和算法技术为核心

  商汤招股书中,其主营业务分类为智慧商业、智慧城市、智慧生活和智慧汽车。将自身定位成人工智能软件平台型公司,打出了“1(基础研究)+1(产业结合)+X(行业伙伴)”战略,AI+“所有”,没有给自己限定场景,什么行业都做

  作为CV领域的“小弟”,格灵深瞳的业务分类为城市管理产品及解决方案、智慧金融产品及解决方案、商业零售产品及解决方案

  新瓶装旧酒,AI 企业家们现在讲出的故事,早已不再能如同此前般打动人心。二级市场的表现倒挂一级市场,这让投资者们对“估值高、回报周期久”的AI公司已经失去了信心和耐心。资本冷却的重担最先就砸在了“CV四小龙”所在领域。这堪称“三十年河东三十年河西”,此前,由于早期需求明确、数据好获取,CV是中国市场AI行业中技术和落地均发展最快的市场。按照2021年2月的报道数据,我国各种类型的机器视觉企业已经超过4000家。现在,它却成为“卷”得最厉害的窄巷。

  市场对AI企业们正在提出新的要求。与过去以技术单点为发力方向、抓住某一场景持续烧钱获取、处理、训练数据的方式不一样,如今业界更多地开始强调AI技术在向工业场景迁移过程中的落地能力。

  这个难题就足以困住大量的AI芯片公司,因为懂应用的人不懂 AI,懂芯片的人不懂应用,芯片提供者和应用者之间有巨大的认知差。过去几年间成功找到落地场景或者验证商业模式可行的AI芯片公司,AI的标签越来越弱。无论从技术门槛、落地场景和市场竞争来看,如今AI创业的窗口期已过,理解一个场景,深挖和精准研发,甚至整合这个场景的解决方案,企业还是有机会活下去。不过,如若能做到,这些企业也许已转型为某个场景方案解决商,也不再是“AI 芯片企业”了。

  写在最后面对汹涌的市场“泡沫”,AI赛道的投资人们趋于理性,投资热潮已经明显降温。在“老大吃肉、老二喝汤”的半导体行业,头部效应明显。AI芯片本身有多个产品线和赛道,每个产品线里最后跑出来两三家公司,这是将来的格局。

  但正如比尔·盖茨的那句名言,人们总是高估技术短期的影响,而忽略技术长期的影响,AI芯片迎来洗牌期是必然,这个赛道真正具有造血能力的公司会脱颖而出,反之对那些无法自足造血的创业公司则是致命打击,在决赛圈破产淘汰是注定的事。

  想了解更多半导体产业前沿洞见、技术速递、趋势解析,欢迎关注微信公众号:半导体产业纵横(ID:ICViews)。

  根据IDC数据,到2022年全球AI芯片市场将达352亿美元,复合年增长率大于55%。中国AI芯片市场规模将保持40%~50%的增长速度,2025年将达到1000亿左右;到2024年中国GPU服务器市场规模将达到64亿美元,如果国产GPU 能在2024年取得30%的份额,即可获得22亿美元的市场空间。中国人工智能芯片行业市场成长空间巨大。

  10月20日消息,新智元近日发布的《中国人工智能产业发展报告》显示,中国AI创业公司数量约200-250家,估值最高的为今日头条,估值约500亿元,绝大多数融资仍处于天使轮或者A轮。

  语音和视觉依然是AI创业的两大方向,深度学习/机器学习都占据了绝对重要的地位,其次是计算机视觉、自然语言处理和语音识别。

  据统计,截止2016 年9月20日,中国人工智能创业公司数量约在200-250 家,大部分创建于2010年后。语音和视觉依然是创业公司的两大方向,2016 年以来,人工智能专用芯片公司获得关注较多。

  关注了100家企业,总人数是8964人,平均值89.64。人数最多的公司人数已经达到近2000(今日头条),最少的只有3人(艾珂智能系统有限公司),中位数25,员工构成中,技术人员占绝大多数。

  不管是从技术选型还是应用来说,深度学习/ 机器学习都占据了绝对重要的地位,其次是计算机视觉、自然语言处理和语音识别。深度学习/ 机器学习目前已经成为人工智能企业的“标配”,有53 家企业把深度学习/ 机器学习用到了产品中。

  计算机视觉或图像技术是细分领域中最为热门的,43 家的企业在具体场景应用产品中使用这一技术。

  在应用上,智能机器人(家用服务型、有硬件实体的拟人型或拟生物型)有35 家。

  在此次调查中,共有37 家企业披露了2015年的收入数据,32 家人工智能企业在2015年的总营收达到了7.56 亿元,均值为2 千万元左右,中位数在20 万元。其中经营收入最高的达到了2 亿元。

  共有98 家企业向新智元填报了估值数据,估值总数为1014亿元,平均每家公司的估值在10亿左右,中位数2亿,公司间估值差距非常大。

  从融资阶段来看,100 家企业中,绝大部分处于天使轮或者A 轮。处于这两个轮次的占到了64%。

  评出了十大最具竞争力的AI创业公司,分别是今日头条、驭势科技、地平线、旷视科技Face++、出门问问、碳云智能、云知声、思必驰、ROOBO 智能管家、优必选。

  在这10 家企业中,从主要技术和主营业务上看,专注语音的公司有2 家(云知声和思必驰),机器人公司2 家,算法推荐公司1 家,智能驾驶技术公司1 家,芯片公司1 家,计算机视觉公司1家,智能硬件公司1 家,智能医疗公司1 家。

  10 家公司中,估值最高的达到了500亿人民币左右,最低的也有5 亿人民币。平均估值为80亿人民币左右。

  今日头条由国内互联网创业者张一鸣于2012年3 月创建,于2012 年8 月发布第一个版本,截止2016 年8 月,今日头条累计激活用户数已达5.3 亿,日活跃人数超过5500万,月活跃人数超过1.3 亿,单用户每日使用时长超过74 分钟。其中,“头条号”平台的账号数量已超过19 万个。

  今日头条上一次宣布的C 轮融资是2014 年6 月,红杉领投1亿美金,估值5亿。两年之后,现在今日头条的估值保守估计是在80亿美金左右。今日头条的团队人数早在2015年4 月底就已经达到500人左右。

  驭势科技于2016 年1月成立,目前估值5亿人民币,融资阶段Pre-A轮。驾驭科技是一家为汽车品牌提供无人驾驶解决方案的公司,其目标是无人驾驶而不是辅助驾驶。驭势科技创始人团队的核心人物除了吴甘沙之外,还有赵勇、姜岩。

  地平线机器人是一家主打机器人专用“大脑”芯片研发的科技公司,致力于打造“机器人时

  代的Intel”。由百度深度学习研究院(IDL)创始人余凯创办。公司总部在北京,在深圳设有子公司,团队具有软件和硬件兼备的研发和产品能力;并已成功完成由多家全球著名投资机构——晨兴、高瓴、红杉、金沙江等支持的种子轮融资。

  地平线机器人要做的产品,是基于人工智能算法的芯片、系统和软硬件平台,让世界上所有的设备(例如家居、汽车、玩具和服务机器人),具有从感知、交互、理解到决策的智能。截止目前,地平线共发布了两套产品:针对智能家居的“安徒生”系统和针对智能驾驶的“雨果”系统。开发者基于这些平台可以开发各种各样的应用,比如语音、图像等。

  旷视科技成立于2011 年1月,目前融资进行到B轮,最新融资额2500万美元,估值67亿人民币。

  旷视科技专注机器视觉和人工智能技术,打造领先的人脸识别,图像识别,和深度学习技术服务云平台。旷视科技将致力于“先让机器看懂世界,再让机器真正思考”。旗下有Face++ 人脸识别

  旗下的第一个产品Face++ 现已提供给广大开发者和企业级伙伴,其中包括阿里巴巴、联想、

  世纪佳缘和美图秀秀等,API 总调用量超过60 亿次;并且在金融、安防、零售领域分别开始了商业化探索成功发育出Face++Financial,Face++Security,Face++BI 等垂直人脸验证解决方案产品。

  出门问问是市场上一家拥有自主语音识别、语义分析、垂直搜索技术的人工智能公司。目前在硬件(智能手表、后视镜)和软件(语音搜索引擎)上都有相关产品。

  出门问问出门问问由前谷歌(微博)科学家李志飞于2013 年2 月创建,融资已经进入C 轮,目前估值5 亿美元。

  深圳碳云智能科技有限公司成立于2015 年10 月27 日,围绕消费者的生命大数据、互联网和人工智能创建数字生命的生态系统。

  公司主要创始团队来自华大基因,在组学技术、移动医疗、医疗服务、生物数据分析、人工智能和数据挖掘等领域有丰富的经验。

  碳云智能目前融资阶段处于A 轮,最新融资额10 亿人民币,目前估值67 亿人民币。

  云知声创建于2012 年6 月,目前融资阶段B 轮,最新融资额5000 万美元,估值10 亿美元。

  云知声利用机器学习平台(深度学习、增强学习、贝叶斯学习),在语音技术、语言技术、知识计算、大数据分析等领域建立核心技术体系,这些技术共同构成了云知声完整的人工智能技术图谱。在应用层面,AI 芯、AIUI、AI Service三大解决方案支撑起云知声核心技术的落地和实现,目前已经在家居、汽车、医疗和教育等领域有广泛应用,形成了完整的“云端芯”生态闭环。

  思必驰初创于2007年,由剑桥大学团队创立于英国剑桥高新区,2008年回国创业。是国内拥有人机对话技术,国际上极少数拥有自主产权、中英文综合语音技术(语音识别、语音合成、自然语言理解、声纹识别、性别及年龄识别、情绪识别等)的公司之一,其语音技术曾经多次在美国国家标准局、美国国防部、国际研究机构评测中夺得冠军,被中国和英国政府评为高新技术企业。

  思必驰最新融资轮次C 轮,最新融资额2 亿人民币,目前估值20 亿人民币。

  北京智能管家科技有限公司(ROOBO)成立于2014 年,是面向全球的智能硬件孵化与发行平台,同时也致力于打造行业领先的人工智能及机器人操作系统(ROOBO AI+OS)。目前团队人数296 人。

  2015 年年底完成A 轮融资,融资金额1 亿美元,目前估值25 亿人民币。

  优必选科技有限公司是致力于商业化人形智能机器人的研发、制造和销售为一体的高科技企

  业,是人形机器人走出实验室、步入家庭的推动者和倡导者。已拥有包括博士、硕士在内的国内顶尖机器人专家团队,集智能机器人软件应用和硬件开发为一体,已获得几十项国家技术专利:发明专利、实用新型专利、外观设计专利、软件著作权专利等。

  优必选成立于2012 年3 月,目前融资阶段进行到A+ 轮,最新融资额2000 万美元,估值10亿美元。

  Gemini的发布被谷歌视为十年来最关键的技术创新,从设计开始就在不同模态上使用由 Google 设计的 TPUs v4 和 v5e芯片接受预训练。

  TPU与同期的CPU和GPU相比,可以提供15-30倍的性能提升,以及30-80倍的效率(性能/瓦特)提升。

  这次谷歌发布的TPU v5p,这是谷歌迄今为止最强大、最高效的TPU芯片。TPU v5p的设计旨在提高性能、规模和灵活性,其训练性能比TPU v4快2.8倍,训练嵌入密集模型的速度快1.9倍。同时,与TPU v4相比,TPUv5p提高了两倍的FLOPS和三倍的内存带宽。

  中际旭创:谷歌核心供应链,带环形器的VFR8光模块盈利能力强,份额优势大。谷歌数据中心光模块的核心供应商, 受益于谷歌的云基础设施投入。

  博创科技: 收购了长兴盛,成为谷歌数据中心的核心供应商,有望受益于谷歌的光交换机需求。

  太辰光:给谷歌提供连接器产品。 客户主要来自谷歌,开始在谷歌进行布局,受益于谷歌的数据中心光模块需求。

  MI300X拥有超过1500亿个晶体管,内存是英伟达H100芯片的2.4倍,据称在训练大型语言模型方面与H100芯片相当,但在推理方面表现更好。

  通富微电:AMD最大的封装测试供应商,公司通过并购与AMD形成了“合资+合作”的强强联合模式,有涉及AMDInstinctMI300、Rx7900mGPU的封测项目。

  芯原股份:2022年4月公司正式加入UCIe产业联盟(由AMD等十家企业于2022年3月共同成立,提出了一种开放的Chiplet互连规范),公司持续推进Chiplet技术产业化,有望进入Chiplet核心产业链。

  相比上一代A100和H100,H200主要变化在于内存,成为首款采用HBM3e(高频宽存储器)的GPU,使得带宽从H100的每秒3.35TB提高至4.8TB,提高1.4倍,存储器总容量从H100的80GB提高至141GB,容量提高1.8倍,同时推理能耗大幅降低。

  11月15日,微软在西雅图召开的 Ignite 大会上发布了两款芯片,一款面向 AI,一款面向云计算。微软发布的这款名为 Maia 100 的人工智能芯片,旨在与英伟达备受追捧的 AI 图形处理单元展开竞争。第二款则是 Cobalt 100 Arm 芯片,面向通用计算任务并将与英特尔处理器争夺市场。

  在亚马逊、微软和谷歌这三家中,亚马逊是唯一一家在服务器中提供训练和推理两种类型芯片的云提供商。亚马逊云科技目前有三条自研芯片生产线,分别是通用芯片Graviton、专用AI芯片Trainium(训练)和Inferentia(推理)以及Nitro。

  目前主要包括了昇腾910(用于训练)和昇腾310(用于推理)两款处理器,采用自家的达芬奇架构。

  润和软件:公司是华为的深度战赔合作伙伴,在麒麟系列芯片平台上开发了多款行业终端解决方案。

  神州数码:公司是鲲鹏、昇腾生态伙伴,公司是华为的深度战略合作伙伴,公司发布了神州鲲泰人工智能推理服务器,以“鲲鹏+昇腾”为核心,可提供128个处理核心的算力,同时最大可支持8张华为Atlas 300推理卡,提供256GB推理缓存,以及最大704 TOPS INT8的AI算力。

  烽火通信:持股87%长江计算。长江计算作为昇腾重要的整机硬件合作伙伴,基于昇腾AI,面向人工智能基础设施建设的业务需求,先后推出了G210K V2边缘型、G220K V2推理型、G440K V2训练型等多种AI服务器,一经推出,服务于电信、金融等众多行业客户,备受市场认可。

  拓维信息:公司控股子公司湘江鲲鹏拥有华为昇腾整机伙伴授权,基于鲲鹏处理器和昇腾处理器,先后发布AI推理、AI训练、AI小站、AI集群、智能边缘等数十款兆瀚AI产品,并携手华为参与全国各地的人工智能计算中心建设。

  同方股份:2023年2月16日,据子公司官微:同方计算机联合华为,推出基于昇腾技术的AI服务器,并与北京昇腾人工智能计算中心签约达成合作。

  海光信息:中科院背景,公司的产品包括海光通用处理器(CPU)和海光协处理器(DCU)。海光CPU系列产品兼容x86指令集以及国际上主流操作系统和应用软件,软硬件生态丰富,性能优异,安全可靠,已经广泛应用于电信、金融、互联网、教育、交通等重要行业或领域。

  寒武纪:思元370是寒武纪第三代云端产品,采用7nm制程工艺,是寒武纪首款采用Chiplet技术的AI芯片,最大算力高达256TOPS(INT8)。寒武纪新一代云端智能训练新品思元590芯片还没发布,但已经受到很多关注和讨论,特别是寄予在大模型训练和推理任务中一定程度上替代A100的厚望。

  龙芯中科:龙芯3A6000采用我国自主设计的指令系统和架构,是我国自主研发、自主可控的新一代通用处理器,可运行多种类的跨平台应用,满足各类大型复杂桌面应用场景。

  腾讯背景,邃思系列芯片、云燧训练和推理加速卡以及云燧智算机的全系列算力产品线。目前燧原已经为大型科研机构部署了千卡规模的AI训练算力集群,并成功落地;燧原还与腾讯合作,在OCR文字识别,智能交互,智能会议等方面发挥作用,性能达到了业界同类产品两倍以上,性价比上具有很高优势。

  弘信电子:公司与燧原科技签订战略合作协议后,进行了多层次深入协同推进合作。

  智慧城市的基石是数据中心,是AIoT的重点领域之一ManBetX万博,所涉及硬件、软件、技术、数据和场景十分复杂。智慧城市最明显的特征是需求碎片化,数据中心对于网络数据的处理能力至关重要,现有的CPU(通用处理器)从架构层面就受限,已经难以有效应对新需求。

  前段时间阿里云发布了一款云数据中心专用处理器CIPU(Cloud infrastructure Processing Units)后,腾讯积极应对,除了自研的玄灵芯片,还投资了DPU公司云豹智能(新闻源:晚点LatePost),两条腿走路继续加注数据中心大芯片。DPU (Data Processing Unit,数据处理器),成了每个互联网&云服务巨头的必争之技,除了自研军团的的亚马逊、谷歌、阿里巴巴、腾讯,也有投资军团的美团、字节跳动和百度。

  无论是CPU、GPU、CIPU还是DPU,其本质都是处理器,DPU针对网络数据处理的技术架构和性能有调优,是针对当前ICT基础设施中传统芯片技术架构无法满足的底层数据、边缘数据处理任务(包括网络、存储、安全等)发展需求而孕育并经过验证的解决方案,弥补网络性能与计算性能的老牛拉新车式的巨大差距,DPU也被称为是继CPU、GPU之后的第三引擎。搭载DPU的数据中心,从网络端向主机内部延伸,从而实现了流量调度、I/O路由、加速,并成为真正的Fabric端点。

  “边”是相对于“中心”的概念,指的是贴近数据源头的区域。边缘智能指的是将智能处理能力下沉至更贴近数据源头的网络边缘侧,就近提供智能化服务,从而满足当前市场对实时性、隐私性、节省带宽等方面的需求,根据前瞻产业研究院预测,未来3~5年国内边缘计算市场有望比肩大数据市场,到2025年我国超50%的企业生成数据将在边缘数据中心处理,至少50%新建物联网项目在边缘使用容器进行应用程序生命周期管理,市场规模将达到万亿元级别,DPU的应用前景广阔。

  另据头豹研究院预测,中国DPU市场规模预计将在2025年达到37.4亿美元。全球DPU市场规模2025年预计将达到135.7亿美元,增长率和增速都很高。

  智能物联AIoT万亿规模级的庞大市场,数据中心是不可忽视的市场之一,芯片和方案的国产替代未来可期。拍明芯城是快速撮合的元器件交易平台,过去数年已积累了物联网芯片的优势货源。我们聚焦服务元器件长尾客户群,让每一家芯片原厂或分销商的每一款芯片,在Design In、Design Win和流通中更高效,帮助工程师的方案选型、试样及采购,为电子产业供需略尽绵薄之力。

  ICZOOM拍明芯城是快速撮合的元器件交易平台,是一站式元器件供采和综合供应链服务平台,专注于为中小微客户提供电子产业互联网服务,包括撮合服务、配单服务、寄售代购、报关报检、软件定制、智能仓储、智慧物流、供应链金融等深度垂直服务。

  1、我们尊重知识产权,本公众号图文、数据、视频等内容有援引网络或其他公开资料,版权归属原作者、原发表出处。若版权所有方对本公众号的引用持有异议,敬请文末留言或私信我们,我们保证及时予以处理。

  3、本公众号内容仅代表作者观点,我们不对内容的准确性、可靠性或完整性承担明示或暗示的保证。读者读后做出的任何决定或行为,是基于自主意愿和独立判断做出的,请读者明确相关结果。

下一篇:AI 芯片前言解读ManBetX万博
上一篇:摆脱依赖NVIDIA!MetManBetX万博a第二代自研AI芯片正式投产

咨询我们

输入您的疑问及需求发送邮箱给我们