九游体育【官方网站】 JIUYOU中国大陆

九游体育人工智能芯片:发展史、CPU、FPGA和专用集成电路

作者:小编 日期:2024-10-10 17:01:00 点击数: 

  九游体育人工智能算法的实现需要强大的计算能力支撑,特别是深度学习算法的大规模使用,对计算能力提出了更高的要求。下面就随嵌入式小编一起来了解一下相关内容吧。

  深度学习模型参数多、计算量大、数据的规模更大,在早期使用深度学习算法进行语音识别的模型中,拥有429个神经元的输入层,整个网络拥有156M个参数,训练时间超过75天;人工智能领军人物Andrew Ng和Jeff Dean打造的Google Brain项目,使用包含16000个CPU核的并行计算平台,训练超过10亿个神经元的深度神经网络。下一步,如果模拟人类大脑的神经系统,需要模拟1000亿个神经元,计算能力将有数个量级的提升。

  除此之外,随着以智能手机为代表的移动终端快速发展,人们也希望将人工智能应用于移动终端,而这对硬件的计算能力和能耗提出了更高的要求。传统实现移动终端人工智能的方法是通过网络把终端数据全部传送到云端,之后在云端计算后再把结果发回移动端,例如苹果的Siri服务。然而,这样的方式会遇到一些问题:第一,使用网络传输数据会产生延迟,很可能数据计算的结果会需要等待数秒甚至数十秒才能传回终端。这样一来,那些需要立刻得到计算结果的应用就不能用这种方式。例如无人机上使用的深度学习躲避障碍物算法,ADAS系统中使用的图像识别算法等,如果计算过程不是本地进行而是依赖云端,那么云端和终端的通讯延迟、可靠性等问题有可能对汽车和无人机造成非常严重的后果。第二,一旦使用网络传送数据,那么数据就有被劫持的风险。因此,那些要求低计算延迟以及对于数据安全性非常敏感的应用就需要把人工智能算法全部在终端实现,或者至少在终端完成一些预处理运算然后再把少量运算结果(而不是大量的原始数据)传送到云端完成最终计算,这就需要移动终端硬件能够快速完成这些运算。因此,移动端硬件完成这些运算必须同时满足高速度和低功耗的要求。

  针对这些需求,人工智能核心计算芯片也经历了四次大的变化。2007年以前,人工智能研究和应用经历了数次起伏,一直没有发展成为成熟的产业;同时受限于当时算法、数据等因素,这一阶段人工智能对于芯片并没有特别强烈的需求,通用的CPU芯片即可提供足够的计算能力。之后,由于高清视频、游戏等行业的发展,GPU产品取得快速的突破;同时人们发现GPU的并行计算特性恰好适应人工智能算法大数据并行计算的要求,如GPU比之前传统的CPU在深度学习算法的运算上可以提高9倍到72倍的效率,因此开始尝试使用GPU进行人工智能的计算。进入2010年后,云计算广泛推广,人工智能的研究人员可以通过云计算借助大量CPU和GPU进行混合运算,事实上今天人工智能主要的计算平台还是云计算。但人工智能业界对于计算能力的要求不断快速地提升,因此进入2015年后,业界开始研发针对人工智能的专用芯片,通过更好的硬件和芯片架构,在计算效率上进一步带来10倍的提升。

  目前,根据计算模式,人工智能核心计算芯片的发展分为两个方向:一个是利用人工神经网络从功能层面模仿大脑的能力,其主要产品就是通常的CPU、GPU、FPGA及专用定制芯片ASIC。另一个神经拟态计算则是从结构层面去逼近大脑,其结构还可进一步分为两个层次,一是神经网络层面,与之相应的是神经拟态架构和处理器,如IBM的TrueNorth芯片,这种芯片把数字处理器当作神经元,把内存作为突触。与传统冯诺依曼结构不同,它的内存、CPU和通信部件完全集成在一起,因此信息的处理完全在本地进行,克服了传统计算机内存与CPU之间的瓶颈。同时神经元之间可以方便快捷地相互沟通,只要接收到其他神经元发过来的脉冲(动作电位),这些神经元就会同时做动作。二是神经元层面,与之相应的是元器件层面的创新。如IBM苏黎世研究中心宣布制造出世界上首个人造纳米尺度随机相变神经元,可实现高速无监督学习。

  从人工智能芯片所处的发展阶段来看,从结构层面去模仿大脑运算虽然是人工智能追求的终极目标,但距离现实应用仍然较为遥远,功能层面的模仿才是当前主流。因此CPU、GPU和FPGA等通用芯片是目前人工智能领域的主要芯片,而针对神经网络算法的专用芯片ASIC也正在被Intel、Google、英伟达和众多初创公司陆续推出,并有望将在今后数年内取代当前的通用芯片成为人工智能芯片的主力。

  “人工智能算法的实现需要强大的计算能力支撑,特别是深度学习算法的大规模使用,对计算能力提出了更高的要求。”

  传统的通用CPU之所以不适合人工智能算法的执行,主要原因在于其计算指令遵循串行执行的方式,没能发挥出芯片的全部潜力。与之不同的是,GPU具有高并行结构,在处理图形数据和复杂算法方面拥有比CPU更高的效率。对比GPU和CPU在结构上的差异,CPU大部分面积为控制器和寄存器,而GPU拥有更多的ALU(ARITHMETIC LOGIC UNIT,逻辑运算单元)用于数据处理,这样的结构适合对密集型数据进行并行处理。CPU执行计算任务时,一个时刻只处理一个数据,不存在真正意义上的并行,而GPU具有多个处理器核,在一个时刻可以并行处理多个数据。程序在GPU系统上的运行速度相较于单核CPU往往提升几十倍乃至上千倍。随着英伟达、AMD等公司不断推进其GPU的大规模并行架构支持,面向通用计算的GPU(即GPGPU,GENERAL PURPOSE GPU,通用计算图形处理器)已成为加速可并行应用程序的重要手段。

  GPU的发展经历了三个阶段:第一代GPU(1999年以前),部分功能从CPU分离,实现硬件加速,以GE(GEOMETRY ENGINE)为代表,只能起到3D 图像处理的加速作用,不具有软件编程特性。

  第二代GPU(1999-2005年),实现进一步的硬件加速和有限的编程性。1999年英伟达GEFORCE 256将T&L(TRANSFORM AND LIGHTING)等功能从CPU分离出来,实现了快速变换,这成为GPU线年英伟达和ATI分别推出的GEFORCE3和RADEON 8500,图形硬件的流水线被定义为流处理器,出现了顶点级可编程性,同时像素级也具有有限的编程性,但GPU 的编程性比较有限。

  目前,GPU已经发展到较为成熟的阶段。谷歌、FACEBOOK、微软、TWITTER和百度等公司都在使用GPU分析图片、视频和音频文件,以改进搜索和图像标签等应用功能。GPU也被应用于R/AR 相关的产业。此外,很多汽车生产商也在使用GPU芯片发展无人驾驶。

  根据研究公司TRACTICA LLC 预测,用于人工智能的GPU将从2016年的不到一亿美元增长到2025年的140亿美元,GPU将出现爆炸式增长。

  近十年来,人工智能的通用计算GPU完全由英伟达引领。2010年英伟达就开始布局人工智能产品,2014年宣布了新一代PASCAL GPU芯片架构,这是英伟达的第五代GPU架构,也是首个为深度学习而设计的GPU,它支持所有主流的深度学习计算框架。2016年上半年,英伟达又针对神经网络训练过程推出了基于PASCAL架构的TESLA P100芯片以及相应的超级计算机DGX-1。对于TESLA P100,英伟达首席执行官黄仁勋称这款GPU的开发费用高达20亿美元,而英伟达全年的营收也不过才50亿美元。深度学习超级计算机DGX-1包含TESLA P100 GPU加速器,并采用英伟达NLINK互联技术,软件堆栈包含主要深度学习框架、深度学习SDK、DIGITS GPU训练系统、驱动程序和CUDA,能够快速设计深度神经网络(DNN)。拥有高达170TFLOPS的半精度浮点运算能力,相当于250台传统服务器,可以将深度学习的训练速度加快75倍,将CPU性能提升56倍,报价12.9万美元。2016年9月北京GTC大会上,英伟达针对神经网络推理过程又推出了基于PASCAL的产品TESLA P4/P40。

  AMD则在2016年底集中发布了一系列人工智能产品,包括3款图形加速卡(品牌名MI),4款OEM机箱和一系列开源软件,以及下一代EGA架构的GPU芯片。未来,AMD希望MI系列硬件加速器、ROCM 软件平台和基于ZEN的32核以及64核服务器CPU三者合力,为超算客户提供一整套基于AMD产品线的解决方案。

  除了英伟达和AMD之外,INTEL计划在2017年将深度学习推理加速器和72核至强XEON PHI芯片推向市场。除了传统的CPU、GPU大厂,移动领域的众巨头在GPU的布局也非常值得关注。据说苹果也在搜罗GPU开发人才以进军R市场,目前苹果A9的GPU性能与骁龙820相当,A9 GPU采用

  除了英伟达和AMD之外,INTEL计划在2017年将深度学习推理加速器和72核至强XEON PHI芯片推向市场。除了传统的CPU、GPU大厂,移动领域的众巨头在GPU的布局也非常值得关注。据说苹果也在搜罗GPU开发人才以进军R市场,目前苹果A9的GPU性能与骁龙820相当,A9 GPU采用的是POWERR ROGUE家族的另外一种设计——GT7600,而苹果开发的A9X处理器性能与INTEL的酷睿M处理器相当,断了移动处理器市场的ARM也开始重视GPU市场,其推出的MALI系列GPU凭借低功耗、低价等优势逐渐崛起。

  FPGA(FIELD-PROGRAMMABLE GATE ARRAY),即现场可编程门阵列,它是在PAL、GAL、CPLD 等可编程器件的基础上进一步发展的产物。用户可以通过烧入FPGA配置文件来定义这些门电路以及存储器之间的连线。这种烧入不是一次性的,即用户可以把FPGA配置成一个微控制器MCU,使用完毕后可以编辑配置文件把同一个FPGA配置成一个音频编解码器。因此它既解决了定制电路灵活性的不足,又克服了原有可编程器件门电路数有限的缺点。

  FPGA内部包含大量重复的IOB、CLB和布线信道等基本单元。FPGA在出厂时是“万能芯片”,用户可根据自身需求,用硬件描述语言(HDL)对FPGA的硬件电路进行设计;每完成一次烧录,FPGA内部的硬件电路就有了确定的连接方式,具有了一定的功能;输入的数据只需要依次经过各个门电路,就可以得到输出结果。换言之,FPGA的输入到输出之间并没有计算过程,只是通过烧录好的硬件电路完成信号的传输,因此对于计算任务的针对性非常强,速度很高。而正是因为FPGA的这种工作模式,决定了需要预先布置大量门阵列以满足用户的设计需求,因此有“以面积换速度”的说法:使用大量的门电路阵列,消耗更多的FPGA内核资源,用来提升整个系统的运行速度。

  FPGA可同时进行数据并行和任务并行计算,在处理特定应用时有更加明显的效率。对于某个特定运算,通用CPU可能需要多个时钟周期;而FPGA可以通过编程重组电路,直接生成专用电路,仅消耗少量甚至一次时钟周期就可完成运算。

  在功耗方面,FPGA也具有明显优势,其能耗比是 CPU的10倍以上、GPU的3倍。究其原因,在FPGA中没有去指令与指令译码操作,在INTEL的CPU里,由于使用了CISC架构,仅仅译码就占整个芯片能耗的约50%;在GPU里,取指与译码也消耗10%至20%的能耗。

  此外,由于FPGA的灵活性,很多使用通用处理器或ASIC难以实现的下层硬件控制操作技术利用FPGA可以很方便的实现,从而为算法的功能实现和优化留出了更大空间。同时FPGA一次性成本(光刻掩模制作成本)远低于ASIC,在芯片需求还未成规模、深度学习算法暂未稳定需要不断迭代改进的情况下,利用具备可重构特性的FPGA芯片来实现半定制的人工智能芯片是最佳选择。

  由于FPGA灵活快速的特点,在众多领域都有替代ASIC的趋势,据市场机构GRANDIEW RESEARCH的数据,FPGA市场将从2015年的63.6亿增长到2024年的约110亿美元,年均增长率在6%。

  目前以深度学习为代表的人工智能计算需求,主要采用GPU、FPGA等已有适合并行计算的通用芯片来实现加速。在产业应用没有大规模兴起之时,使用这类已有的通用芯片可以避免专门研发定制芯片(ASIC)的高投入和高风险。但是,由于这类通用芯片设计初衷并非专门针对深度学习,因而天然存在性能、功耗等方面的瓶颈。随着人工智能应用规模的扩大,这类问题将日益突出。

  GPU 作为图像处理器,设计初衷是为了应对图像处理中需要大规模并行计算。因此,其在应用于深度学习算法时,有三个方面的局限性:第一, 应用过程中无法充分发挥并行计算优势。深度学习包含训练和应用两个计算环节,GPU 在深度学习算法训练上非常高效,但在应用时一次性只能对于一张输入图像进行处理,并行度的优势不能完全发挥。 第二, 硬件结构固定不具备可编程性。深度学习算法还未完全稳定,若深度学习算法发生大的变化,GPU无法像FPGA一样可以灵活的配制硬件结构; 第三, 运行深度学习算法能效远低于FPGA。

  尽管FPGA倍受看好,甚至新一代百度大脑也是基于FPGA平台研发,但其毕竟不是专门为了适用深度学习算法而研发,实际仍然存在不少局限:第一,基本单元的计算能力有限。为了实现可重构特性,FPGA内部有大量极细粒度的基本单元,但是每个单元的计算能力(主要依靠LUT查找表)都远远低于CPU和GPU中的ALU模块。第二,速度和功耗相对专用定制芯片(ASIC)仍然存在不小差距; 第三,FPGA价格较为昂贵,在规模放量的情况下单块FPGA的成本要远高于专用定制芯片。

  因此,随着人工智能算法和应用技术的日益发展,以及人工智能专用芯片ASIC产业环境的逐渐成熟,人工智能ASIC将成为人工智能计算芯片发展的必然趋势。

  首先,定制芯片的性能提升非常明显。例如英伟达首款专门为深度学习从零开始设计的芯片Tesla P100数据处理速度是其2014年推出GPU系列的12倍。谷歌为机器学习定制的芯片TPU将硬件性能提升至相当于当前芯片按摩尔定律发展7年后的水平。正如CPU改变了当年庞大的计算机一样,人工智能ASIC芯片也将大幅改变如今AI硬件设备的面貌。如大名鼎鼎的AlphaGo使用了约170个图形处理器(GPU)和1200 个中央处理器(CPU),这些设备需要占用一个机房,还要配备大功率的空调,以及多名专家进行系统维护。而如果全部使用专用芯片,非常可能只需要一个盒子大小,且功耗也会大幅降低。

  第二,下游需求促进人工智能芯片专用化。从服务器,计算机到无人驾驶汽车、无人机再到智能家居的各类家电,至少数十倍于智能手机体量的设备需要引入感知交互能力和人工智能计算能力。而出于对实时性的要求以及训练数据隐私等考虑,这些能力不可能完全依赖云端,必须要有本地的软硬件基础平台支撑,这将带来海量的人工智能芯片的需求。

  近两年,国内国外人工智能芯片层出不穷。英伟达在2016年宣布研发投入超过20亿美元用于深度学习专用芯片,而谷歌为深度学习定制的TPU芯片甚至已经秘密运行一年,该芯片直接支撑了震惊全球的人机围棋大战。无论是英伟达、谷歌、IBM、高通还是国内的中星微、寒武纪,巨头和新创企业都将人工智能芯片视为具有战略意义的关键技术进行布局,人工智能芯片正呈现百花齐放的局面。

  目前人工智能专用芯片的发展方向包括:主要基于FPGA的半定制、针对深度学习算法的全定制和类脑计算芯片三个阶段。

  在芯片需求还未成规模、深度学习算法暂未稳定需要不断迭代改进的情况下,利用具备可重构特性的FPGA芯片来实现半定制的人工智能芯片是最佳选择。这类芯片中的杰出代表是国内初创公司深鉴科技,该公司设计了“深度学习处理单元”(Deep Processing Unit,DPU)的芯片,希望以ASIC级别的功耗来达到优于GPU的性能,其第一批产品就是基于FPGA平台。这种半定制芯片虽然依托于FPGA平台,但是利用抽象出了指令集与编译器,可以快速开发、快速迭代,与专用的FPGA加速器产品相比,也具有非常明显的优势。

  在针对深度学习算法的全定制阶段,芯片是完全采用 ASIC 设计方法全定制,性能、功耗和面积等指标面向深度学习算法都做到了最优。谷歌的TPU芯片、我国中科院计算所的寒武纪深度学习处理器芯片就是这类芯片的典型代表。

  在类脑计算阶段,芯片的设计目的不再局限于仅仅加速深度学习算法,而是在芯片基本结构甚至器件层面上希望能够开发出新的类脑计算机体系结构,比如会采用忆阻器和ReRAM等新器件来提高存储密度。这类芯片的研究离成为市场上可以大规模广泛使用的成熟技术还有很大的差距,甚至有很大的风险,但是长期来看类脑芯片有可能会带来计算体系的革命。 这类芯片的典型代表是IBM的Truenorh芯片。类脑计算芯片市场空间巨大。根据第三方预测,包含消费终端的类脑计算芯片市场将在2022年以前达到千亿美元的规模,其中消费终端是最大市场,占整体98%,其他需求包括工业检测、航空、军事与国防等领域。

  以上是关于嵌入式中-人工智能芯片:发展史、CPU、FPGA和专用集成电路的相关介绍,如果想要了解更多相关信息,请多多关注eeworld,eeworld电子工程将给大家提供更全、更详细、更新的资讯信息。

  CEA,全球无线连接和智能传感技术的授权许可厂商(NASDAQ:CEA) 和小尺寸设备上多语言语音理解解决方案的领先提供商Fluent.ai宣布,两家企业合作为智能边缘设备提供超低功耗语音到意图(speech-to-intent)解决方案。Fluent.ai的语音到意图技术套件已针对CEA的低功耗音频和传感器中枢DSP进行了移植和优化,为OEM和ODM厂商提供了功能强大的高性能解决方案,用于将智能语音激活和语音控制功能集成到可穿戴设备、消费类设备和物联网产品中。 Fluent.ai提供抗噪声的嵌入式多语言语音理解解决方案,能够在嵌入式的低功耗设备上完全离线运行。Fluent.ai的独有技术,可以支持任何语言和口音,

  ,提供智能边缘超低功耗语音理解解决方案 /

  赛灵思与戴姆勒联袂为未来的奔驰车型开发超高效 AI 解决方案   中国北京 — 自适应和智能计算的全球领先企业赛灵思公司(Xilinx, Inc.,(NASDAQ:XLNX))和戴姆勒公司(Daimler AG)今天宣布,两家公司正强强联手采用赛灵思汽车应用领域的人工智能 (AI) 处理技术共同开发车载系统。此项可扩展的解决方案由赛灵思汽车平台提供支持,该平台将片上系统(SoC)器件和 AI 加速软件融为一体,可为当今汽车应用领域中的嵌入式 AI 带来诸如高性能、低时延以及业界最佳的功率效率等众多优异特性。   图: 赛灵思技术驱动着复杂的高级驾驶员辅助系统(ADAS)与自动驾驶(AD)系统   赛灵思在汽车领域拥有深厚强大的技

  1引 言 语音编码算法利用语音信号的冗余信息及某些人耳不敏感的信息,可以在低比特率上获得较高质量的重建语音,压缩编码一直是通信中的关键技术。语音信号研究者们一直在寻求一种在保持语音质量不显著下降的情况下使语音信号的编码比特率最小的方法,特别地,低比特率语音编码体制(比特率在4.8 kb/s以下)因其广泛的需求而得到研究者的重视。 语音编码器的性能常常用比特率、延时、复杂度和质量4个属性来进行衡量,因此,在分析语音编码器的性能时,主要应该考虑这些属性。值得注意的是,这些属性之间不是孤立的,而是相互紧密联系的,例如,低比特率的编码器一般比高比特率的编码器有更大的延时、更高的算法复杂度和较低的语音质量。因此在对各种编码算法进

  高精度数字式移相发生器的设计 /

  从移动支付到共享经济, 大数据 正在加速重塑着大众生活的诸多方面;从万物互联到智慧城市,大数据正在深刻影响着经济发展、社会治理、国家管理的各个领域。了解大数据、掌握大数据、运用大数据,这是当下的现实课题,更意味对未来的判断和引领。   大数据正在得到空前重视。2017年底,习在中央政治局第二次集体学习时强调,推动实施国家大数据战略,加快完善数字基础设施,推进数据资源整合和开放共享,保障数据安全,加快建设数字中国。最近一年来,贵州、海南、四川等地陆续发布促进大数据发展工作方案或相关地方法规,以促进和保障大数据发展有序推进,各类便民应用层出,产业集聚明显加快。     我国大数据发展现状如何—数据应用是否发挥应有效果

  一、EMIF 总线概述 外部存储器总线(EMIF, External Memory Interface)总线是京微雅格(CME)的8051硬核与FPGA之间的并行8位总线个,分别为: memaddr :23位地址总线M地址空间; memdatao :8位数据输出总线; memdatai :8位数据输入总线; memrd:总线读信号; memwr:总线写信号; memack:总线应答信号; 与EMIF操作时序有关的8051的内部寄存器为CKCON寄存器,一般8051的初始化程序需要在主函数的初始化更改该寄存器的初始化值,以实现最快的总线、EMIF 总线相关的

  中国正专注于一系列核心的最佳实践,激励各行各业积极试点和采用AI,用于独特的使用场景,从而扩大其在全球AI界的领先地位。 由于蓬勃发展的创业环境,美国按活跃玩家份额这个指标排名位列第二。 中国的《新一代 人工智能 发展规划》于2017年启动,正取得累累硕果,已成为让全民族备感自豪的话题。 波士顿咨询集团(BCG)发现,AI正迅速对关键行业产生影响,而许多国家打造治理和发展框架的能力跟不上步伐。 波士顿咨询集团上个月初发表了题为《AI差距:领导力造就不凡》的研究报告,深入揭示了中国日益成为全球AI界的领导者。波士顿的研究着重于分析确保AI实施成功的几个关键要素,基于对7个国家2700多名管理人员的全球性调查。 研究发现,这与积

  界? /

  联发科共同执行长蔡力行于6月1日正式上任。 其上任后的一大重点目标,是促使联发科在人工智能的布局执行更加完善。该公司目前正致力于在旗下的SoC中,建立人工智能技术,以使其能顺利在终端装置上运作。 蔡力行表示,过去在晶圆代工产业做了很多年,后来到了中华电信则是着重在电信业的科技服务业,主要是在产业的上游和下游,很高兴如今有了机会能够到芯片产品公司打拼,随着联发科在人工智能布局的展开,希望我的加入能让执行面更加完善。 蔡力行分析,如何将人工智能从科学(Science)变为技术(Technology),会是一大重点。 人工智能本身并不是产品,要实际到应用程度才会变成产品,我们正致力将这样的人工智能技术建立起来,并放到不同的装置上。 联发

  4 月 8 日消息,据韩国电子行业媒体 TheElec 报道,三星电子成功拿下了英伟达的 2.5D 封装订单。消息人士透露,三星的先进封装 (AP) 团队将为英伟达提供 Interposer(中间层)和 I-Cube,这是其自主研发的 2.5D 封装技术,高带宽内存 (HBM) 和 GPU 晶圆的生产将由其他公司负责。 据IT之家了解,2.5D 封装技术可以将多个芯片,例如 CPU、GPU、I / O 接口、HBM 等,水平放置于中间层上。台积电将这种封装技术称为 CoWoS,而三星则称之为 I-Cube。英伟达的 A100 和 H100 系列 GPU 以及英特尔的 Gaudi 系列都采用了这种封装技术。 三星从去年开始积极争取

  -24页

  算法(卷2)-受大自然启发的算法

  嵌入式系统软硬件协同设计教程:基于Xilinx Zynq-7000 (符意德)

  芯片设计——CMOS模拟集成电路设计与仿真实例:基于Cadence IC 617

  Follow me第二季第3期来啦!与得捷一起解锁高性能开发板【EK-RA6M5】超能力!

  罗彻斯特有奖调查:元器件日期代码限制是否仍然适用?70+份奖品先到先得!

  Littelfuse 新品赋能电子产品安全可靠并高效, 10+挑战等你探索!

  i MX RT700系列提供了高性能、高集成度、先进功能和高能效的优化组合,为支持智能AI的边缘端设备赋能,例如可穿戴设备、消费电子医疗设备 ...

  在物联网设备和嵌入式系统逐渐普及的今天,TinyML 作为一种新兴的机器学习技术,越来越受到研究者和开发者的关注。TinyML 旨在将智能模型 ...

  2024年10月9日,MediaTek举办 2024天玑旗舰芯片新品发布会,正式发布旗舰 5G 智能体 AI 芯片天玑 9400。发布会上,MediaTek回顾了天 ...

  2024 年10月9日 – MediaTek发布旗舰5G智能体AI芯片天玑9400,凭借先进的第二代全大核架构设计、强力升级的GPU和NPU处理器,带来一 ...

  新能源汽车电池模组是电动汽车动力电池系统中的一个关键组成部分,它是将多个电池单体(电芯)通过串并联的方式组合在一起,形成具有一定电 ...

九游体育人工智能芯片:发展史、CPU、FPGA和专用集成电路(图1)

  站点相关:嵌入式处理器嵌入式操作系统开发相关FPGA/DSP总线与接口数据处理消费电子工业电子汽车电子其他技术存储技术综合资讯论坛电子百科




上一篇 : AI精选(199)-人工智能领域内的最新进展:诺贝九游体育尔