通俗易懂告诉你CPU/GPU/TPU/NPU...都是什么意思? - CSDN ...
文章推薦指數: 80 %
前言:现在这年代,技术日新月异,物联网、人工智能、深度学习等概念遍地开花,各类芯片名词GPU, TPU, NPU,DPU层出不穷…它们都是什么鬼?与CPU又是 ...
通俗易懂告诉你CPU/GPU/TPU/NPU...都是什么意思?
耐心的小黑
于 2020-09-2617:26:55 发布
5310
收藏
39
分类专栏:
数字IC踩坑中
文章标签:
芯片
人工智能
原文链接:https://www.sohu.com/a/200698604_160923?spm=smpc.content.share.1.1601107039823dApVwBs#comment_area
版权
数字IC踩坑中
专栏收录该内容
9篇文章
3订阅
订阅专栏
前言:
现在这年代,技术日新月异,物联网、人工智能、深度学习等概念遍地开花,各类芯片名词GPU,TPU,NPU,DPU层出不穷…它们都是什么鬼?与CPU又是什么关系?
一、CPU
CPU(CentralProcessingUnit,中央处理器)就是机器的“大脑”,也是布局谋略、发号施令、控制行动的“总司令官”。
CPU的结构主要包括运算器(ALU,ArithmeticandLogicUnit)、控制单元(CU,ControlUnit)、寄存器(Register)、高速缓存器(Cache)和它们之间通讯的数据、控制及状态的总线。
简单来说就是:计算单元、控制单元和存储单元,架构如下图所示:
从字面上我们也很好理解,计算单元主要执行算术运算、移位等操作以及地址运算和转换;存储单元主要用于保存运算中产生的数据以及指令等;控制单元则对指令译码,并且发出为完成每条指令所要执行的各个操作的控制信号。
所以一条指令在CPU中执行的过程是这样的:读取到指令后,通过指令总线送到控制器(黄色区域)中进行译码,并发出相应的操作控制信号;然后运算器(绿色区域)按照操作指令对数据进行计算,并通过数据总线将得到的数据存入数据缓存器(大块橙色区域)。
过程如下图所示:是不是有点儿复杂?没关系,这张图完全不用记住,我们只需要知道,CPU遵循的是冯诺依曼架构,其核心就是:存储程序,顺序执行。
讲到这里,有没有看出问题,没错——在这个结构图中,负责计算的绿色区域占的面积似乎太小了,而橙色区域的缓存Cache和黄色区域的控制单元占据了大量空间。
高中化学有句老生常谈的话叫:结构决定性质,放在这里也非常适用。
因为CPU的架构中需要大量的空间去放置存储单元(橙色部分)和控制单元(黄色部分),相比之下计算单元(绿色部分)只占据了很小的一部分,所以它在大规模并行计算能力上极受限制,而更擅长于逻辑控制。
另外,因为遵循冯诺依曼架构(存储程序,顺序执行),CPU就像是个一板一眼的管家,人们吩咐的事情它总是一步一步来做。
但是随着人们对更大规模与更快处理速度的需求的增加,这位管家渐渐变得有些力不从心。
于是,大家就想,能不能把多个处理器放在同一块芯片上,让它们一起来做事,这样效率不就提高了吗?没错,GPU便由此诞生了。
二、GPU
在正式讲解GPU之前,我们先来讲讲上文中提到的一个概念——并行计算。
并行计算(ParallelComputing)是指同时使用多种计算资源解决计算问题的过程,是提高计算机系统计算速度和处理能力的一种有效手段。
它的基本思想是用多个处理器来共同求解同一问题,即将被求解的问题分解成若干个部分,各部分均由一个独立的处理机来并行计算。
并行计算可分为时间上的并行和空间上的并行。
时间上的并行是指流水线技术,比如说工厂生产食品的时候分为四步:清洗-消毒-切割-包装。
如果不采用流水线,一个食品完成上述四个步骤后,下一个食品才进行处理,耗时且影响效率。
但是采用流水线技术,就可以同时处理四个食品。
这就是并行算法中的时间并行,在同一时间启动两个或两个以上的操作,大大提高计算性能。
空间上的并行是指多个处理机并发的执行计算,即通过网络将两个以上的处理机连接起来,达到同时计算同一个任务的不同部分,或者单个处理机无法解决的大型问题。
比如小李准备在植树节种三棵树,如果小李1个人需要6个小时才能完成任务,植树节当天他叫来了好朋友小红、小王,三个人同时开始挖坑植树,2个小时后每个人都完成了一颗植树任务,这就是并行算法中的空间并行,将一个大任务分割成多个相同的子任务,来加快问题解决速度。
所以说,如果让CPU来执行这个种树任务的话,它就会一棵一棵的种,花上6个小时的时间,但是让GPU来种树,就相当于好几个人同时在种。
GPU全称为GraphicsProcessingUnit,中文为图形处理器,就如它的名字一样,GPU最初是用在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上运行绘图运算工作的微处理器。
为什么GPU特别擅长处理图像数据呢?这是因为图像上的每一个像素点都有被处理的需要,而且每个像素点处理的过程和方式都十分相似,也就成了GPU的天然温床。
GPU简单架构如下图所示:从架构图我们就能很明显的看出,GPU的构成相对简单,有数量众多的计算单元和超长的流水线,特别适合处理大量的类型统一的数据。
但GPU无法单独工作,必须由CPU进行控制调用才能工作。
CPU可单独作用,处理复杂的逻辑运算和不同的数据类型,但当需要大量的处理类型统一的数据时,则可调用GPU进行并行计算。
注:GPU中有很多的运算器ALU和很少的缓存cache,缓存的目的不是保存后面需要访问的数据的,这点和CPU不同,而是为线程thread提高服务的。
如果有很多线程需要访问同一个相同的数据,缓存会合并这些访问,然后再去访问dram。
再把CPU和GPU两者放在一张图上看下对比,就非常一目了然了。
GPU的工作大部分都计算量大,但没什么技术含量,而且要重复很多很多次。
借用知乎上某大神的说法,就像你有个工作需要计算几亿次一百以内加减乘除一样,最好的办法就是雇上几十个小学生一起算,一人算一部分,反正这些计算也没什么技术含量,纯粹体力活而已;而CPU就像老教授,积分微分都会算,就是工资高,一个老教授资顶二十个小学生,你要是富士康你雇哪个?
GPU就是用很多简单的计算单元去完成大量的计算任务,纯粹的人海战术。
这种策略基于一个前提,就是小学生A和小学生B的工作没有什么依赖性,是互相独立的。
但有一点需要强调,虽然GPU是为了图像处理而生的,但是我们通过前面的介绍可以发现,它在结构上并没有专门为图像服务的部件,只是对CPU的结构进行了优化与调整,所以现在GPU不仅可以在图像处理领域大显身手,它还被用来科学计算、密码破解、数值分析,海量数据处理(排序,Map-Reduce等),金融分析等需要大规模并行计算的领域。
所以GPU也可以认为是一种较通用的芯片。
三、TPU
按照上文所述,CPU和GPU都是较为通用的芯片,但是有句老话说得好:万能工具的效率永远比不上专用工具。
随着人们的计算需求越来越专业化,人们希望有芯片可以更加符合自己的专业需求,这时,便产生了ASIC(专用集成电路)的概念。
ASIC是指依产品需求不同而定制化的特殊规格集成电路,由特定使用者要求和特定电子系统的需要而设计、制造。
当然这概念不用记,简单来说就是定制化芯片。
因为ASIC很“专一”,只做一件事,所以它就会比CPU、GPU等能做很多件事的芯片在某件事上做的更好,实现更高的处理速度和更低的能耗。
但相应的,ASIC的生产成本也非常高。
而TPU(TensorProcessingUnit,张量处理器)就是谷歌专门为加速深层神经网络运算能力而研发的一款芯片,其实也是一款ASIC。
一般公司是很难承担为深度学习开发专门ASIC芯片的成本和风险的,但谷歌是谁,人家会差钱吗?
咳咳,开玩笑。
更重要的原因是谷歌提供的很多服务,包括谷歌图像搜索、谷歌照片、谷歌云视觉API、谷歌翻译等产品和服务都需要用到深度神经网络。
基于谷歌自身庞大的体量,开发一种专门的芯片开始具备规模化应用(大量分摊研发成本)的可能。
如此看来,TPU登上历史舞台也顺理成章了。
原来很多的机器学习以及图像处理算法大部分都跑在GPU与FPGA(半定制化芯片)上面,但这两种芯片都还是一种通用性芯片,所以在效能与功耗上还是不能更紧密的适配机器学习算法,而且Google一直坚信伟大的软件将在伟大的硬件的帮助下更加大放异彩,所以Google便想,我们可不可以做出一款专用于机器学习算法的专用芯片,TPU便诞生了。
据称,TPU与同期的CPU和GPU相比,可以提供15-30倍的性能提升,以及30-80倍的效率(性能/瓦特)提升。
初代的TPU只能做推理,要依靠Google云来实时收集数据并产生结果,而训练过程还需要额外的资源;而第二代TPU既可以用于训练神经网络,又可以用于推理。
看到这里你可能会问了,为什么TPU会在性能上这么牛逼呢?嗯,谷歌写了好几篇论文和博文来说明这一原因,所以仅在这里抛砖引玉一下。
如上图所示,TPU在芯片上使用了高达24MB的局部内存,6MB的累加器内存以及用于与主控处理器进行对接的内存,总共占芯片面积的37%(图中蓝色部分)。
这表示谷歌充分意识到了片外内存访问是GPU能效比低的罪魁祸首,因此不惜成本的在芯片上放了巨大的内存。
相比之下,英伟达同时期的K80只有8MB的片上内存,因此需要不断地去访问片外DRAM。
另外,TPU的高性能还来源于对于低运算精度的容忍。
研究结果表明,低精度运算带来的算法准确率损失很小,但是在硬件实现上却可以带来巨大的便利,包括功耗更低、速度更快、占芯片面积更小的运算单元、更小的内存带宽需求等…TPU采用了8比特的低精度运算。
其它更多的信息可以去翻翻谷歌的论文。
到目前为止,TPU其实已经干了很多事情了,例如机器学习人工智能系统RankBrain,它是用来帮助Google处理搜索结果并为用户提供更加相关搜索结果的;还有街景StreetView,用来提高地图与导航的准确性的;当然还有下围棋的计算机程序AlphaGo!
四、NPU
所谓NPU(NeuralnetworkProcessingUnit),即神经网络处理器。
顾名思义,这家伙是想用电路模拟人类的神经元和突触结构啊!
怎么模仿?那就得先来看看人类的神经结构——生物的神经网络由若干人工神经元结点互联而成,神经元之间通过突触两两连接,突触记录了神经元之间的联系。
同志们,高中生物还记得吗?
如果想用电路模仿人类的神经元,就得把每个神经元抽象为一个激励函数,该函数的输入由与其相连的神经元的输出以及连接神经元的突触共同决定。
为了表达特定的知识,使用者通常需要(通过某些特定的算法)调整人工神经网络中突触的取值、网络的拓扑结构等。
该过程称为“学习”。
在学习之后,人工神经网络可通过习得的知识来解决特定的问题。
这时不知道大家有没有发现问题——原来,由于深度学习的基本操作是神经元和突触的处理,而传统的处理器指令集(包括x86和ARM等)是为了进行通用计算发展起来的,其基本操作为算术操作(加减乘除)和逻辑操作(与或非),往往需要数百甚至上千条指令才能完成一个神经元的处理,深度学习的处理效率不高。
这时就必须另辟蹊径——突破经典的冯·诺伊曼结构!
神经网络中存储和处理是一体化的,都是通过突触权重来体现。
而冯·诺伊曼结构中,存储和处理是分离的,分别由存储器和运算器来实现,二者之间存在巨大的差异。
当用现有的基于冯·诺伊曼结构的经典计算机(如X86处理器和英伟达GPU)来跑神经网络应用时,就不可避免地受到存储和处理分离式结构的制约,因而影响效率。
这也就是专门针对人工智能的专业芯片能够对传统芯片有一定先天优势的原因之一。
NPU的典型代表有国内的寒武纪芯片和IBM的TrueNorth。
以中国的寒武纪为例,DianNaoYu指令直接面对大规模神经元和突触的处理,一条指令即可完成一组神经元的处理,并对神经元和突触数据在芯片上的传输提供了一系列专门的支持。
用数字来说话,CPU、GPU与NPU相比,会有百倍以上的性能或能耗比差距——以寒武纪团队过去和Inria联合发表的DianNao论文为例——DianNao为单核处理器,主频为0.98GHz,峰值性能达每秒4520亿次神经网络基本运算,65nm工艺下功耗为0.485W,面积3.02平方毫米mm。
文章开头所说的mate10中所用的麒麟970芯片,就集成了寒武纪的NPU,所以才可以实现所谓的照片优化功能,以及保证你的手机用了很长时间后还能不卡(当然也得真正用了才能知道有没有宣传的这么好)。
五、其他XPU
BPU(BrainProcessingUnit,大脑处理器)是由地平线科技提出的嵌入式人工智能处理器架构。
第一代是高斯架构,第二代是伯努利架构,第三代是贝叶斯架构。
目前地平线已经设计出了第一代高斯架构,并与英特尔在2017年CES展会上联合推出了ADAS系统(高级驾驶辅助系统)。
DPU(DeeplearningProcessingUnit,即深度学习处理器)最早由国内深鉴科技提出,基于Xilinx可重构特性的FPGA芯片,设计专用的深度学习处理单元(可基于已有的逻辑单元,设计并行高效的乘法器及逻辑电路,属于IP范畴),且抽象出定制化的指令集和编译器(而非使用OpenCL),从而实现快速的开发与产品迭代。
事实上,深鉴提出的DPU属于半定制化的FPGA。
你以为到这里就完了吗?不,据说每过18天,集成电路领域就会多出一个XPU,直到26个字母被用完。
这被戏称为AI时代的XPU版摩尔定律。
据不完全统计,已经被用掉的有:
APU–AcceleratedProcessingUnit,加速处理器,AMD公司推出加速图像处理芯片产品。
BPU–BrainProcessingUnit,地平线公司主导的嵌入式处理器架构。
CPU–CentralProcessingUnit中央处理器,目前PCcore的主流产品。
DPU–DeeplearningProcessingUnit,深度学习处理器,最早由国内深鉴科技提出;另说有DataflowProcessingUnit数据流处理器,WaveComputing公司提出的AI架构;DatastorageProcessingUnit,深圳大普微的智能固态硬盘处理器。
FPU–FloatingProcessingUnit浮点计算单元,通用处理器中的浮点运算模块。
GPU–GraphicsProcessingUnit,图形处理器,采用多线程SIMD架构,为图形处理而生。
HPU–HolographicsProcessingUnit全息图像处理器,微软出品的全息计算芯片与设备。
IPU–IntelligenceProcessingUnit,DeepMind投资的Graphcore公司出品的AI处理器产品。
MPU/MCU–Microprocessor/MicrocontrollerUnit,微处理器/微控制器,一般用于低计算应用的RISC计算机体系架构产品,如ARM-M系列处理器。
NPU–NeuralNetworkProcessingUnit,神经网络处理器,是基于神经网络算法与加速的新型处理器总称,如中科院计算所/寒武纪公司出品的diannao系列。
RPU–RadioProcessingUnit,无线电处理器,ImaginationTechnologies公司推出的集合集Wifi/蓝牙/FM/处理器为单片的处理器。
TPU–TensorProcessingUnit张量处理器,Google公司推出的加速人工智能算法的专用处理器。
目前一代TPU面向Inference,二代面向训练。
VPU–VectorProcessingUnit矢量处理器,Intel收购的Movidius公司推出的图像处理与人工智能的专用芯片的加速计算核心。
WPU–WearableProcessingUnit,可穿戴处理器,InedaSystems公司推出的可穿戴片上系统产品,包含GPU/MIPSCPU等IP。
**XPU**--百度与Xilinx公司在2017年Hotchips大会上发布的FPGA智能云加速,含256核。
ZPU–ZylinProcessingUnit,由挪威Zylin公司推出的一款32位开源处理器。
当26个字母被用完后,即将出现XXPU,XXXPU,并以更快的速度占领起名界。
耐心的小黑
关注
关注
7
点赞
踩
0
评论
39
收藏
扫一扫,分享内容
点击复制链接
专栏目录
寒武纪NPU介绍
01-17
寒武纪公司及产品NPU介绍,包括发展历史,产品规格,能力等。
深度学习中,CPU、GPU、NPU、FPGA如何发挥优势?
molixuebeibi的博客
06-13
6571
随着AI的广泛应用,深度学习已成为当前AI研究和运用的主流方式。
面对海量数据的并行运算,AI对于算力的要求不断提升,对硬件的运算速度及功耗提出了更高的要求。
目前,除通用CPU外,作为硬件加速的GPU、NPU、FPGA等一些芯片处理器在深度学习的不同应用中发挥着各自的优势,但孰优孰劣?
以人脸识别为例,其处理基本流程及对应功能模块所需的算力分布如下:
为什么会有这样的应用区分?
意义在哪里?
想...
参与评论
您还未登录,请先
登录
后发表或查看评论
CPU,GPU,TPU,NPU都是什么?
热门推荐
冷色调的夏天的博客
09-28
13万+
CPU,GPU,TPU,NPU都是什么?
什么是CPU?
中央处理器(CPU),是电子计算机的主要设备之一,电脑中的核心配件。
其功能主要是解释计算机指令以及处理计算机软件中的数据。
CPU是计算机中负责读取指令,对指令译码并执行指令的核心部件。
中央处理器主要包括两个部分,即控制器、运算器,其中还包括高速及实现它们缓冲处理器之间联系的数据、控制的总线。
电子计算机三大核心部件就是CPU、内部存储...
深度学习_硬件知识_CPU/GPU/TPU/NPU相关知识及区别详解
Rocky6688的博客
07-10
2443
CPU
CPU英文全称为CentralProcessingUnit,中文全称是中央处理器,是计算机的核心器件,CPU通常由三部分组成:计算单元、控制单元和存储单元。
CPU的结构主要包括运算器(ALU,ArithmeticandLogicUnit)、控制单元(CU,ControlUnit)、寄存器(Register)、高速缓存器(Cache)和它们之间通讯的数据、控制及状态的总线。
结构图如下所示:
具体各个模块的功能简单如下所示:
GPU
GPU全称GraphicsProcessin
手机芯片里的NPU到底是什么?看完这篇终于懂了
嵌入式资讯精选
02-15
4301
21世纪初的科幻电影中,AI总是作为机器人的形象出现,电影中的人工智能几乎“无所不能”,用脑洞大开的想象力为我们演绎充满科技感的未来世界。
不过回到现实世界,AI虽然还没有实现科幻大片中的...
芯片里的CPU、GPU、NPU是什么,它们是如何工作的
红目香薰
03-27
1081
众所周知,随着智能手机的流行,越来越多的人都知道了手机芯片的相关知识,更是知道了CPU、GPU、NPU等等“深奥”的知识点。
不过也有人只知道手机芯片中有CPU、GPU、有NPU,但这三种东西究竟是什么,它们是怎么工作的还是不太懂,所以今天来聊一聊这个问题。
我们知道手机芯片和电脑的CPU是不一样的,手机芯片叫做Soc,是集成了很多的东西的,CPU、GPU、NPU就是代表。
拿麒麟9905G版来举例说明,在CPU方面共有8核心,分别是两颗2.86GHz的A76架构大核,两颗2.36GHz的A76架构.
CPU、GPU、TPU、NPU等到底是什么
Ongoing的博客
10-31
3425
GPU即图形处理器,GraphicsProcessingUnit的缩写。
CPU即中央处理器,CentralProcessingUnit的缩写。
TPU即谷歌的张量处理器,TensorProcessingUnit的缩写。
三者区别:
CPU虽然有多核,但一般也就几个,每个核都有足够大的缓存和足够多的数字和逻辑运算单元,需要很强的通用性来处理各种不同的数据类型,同时又要逻辑判断又会引入大量的分支跳转和中断的处理,并辅助有很多加速分支判断甚至更复杂的逻辑判断的硬件;
GPU的核数远超CPU,被称为众
GPU,NPU,MPU,SoC区别
jiaqi_ge的博客
01-05
2394
GPU,图形处理器,又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。
GPU的构成相对简单,但无法单独工作,必须由CPU进行控制调用才能工作。
CPU可单独作用,处理复杂的逻辑运算和不同的数据类型,但当需要大量的处理类型统一的数据时,则可调用GPU进行并行计算,目前主要生产商是NVIDIA。
NPUNeuralNetworkProcessingUnit,神经网络处理器,是基于神经网络算法与加速的新型处理
CPU/GPU/TPU/NPU
qq_40723205的博客
12-08
54
CPU
CPU英文全称是CentralProcessingUnit,中文全称是中央处理器,是计算机的核心器件,CPU通常由三个部分组成:计算单元、控制单元和存储单元。
GPU
GPU全称是GraphicsProcessingUnit,中文全称叫图形处理器,它也是由三个部分组成:计算单元、控制单元和存储单元。
CPU这边起码30%都是用在了控制单元,各个单元占比还算均衡,而GPU就夸张了,80%以上都用在了计算单元,偏科有点严重啊。
正是由于这种区别,导致CPU精于控制和复杂运算,而
8051-Micro_Controller:在这里,您可以获得8051微控制器的代码,
03-26
8051-Micro_Controller
在这里,您可以获得8051微控制器的代码,
【机器学习】显卡、GPU、NVIDIA、CUDA、cuDNN
weixin_44211968的博客
01-05
1191
文章目录一、显卡和GPU1.显卡是什么?2.GPU是什么?(1)GPU和显卡的关系(2)GPU的由来与发展二、CUDA1.CUDA是什么?2.为什么推出CUDA?三、cuDNN1.什么是cuDNN2.CUDA与cuDNN的关系四、NVIDIA参考链接
一、显卡和GPU
1.显卡是什么?
显卡是显示卡的简称,显卡是由GPU、显存等等组成的。
显卡(Videocard,Graphicscard)全称显示接口卡,又称显示适配器,是计算机最基本配置、最重要的配件之一。
就像电脑联网需要网卡,主.
GPU和显卡是什么关系
大西瓜不甜的博客
04-16
4869
GPU就是图像处理芯片,外表与CPU有点相似。
显卡的芯片,AMD的一个技术,相当于电脑的处理器CPU,只不过它是显卡的大脑或心脏。
GPU是显卡的核心,显卡,则是由GPU、显存、电路板,还有BIOS固件组成的,所以GPU不等于显卡。
GPU只是显卡上的一个核心处理芯片,是显卡的心脏,不能单独作为外接扩展卡使用,GPU因并行计算任务较重,所以功耗较大,只能焊接在显卡的电路板上使用。
...
APU~ZPU全掌握!
最新发布
HackEle的博客
01-21
60
本文来自IP与SOC设计最近各种PU(processingunit)的概念层出不穷,比较火热。
今天我们来大致看看,这些XPU都是些什么?什么是CPU?中央处理器(CentralProc...
AI芯片,APU/BPU/CPU/DPU/FPU/HPU/GPU/TPU/NPU/MPU/MCU/VPU/的区别
打怪升级ing
07-09
8206
APU--AcceleratedProcessingUnit,加速处理器,AMD公司推出加速图像处理芯片产品。
BPU--BrainProcessingUnit,地平线公司主导的嵌入式处理器架构。
CPU--CentralProcessingUnit中央处理器,目前PCcore的主流产品。
DPU--DeeplearningProcessingUn...
(转)CPU/GPU/TPU/NPU傻傻分不清楚
xuhao0258的博客
07-12
358
1
GPUCPUNPU
shmilyforyq的博客
05-11
5499
随着人工智能和深度学习逐渐进入人们视野,中科院、谷歌、IBM、英伟达等中美科研机构和商业公司也纷纷推出了用于深度学习的处理器。
在上述产品中,既有CPU、GPU、DSP这样的传统芯片,也有专门为深度学习而生的NPU。
那么,CPU、GPU、DSP、NPU等深度学习处理器各有什么特点,这些深度学习处理器谁更出彩呢?CPU、GPU、DSP:以现有的技术进行微调 在英伟达开发出针对人工智能的定制GPU,
什么是CPU,GPU,TPU,DPU,NPU,BPU
weixin_34335458的博客
02-23
816
2019独角兽企业重金招聘Python工程师标准>>>
...
©️2022CSDN
皮肤主题:数字20
设计师:CSDN官方博客
返回首页
耐心的小黑
CSDN认证博客专家
CSDN认证企业博客
码龄5年
西安交通大学
259
原创
1万+
周排名
3675
总排名
87万+
访问
等级
8883
积分
932
粉丝
1074
获赞
251
评论
5084
收藏
私信
关注
热门文章
pytorch学习笔记七:torchvision.datasets.ImageFolder使用详解
31022
pytorch学习笔记五:pytorch中reshape、view以及resize_之间的区别
25329
opencv学习笔记三:使用cv2.GetAffineTransform()实现图像仿射
16151
opencv学习笔记九:使用cv2.erode()和cv2.dilate()实现图像的腐蚀和膨胀
15071
二进制与格雷码互相转换
12681
分类专栏
FPGA/Vivado学习笔记
20篇
HLS高层次综合
2篇
ZYNQ学习笔记
4篇
FPGA图像处理
9篇
瞄一眼AI
15篇
数字IC踩坑中
9篇
时序分析与约束
11篇
chisel学习笔记
30篇
EDA工具
4篇
CPU/SOC
4篇
RISC-V
4篇
Verilog基础
11篇
前端设计基础
28篇
前端设计进阶
20篇
SystemVerilog学习笔记
4篇
C++学习笔记
1篇
项目笔记
21篇
Linux基础学习笔记
12篇
Linux驱动开发学习笔记
25篇
机器学习笔记
7篇
深度学习基础与算法
3篇
TensorFlow2.x学习笔记
31篇
PyTorch学习笔记
17篇
Python基础学习
16篇
OpenCV-Python学习笔记
24篇
python数据处理
3篇
树莓派4b学习笔记
7篇
最新评论
树莓派4b学习笔记六:以源码编译的方式安装Paddlelite
sdjxcolin:
https://www.cnblogs.com/sdjxcolin/p/15981285.html
仿真工具-NC-Verilog使用教程
爱敲代码的陈同学:
牛客上也有verilog刷题:https://www.nowcoder.com/exam/oj?tab=Verilog%E7%AF%87&topicId=301&sfm=cx&channel=csdn&fromPut=pc_csdn_verilog_comments
XilinxZYNQ简介
littlepureist:
谢谢大佬!解决了我的困惑
AHB协议的verilog实现(无等待/单次传输)
谁展开了我的泰勒公式:
博主我有两个问题:
1.为什么激励文件中地址输入的0000_0000,4000_0004,8000_0008,c000_000c,仿真却是1073741828啥的
2.为什么我仿真出来dout都是1而不是1234呢
VivadoROMIP核的使用
幽窗烟绿:
请问我第一步找不到ROMIP核,是什么原因?
您愿意向朋友推荐“博客详情页”吗?
强烈不推荐
不推荐
一般般
推荐
强烈推荐
提交
最新文章
不同相频关系时钟的跨时钟域问题
时序分析中的短路径问题
系统如何进行面积优化和速度优化?
2022年2篇
2021年122篇
2020年197篇
目录
目录
分类专栏
FPGA/Vivado学习笔记
20篇
HLS高层次综合
2篇
ZYNQ学习笔记
4篇
FPGA图像处理
9篇
瞄一眼AI
15篇
数字IC踩坑中
9篇
时序分析与约束
11篇
chisel学习笔记
30篇
EDA工具
4篇
CPU/SOC
4篇
RISC-V
4篇
Verilog基础
11篇
前端设计基础
28篇
前端设计进阶
20篇
SystemVerilog学习笔记
4篇
C++学习笔记
1篇
项目笔记
21篇
Linux基础学习笔记
12篇
Linux驱动开发学习笔记
25篇
机器学习笔记
7篇
深度学习基础与算法
3篇
TensorFlow2.x学习笔记
31篇
PyTorch学习笔记
17篇
Python基础学习
16篇
OpenCV-Python学习笔记
24篇
python数据处理
3篇
树莓派4b学习笔记
7篇
实付元
使用余额支付
点击重新获取
扫码支付
钱包余额
0
抵扣说明:
1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。
余额充值
延伸文章資訊
- 1通俗易懂告訴你CPU/GPU/TPU/NPU...XPU都是些什麼鬼?
現在這年代,技術日新月異,物聯網、人工智慧、深度學習等概念遍地開花,各類晶片名詞GPU, TPU, NPU,DPU層出不窮......它們都是什麼鬼?與CPU又是 ...
- 2CPU/GPU/NPU/TPU/MPU/MCU/SOC/DSP/具体是指什么?
在很多专业的演讲里面,我们经常听到人们讲CPU/GPU/NPU等,即便对工程师而言,未必对它们都了如.
- 3CPU、GPU、TPU、NPU等到底是什么? - 网络
CPU即中央处理器(Central Processing Unit); GPU即图形处理器(Graphics Processing Unit); TPU即谷歌的张量处理器(Tensor Proc...
- 4晶片裡面的CPU、GPU、NPU究竟是什麼,它們是怎麼工作的?
我們知道手機晶片和電腦的CPU是不一樣的,手機晶片叫做Soc,是集成了很多的東西的,CPU、GPU、NPU就是代表。 拿麒麟990 ...
- 5【总结】NPU/CPU/GPU 傻傻分不清? - CSDN博客
芯片里面的CPU、GPU、NPU究竟是什么,它们是怎么工作的?