淘姐妹

淘姐妹

ict行业的理解 ict技术未来趋势

手机 0
ICT行业的事情,ict行业的岗位有哪些,ict行业前景,ict行业发展现状
机智的饺子Jon
2023-05-12 08:56 ・上海

这两年,算力可以说是ICT行业的一个热门概念。在新闻报道和大咖演讲中,总会出现它的身影。

那么,究竟到底什么是算力?算力包括哪些类别,分别有什么用途?目前,全球算力正处于怎样的发展状态?

打开网易新闻 查看精彩图片

一、什么是算力

算力的字面意思,大家都懂,就是计算能力(Computing Power)。

更具体来说,算力是通过对信息数据进行处理,实现目标结果输出的计算能力

我们人类,其实就具备这样的能力。在我们的生命过程中,每时每刻都在进行着计算。我们的大脑,就是一个强大的算力引擎。

大部分时间里,我们会通过口算、心算进行无工具计算。但是,这样的算力有点低。所以,在遇到复杂情况时,我们会利用算力工具进行深度计算。

远古时期,我们的原始工具是草绳、石头。后来,随着文明的进步,我们有了算筹(一种用于计算的小棍子)、算盘等更为实用的算力工具,算力水平不断提升。

到了20世纪40年代,我们迎来了算力革命。

1946年2月,世界上第一台数字式电子计算机ENIAC诞生,标志着人类算力正式进入了数字电子时代。

打开网易新闻 查看精彩图片

ENIAC,1946年

再后来,随着半导体技术的出现和发展,我们又进入了芯片时代。芯片成为了算力的主要载体。

打开网易新闻 查看精彩图片

世界上第一个集成电路(芯片),1958年

时间继续推移。

到了20世纪70年代-80年代,芯片技术在摩尔定律的支配下,已经取得了长足进步。芯片的性能不断提升,体积不断减小。终于,计算机实现了小型化,PC(个人电脑)诞生了。

打开网易新闻 查看精彩图片

世界上第一台PC(IBM5150),1981年

PC的诞生,意义极为深远。它标志着IT算力不再仅为少数大型企业服务(大型机),而是昂首走向了普通家庭和中小企业。它成功打开了全民信息时代的大门,推动了整个社会的信息化普及。

在PC的帮助下,人们充分感受到IT算力带来的生活品质改善,以及生产效率提升。PC的出现,也为后来互联网的蓬勃发展奠定了基础。

进入21世纪后,算力再次迎来了巨变。

这次巨变的标志,是云计算技术的出现。

打开网易新闻 查看精彩图片

云计算,Cloud Computing

在云计算之前,人类苦于单点式计算(一台大型机或一台PC,独立完成全部的计算任务)的算力不足,已经尝试过网格计算(把一个巨大的计算任务,分解为很多的小型计算任务,交给不同的计算机完成)等分布式计算架构。

云计算,是分布式计算的新尝试。它的本质,是将大量的零散算力资源进行打包、汇聚,实现更高可靠性、更高性能、更低成本的算力。

具体来说,在云计算中,中央处理器(CPU)、内存、硬盘、显卡(GPU)等计算资源被集合起来,通过软件的方式,组成一个虚拟的可无限扩展的“算力资源池”。

用户如果有算力需求,“算力资源池”就会动态地进行算力资源的分配,用户按需付费。

相比于用户自购设备、自建机房、自己运维,云计算有明显的性价比优势。

打开网易新闻 查看精彩图片

云计算数据中心

算力云化之后,数据中心成为了算力的主要载体。人类的算力规模,开始新的飞跃。

二、算力的分类

云计算和数据中心之所以会出现,是因为信息化和数字化的不断深入,引发了整个社会强烈的算力需求。

这些需求,既有来自消费领域的(移动互联网、追剧、网购、打车、O2O等),也有来自行业领域的(工业制造、交通物流、金融证券、教育医疗等),还有来自城市治理领域的(智慧城市、一证通、城市大脑等)。

不同的算力应用和需求,有着不同的算法。不同的算法,对算力的特性也有不同要求。

通常,我们将算力分为两大类,分别是通用算力和专用算力

打开网易新闻 查看精彩图片

大家应该都听说过,负责输出算力的芯片,就有分为通用芯片和专用芯片。

像x86这样的CPU处理器芯片,就是通用芯片。它们能完成的算力任务是多样化的,灵活的,但是功耗更高。

而专用芯片,主要是指FPGA和ASIC。

FPGA,是可编程集成电路。它可以通过硬件编程来改变内部芯片的逻辑结构,但软件是深度定制的,执行专门任务。

ASIC,是专用集成电路。顾名思义,它是为专业用途而定制的芯片,其绝大部分软件算法都固化于硅片。

ASIC能完成特定的运算功能,作用比较单一,不过能耗很低。FPGA,介于通用芯片和ASIC之间。

打开网易新闻 查看精彩图片

我们以比特币挖矿为例。

以前,人们都是用PC(x86通用芯片)挖矿,后来越挖难度越大,算力不够。于是,开始使用显卡(GPU)去挖矿。再后来,显卡的能耗太高,挖出来的币值还抵不上电费,就开始采用FPGA和ASIC集群阵列挖矿。

在数据中心里,也对算力任务进行了对应划分,分为基础通用计算,以及HPC高性能计算(High-performance computing)。

HPC计算,又继续细分为三类:

  • 科学计算类:物理化学、气象环保、生命科学、石油勘探、天文探测等。
  • 工程计算类:计算机辅助工程、计算机辅助制造、电子设计自动化、电磁仿真等。
  • 智能计算类:即人工智能(AI,Artificial Intelligence)计算,包括:机器学习、深度学习、数据分析等。

科学计算和工程计算大家应该都听说过,这些专业科研领域的数据产生量很大,对算力的要求极高。

以油气勘探为例。油气勘探,简单来说,就是给地表做CT。一个项目下来,原始数据往往超过100TB,甚至可能超过1个PB。如此巨大的数据量,需要海量的算力进行支撑。

智能计算这个,我们需要重点说一下。

AI人工智能是目前全社会重点关注的发展方向。不管是哪个领域,都在研究人工智能的应用和落地。

人工智能的三大核心要素,就是算力、算法和数据。

打开网易新闻 查看精彩图片

大家都知道,AI人工智能是一个算力大户,特别“吃”算力。在人工智能计算中,涉及较多的矩阵或向量的乘法和加法,专用性较高,所以不适合利用CPU进行计算。

在现实应用中,人们主要用GPU和前面说的专用芯片进行计算。尤其是GPU,是目前AI算力的主力。

GPU虽然是图形处理器,但它的GPU核(逻辑运算单元)数量远超CPU, 适合把同样的指令流并行发送到众核上,采用不同的输入数据执行,从而完成图形处理或大数据处理中的海量简单操作。

因此,GPU更合适处理计算密集型、高度并行化的计算任务(例如AI计算)。

这几年,因为人工智能计算的需求旺盛,国家还专门建设了很多智算中心,也就是专门进行智能计算的数据中心。

除了智算中心之外,现在还有很多超算中心。超算中心里面,放的都是“天河一号”这样的超级计算机,专门承担各种大规模科学计算和工程计算任务。

我们平时看到的数据中心,基本上都属于云计算数据中心。

打开网易新闻 查看精彩图片

任务比较杂,基础通用计算和高性能计算都有,也有大量的异构计算(同时使用不同类型指令集的计算方式)。因为高性能计算的需求越来越多,所以专用计算芯片的比例正在逐步增加。

前几年逐渐开始流行起来的TPU、NPU和DPU等,其实都是专用芯片。

打开网易新闻 查看精彩图片

大家现在经常听说的“算力卸载”,其实不是删除算力,而是把很多计算任务(例如虚拟化、数据转发、压缩存储、加密解密等),从CPU转移到NPU、DPU等芯片上,减轻CPU的算力负担。

近年来,除了基础通用算力、智能算力、超算算力之外,科学界还出现了前沿算力的概念,主要包括量子计算、光子计算等,值得关注。

三、算力的衡量

算力既然是一个“能力”,当然就会有对它进行强弱衡量的指标和基准单位。大家比较熟悉的单位,应该是FLOPS、TFLOPS等。

其实,衡量算力大小的指标还有很多,例如MIPS、DMIPS、OPS等。

打开网易新闻 查看精彩图片

MFLOPS、GFLOPS、TFLOPS、PFLOPS等,都是FLOPS的不同量级。具体关系如下:

打开网易新闻 查看精彩图片

浮点数有FP16、FP32、FP64不同的规格

不同的算力载体之间,算力差异是非常巨大的。为了便于大家更好地理解这个差异,小枣君又做了一张算力对比表格:

打开网易新闻 查看精彩图片

前面我们提到了通用计算、智算和超算。从趋势上来看,智算和超算的算力增长速度远远超过了通用算力。

根据GIV的数据统计,到2030年,通用计算算力(FP32)将增长10倍,达到3.3 ZFLOPS。而AI智算算力(FP16),将增长500倍,达到105 ZFLOPS。

四、算力的现状与未来

早在1961年,“人工智能之父”约翰・麦卡锡就提出Utility Computing(效用计算)的目标。他认为:“有一天,计算可能会被组织成一个公共事业,就像电话系统是一个公共事业一样”。

如今,他的设想已经成为现实。在数字浪潮下,算力已经成为像水、电一样的公共基础资源,而数据中心和通信网络,也变成了重要的公共基础设施。

这是IT行业和通信行业辛苦奋斗大半个世纪的成果。

对于整个人类社会来说,算力早已不是一个技术维度的概念。它已经上升到经济学和哲学维度,成为了数字经济时代的核心生产力,以及全社会数智化转型的基石。

我们每个人的生活,还有工厂企业的运转,政府部门的运作,都离不开算力。在国家安全、国防建设、基础学科研究等关键领域,我们也需要海量的算力。

算力决定了数字经济发展速度,以及社会智能发展高度。

根据IDC、浪潮信息、清华大学全球产业研究院联合发布的数据显示,计算力指数平均每提高1点,数字经济和GDP将分别增长3.5‰和1.8‰。

打开网易新闻 查看精彩图片

全球各国的算力规模与经济发展水平,已经呈现出显著的正相关关系。一个国家的算力规模越大,经济发展水平就越高。

打开网易新闻 查看精彩图片

世界各国算力和GDP排名(来源:迟九虹,华为算力时代峰会演讲)

在算力领域,国家之间的竞争博弈日益激烈。

2020年,我国算力总规模达到135 EFLOPS,同比增长55%,超过全球增速约16个百分点。目前,我们的绝对算力,排名世界第二。

但是,从人均角度来看,我们并不占优势,仅处于中等算力国家水平。

打开网易新闻 查看精彩图片

世界各国人均算力对比(来源:唐雄燕,华为算力时代峰会演讲)

尤其是在芯片等算力核心技术上,我们与发达国家还有很大的差距。很多掐脖子技术未能解决,严重影响了我们的算力安全,进而影响了国家安全。

所以,脚下的路还有很长,我们还需要继续努力。

未来社会,信息化、数字化和智能化将会进一步加快。万物智联时代的到来,大量智能物联网终端的引入,AI智能场景的落地,将产生难以想象的海量数据。

这些数据,将进一步刺激对算力的需求。

根据罗兰贝格的预测,从2018年到2030年,自动驾驶对算力的需求将增加390倍,智慧工厂需求将增长110倍,主要国家人均算力需求将从今天的不足500 GFLOPS,增加20倍,变成2035年的10000 GFLOPS。

根据浪潮人工智能研究院的预测,到2025年,全球算力规模将达6.8 ZFLOPS,与2020年相比提升30倍。

新一轮的算力革命,正在加速启动。

五、结语

算力是如此重要的资源,但事实上,我们对算力的利用仍然存在很多问题。

比如算力利用率问题,以及算力分布均衡性问题。根据IDC的数据显示,企业分散的小算力利用率,目前仅为10%-15%,存在很大的浪费。

摩尔定律从2015年开始放缓,单位能耗下的算力增速已经逐渐被数据量增速拉开差距。我们在不断挖掘芯片算力潜力的同时,必须考虑算力的资源调度问题。

参考文献:

1.《中国算力发展指数白皮书》,信通院;

2.《算力网络技术白皮书》,中国移动;

3.《算力网络(CAN、CFN、CPN)、东数西算是怎么回事》,【【微信】】,知乎;

4.《中国联通算力网络白皮书》,中国联通;

5.《算力网络发展介绍与展望》,曹畅;

6.《什么是算力网络》,吴卓然;

7.《关于“算力网络”底层技术的思考》,鄢贵海;

8.《AI算力需求快增长,平台化基础设施成焦点》,广发证券,刘雪峰、李傲远、吴祖鹏。

本文来源:公众号 鲜枣课堂

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

zen架构和推土机架构区别 amd zen架构和推土机架构

zen架构和推土机架构区分,推土机 架构,jaguar架构 推土机,推土机架构cpu
近期不少网友都在问:什么是推土机架构图片(推土机的架构介绍),小编也是查阅很多资料,整理了一些相关方面的答案,大家可以参考一下,

【温馨提示】本文共有6754个字,预计阅读完需要17分钟,请仔细阅读哦!

目录:
  • 1、有问有答:AMD锐龙处理器里面的CCD、CCX是什么
  • 2、AMD Zen核心揭秘:四核为一组 各自独立
  • 3、科技t望台:Arm v9会带来什么改变
  • 4、AMD七代旗舰APU A12-9800实测:推土机终极一战!
  • 5、AMD 32核心深度揭秘:堆一起真不容易!

我们在说AMD的锐龙处理器的时候经常会说CCD、CCX这两个词,熟练的玩家肯定懂我在说什么,然而对于萌新小白来说,估计根本不知道这是什么东西的缩写,其实我刚看到CCD这个词的时候,我第一反应其实是“这不是相机里的传感器吗?”,所以今天就来说说锐龙处理器里面的CCD和CCX是什么。

AMD Zen内核

CCX是CPU Complex的简写,它是AMD Zen架构的最基本组成单元,每个CCX整合了四个Zen内核,每个核心都有独立的L1与L2缓存,核心内部拥有完整的计算单元,不再像此前的推土机架构共享浮点单元,这四个核心将共享L3缓存,每个核心都可以选择性的附加SMT超线程,另外CCX内部的核心是可以单独关闭的。

CCX

基于Zen架构的产品中可以存在多于一个CCX,其实非APU的产品内部都有两个CCX,即使是锐龙5 1500X这样的四核处理器也是由两个CCX所组成的,而锐龙5 2400G这样的APU和所有的AMD移动处理器内部都只有一个CCX,CCX之间使用高速Infinity Fabric进行通信,这种模块化设计允许AMD根据需求扩展核心、线程和缓存数量,针对消费客户,服务器和HPC市场推出不同的产品。

AMD所说的CCD其实是Core Chiplet Die的缩写,是伴随最新的Zen 2架构处理器所诞生的缩写。Zen 2架构处理器不是一个封装在一起的大核心,而是被分为了CCD核心以及I/O核心两个部分,其中CCD核心是单纯的计算核心,里面包含两个CCX,也就是每个CCD是8核16线程的,而内存、PCI-E、USB以及SATA控制器都被整合到I/O核心里面,而这些核心会被一同封装进一颗锐龙3000系列处理器里面。

CCD核心以及I/O核心之间采用第二代Infinity Fabric总线连接,它在扩展性、延迟和能效方面都有所提升,总线位宽从256-bit翻倍到512-bit,单位功耗降低了27%之多。AM4平台上所用的I/O核心最多可与两个CCD相连,也就是最多16核,而TR4平台上所用的I/O核心是可连接8个CCD的,所以最多可达64核。

把计算核心和I/O核心分开这样的设计其实有点像以前的南北桥设计,CPU只负责计算,而通信都交给北桥,而南桥则是北桥的一个手下,只不过AMD现在是把CPU和北桥封装到一块PCB上罢了。当然这样的设计必然会增大延迟,这样的结构并不利于CPU核心与内存控制器之间的数据交换,即便在是同一块PCB上,其内存延迟相比整合到CPU核心内部是要更高一些的,而且我们也可以看到,如果是对应8核以上产品,那么两个CCD之间想要交换数据,那么也得通过I/O核心上的Data Fabric总线进行,这也不是一个有利于提升CPU性能的设计。

所以AMD怎大了Zen 2架构内的L3缓存,与上代相比直接翻了一倍,并且使用了新的指令预测机制,延迟的问题其实很大程度上已经得到了解决。

另外MCM是一种灵活度很高的结构,这样AMD就可以使用不同工艺来生产不同的核心,实际上Zen 2处理器的CCD核心是7nm的,而I/O核心则采用更为成熟的12nm,毕竟7nm对于AMD来说仍然是一种新工艺,产能与成熟度都处于爬升阶段,价格也毕竟高,最重要的组成部分放在7nm工艺上,剩下的部分使用更为成熟的12nm工艺,这样也有利于提升产品的良品率,也可节省成本。

最后要说一下的是,这种把不同工艺的芯片MCM封装到一块PCB做处理器上并不是AMD先弄出来的,Intel早在第一代酷睿处理器就这样玩过,有兴趣的朋友可以查阅当年Clarkdale处理器的评测。

AMD日前首次公开了全新Zen CPU架构的整体设计,但很多细节依然欠奉。Hot Chips 2016芯片大会上,AMD终于又给出了更多资料。

早就有爆料称,Zen架构将以四个核心为一个群组,结果得到了证实,AMD将其称为“CPU Complex”(CCX),也就是“CPU复合体”的意思。

每一个CPU复合体内包含四个Zen CPU核心,但它们是彼此完全独立的,不像推土机架构那样,彼此不会共享任何单元。

每个核心都有自己的64KB一级指令缓存、32KB一级数据缓存、512KB二级缓存。

8MB的三级缓存为四个核心共享,以低位寻址交错(low-order address interleave)的方式分为四个2MB容量的区块,不过任何一个核心访问三级缓存的延迟都是完全相同的。

桌面版“Summit Ridge”拥有两个CCX,也就是最多8个核心(16个线程),支持双通道DDR4内存,同时搭配新的芯片组。

未来的全新APU则有一个CCX、4个核心(8个线程),同时整合支持Polaris架构技术的GPU。

当然了,它们都是Socket AM4封装,彼此互相兼容。

微信公众号搜索"驱动之家"加关注,每日最新的手机、电脑、汽车、智能硬件信息可 以让你一手全掌握。推荐关注!

在2011年,Arm发布了新一代Arm V8架构,在几年后的苹果iPhone 5S上,苹果基于Arm v8架构所打造的A7 SOC凭借一系列的新特性还有全新的64位应用支持,在手机市场上取得了独特的优势,大杀四方。而在十年后的2021年,ARM 推出了全新一代的Arm V9架构,全新的Arm V9将会带来什么新特性的加入,对于ARM来说还会带来什么改变?本期科技t望台就让我们一起远望Arm V9所带来的改变。

01/Arm V9有何不同?

本次Arm 推出的Arm V9目标重点在三个部分:第一个是安全性方面的提升、第二个是更进一步的AI性能、第三个是整体性能速度的提升。

我们先来看第一个方面,在安全性部分上,Arm V9加入了包括内存标签(memory tagging)和域管理(Realm management) 在内的关键内容,进一步提供了内存方面的安全性,并且在有关安全性方面的数存放上,创建了更进一步的保险容器机制。除此之外,全都的Arm V9还引入了新的Arm保密计算架构(CCA),这一个Arm保密计算架构(CCA)通过基于硬件的安全环境保护敏感数据。可动态创建各种需要调用的域,在域中可对所得的代码进行使用,其余的内容无法被使用调配,以保护重要数据和代码不受影响。

而在AI性能和整体速度的提升上,Arm认为在未来几年中越来越多的ML工作负载(机器学习负载)将变得司空见惯。更多的AI会在各种领域进行更进一步的应用,而在AI性能提升的同时,也需要配备更进一步的性能。由此引入了全新的升级。

在Arm V9上,Arm引入了SVE2指令集(SVE 可伸缩向量扩展),SVE2指令集相比SVE的128位矢量,SVE2可以支持多倍128位运算,最多2048位,因此SVE2可以增强ML机器学习、DSP信号处理能力,提升了未来5G、虚拟现实、增强现实以及CPU本地运行ML的性能。通过SVE2指令集的加入,Arm V9能支持更进一步的矩阵卷积算法,且将SVE2指令集的部分性发挥在AI上,使得Arm V9在AI性能和其他应用上取得更好的表现。

Arm V9整体比起Arm V8来说,并没有从Arm V7向Arm V8之间的升级那么明显,虽然有诸如领域管理拓展、内存拓展等一系列的功能,但在其中最为大的差距就是全新的SVE2指令集的加入。所以外媒认为此次从V8升级到V9的ISA(指令集架构 Instruction Set Architecture),SVE2指令集是一个关键。

02/跟随Arm V9推出的硬件

在Arm V9推出的同时,采用Arm V9指令集架构的硬件也被同步推出。ARM 推出了Cortex X2、Cortex A710以及Cortex A510这三个公版的全新核心。

我们先看Arm推出的Cortex X2核心,这一个核心延续了Cortex X1目前的大核定位。在官方的PPT对比上,Cortex X2相比较于Arm自家推出的Cortex X1有了接近16%的IPC提升。但是如果我们仔细看可以发现,在AERM官方的对比上是8MB L3(三级缓存) 的Cortex X2去对比4MB L3的Cortex X1而得到的16% IPC提升,所以在实际的提升方面并不会高出很多。而在功耗方面,Arm官方展示在同一个工艺节点的情况下,Cortex X2核心所需的更好将比Cortex X1核心高出22%,在这种情况下,若如不对制程工艺进行升级,以现阶段的工艺对Cortex X2核心进行制造生产,必然又是功耗增大而导致一系列的翻车问题,对于不少的厂家来说有如噩梦一般。

然后是Arm推出的Cortex A710核心,在Cortex X系列核心推出前,Cortex A7XX系列是Arm系列中的大核心,在Cortex X推出后,Cortex A7XX系列核心在目前就是被定为中核的规格。

Cortex A710核心整体和此前推出的Cortex A78核心相比较,更像是一个全新的补丁修正提升版本。Cortex A710核心重点是对于分支预测计算性能的提升还有在分支预测缓存方面的缓存提升。并且Arm官方也宣称Cortex A710核心拥有更进一步的能耗比提升。

而从Arm官方的对比来看,Cortex A710(8MB L3)相比较Cortex A78(4MB L3)提升了接近10%的整体性能,在达到同样性能的情况下,功耗降低了30%。但是如果我们考虑到对比中的差异的话,那么实际的产品还有怎么样的表现,就需要打一个问号了。

最后是Arm推出的Cortex A510核心,在官方的定位中,其属于小核的分类中。在Cortex A510上,出现了有所不同的地方,Cortex A510采用的是两颗核心为一组的设计,两两一组之间共享L2缓存以及浮点性能。SVE2之类的支持等特性,这一点类似于AMD早年推出的推土机架构,也是采用了两两一组的共享L2之类的设计。而至于会带来什么样实际的提升和一系列的有关内容,还需要等待全新产品的出现。

除了CPU核心之外,Arm还对旗下的Mali系列GPU进行了更新,推出了G710、G610、G510、G310。其中的G710是G78后的直接继任者,定位于旗下的高端旗舰。而G610是定位比G710低一档的产品,是定位于高端的产品。G510则是接任G57定位于中端产品。G310是接替G31的入门级产品,将主要面向智能电视以及部分的场景需求。

03/展望未来

在现阶段,接入谷歌Play生态的APP已经是全部转为64位应用。但是在国内,由于各大应用数量的众多且分发平台较为分散,所以在现阶段还是存在不少的32位APP。Arm此次基于Arm V9推出的Cortex X2、Cortex A710以及Cortex A510中,Cortex X2以及Cortex A510只有对于AArch64的支持,也就是说只对64位应用进行支持。而根据Arm官方的说法的,为了部分地区的需求Cortex A710并非只对AArch64进行支持,而是对AArch32也进行了支持,也就是说其中的Cortex A710还能实现对32位应用的兼容。从Arm 一系列规范来看,国内的应用更要进一步的加速升级至64位应用,才能对核心性能进行更好的利用,而不是只是将性能负载放置在Cortex A710上。

Arm官方也宣布了对于未来的的展望,Arm预测未来十年合作伙伴基于ARM芯片的出货量将超过3000亿。Arm正致力于将Arm v9技术引入各个领域,以系统级设计最大程度地提高性能。借助移动生态系统的规模优势,在笔记本电脑、台式机、云等应用领域打造领先的解决方案。” Arm v9 还希望延伸到5G网络、数据中心、以及更多终端与车载架构计算。

对于国内的厂家来说,Arm 官方宣布,经过了一系列的技术审查,Arm v9架构不受美国出口管理条例(EAR)的约束。所以对于受到美国打压的企业来说,依然可以购买到Arm V9的授权,在这一个IP上进行一系列的后续开发。

此次Arm推出的产品还是属于初级阶段,后续Arm应该会对处理器和GPU之类的内容进行进一步的更新,以发挥更进一步的性能。

AMD今年9月份就发布了第七代APU Bristol Ridge,不过因为主攻OEM市场,零售版很少见到,而且它采用了和未来Zen Summit Ridge相同的Socket AM4平台,都搭配300系列芯片组主板,而新平台的爆发还是要等Zen的到来。

Bristol Ridge APU的旗舰型号为A12-9800,基于推土机架构的终极版挖掘机,四核心3.8-4.2GHz,Radeon R7 GPU 512个流处理器,热设计功耗65W,官方称其可抗衡Intel Core i5-6500。

德国硬件网站Crashtest近日就对这颗A12-9800进行了一番测试,搭配华硕A320M-C入门级主板(昨天刚曝光),还有8GB DDR4-2133双通道内存――这是AMD主流桌面平台第一次支持DDR4。

本次测试跑的都是AIDA64项目,一般人可能不太熟悉。从结果看,A12-9800的内存带宽一般,虽然用上了DDR4-2133但还比不上Core i7-6700K,基本和上代APU搭配DDR3差不多。

CPU性能也基本和前辈A10-7850K是同一水平,不过在Hash、V8等项目中有明显提升,这主要得益于新的指令集。

这样的结果可能会让大家感到有些失望,不过也可以理解,因为挖掘机架构的重点不是追求高性能,而是高能效,毕竟这颗旗舰级A12-9800的热设计功耗也只有65W。

微信公众号搜索"驱动之家"加关注,每日最新的手机、电脑、汽车、智能硬件信息可以让 你一手全掌握。推荐关注!

如果说RyZen在桌面上完美归来,为重塑公司和产品形象奠定了基础,那么今天发布的EPYC(霄龙)服务器平台,就是AMD全面扭转竞争态势的天王山战役。多年前,AMD因为各种原因离开了利润丰厚的、广阔的x86服务器市场,现在终于回来了!

EPYC服务器处理器和桌面、移动领域的Ryzen一样,都是基于全新的Zen架构,但是针对服务器、数据中心做了大量的针对性设计和优化,毕竟这些领域对于软硬件的要求都太高了。

AMD也毫不吝啬地公布了有关EPYC平台的大量细节,其中凝聚了众多工程师的心血,值得细细品味,当然很多细节技术性都比较强,我们也不会过多地深入,就带着大家大致了解一下。

【服务器版的Zen架构】

Zen架构在设计之初,就充分考虑了不同市场领域的适应性,桌面、移动、服务器(数据中心)都要靠这一套架构拿下,这和Intel近些年的理念也是类似的。

Zen微架构设计,EPYC、Ryzen是相通的,包括核心与缓存配置,AMD从数据中心应用角度做了重新梳理介绍,也可以参考我们此前的解析。

当然,Zen架构也有诸多面向服务器和数据中心的针对性设计,比如大数据负载、虚拟化增强、安全加密增强。

除了标准指令集,EPYC还增加了大量新的指令集,更好地优化数据中心应用,其中既有和Intel通用的,也有两条AMD独有的:CLZERO(清理缓存行)、PTE Coalescing(4K页表合并为32K)。

虚拟化方面也加入了不少新指令集,包括Data Poisoning内存错误处理、AVIC高级虚拟化中断控制器、Nested 【【微信】】嵌套虚拟化、SME安全内存加密、SEV安全加密虚拟化。

虚拟化延迟,可比推土机架构降低50%。

52% IPC(每时钟周期指令集)的架构性能提升,EPYC同样是适用的。

【数据中心优化】

EPYC的设计原则有四个方向,包括每路能力、Fabric互连、内存、IO,接下来都会涉及到。

AMD认为,现有的双路系统存在诸多局限,比如IO扩展有限、配合第二路CPU才能有完整IO、CPU间专用链接无法拥有其他IO、平台需要PCI-E切换和芯片组等。

EPYC重点改进了这些方面,无需PCI-E每双路系统就能提供多达128条PCI-E,整合芯片组为SoC单芯片设计,支持全新的Infinity Fabric互连。

即使是单路EPYC,扩展性依然充足,包括128条PCI-E、所有链接都能用于IO、四个IO Hub、完整支持PCI-E P2P。

EPYC每颗处理器都能提供128条PCI-E,单路系统中可全部用于外部IO,双路系统中各拿出64条用于两颗CPU互连,然后各有64条对外IO,总计还是128条。相比之下,Intel单路平台仅40条,双路也才80条。

EPYC集成了一套独立的安全子系统,整合的AMD安全协处理器(ARM Cortex-A5架构的32位控制器),运行于安全的系统/内核,可以确保固件数据等片外非易失性存储的安全,提供安全加密功能,并可实现硬件验证启动。

SME安全内存加密是基于硬件的,可以保护物理内存免受攻击,单个安全密钥,操作系统/虚拟器管理器可以自己选择需要需要加密的页面,而网络、存储、显卡等硬件设备可以无缝访问加密页面。

SEV安全加密虚拟化则可以保护虚拟机免受其他虚拟你、非法管理员、不信任虚拟机管理器的伤害,每个虚拟机和管理器都有独立的秘钥,彼此加密隔离,并与AMD现有的AMD-V虚拟化技术整合。

针对虚拟化,EPYC在二三级缓存、核心间延迟、缓存和内存拓扑方面都做了优化。

企业级的RAS(可靠性/可用性/可服务性)也是一应俱全。

Infinity Fabric总线串联起了EPYC系统的几乎所有部分,具备低延迟、可伸缩性、可扩展性等特点,并有SCF、SDF两层控制与管理结构,将处理器、显卡、加速器、内存等有机地结合起来。

SCF可以提供SoC和系统级的连接与控制,并提供安全增强、电源管理、远程管理等。

EPYC的有效内存带宽可以达到290GB/s,相比于Broadwell Xeon高出多达150%。

同时从单路到双路的性能扩展几乎完美,可以提升多达98%。

【IO与互连】

内存方面,EPYC每路支持八个DDR4通道,每通道最多两条,也就是每路可以搭配最多16条内存,包括RDIMM、LRDIMM、N【【微信】】、3DS DIMM等各种类型,频率最高2667MHz,容量最高2TB。

EPYC每颗内部都有四个独立内核,彼此之间如何通信是个大问题,这同样仰仗张Infinity Fabric,每两个内核之间都可以直连(共六条),双向带宽42GB/s,并且延迟很低(具体多少没说)。

而在两颗EPYC处理器之间,也有四条Infinity Fabric,每个内核与另一颗处理器内的配对内核相连(单个带宽38GB/s总计152GB/s),这样任意两个内核彼此通信,最多只需要两跳。

单路和双路EPYC都可以对外提供八个x16链接(总计128 PCI-E),能任意拆分组合,每链接双向带宽32GB/s,合计256GB/s,支持各种PCI-E特性并整合了SATA。

单路扩展性都能完胜Xeon。

EPYC是一个SoC单芯片设计,整合了芯片组(SCH),可提供平台时钟发生器、计时器、实时时钟、中断、UART、四个USB 3.0、两个SMBus、六个I2C、SPI、GPIO等等。

AMD很大方地公布了各处互连的带宽数据,不过延迟只是说很低,没有具体指标。

双路系统:64核心、4TB内存、128条PCI-E。

单路系统:32核心、2TB内存、128条PCI-E。

【电源管理】

在一套典型的双路服务器系统中,处理器的功耗占了整体的53%,当然是首要的优化对象,排第二的内存也只占14%。

EPYC集成了先进的电源管理系统,整个处理器内部遍布上千个传感器,32个核心都能以1毫秒的间隔实时调节状态。

全方位的功耗和温度监控,可以根据工作负载,实时适应性调整运行状态,尤其是频率,以确保不超过功耗限制。

精细的电压和频率控制,可以根据功耗分布,让处理器运行在最佳状态,活跃核心较少的时候可以自动提高频率。

我们知道,每颗处理器的体质都不一样,包括温度、漏电率等都会有差异,而有的环境需要在各种条件下保持性能一致,有的则要求始终发挥最高性能,为此EPYC可以在启动时选择任何一种运行状态。

EPYC的热设计功耗也是可以根据需要调节的,需要高性能的就加强,需要低功耗的就削弱一些,比如180W的最高可以到200W,最低则可以到165W。

服务器应用基本都可以让所有核心都跑起来,但此时无论负载高低,默认各个核心都会运行在高频率,造成浪费,AMD则加入了新的算法,可以根据负载程度动态优化,能效可提升最多10%。

EPYC虽然可以提供充裕的带宽,但并不是所有应用都需要全部带宽,EPYC就可以进行适应性调节,能将能效再提升最多8%。

EPYC每一个内部都有四个内核,总计32个核心,如何让它们平衡地运行在最佳状态,难度是极大的,AMD能针对每一个核心进行管控,避免不同核心负载失衡,并降低功耗。

结果呢,反正就是比Intel更高的性能、更低的功耗。

如果说RyZen在桌面上完美归来,为重塑公司和产品形象奠定了基础,那么今天发布的EPYC(霄龙)服务器平台,就是AMD全面扭转竞争态势的天王山战役。多年前,AMD因为各种原因离开了利润丰厚的、广阔的x86服务器市场,现在终于回来了!

EPYC服务器处理器和桌面、移动领域的Ryzen一样,都是基于全新的Zen架构,但是针对服务器、数据中心做了大量的针对性设计和优化,毕竟这些领域对于软硬件的要求都太高了。

AMD也毫不吝啬地公布了有关EPYC平台的大量细节,其中凝聚了众多工程师的心血,值得细细品味,当然很多细节技术性都比较强,我们也不会过多地深入,就带着大家大致了解一下。

【服务器版的Zen架构】

Zen架构在设计之初,就充分考虑了不同市场领域的适应性,桌面、移动、服务器(数据中心)都要靠这一套架构拿下,这和Intel近些年的理念也是类似的。

Zen微架构设计,EPYC、Ryzen是相通的,包括核心与缓存配置,AMD从数据中心应用角度做了重新梳理介绍,也可以参考我们此前的解析。

当然,Zen架构也有诸多面向服务器和数据中心的针对性设计,比如大数据负载、虚拟化增强、安全加密增强。

除了标准指令集,EPYC还增加了大量新的指令集,更好地优化数据中心应用,其中既有和Intel通用的,也有两条AMD独有的:CLZERO(清理缓存行)、PTE Coalescing(4K页表合并为32K)。

虚拟化方面也加入了不少新指令集,包括Data Poisoning内存错误处理、AVIC高级虚拟化中断控制器、Nested 【【微信】】嵌套虚拟化、SME安全内存加密、SEV安全加密虚拟化。

本文地址: https://www.tjm99.com//show-62486.html
版权声明:除非特别标注原创,其它均来自互联网,转载时请以链接形式注明文章出处。

上一篇每天都关机对手机有影响吗 每天自动关机对手机有影响吗

下一篇仓库的成本控制有哪些 仓储管理储存成本怎么算