淘姐妹

淘姐妹

2023年5月3500元电脑配置推荐:R5 5600搭配RX6600/RX6650XT显卡

电脑 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

2023年5月份,2023年5月有没有31号,2023年的5月3日,2023年5月5日

如果你的预算在3500~4000元,想要配置一台主玩游戏的电脑,如何配置呢?

首先,这个价位可选的CPU有i3-12100F和R5-5600,这里推荐R5-5600,因为其三级缓存更大,整体游戏性能、帧数稳定性会更强。显卡这个价位可以考虑A卡,毕竟很少拿这个价位的卡跑渲染、生产力,纯玩游戏A卡不差,这里推荐:RX6600或者RX6650XT

CPU+主板:CPU选择的是近期主流级的R5 5600,采用6核心12线程设计,睿频可达4.4GHz,三缓达到32MB(属于大三缓设计了),由于采用了大三缓设计,游戏性能上是超过i5-12100的。搭配的主板是A520主板,优点是便宜,缺点就是不支持CPU超频和内存超频,如果有超频需求可以搭配B450或B550主板。

显卡:显卡选择的是RX6600 8G,性能介于RTX2060和RTX3060之间,相比RTX2060提升7%左右,落后RTX3060大概6%,只是在光追游戏方面有所落后,普通光栅游戏方面很不错,价格相比RTX3060要便宜几百,能在2K分辨率下畅玩大部分3A游戏了。

散热器:选择的是自带的幽灵散热器,虽然叫幽灵,但是比较吵,如果你觉得自带的幽灵散热器吵的话,可以换利民AX120 R SE这样的单塔散热器。

内存、硬盘:内存用的金百达银爵DDR4 3200 16G(8G*2)组成双通道,价格便宜,性能不错。硬盘选择的是金士顿NV2 1TB固态,也是比较有性价比的。

机箱:这里推荐的是玩嘉光遇机箱,可以根据喜好更换,只要尺寸兼容即可。

这套配置主要升级了主板到B450,升级的目的就是增加CPU和内存的超频能力,CPU超频现在的收益不高,但是内存超频还是很有必要的,尤其是现在高频内存的价格已经很白菜了,配上高频内存对性能的提升还是肉眼可见的。B450主板的内存插槽数量,接口数量也更丰富,可以满足更高的拓展要求。

这套配置升级了主板和显卡,主板的升级较小,B550相比B450就是增加对PCIe4.0的支持,可以上PCIe4.0的固态。主要升级是显卡,RX6650XT性能介于RTX3060与RTX3060Ti之间,相比RTX3060强10%左右,我们一般拿RTX3060作为畅玩2K高画质游戏的标准,RX6650XT在玩游戏方面会更有优势,而且相比还没有矿卡的风险。

注意:因为市场行情变化,配置中的价格仅供参考。

以上便是 @酷机君 分享的3套R5 5600的电脑配置方案,分别选用了RX6600和RX6650XT显卡,3套配置都可以在2K分辨率下高画质玩3A大作,具体怎么选看自己的预算。高端因为生产力、光追优势还是更推荐N卡,A卡在中低端领域价格上还是普遍有优势的,因为基本没人在这个级别去追求极致的生产力。



2020 年深度学习最佳 GPU 一览,看看哪一款最适合你!


关注上方深度学习技术前沿,选择“星标公众号”

资源干货,第一时间送达!

大数据文摘出品

来源:lambdalabs

编译:张秋h

深度学习模型越来越强大的同时,也占用了更多的内存空间,但是许多GPU却并没有足够的VRAM来训练它们。

那么如果你准备进入深度学习,什么样的GPU才是最合适的呢?下面列出了一些适合进行深度学习模型训练的GPU,并将它们进行了横向比较,一起来看看吧!

太长不看版

截至2020年2月,以下GPU可以训练所有当今语言和图像模型:

  • RTX 8000:48GB VRAM,约5500美元

  • RTX 6000:24GB VRAM,约4000美元

  • Titan RTX:24GB VRAM,约2500美元

以下GPU可以训练大多数(但不是全部)模型:

  • RTX 2080 Ti:11GB VRAM,约1150美元

  • GTX 1080 Ti:11GB VRAM,返厂翻新机约800美元

  • RTX 2080:8GB VRAM,约720美元

  • RTX 2070:8GB VRAM,约500美元

以下GPU不适合用于训练现在模型:

  • RTX 2060:6GB VRAM,约359美元。

在这个GPU上进行训练需要相对较小的batch size,模型的分布近似会受到影响,从而模型精度可能会较低。

图像模型

内存不足之前的最大批处理大小:

*表示GPU没有足够的内存来运行模型。

性能(以每秒处理的图像为单位):

*表示GPU没有足够的内存来运行模型。

语言模型

内存不足之前的最大批处理大小:

*表示GPU没有足够的内存来运行模型。

性能:

* GPU没有足够的内存来运行模型。

使用【【微信】】结果进行标准化后的表现

图像模型

语言模型

结论

  • 语言模型比图像模型受益于更大的GPU内存。注意右图的曲线比左图更陡。这表明语言模型受内存大小限制更大,而图像模型受计算力限制更大。

  • 具有较大VRAM的GPU具有更好的性能,因为使用较大的批处理大小有助于使CUDA内核饱和。

  • 具有更高VRAM的GPU可按比例实现更大的批处理大小。只懂小学数学的人都知道这很合理:拥有24 GB VRAM的GPU可以比具有8 GB VRAM的GPU容纳3倍大的批次。

  • 比起其他模型来说,长序列语言模型不成比例地占用大量的内存,因为注意力(attention)是序列长度的二次项。

GPU购买建议

  • RTX 2060(6 GB):你想在业余时间探索深度学习。

  • RTX 2070或2080(8 GB):你在认真研究深度学习,但GPU预算只有600-800美元。8 GB的VRAM适用于大多数模型。

  • RTX 2080 Ti(11 GB):你在认真研究深度学习并且您的GPU预算约为1,200美元。RTX 2080 Ti比RTX 2080快大约40%。

  • Titan RTX和【【微信】】(24 GB):你正在广泛使用现代模型,但却没有足够买下RTX 8000的预算。

  • 【【微信】】(48 GB):你要么是想投资未来,要么是在研究2020年最新最酷炫的模型。

附注

图像模型:

语言模型:

相关报道:

https://lambdalabs.com/blog/choosing-a-gpu-for-deep-learning/

重磅!深度学习技术前沿-微信群已成立

扫码添加群助手可申请加入?深度学习技术前沿?微信群,旨在交流深度学习方面的学习、科研、工程项目等内容,并且还会在群中分享求职内推资料。后续还会根据大家的研究方向细分技术交流群。

一定要备注:研究方向+学校/公司+姓名(如图像分割+浙大+李四),按照格式备注,可更快被通过且邀请进群。

?长按识别,即可加群

?长按识别,即可关注