2023年5月3500元电脑配置推荐:R5 5600搭配RX6600/RX6650XT显卡
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
如果你的预算在3500~4000元,想要配置一台主玩游戏的电脑,如何配置呢?
首先,这个价位可选的CPU有i3-12100F和R5-5600,这里推荐R5-5600,因为其三级缓存更大,整体游戏性能、帧数稳定性会更强。显卡这个价位可以考虑A卡,毕竟很少拿这个价位的卡跑渲染、生产力,纯玩游戏A卡不差,这里推荐:RX6600或者RX6650XT。
CPU+主板:CPU选择的是近期主流级的R5 5600,采用6核心12线程设计,睿频可达4.4GHz,三缓达到32MB(属于大三缓设计了),由于采用了大三缓设计,游戏性能上是超过i5-12100的。搭配的主板是A520主板,优点是便宜,缺点就是不支持CPU超频和内存超频,如果有超频需求可以搭配B450或B550主板。
显卡:显卡选择的是RX6600 8G,性能介于RTX2060和RTX3060之间,相比RTX2060提升7%左右,落后RTX3060大概6%,只是在光追游戏方面有所落后,普通光栅游戏方面很不错,价格相比RTX3060要便宜几百,能在2K分辨率下畅玩大部分3A游戏了。
散热器:选择的是自带的幽灵散热器,虽然叫幽灵,但是比较吵,如果你觉得自带的幽灵散热器吵的话,可以换利民AX120 R SE这样的单塔散热器。
内存、硬盘:内存用的金百达银爵DDR4 3200 16G(8G*2)组成双通道,价格便宜,性能不错。硬盘选择的是金士顿NV2 1TB固态,也是比较有性价比的。
机箱:这里推荐的是玩嘉光遇机箱,可以根据喜好更换,只要尺寸兼容即可。
这套配置主要升级了主板到B450,升级的目的就是增加CPU和内存的超频能力,CPU超频现在的收益不高,但是内存超频还是很有必要的,尤其是现在高频内存的价格已经很白菜了,配上高频内存对性能的提升还是肉眼可见的。B450主板的内存插槽数量,接口数量也更丰富,可以满足更高的拓展要求。
这套配置升级了主板和显卡,主板的升级较小,B550相比B450就是增加对PCIe4.0的支持,可以上PCIe4.0的固态。主要升级是显卡,RX6650XT性能介于RTX3060与RTX3060Ti之间,相比RTX3060强10%左右,我们一般拿RTX3060作为畅玩2K高画质游戏的标准,RX6650XT在玩游戏方面会更有优势,而且相比还没有矿卡的风险。
注意:因为市场行情变化,配置中的价格仅供参考。
以上便是 @酷机君 分享的3套R5 5600的电脑配置方案,分别选用了RX6600和RX6650XT显卡,3套配置都可以在2K分辨率下高画质玩3A大作,具体怎么选看自己的预算。高端因为生产力、光追优势还是更推荐N卡,A卡在中低端领域价格上还是普遍有优势的,因为基本没人在这个级别去追求极致的生产力。
2020 年深度学习最佳 GPU 一览,看看哪一款最适合你!
关注上方“深度学习技术前沿”,选择“星标公众号”,
资源干货,第一时间送达!
大数据文摘出品
来源:lambdalabs
编译:张秋h
深度学习模型越来越强大的同时,也占用了更多的内存空间,但是许多GPU却并没有足够的VRAM来训练它们。
那么如果你准备进入深度学习,什么样的GPU才是最合适的呢?下面列出了一些适合进行深度学习模型训练的GPU,并将它们进行了横向比较,一起来看看吧!
太长不看版
截至2020年2月,以下GPU可以训练所有当今语言和图像模型:
RTX 8000:48GB VRAM,约5500美元
RTX 6000:24GB VRAM,约4000美元
Titan RTX:24GB VRAM,约2500美元
以下GPU可以训练大多数(但不是全部)模型:
RTX 2080 Ti:11GB VRAM,约1150美元
GTX 1080 Ti:11GB VRAM,返厂翻新机约800美元
RTX 2080:8GB VRAM,约720美元
RTX 2070:8GB VRAM,约500美元
以下GPU不适合用于训练现在模型:
RTX 2060:6GB VRAM,约359美元。
在这个GPU上进行训练需要相对较小的batch size,模型的分布近似会受到影响,从而模型精度可能会较低。
图像模型
内存不足之前的最大批处理大小:
*表示GPU没有足够的内存来运行模型。
性能(以每秒处理的图像为单位):
*表示GPU没有足够的内存来运行模型。
语言模型
内存不足之前的最大批处理大小:
*表示GPU没有足够的内存来运行模型。
性能:
* GPU没有足够的内存来运行模型。
使用【【微信】】结果进行标准化后的表现
图像模型
语言模型
结论
语言模型比图像模型受益于更大的GPU内存。注意右图的曲线比左图更陡。这表明语言模型受内存大小限制更大,而图像模型受计算力限制更大。
具有较大VRAM的GPU具有更好的性能,因为使用较大的批处理大小有助于使CUDA内核饱和。
具有更高VRAM的GPU可按比例实现更大的批处理大小。只懂小学数学的人都知道这很合理:拥有24 GB VRAM的GPU可以比具有8 GB VRAM的GPU容纳3倍大的批次。
比起其他模型来说,长序列语言模型不成比例地占用大量的内存,因为注意力(attention)是序列长度的二次项。
GPU购买建议
RTX 2060(6 GB):你想在业余时间探索深度学习。
RTX 2070或2080(8 GB):你在认真研究深度学习,但GPU预算只有600-800美元。8 GB的VRAM适用于大多数模型。
RTX 2080 Ti(11 GB):你在认真研究深度学习并且您的GPU预算约为1,200美元。RTX 2080 Ti比RTX 2080快大约40%。
Titan RTX和【【微信】】(24 GB):你正在广泛使用现代模型,但却没有足够买下RTX 8000的预算。
【【微信】】(48 GB):你要么是想投资未来,要么是在研究2020年最新最酷炫的模型。
附注
图像模型:
语言模型:
相关报道:
https://lambdalabs.com/blog/choosing-a-gpu-for-deep-learning/
重磅!深度学习技术前沿-微信群已成立
扫码添加群助手,可申请加入?深度学习技术前沿?微信群,旨在交流深度学习方面的学习、科研、工程项目等内容,并且还会在群中分享求职内推资料。后续还会根据大家的研究方向细分技术交流群。
一定要备注:研究方向+学校/公司+姓名(如图像分割+浙大+李四),按照格式备注,可更快被通过且邀请进群。
?长按识别,即可加群
?长按识别,即可关注