日本电子维修技术 显卡amd vs. nvidia 深度神经网络库api对照,已无敌




AMDhttps://rocmsoftwareplatform.github.io/MIOpen/doc/html/apireference.htmlNVIDIAhttps://developer.nvidia.com/compute/machine-learning/cudnn/secure/v7/prod/Doc/cuDNN-Library-User-Guide-pdfamd versionoriginialAMD ROCm MIOPENNVIDIA CUDA CUDNNHandle
miopenStatus_tcudnnStatus_tmiopenCreatecudnnCreatemiopenCreateWithStreamN/AmiopenDestroycudnnDestroymiopenSetStreamcudnnSetStreammiopenGetStreamcudnnGetStreammiopenGetKernelTimeN/AmiopenEnableProfilingN/ATensorsmiopenDataType_tcudnnDataType_tmiopenTensorOp_tcudnnOpTensorOp_tmiopenCreateTensorDescriptorcudnnCreateOpTensorDescriptormiopenSet4dTensorDescriptorcudnnSetTensor4dDescriptormiopenGet4dTensorDescriptorcudnnGetTensor4dDescriptormiopenSetTensorDescriptorcudnnSetOpTensorDescriptormiopenGetTensorDescriptorSizecudnnGetTensorSizeInBytesmiopenGetTensorDescriptorcudnnGetOpTensorDescriptormiopenDestroyTensorDescriptorcudnnDestroyOpTensorDescriptormiopenOpTensorcudnnOpTensormiopenSetTensorcudnnSetTensormiopenScaleTensorcudnnScaleTensorActivation LayersmiopenActivationMode_tcudnnActivationMode_tmiopenCreateActivationDescriptorcudnnCreateActivationDescriptormiopenSetActivationDescriptorcudnnSetActivationDescriptormiopenGetActivationDescriptorcudnnGetActivationDescriptormiopenActivationForwardcudnnActivationForwardmiopenActivationBackwardcudnnActivationBackwardmiopenDestroyActivationDescriptorcudnnDestroyActivationDescriptorConvolutional LayermiopenConvolutionMode_tcudnnConvolutionMode_tmiopenConvFwdAlgorithm_tcudnnConvolutionFwdAlgo_tmiopenConvBwdWeightsAlgorithm_tcudnnConvolutionBwdFilterAlgo_tmiopenConvBwdDataAlgorithm_tcudnnConvolutionBwdDataAlgo_tmiopenConvAlgoPerf_tcudnnConvolutionFwdAlgoPerf_t / cudnnConvolutionBwdFilterAlgoPerf_tmiopenCreateConvolutionDescriptorcudnnCreateConvolutionDescriptormiopenInitConvolutionDescriptorN/AmiopenGetConvolutionDescriptorcudnnSetConvolution2dDescriptor / cudnnGetConvolutionNdDescriptormiopenGetConvolutionForwardOutputDimcudnnGetConvolution2dForwardOutputDim /  cudnnGetConvolutionNdForwardOutputDimmiopenConvolutionForwardGetWorkSpaceSizecudnnGetConvolutionForwardWorkspaceSizemiopenFindConvolutionForwardAlgorithmcudnnFindConvolutionForwardAlgorithm /  cudnnFindConvolutionForwardAlgorithmExmiopenConvolutionForwardcudnnConvolutionForwardmiopenConvolutionForwardBiascudnnConvolutionBiasActivationForwardmiopenFindConvolutionBackwardDataAlgorithmcudnnFindConvolutionBackwardDataAlgorithm /  cudnnFindConvolutionBackwardDataAlgorithmExmiopenConvolutionBackwardDatacudnnConvolutionBackwardDatamiopenConvolutionBackwardDataGetWorkSpaceSizecudnnGetConvolutionBackwardFilterWorkspaceSizemiopenConvolutionBackwardWeightsGetWorkSpaceSizecudnnGetConvolutionBackwardDataWorkspaceSizemiopenFindConvolutionBackwardWeightsAlgorithmcudnnFindConvolutionBackwardFilterAlgorithm /  cudnnFindConvolutionBackwardFilterAlgorithmExmiopenConvolutionBackwardWeightscudnnConvolutionBackwardFiltermiopenConvolutionBackwardBiascudnnConvolutionBackwardBiasmiopenDestroyConvolutionDescriptorcudnnDestroyConvolutionDescriptorPooling LayermiopenPoolingMode_tcudnnPoolingMode_tmiopenCreatePoolingDescriptorcudnnCreatePoolingDescriptormiopenSet2dPoolingDescriptorcudnnSetPooling2dDescriptor / cudnnSetPoolingNdDescriptormiopenGet2dPoolingDescriptorcudnnGetPooling2dDescriptor / cudnnGetPoolingNdDescriptormiopenGetPoolingForwardOutputDimcudnnGetPooling2dForwardOutputDim / cudnnGetPoolingNdForwardOutputDimmiopenPoolingGetWorkSpaceSizecudnnDestroyPoolingDescriptormiopenPoolingForwardcudnnPoolingForwardmiopenPoolingBackwardcudnnPoolingBackwardmiopenDestroyPoolingDescriptorcudnnDestroyPoolingDescriptorSoftmax LayermiopenSoftmaxForwardcudnnSoftmaxForwardmiopenSoftmaxBackwardcudnnSoftmaxBackwardLocal Response Normalization LayermiopenLRNMode_tcudnnLRNMode_tmiopenCreateLRNDescriptorcudnnCreateLRNDescriptormiopenSetLRNDescriptorcudnnSetLRNDescriptormiopenGetLRNDescriptorcudnnGetLRNDescriptormiopenLRNGetWorkSpaceSizeN/AmiopenLRNForwardcudnnLRNCrossChannelForward / cudnnDivisiveNormalizationForwardmiopenLRNBackwardcudnnLRNCrossChannelBackward / cudnnDivisiveNormalizationBackwardmiopenDestroyLRNDescriptorcudnnDestroyLRNDescriptorBatch Normalization LayermiopenBatchNormMode_tcudnnBatchNormMode_tmiopenDeriveBNTensorDescriptorcudnnDeriveBNTensorDescriptormiopenBatchNormalizationForwardTrainingcudnnBatchNormalizationForwardTrainingmiopenBatchNormalizationForwardInferencecudnnBatchNormalizationForwardInferencemiopenBatchNormalizationBackwardcudnnBatchNormalizationBackward

评论
vega原来是设计干这个的?

评论
这个真的看不懂了。。。

评论

功能之一,挖矿附带的功能。

评论
看不懂~ 这个有啥用.........

评论
AMD:我们拥有强大的兼容性

评论
难怪当初vega吹风会的时候,三哥拿着FE一个劲说“我们这个不是给你们游戏玩家的blahblahblah”
原来是人家太实诚了

评论

vega本来就是专业卡的定位吧,游戏性能并不是首要的,毕竟企业级市场的利润很诱人

评论
老黄是显卡可以用来计算,amd现在是计算卡能显示

评论
楼上总结的好

评论
9楼说的经典~~~~~~~~

评论
移植起来只需要Ctrl+H,然后把cudnn替换为miopen就可以了

评论
@楼主,问题来了,如何入门?现在手里有i7-4790k+rx480。

评论

入门不要学这种低层api,学tensorflow。

评论

写一组宏不就行了?

评论
难道raja真的走上了老黄在fermi上走过的路

评论

GCN一开始就是了

评论
实际执行效率就难说了,cudnn内部的优化太多了

评论

fermi 后续衍生GF104 gtx560 ,还是不错,性能功耗晶体管都与5870相当。
不知道VEGA能否衍生出类似小核心高图形产品,晶体管75亿左右, 性能小于等于VEGA 56, 功耗150W-180W~

评论

多谢!
https://www.tensorflow.org/
周末试一试!

评论
也不知道tf何年何月正式支持A卡

评论

快了。

捕获.PNG (316.49 KB, 下载次数: 17)

2017-8-17 02:48 上传




评论

真的么?不还是游戏为主,大吞吐量的?应该说堆处理核心,但是分支预测等通用计算性能。不行。

评论

https://github.com/soumith/convnet-benchmarks 楼主跑个benchmarks呗,我看这个https://medium.com/intuitionmachine/building-a-50-teraflops-amd-vega-deep-learning-box-for-under-3k-ebdd60d4a93c跑的数据好像是要被1080吊打的。

评论

你怎么知道我正在做的事情!!。。不过我现在还在尝试在ubuntu下把两张卡driven起来。

评论

大神求教底层api怎么学

评论

大神不会是按摩店的吧 电路 电子 维修 我现在把定影部分拆出来了。想换下滚,因为卡纸。但是我发现灯管挡住了。拆不了。不会拆。论坛里的高手拆解过吗? 评论 认真看,认真瞧。果然有收 电路 电子 维修 求创维42c08RD电路图 评论 电视的图纸很少见 评论 电视的图纸很少见 评论 创维的图纸你要说 版号,不然无能为力 评论 板号5800-p42ALM-0050 168P-P42CLM-01
 ·日本中文新闻 唐田绘里香为新剧《极恶女王》剃光头 展现演员决心
·日本中文新闻 真子小室夫妇新居引发隐私担忧
·日本中文新闻 前AKB48成员柏木由纪与搞笑艺人交往曝光
·日本学校 {日本国际学校}梅田インターナショナルスクール
·日本学校 LINE:sm287 陳雨菲、20歳、台湾からの留学生、東京に来たばかり
·日本留学生活 出售平成22年走行48000km 代步小车
·日本华人网络交流 円相場 一時1ドル=140円台まで上昇?
·日本华人网络交流 问日本华人一个问题
·日本旅游代购 富山接机
 ·生活百科 英国转澳大利亚转换插头
·汽车 【求助】修车遇到困难怎么办?

维修经验

CPUcpu-z 1.77版低调发布

日本维修技术更新: New benchmark “submit and compare” feature New clocks dialog reporting all system’s clock speeds in real-time Preliminary support for Intel Kaby Lake AMD Bristol Ridge processors 主要是增加了支持I、A两个新架构的 ...

维修经验

CPU这几天经常开机黑屏,热重启后又正常

日本维修技术这几天经常开机黑屏,热重启后又正常,今天热重启也不管用了。折腾半天总算点亮,显示超频失败,以前出这个画面我是不理它的,直接重启就能正常进系统了,今天不敢托大,因为 ...

维修经验

CPU超频求助!关于华擎H170和6700K

日本维修技术问题见楼主的show贴 https://www.chiphell.com/thread-1634895-1-1.html 这次华擎的H170 Hyper最大的特色应该是自带时钟发生器可以自由超外频 可是楼主好久没有折腾超频了。。。 两图中除了CPU外频 以 ...

维修经验

CPU液态金属会侵蚀cpu核心吗?

日本维修技术前阵子看到有人说,液态金属时间长了会侵蚀cpu铜盖,那么问题来了,这货会不会侵蚀核心呢? 评论 这玩意儿好像只对铝起反应 评论 不是说,cpu的盖子是铜的吗。。。 评论 不会,核 ...

维修经验

CPUm6i究竟支不支持e3 1231v3

日本维修技术官网上看支持列表没写有e3 1231v3,装机帖又有人晒,百度也没个明确答案,那究竟能不能点亮?有在用的chher说一下么 评论 升级最新bios肯定可以支持 评论 我的p67evo官网上也没说支持12 ...

维修经验

CPU华擎 HYPER 妖板 正确玩法

日本维修技术600元的 B150,10相供电,释放洪荒之力 注意必须官网 Beta 区的 BIOS 有 AVX 的 CPU 可能会掉缓存 启动时按 X 键激活 SKY OC,重启后进入 BIOS 160924164727.jpg (95.63 KB, 下载次数: 1) 2016-9-24 17:47 上传 ...

维修经验

CPUE5 2686 V3和i7 6800K如何选择

日本维修技术默认用,不超频,两者功耗是一模一样的 E5 2686 V3:2.0主频,3.5睿频, 18核心36线程 ,45M L3 咸鱼大约2500~3000元 i7 6800K : 3.5主频,3.8睿频 ,6核心12线程 ,盒装3000元 评论 性能应该是26 ...

维修经验

CPUHD530硬解4K能力还是有点弱呀!

日本维修技术播放器用PotPlay 64bit,各种优化后,跑4K @120Hz视频只能到70帧左右的速度,勉强能用! 显示器用的4K的优派VP2780 未标题-1.jpg (211.97 KB, 下载次数: 0) 2016-9-26 21:29 上传 评论 这个估计你没优化 ...

维修经验

CPU6900k 1.25V到4.2体质怎么样

日本维修技术如图,体质怎么样,ring是35,没敢试了,都说ring高了毁硬件 评论 不错的U,但不算雕,上4.4就大雕了,这电压上4.5的目前没见有人发图 评论 谢谢前辈告知 评论 我这个用1.2V超的4.2,R ...

维修经验

CPUI3 6100 华擎B150M pro4超4.5g测试。

日本维修技术看看论坛没多少i3 6100的帖子,就转下自己发的show贴里面的数据,给大家参考下。家里还有当年的神U i3 540 oc 4.5G在给老妈用。 不知道数据上正常吗?有6100的朋友可以告诉下,另外是不有 ...

维修经验

CPU7系u会兼容100系主板吗?

日本维修技术RT,听说要推200系板,100系还能用吗以后。。 评论 兼容的 评论 感谢!以后换u就行了,目前消息200系板会有新的特性吗? 评论 24条PCI-E 3.0通道、支持Intel Optane混合存储技术、十个USB 3 ...

维修经验

CPU有心入5820k了,求教下温度问题

日本维修技术一直徘徊在6700k和5820k之间,6700k现在这德行直接把我推向了5820k啊,从2600k升级上来,三大件都要换,现在唯一疑惑的是IB-E ex这种顶级风冷能不能压住4.5g的5820呢?毕竟刚刚买一个多月。 ...

维修经验

CPU6600&6600K才100的差价

日本维修技术太少了吧。。。 6600.JPG (106.91 KB, 下载次数: 0) 2016-10-1 10:30 上传 评论 毕竟只是i5而已…… 评论 上z170 6600也能超,等于没区别,差价能有100已经不错了 评论 然后又见不超频人士推荐超频 ...