AMDhttps://rocmsoftwareplatform.github.io/MIOpen/doc/html/apireference.htmlNVIDIAhttps://developer.nvidia.com/compute/machine-learning/cudnn/secure/v7/prod/Doc/cuDNN-Library-User-Guide-pdfamd versionoriginialAMD ROCm MIOPENNVIDIA CUDA CUDNNHandle
miopenStatus_tcudnnStatus_tmiopenCreatecudnnCreatemiopenCreateWithStreamN/AmiopenDestroycudnnDestroymiopenSetStreamcudnnSetStreammiopenGetStreamcudnnGetStreammiopenGetKernelTimeN/AmiopenEnableProfilingN/ATensorsmiopenDataType_tcudnnDataType_tmiopenTensorOp_tcudnnOpTensorOp_tmiopenCreateTensorDescriptorcudnnCreateOpTensorDescriptormiopenSet4dTensorDescriptorcudnnSetTensor4dDescriptormiopenGet4dTensorDescriptorcudnnGetTensor4dDescriptormiopenSetTensorDescriptorcudnnSetOpTensorDescriptormiopenGetTensorDescriptorSizecudnnGetTensorSizeInBytesmiopenGetTensorDescriptorcudnnGetOpTensorDescriptormiopenDestroyTensorDescriptorcudnnDestroyOpTensorDescriptormiopenOpTensorcudnnOpTensormiopenSetTensorcudnnSetTensormiopenScaleTensorcudnnScaleTensorActivation LayersmiopenActivationMode_tcudnnActivationMode_tmiopenCreateActivationDescriptorcudnnCreateActivationDescriptormiopenSetActivationDescriptorcudnnSetActivationDescriptormiopenGetActivationDescriptorcudnnGetActivationDescriptormiopenActivationForwardcudnnActivationForwardmiopenActivationBackwardcudnnActivationBackwardmiopenDestroyActivationDescriptorcudnnDestroyActivationDescriptorConvolutional LayermiopenConvolutionMode_tcudnnConvolutionMode_tmiopenConvFwdAlgorithm_tcudnnConvolutionFwdAlgo_tmiopenConvBwdWeightsAlgorithm_tcudnnConvolutionBwdFilterAlgo_tmiopenConvBwdDataAlgorithm_tcudnnConvolutionBwdDataAlgo_tmiopenConvAlgoPerf_tcudnnConvolutionFwdAlgoPerf_t / cudnnConvolutionBwdFilterAlgoPerf_tmiopenCreateConvolutionDescriptorcudnnCreateConvolutionDescriptormiopenInitConvolutionDescriptorN/AmiopenGetConvolutionDescriptorcudnnSetConvolution2dDescriptor / cudnnGetConvolutionNdDescriptormiopenGetConvolutionForwardOutputDimcudnnGetConvolution2dForwardOutputDim / cudnnGetConvolutionNdForwardOutputDimmiopenConvolutionForwardGetWorkSpaceSizecudnnGetConvolutionForwardWorkspaceSizemiopenFindConvolutionForwardAlgorithmcudnnFindConvolutionForwardAlgorithm / cudnnFindConvolutionForwardAlgorithmExmiopenConvolutionForwardcudnnConvolutionForwardmiopenConvolutionForwardBiascudnnConvolutionBiasActivationForwardmiopenFindConvolutionBackwardDataAlgorithmcudnnFindConvolutionBackwardDataAlgorithm / cudnnFindConvolutionBackwardDataAlgorithmExmiopenConvolutionBackwardDatacudnnConvolutionBackwardDatamiopenConvolutionBackwardDataGetWorkSpaceSizecudnnGetConvolutionBackwardFilterWorkspaceSizemiopenConvolutionBackwardWeightsGetWorkSpaceSizecudnnGetConvolutionBackwardDataWorkspaceSizemiopenFindConvolutionBackwardWeightsAlgorithmcudnnFindConvolutionBackwardFilterAlgorithm / cudnnFindConvolutionBackwardFilterAlgorithmExmiopenConvolutionBackwardWeightscudnnConvolutionBackwardFiltermiopenConvolutionBackwardBiascudnnConvolutionBackwardBiasmiopenDestroyConvolutionDescriptorcudnnDestroyConvolutionDescriptorPooling LayermiopenPoolingMode_tcudnnPoolingMode_tmiopenCreatePoolingDescriptorcudnnCreatePoolingDescriptormiopenSet2dPoolingDescriptorcudnnSetPooling2dDescriptor / cudnnSetPoolingNdDescriptormiopenGet2dPoolingDescriptorcudnnGetPooling2dDescriptor / cudnnGetPoolingNdDescriptormiopenGetPoolingForwardOutputDimcudnnGetPooling2dForwardOutputDim / cudnnGetPoolingNdForwardOutputDimmiopenPoolingGetWorkSpaceSizecudnnDestroyPoolingDescriptormiopenPoolingForwardcudnnPoolingForwardmiopenPoolingBackwardcudnnPoolingBackwardmiopenDestroyPoolingDescriptorcudnnDestroyPoolingDescriptorSoftmax LayermiopenSoftmaxForwardcudnnSoftmaxForwardmiopenSoftmaxBackwardcudnnSoftmaxBackwardLocal Response Normalization LayermiopenLRNMode_tcudnnLRNMode_tmiopenCreateLRNDescriptorcudnnCreateLRNDescriptormiopenSetLRNDescriptorcudnnSetLRNDescriptormiopenGetLRNDescriptorcudnnGetLRNDescriptormiopenLRNGetWorkSpaceSizeN/AmiopenLRNForwardcudnnLRNCrossChannelForward / cudnnDivisiveNormalizationForwardmiopenLRNBackwardcudnnLRNCrossChannelBackward / cudnnDivisiveNormalizationBackwardmiopenDestroyLRNDescriptorcudnnDestroyLRNDescriptorBatch Normalization LayermiopenBatchNormMode_tcudnnBatchNormMode_tmiopenDeriveBNTensorDescriptorcudnnDeriveBNTensorDescriptormiopenBatchNormalizationForwardTrainingcudnnBatchNormalizationForwardTrainingmiopenBatchNormalizationForwardInferencecudnnBatchNormalizationForwardInferencemiopenBatchNormalizationBackwardcudnnBatchNormalizationBackward
评论
vega原来是设计干这个的?
评论
这个真的看不懂了。。。
评论
功能之一,挖矿附带的功能。
评论
看不懂~ 这个有啥用.........
评论
AMD:我们拥有强大的兼容性
评论
难怪当初vega吹风会的时候,三哥拿着FE一个劲说“我们这个不是给你们游戏玩家的blahblahblah”
原来是人家太实诚了
评论
vega本来就是专业卡的定位吧,游戏性能并不是首要的,毕竟企业级市场的利润很诱人
评论
老黄是显卡可以用来计算,amd现在是计算卡能显示
评论
楼上总结的好
评论
9楼说的经典~~~~~~~~
评论
移植起来只需要Ctrl+H,然后把cudnn替换为miopen就可以了
评论
@楼主,问题来了,如何入门?现在手里有i7-4790k+rx480。
评论
入门不要学这种低层api,学tensorflow。
评论
写一组宏不就行了?
评论
难道raja真的走上了老黄在fermi上走过的路
评论
GCN一开始就是了
评论
实际执行效率就难说了,cudnn内部的优化太多了
评论
fermi 后续衍生GF104 gtx560 ,还是不错,性能功耗晶体管都与5870相当。
不知道VEGA能否衍生出类似小核心高图形产品,晶体管75亿左右, 性能小于等于VEGA 56, 功耗150W-180W~
评论
多谢!
https://www.tensorflow.org/
周末试一试!
评论
也不知道tf何年何月正式支持A卡
评论
快了。
捕获.PNG (316.49 KB, 下载次数: 17)
评论
真的么?不还是游戏为主,大吞吐量的?应该说堆处理核心,但是分支预测等通用计算性能。不行。
评论
https://github.com/soumith/convnet-benchmarks 楼主跑个benchmarks呗,我看这个https://medium.com/intuitionmachine/building-a-50-teraflops-amd-vega-deep-learning-box-for-under-3k-ebdd60d4a93c跑的数据好像是要被1080吊打的。
评论
你怎么知道我正在做的事情!!。。不过我现在还在尝试在ubuntu下把两张卡driven起来。
评论
大神求教底层api怎么学
评论
大神不会是按摩店的吧 电路 电子 维修 我现在把定影部分拆出来了。想换下滚,因为卡纸。但是我发现灯管挡住了。拆不了。不会拆。论坛里的高手拆解过吗? 评论 认真看,认真瞧。果然有收 电路 电子 维修 求创维42c08RD电路图 评论 电视的图纸很少见 评论 电视的图纸很少见 评论 创维的图纸你要说 版号,不然无能为力 评论 板号5800-p42ALM-0050 168P-P42CLM-01
·日本中文新闻 唐田绘里香为新剧《极恶女王》剃光头 展现演员决心
·日本中文新闻 真子小室夫妇新居引发隐私担忧
·日本中文新闻 前AKB48成员柏木由纪与搞笑艺人交往曝光
·日本学校 {日本国际学校}梅田インターナショナルスクール
·日本学校 LINE:sm287 陳雨菲、20歳、台湾からの留学生、東京に来たばかり
·日本留学生活 出售平成22年走行48000km 代步小车
·日本华人网络交流 円相場 一時1ドル=140円台まで上昇?
·日本华人网络交流 问日本华人一个问题
·日本旅游代购 富山接机
·生活百科 英国转澳大利亚转换插头
·汽车 【求助】修车遇到困难怎么办?