( arpi_esp | 2017. 08. 22., k – 00:15 )

ez a talos jopofa csak cseppet draga. meg nem nagyon hiszem hogy a jelenleg hasznalt lapack/blas/nn libek kozul barmi is lenne erre optimalizalva...

Key differences between MIOpen v1.0 and cuDNN:
• MIOpen only supports 4-D tensors in the NCHW storage format. This means all the “*Nd*” APIs in cuDNN do not have a corresponding API in MIOpen.
• MIOpen only supports float (fp32) data-type.
• MIOpen only supports 2D Convolutions and 2D Pooling.
• Calling miopenFindConvolution*Algorithm() is mandatory before calling any Convolution API.
• Typical calling sequence for Convolution APIs for MIOpen is:
o miopenConvolution*GetWorkSpaceSize() // returns the workspace size required by Find() o miopenFindConvolution*Algorithm() // returns performance info about various algorithms o miopenConvolution*()
• MIOpen does not support Preferences for convolutions.
• MIOpen does not support Softmax modes. MIOpen implements the SOFTMAX_MODE_CHANNEL flavor.
• MIOpen does not support Transform-Tensor, Dropout, RNNs, and Divisive Normalization.

lol. tehat van egy auto kerekek nelkul ami csak rukvercbe tud menni es azt is csak egyenesen... ez mar eleve elegge gaz, arrol nem beszelve, hogy az "iparagi standard" frameworkok (numpy, tensorflow es tarsai) sem tamogatjak.

par ev mulva ez is jo lesz biztosan, de mivel december a hatarido, most nem szeretnek elterni a kiforrott, elterjedt eszkozoktol es jelentkezni amd betatesternek :)

nalam jobban kevesen utaljak az nvidiat, bar en az amd-t se szivlelem foleg cpu teren. de azt el kell ismerni hogy a cuda/cudnn eleg jol ossze van rakva, legalabbis ma mar, amikor elkezdtek ugy 8 eve meg biztos annak is voltak nyugjei. de ami a nagyobb baj, hogy NN teruleten gyakorlatilag minden lib, framework, proof-of-concept kod a cudnn-re epul jelenleg.

A'rpi