GPU计算

在机器学习的训练模型时,业界大量使用GPU来加速。

通常 GPU 会包含大量的处理核心,以相对稍慢的速度运行,但是能够通过使用大量运算逻辑单元(ALU)来提供很大的并行度。

GPU全称叫做graphics processing unit,图形处理器。图形显示处理,也称为"渲染",即几何点的位置和颜色计算,在数学上使用四维向量和变换矩阵的乘法,所以GPU被设计成专门适合做类似运算的专用处理器。

由于深度学习中一种成功应用的技术,卷积神经网络CNN,就是很多卷积运算和矩阵运算的组合,并且卷积运算通过一定的数学手段也可以通过矩阵运算来完成。这样的操作就和GPU擅长的图形点的矩阵运算是一样的。所以深度学习可以恰动地使用GPU进行加速。

深度学习并非只能使用GPU进行计算,实际上CPU也能够完成深度学习,毕竟CPU作为通用处理器也能够完成矩阵运算。只不过GPU由于在渲染运算的矩阵运算的长处,恰好也能够加速同样的机器学习(卷积神经网络CNN),所以特别适合做这方面机器学习加速。

参考

Last updated