数据科学家需要算力,GPU 如何实现?

2019-08-12 14:24:43 来源: AI开发者
标签:
GPU   CPU

数据科学家需要算力。无论您是用 pandas 处理一个大数据集,还是用 Numpy 在一个大矩阵上运行一些计算,您都需要一台强大的机器,以便在合理的时间内完成这项工作。

 

在过去的几年中,数据科学家常用的 Python 库已经非常擅长利用 CPU 能力。

 

Pandas 的基础代码是用 C 语言编写的,它可以很好地处理大小超过 100GB 的数据集。如果您没有足够的 RAM 来容纳这样的数据集,那么您可以使用分块功能,它很方便,可以一次处理一个数据块。

 

GPUs vs CPUs:并行处理

有了大量的数据,CPU 就不会切断它了。

 

一个超过 100GB 的数据集将有许多数据点,数据点的数值在数百万甚至数十亿的范围内。有了这么多的数据点要处理,不管你的 CPU 有多快,它都没有足够的内核来进行有效的并行处理。如果你的 CPU 有 20 个内核(这将是相当昂贵的 CPU),你一次只能处理 20 个数据点!

 

CPU 在时钟频率更重要的任务中会更好——或者根本没有 GPU 实现。如果你尝试执行的流程有一个 GPU 实现,且该任务可以从并行处理中受益,那么 GPU 将更加有效。

 

 

多核系统如何更快地处理数据。对于单核系统(左),所有 10 个任务都转到一个节点。对于双核系统(右),每个节点承担 5 个任务,从而使处理速度加倍

 

深度学习已经在利用 GPU 方面发挥了相当大的作用。许多在深度学习中完成的卷积操作是重复的,因此在 GPU 上可以大大加速,甚至可以达到 100 次。

 

今天的数据科学没有什么不同,因为许多重复的操作都是在大数据集上执行的,库中有 pandas、Numpy 和 scikit-learn。这些操作也不太复杂,无法在 GPU 上实现。

 

最后,还有一个解决方案。


用 Rapids 加速 GPU

Rapids 是一套软件库,旨在利用 GPU 加速数据科学。它使用低级别的 CUDA 代码实现快速的、GPU 优化的算法,同时它上面还有一个易于使用的 Python 层。

 

Rapids 的美妙之处在于它与数据科学库的集成非常顺利,比如 pandas 数据帧就很容易通过 Rapids 实现 GPU 加速。下图说明了 Rapids 如何在保持顶层易用性的同时实现低层的加速。

 

 

Rapids 利用了几个 Python 库:

cuDF-Python GPU 数据帧。它几乎可以做 pandas 在数据处理和操作方面所能做的一切。

 

cuML-cuGraph 机器学习库。它包含了 Scikit-Learn 拥有的许多 ML 算法,所有算法的格式都非常相似。

 

cuGraph-cuGraph 图处理库。它包含许多常见的图分析算法,包括 PageRank 和各种相似性度量。

 

如何使用 Rapids

安装

现在你将看到如何使用 Rapids!

 

要安装它,请访问这个网站,在这里你将看到如何安装 Rapids。你可以通过 Conda 将其直接安装到你的机器上,或者简单地使用 Docker 容器。

 

安装时,可以设置系统规范,如 CUDA 版本和要安装的库。例如,我有 CUDA 10.0,想要安装所有库,所以我的安装命令是:

conda install -c nvidia -c rapidsai -c numba -c conda-forge -c pytorch -c defaults cudf=0.8 cuml=0.8 cugraph=0.8 python=3.6 cudatoolkit=10.0

 

一旦命令完成运行,就可以开始用 GPU 加速数据科学了。

 

设置我们的数据
对于本教程,我们将介绍 DBSCAN demo 的修改版本。我将使用 Nvidia 数据科学工作站和 2 个 GPU 运行这个测试。

 

DBSCAN 是一种基于密度的聚类算法,可以自动对数据进行分类,而无需用户指定有多少组数据。在 Scikit-Learn 中有它的实现。

 

我们将从获取所有导入设置开始。先导入用于加载数据、可视化数据和应用 ML 模型的库。


import os
import matplotlib.pyplot as plt
from matplotlib.colors import ListedColormap
from sklearn.datasets import make_circles
make_circles 函数将自动创建一个复杂的数据分布,类似于我们将应用于 DBSCAN 的两个圆。

 

让我们从创建 100000 点的数据集开始,并在图中可视化:


X, y = make_circles(n_samples=int(1e5), factor=.35, noise=.05)
X[:, 0] = 3*X[:, 0]
X[:, 1] = 3*X[:, 1]
plt.scatter(X[:, 0], X[:, 1])
plt.show()

 


CPU 上的 DBSCAN
使用 Scikit-Learn 在 CPU 上运行 DBSCAN 很容易。我们将导入我们的算法并设置一些参数。


from sklearn.cluster import DBSCAN
db = DBSCAN(eps=0.6, min_samples=2)
我们现在可以通过调用 Scikit-Learn 中的一个函数对循环数据使用 DBSCAN。在函数前面加上一个「%」,就可以让 Jupyter Notebook 测量它的运行时间。


%%time
y_db = db.fit_predict(X)
这 10 万个点的运行时间是 8.31 秒,如下图所示:

 

 

使用 Scikit-Learn 在 CPU 上运行 DBSCAN 的结果
GPU 上带 Rapids 的 DBSCAN

 

现在,让我们用 Rapids 进行加速!

 

首先,我们将把数据转换为 pandas.DataFrame 并使用它创建一个 cudf.DataFrame。pandas.DataFrame 无缝转换成 cudf.DataFrame,数据格式无任何更改。


import pandas as pd
import cudf

X_df = pd.DataFrame({'fea%d'%i: X[:, i] for i in range(X.shape[1])})
X_gpu = cudf.DataFrame.from_pandas(X_df)
然后我们将从 cuML 导入并初始化一个特殊版本的 DBSCAN,它是 GPU 加速的版本。DBSCAN 的 cuML 版本的函数格式与 Scikit-Learn 的函数格式完全相同:相同的参数、相同的样式、相同的函数。


from cuml import DBSCAN as cumlDBSCAN

db_gpu = cumlDBSCAN(eps=0.6, min_samples=2)
最后,我们可以在测量运行时间的同时运行 GPU DBSCAN 的预测函数。


%%time
y_db_gpu = db_gpu.fit_predict(X_gpu)
GPU 版本的运行时间为 4.22 秒,几乎加速了 2 倍。由于我们使用的是相同的算法,因此结果图也与 CPU 版本完全相同。

 

 

使用 cuML 在 GPU 上运行 DBSCAN 的结果
使用 Rapids GPU 获得超高速

 

我们从 Rapids 获得的加速量取决于我们正在处理的数据量。一个好的经验法则是,较大的数据集将更加受益于 GPU 加速。在 CPU 和 GPU 之间传输数据有一些开销时间——对于较大的数据集,开销时间变得更「值得」。

 

我们可以用一个简单的例子来说明这一点。

 

我们将创建一个随机数的 Numpy 数组并对其应用 DBSCAN。我们将比较常规 CPU DBSCAN 和 cuML 的 GPU 版本的速度,同时增加和减少数据点的数量,以了解它如何影响我们的运行时间。

 

下面的代码说明如何进行测试:


import numpy as np

n_rows, n_cols = 10000, 100
X = np.random.rand(n_rows, n_cols)
print(X.shape)

X_df = pd.DataFrame({'fea%d'%i: X[:, i] for i in range(X.shape[1])})
X_gpu = cudf.DataFrame.from_pandas(X_df)

db = DBSCAN(eps=3, min_samples=2)
db_gpu = cumlDBSCAN(eps=3, min_samples=2)

%%time
y_db = db.fit_predict(X)

%%time
y_db_gpu = db_gpu.fit_predict(X_gpu)
检查下面的 Matplotlib 结果图:

 

 

当使用 GPU 而不是 CPU 时,数量会急剧增加。即使在 10000 点(最左边),我们的速度仍然是 4.54x。在更高的一端,1 千万点,我们切换到 GPU 时的速度是 88.04x!

 
关注与非网微信 ( ee-focus )
限量版产业观察、行业动态、技术大餐每日推荐
享受快时代的精品慢阅读
 

 

继续阅读
A13 强大的背后:外观奇葩缺乏 5G,但处理器才是霸主

在一份疑似iPhone 11 Pro的Geekbench 4.4跑分成绩中,A13芯片的CPU取得了5472/13769的单核/多核分数。

三星 Exynos 980与华为麒麟 990 对比,华为不选用Cortex-A77 架构的原因是什么?
三星 Exynos 980与华为麒麟 990 对比,华为不选用Cortex-A77 架构的原因是什么?

华为于IFA 2019主题演讲期间发布新一代Kirin 990 5G与Kirin 990处理器,前者主要整合5G Modem规格,也是全球首先发布采用7nm EUV的5G处理器;后者则整合4G Modem,在制程方面仅用7nm。

串口通信的优缺点解析,什么情况下适合用串口通信?
串口通信的优缺点解析,什么情况下适合用串口通信?

UART是用于控制计算机与串行设备的芯片。有一点要注意的是,它提供了数据终端设备接口,这样计算机就可以和调制解调器或其它使用RS-232C接口的串行设备通信了。

摩尔定律存亡争论不休,能否“修正”重出舞台?

与非网9月12日讯,“摩尔定律过去是每5年增长10倍,每10年增长100倍。 而如今,摩尔定律每年只能增长几个百分点,每10年可能只有2倍。 因此,摩尔定律结束了。 ”

Intel 坦言自己输给了 AMD,究竟还能不能绝地反击?

与非网9月11日讯,随着AMD 7nm锐龙3000处理器的上市,Intel与AMD之间的竞争变得日趋激烈,从多家海内外电商平台的销售情况来看,AMD的锐龙3000处理器很受欢迎,但Intel在OEM、服务器等领域依然占优。

更多资讯
DRAM 存储产业充满血腥,中国发展恰逢其时
DRAM 存储产业充满血腥,中国发展恰逢其时

2018年,全球DRAM市场规模为1000亿美元,其中三星、SK海力士、美光三大巨头市场占有率超过90%,呈现寡头垄断态势。时值三大DRAM供应商垄断市场多年,价格飙升,居高不下;即使价格波动,比起以前DRAM价格一天崩跌30%,现在一季下不足10%。对系统厂商来说,真可谓天下苦秦久矣。

华虹半导体 12 英寸项目正式投片,创集团最快投产记录
华虹半导体 12 英寸项目正式投片,创集团最快投产记录

2019年9月17日,华虹集团旗下华虹半导体位于无锡的集成电路研发和制造基地(一期)12英寸生产线建设项目正式投片。数百名嘉宾和员工代表出席,共同见证了华虹无锡基地这一里程碑式的重要时刻。

5G、AI 带领发展,半导体厂商现回温
5G、AI 带领发展,半导体厂商现回温

受到半导体产业需求衰退影响,半导体设备部分也面临需求减缓状况。不过在5G、AI等新兴芯片需求带动下,仍为部份设备厂商带来机会。

ARM架构进军服务器界有望,一个华芯通倒下,另一个华为站起来了?

与非网9月18日讯,做ARM架构服务器的华芯通于今年四月倒闭,留下一片唏嘘,如今华为发布Atlas 900最强计算集群,该训练集群由多个Ascend 910 芯片构成,针对ARM到底能否做服务器,华为高管做出了解答。

2018 全球 SSD 市场占有率排名:台厂获利稳定,陆厂积极抢攻

与非网9月18日讯,2018年全球渠道SSD出货量约8100万台水平,较2017年成长近50%,SSD渠道市场上的前三大模组厂自有品牌分别为金士顿、威刚、金泰克。