NVIDIA GTC SV 2019 に参加しました Report from NVIDIA GTC SV 2019
2019.03.29
2019.03.29
Last week I attended NVIDIA GPU Technology Conference (GTC) held at San Jose, CA on 17-21 March, 2019. This is a short report mainly focused on AI and HPC part of the conference, while the other parts are graphics and robotics (in line with Jensen Huang’s keynote).
I have attended GTC in Japan before. GTC in San Jose, called GTC SV (meaning Silicon Valley) for short, does have more sessions and more participants (reportedly 9000) than GTC in Japan. With so many sessions, many of which are conducted in parallel, it is hard to build up a personal schedule. If you look at the schedule of all the sessions of GTC SV attached below, you can see that up to almost 28 sessions, that include talks, instructor-led trainings and tutorials, were held on the same time.
先週、2019年3月17~21日にカリフォルニア州サンノゼで開催されたNVIDIA GPU Technology Confereceに出席しました。これは主にAIとHPCの部分に焦点を当てた手短かなレポートです。(Jensen Huang氏のキーノートスピーチによると、他の部分はグラフィックスとロボティクスです。)
私は以前、日本のGTCに参加したことがあります。 サンノゼのGTCは、略してGTC SV(Silicon Valley)と呼ばれ、日本のGTCよりもセッションと参加者(報告によると9000人)が多いです。多くのセッションは並行して行われていたので、個人的なスケジュールを組むのは困難でした。下に添付されているGTC SVのすべてのセッションのスケジュールを見ると、講演、講師によるトレーニング、チュートリアルなど、最大30弱のセッションが同時に開催されたことがわかります。
There were not so many new hardware announcements. Worth mentioning is a new Jetson NANO, probably the cheapest computer with a GPU you can get: it only costs $99 in the US.
In contrast to the hardware, there were quite a lot of announcements of the software.
Data Science was one of the main keywords throughout the conference. With the purpose of taking all data science workflow (or “pipeline”) to GPU, NVIDIA is developing a suite of software libraries called RAPIDS. It also includes some of the software developed before, such as pydf.
ハードウェアとは対照的に、ソフトウェアについてはかなり多くの発表がありました。
データサイエンスは、学会の主要なキーワードの1つでした。すべてのデータサイエンスワークフロー(または「パイプライン」)をGPUに取り入れることを目的として、NVIDIAはRAPIDSと呼ばれる一連のソフトウェアライブラリを開発しています。それには、pydfなど、以前に開発されたソフトウェアも含まれています。
End-to-end GPU data science pipeline also incorporates libraries being developed by other companies, such as CuPy and Numba.
The main idea of this pipeline is to do all data processing on GPUs without moving data between the host and GPU memory. For datacenters this GPU pipeline will also require networking hardware with support for RDMA, RoCE and GPUdirect, which provide data transfer among GPU memory of multiple GPUs on multiple nodes without using CPUs.
The pipeline is meant to be easy to use for those familiar with existing data science tools such as pandas and scikit-learn. For handling data in dataframes RAPIDS includes cuDF, which mimics pandas. For machine learning algorithms library RAPIDS has cuML which is used in place of scikit-learn.
CPU | NVIDIA GPU |
---|---|
numpy | CuPy, Numba |
pandas | cuDF |
Scikit-learn | cuML |
matplotlib | ? |
CPU vs GPU data science libraries
CPUとGPUのデータサイエンスライブラリー
|