Python、データ分析界隈はTensorFlowの登場でにわかに沸き立っていますが、実はTensorFlowはデフォルトでサポートしているgpuに制限があり、Nvidia Compute Capability 3.5 以上のgpuしか使えません。そして大体のひとが使うであろうawsのgpuインスタンスの GRID K520 のNvidia Compute Capabilityは3.0です。ドラゴンボールだと一般人以下です。つまりゴミ以下なのでTensorFlowは使えません。

もちろん既にGitHubでもissueが立っており、公式に対応してくれています。

https://github.com/tensorflow/tensorflow/issues/25

configure時に

TF_UNOFFICIAL_SETTING=1 ./configure

とすればNvidia Compute Capability選択させたるで!とのこと。やったね!

ってbuild必要なんかい!というわけで環境構築を行います。なお、途中でcuDNNが必要になりますが、cuDNNのダウンロードはnvdiaに登録後、1日ぐらい審査に時間がかかるので、早めに申請することをおすすめします。

Contents

前準備

awsのリージョンはオレゴンとかの田舎にしましょう。安いので。Ubuntu 14.04のインスタンスを起動します。


# localeをtokyoに変更
sudo cp /usr/share/zoneinfo/Asia/Tokyo /etc/localtime
sudo locale-gen ja_JP.UTF-8

# rootになる
sudo su -

# 各種ツールをインストール。
# linux-image-extra-virtualのインストールでは、"install the package maintainer's version"を選択する。(cudaのインストールに必要。)
apt-get update && apt-get install -y build-essential linux-image-extra-virtual wget git default-jdk zip zlib1g-dev swig

# cudaをインストールする前に既存のドライバ(nouveau)を無効化する
vi /etc/modprobe.d/blacklist-nouveau.conf
# 下記を書いて保存 ----------------------
blacklist nouveau
blacklist lbm-nouveau
options nouveau modeset=0
alias nouveau off
alias lbm-nouveau off
# ---------------------------------------

echo options nouveau modeset=0 | sudo tee -a /etc/modprobe.d/nouveau-kms.conf
update-initramfs -u
reboot


# 再起動後、anaconda pythonをインストール
sudo su -
wget --quiet https://repo.continuum.io/archive/Anaconda-2.3.0-Linux-x86_64.sh && /bin/bash Anaconda-2.3.0-Linux-x86_64.sh -b -p /opt/conda

# pathの設定
vi /etc/profile.d/path.sh
# ---------------------------------------
export PATH=/opt/conda/bin:$PATH
# ---------------------------------------

# path設定を読み込む
source /etc/profile.d/path.sh
# default encodingをutf-8にする。(TensorFlowには関係ないけど、やっといた方が後々助かる)
vi /opt/conda/lib/python2.7/sitecustomize.py
# ---------------------------------------
import sys
sys.setdefaultencoding('utf-8')
# ---------------------------------------

# CUDA 7.0のインストール (7.5は未サポート)
apt-get install -y linux-source linux-headers-$(uname -r)
export CUDA_MAJOR=7.0
export CUDA_VERSION=7.0.28
export CUDA_MAJOR_U=7_0
cd /tmp && wget http://developer.download.nvidia.com/compute/cuda/${CUDA_MAJOR_U}/Prod/local_installers/cuda_${CUDA_VERSION}_linux.run && chmod +x cuda_*_linux.run && ./cuda_*_linux.run -extract=`pwd` &&   ./NVIDIA-Linux-x86_64-*.run -s
modprobe nvidia
./cuda-linux64-rel-*.run
./cuda-samples-linux-*.run

# 確認 (これをしないと/dev/以下にデバイスファイルが出てこない)
cd /usr/local/cuda/samples/1_Utilities/deviceQuery
make
./deviceQuery
# ls /dev/ すると、nvdia系のデバイスが見えるようになっている。

# cudnn 6.5
# cudnn-6.5-linux-x64-v2.tgzはnvdiaのサイトに登録して自分でダウンロードしてくる
tar xvzf cudnn-6.5-linux-x64-v2.tgz
cp cudnn-6.5-linux-x64-v2/cudnn.h /usr/local/cuda/include
cp cudnn-6.5-linux-x64-v2/libcudnn* /usr/local/cuda/lib64
reboot

# 再起動後、buildに必要なbazelをインストール
git clone https://github.com/bazelbuild/bazel.git
cd bazel
# バージョンは0.1.0のみサポート
git checkout tags/0.1.0
./compile.sh
sudo cp output/bazel /usr/bin

TensorFlowのインストール


# install tensorflow
cd ~/
# submoduleとしてprotocol buffersを使うので、オプションが必要
git clone --recurse-submodules https://github.com/tensorflow/tensorflow
cd tensorflow

# configureで、Nvidia Compute Capability に3.0を許可する。
TF_UNOFFICIAL_SETTING=1 ./configure

# 以下のような出力が出るので、書いたとおりに入力する
Do you wish to build TensorFlow with GPU support? [y/n]  -> y エンター
GPU support will be enabled for TensorFlow

Please specify the location where CUDA 7.0 toolkit is installed. Refer to README.md for more details. [Default is /usr/local/cuda]: -> エンター
Please specify the location where CUDNN 6.5 V2 library is installed. Refer to README.md for more details. [Default is /usr/local/cuda]: -> エンター

WARNING: You are configuring unofficial settings in TensorFlow. Because some external libraries are not backward compatible, these settings are largely untested and unsupported.

Please specify a list of comma-separated Cuda compute capabilities you want to build with.
You can find the compute capability of your device at: https://developer.nvidia.com/cuda-gpus.
Please note that each additional compute capability significantly increases your build time and binary size.
[Default is: "3.5,5.2"]: -> 3.0 エンター
Setting up Cuda include
Setting up Cuda lib64
Setting up Cuda bin
Setting up Cuda nvvm
# ---------------------------------------

# ビルド時のデフォルトのincludeディレクトリは /usr/include/python2.7 になっているので、
# includeディレクトリをanaconda pythonのものに変更 (ソースを変更するのでも良いと思う)
sudo ln -s /opt/conda/include/python2.7 /usr/include/python2.7
sudo ln -s /opt/conda/lib/python2.7/site-packages/numpy/core/include/numpy /opt/conda/include/python2.7/numpy

# cuda, cnnのライブラリをシンボリックリンク (pipのパッケージを作成するときに必要。)
# バッドノウハウっぽいのでもっとスマートなやり方があれば知りたい
sudo ln -s /usr/local/cuda/lib64/* /opt/conda/lib

# build
bazel build -c opt --config=cuda //tensorflow/cc:tutorials_example_trainer

# テスト実行
# エラーが出なければおk
/usr/local/cuda/samples/1_Utilities/deviceQuery/deviceQuery
bazel-bin/tensorflow/cc/tutorials_example_trainer --use_gpu


# pipパッケージをbuild
sudo /opt/conda/bin/pip install --upgrade pip
sudo /opt/conda/bin/pip install wheel

bazel build -c opt --config=cuda //tensorflow/tools/pip_package:build_pip_package
bazel-bin/tensorflow/tools/pip_package/build_pip_package /tmp/tensorflow_pkg
sudo /opt/conda/bin/pip install /tmp/tensorflow_pkg/tensorflow-0.5.0-py2-none-any.whl

# pythonからの動作テスト(mnist)
cd tensorflow/models/image/mnist
python convolutional.py

こんな感じでなんとかインストールして実行出来ました。
マイami化しておくと、次に使う時は便利です。
早くpipのパッケージでもec2サポートしてくれれば良いのですが。。。

ほんとに速くなるのか

Python – TensorFlow 畳み込みニューラルネットワークで手書き認識率99.2%の分類器を構築 – Qiita

この記事で使われているCNNのサンプルを、gpuバージョンとそうでないバージョン(どちらもg2.2xlarge)で実行したところ、

gpuアリ: 10分ぐらい

gpuナシ: 50分ぐらい

で学習終了しました。最初に上げたGitHub issueでは、「そもそもawsのgpuインスタンスは速くない」みたいな話が出てました。まあこんなところかなという気がします。

関連記事

fitbitの睡眠スコアを90弱で安定させる良い睡眠を続ける簡単な方法

m1 ipad pro 12.9 2021のusb-cハブはコレがベスト

Time Machine不要!Macを11.2.3にダウングレードして原神をm1 macbook airでプレイする

MH-Z19CとM5StickCで二酸化炭素濃度モニタリング

【神軽量HMD】Avegant Glyph 改造: 瓶詰堂さんのaltglyphを作った

PC、iPad、Android、switchもドックいらず!あまりに万能なusb-cハブが最強だった

コメント

コメントを返信する

メールアドレスが公開されることはありません。 が付いている欄は必須項目です