Deep Learningを使ったWEBサービスはメモリ1GBでも動かせる
TensorFlowやPyTorchといった深層学習ライブラリを使おうとした場合、動かす環境はそれなりのスペックが必要になる。
物理メモリが2GBのPCを使っていた頃、「VGG16」モデルを転移学習しようとしたらメモリに乗り切らなくて断念したことがある。
トレーニングの時はスペックが高い方が好ましいとして、推論の時はどうか。
VPSを借りて、TensorFlowモデルを使って文字認識するWEBサービスを公開してみた。
結論から書くと、推論をさせるだけなら、メモリ1GBでもわりとサクサク動く。
借りたVPSサービス
NTTPC社「WebARENA」
https://web.arena.ne.jp/indigo/
メモリ1GBプラン
構成
「Ubuntu」上に「Docker」エンジンを入れて、コンテナを3つ立てている。
尚、上記に加えて、別のコンテナを2つ(「grafana」と「influxDB」)、計5コンテナを動かしている。
https://analytics.katakanadojo.tokyo/https://analytics.katakanadojo.tokyo/d/WtlmSAaWz/nikkei?viewPanel=2&orgId=1