ichou1のブログ

主に音声認識、時々、データ分析のことを書く

AWSメモ(VPCエンドポイント集約)

AWS

VPCエンドポイントの課金は、時間課金と使用量課金の2つになる(=データ転送がなくても課金される) そして、アベイラビリティゾーンごとに課金される。 Pricing Calculatorより(東京リージョン) 1時間あたり「0.014 USD」ということで、VPCエンドポイン…

AWSメモ(HTTPS 通信で AWS EC2 へのリモートデスクトップ接続)

AWS

「RDP over HTTPS」に関するメモ。「Systems Manager」を利用することで、パブリックなIPアドレスを持たなくても接続できる。aws.amazon.com 今回、試したAWS上の環境は下図のとおり。 エンドポイントに関しては、VPCのAZ数を「2」にしたことで各AZに自動生…

AWSメモ(VPC課金)

AWS

「AWS」を試していて、いつの間にか課金が膨れていたので備忘として。試したのは、「Transit Gateway」周り。 下図のように、「VPC」と「Direct Connect Gateway」をアタッチ。 一週間ほど放置した後のBillingが下図(VPCエンドポイントは関係なし) このお…

FinTechを考える(その1)

お金とは何かを考えてみるまずイメージするのは紙幣やコイン。 それらは、世の中にどれほど回っているのだろうか。マネタリーベース統計によると、2021年8月末の時点で、市中に出回っているお金(通貨流通高)はおおよそ「122兆円」(紙幣が「117兆円」、貨…

音声合成メモ(AutoVC)

「AutoVC」を試してみる。 GitHub - auspicious3000/autovc: AutoVC: Zero-Shot Voice Style Transfer with Only Autoencoder Loss AUTOVC is a many-to-many non-parallel voice conversion framework. モチベーション 「SpeechSplit」を試してみようとして…

MakeItTalkその1

「MakeItTalk」を試してみる。 音声ファイルに合わせて、口パク動画を生成してくれるもので、インプットとなる音声ファイルも画像も「1つだけ」でよいのがすごい。github.com実際に生成された口パク動画のデモ。 多少、画像の精度が落ちているようだが、音…

日銀のEFT買い入れを可視化してみる(2021年4月9日までのデータ)

日銀によるETF購入の方針が変わる。jp.reuters.com 日銀の黒田東彦総裁は22日、参院・財政金融委員会で、上場投資信託(ETF)の買い入れ対象をTOPIX連動型のみに変更したことについて「個別銘柄に偏った影響ができるだけ生じないように、指数構成…

日銀のEFT買い入れを可視化してみる(2021年3月5日までのデータ)

3月4日、5日と、2日連続で日銀によるETFの買入れ(500億円超)があった。指数連動型上場投資信託受益権(ETF)および不動産投資法人投資口(J-REIT)の買入結果 日銀のETF買入れと日経平均株価の関係をプロットしてみる。株価の下降局面で買い支えているのが…

音声合成メモ(tacotron2その4)

トレーニング時におけるmodelの内部処理を見てみる。 Embedding/Encoderレイヤ Embeddingレイヤに渡す前に、テキスト文字はidに置き換えられる。idはゼロ始まりの148個。 ARPAbetの発音記号も含まれる。 {'_': 0, '-': 1, '!': 2, "'": 3, '(': 4, ')': 5, '…

音声合成メモ(tacotron2その3)

内部処理を見てみる。今回は、音声ファイルから特徴量(log-mel spectrogram)を求めるところまで。ソースでは、「mel_spectrogram」関数が該当する。 https://github.com/NVIDIA/tacotron2/blob/master/layers.py#L63 def mel_spectrogram(self, y): """Com…

音声認識や音声合成に出てくる用語のまとめ

(随時、更新します) 「スペクトラム」と「スペクトログラム」の違い 時間領域で標本化されたデータはチャンクに分けられ(チャンクは一般にオーバーラップさせる)、チャンク毎にフーリエ変換を施す。 各チャンクの変換結果が、ある時間における全周波数成…

音声合成メモ(tacotron2その2)

内部でどのような処理を行っているのか見てみる。論文より(Encoder/Decoderの枠線を加筆) 「torchsummaryX」を使って、モデルのサマリを出力してみる。 各レイヤ構成 Embedding (embedding): Embedding(148, 512) Encoder 「BatchNorm1d」レイヤに関して…

音声合成メモ(tacotron2その1)

NVIDIAのtacotron2を試してみる。GitHub - NVIDIA/tacotron2: Tacotron 2 - PyTorch implementation with faster-than-realtime inferenceまずは、Pre-trainedモデルを使ってinference(推論)「ちいさなうなぎやに」という音声を生成してみる。 text = 'che…

音声合成メモ(World)その1

音声合成「World」を試してみる。下記で公開されているATR音素バランス503文の発話データと、 https://ja.osdn.net/projects/galateatalk/releases/22207パラレルデータとして下記の"綾波音声"データを使用させていただいた。 Scyclone Demo Page データ1 ち…

音声認識メモ(DeepSpeech)その7

特徴量変換の際に、「MinMax正規化」を使ってみる。特徴量変換 波形データ 左から下記のとおり。 「ジェット機」 「どろぼうでもはいったかと、いっしゅんぼくはおもった」 「さっぽろ」 波形データ(MinMax正規化) data = librosa.util.normalize(original…

音声認識メモ(DeepSpeech)その6

前回の続き。プリエンファシスは必要か?「ジェット機」という音声のスペクトログラム。 左が「pre-emphasis なし」、右が「pre-emphasis あり」 トレーニング時の学習セット(ATR503) 他コーパス(その1) 最初の「ジェット機」に関しては、プリエンファシ…

音声認識メモ(DeepSpeech)その5

モデルのインプットとして使う特徴量を「MFCC」から「log-mel spectrum」へ変えてみる。インプットとして使う特徴量を変えてみる各Time-Stepごとの次元は、「26」次元(MFCC13次元にdelta特徴量を加えた分)から「128」次元(フィルタバンクチャネル数)に置…

音声認識メモ(DeepSpeech)その4

前回の続き。 それなりの認識精度が出ることを確認した。ここから、認識精度を高めること、汎化させることを考えてみる。 他コーパスの音声ファイル認識まずは、別の音声コーパスを試してみる。「東北大‐松下 単語音声データベース (TMW)」の単語音声「さっ…

Deep Learningを使ったWEBサービスはメモリ1GBでも動かせる

TensorFlowやPyTorchといった深層学習ライブラリを使おうとした場合、動かす環境はそれなりのスペックが必要になる。物理メモリが2GBのPCを使っていた頃、「VGG16」モデルを転移学習しようとしたらメモリに乗り切らなくて断念したことがある。トレーニングの…

日銀EFT買い入れの可視化をWEBサービスとして公開してみる

日銀EFT買い入れの可視化をWEBサービスとして公開してみる。https://analytics.katakanadojo.tokyo/d/WtlmSAaWz/nikkei?orgId=1&viewPanel=2 免責事項 コンテンツの内容に関しては細心の注意を払っておりますが、正確であるかについて保証をするものではなく…

TensorFlowメモ(clipped_relu)

Tensor演算に関するメモ。前回見たDeepSpeechのモデルでは、Denseレイヤの活性化関数で「clipped_relu」を指定した。 x = TimeDistributed(Dense(units=fc_size, kernel_initializer=init, bias_initializer=init, activation=clipped_relu), name='dense_1'…

音声認識メモ(DeepSpeech)その3

トレーニングによるパラメータ更新を試してみる。トレーニングデータは、下記で公開されているATR音素バランス503文の発話データを使うことにする。 https://ja.osdn.net/projects/galateatalk/releases/22207日本語コーパスを使った音素認識については下記…

TensorFlowメモ(CudnnLSTM)

DeepSpeechでは、「tensorflow.contrib」モジュールの「CudnnLSTM」が使われているので調べてみる。「CudnnLSTM」のソースコード tensorflow/cudnn_rnn.py at v1.15.2 · tensorflow/tensorflow · GitHub実行する環境は「TensorFlow 2.X」系 % python -c 'imp…

日銀のEFT買い入れを可視化してみる(2020年4月末までのデータ)

日銀が公開している情報をもとに、2020年4月末までのETF買い入れ額の累計を計算してみる。対象は、以下2つ。 設備投資および人材投資に積極的に取り組んでいる企業を支援するためのETF 上記以外のETF データは「InfluxDB」に登録した。 > select sum(amount_…

音声認識メモ(DeepSpeech)その2

モデルの構造DeepSpeechの「create_model」関数を追ってみると、modelの構造としては「6層」 Layer1: Dense ( + clipped RELU activation + dropout ) Layer2: Dense ( + clipped RELU activation + dropout ) Layer3: Dense ( + clipped RELU activation + …

TensorFlowメモ(checkpointの中身を確認する)

checkpointファイルをもとに、TensorFlowモデルの内部パラメータを確認する方法のメモ。実行する環境は「TensorFlow 2.X」系 % python -c 'import tensorflow as tf; print(tf.__version__)' 2.1.0 確認用データの準備下記をもとに、適当なモデルを作って、c…

音声認識メモ(DeepSpeech)その1

Mozillaが公開する「DeepSpeech」を試してみる。 github.com環境準備(インストール) % pip install deepspeech% pip show deepspeech Name: deepspeech Version: 0.7.0 Summary: A library for running inference on a DeepSpeech model Home-page: https:…

音声ファイル特徴量変換(その6)MFCC(TensorFlow)

TensorFlowでMFCC(Mel-Frequency Cepstral Coefficient)を求めるには、「tf.signal.mfccs_from_log_mel_spectrograms」関数が提供されている。tf.signal.mfccs_from_log_mel_spectrograms | TensorFlow Core v2.1.0インプットは、前回見た、「メルスペクト…

音声ファイル特徴量変換(その5)メルスペクトログラム(TensorFlow)

TensorFlowでメルスペクトログラムを求めるには、「tf.signal.linear_to_mel_weight_matrix」関数が提供されている。 https://www.tensorflow.org/api_docs/python/tf/signal/linear_to_mel_weight_matrixMelスケールに変換するためのMatrixが得られるので、…

日銀のEFT買い入れを可視化してみる(2020年3月第1週までのデータ)

3月第1週は、2日と6日の2回、日銀によるETF買い入れが入った。 1回あたり購入額は、過去最大規模となる1002億円。 白のプロットが日経平均株価(終値) 紫の積み上げがETF買い入れ額(億円) 日銀が公開している情報をもとに、2020年に入ってからの分を集計…