情弱

情弱のVST作製メモ

周期波形テーブルとシングルトン

はじめに

 サイン波テーブルを作成して、シングルトンでそれを使い回します。

 例によって素人調べなので、間違いがありましたらご指摘いただければ幸いです。

 

テーブルルックアップ [1, 2]

 周期波形1周期分のデータを用意し、それを使いまわす方法です。ここでは、周期波形の簡単な例としてサイン波を考えてみます。

     \sin{x} = \sin{(x + 2 n \pi)}    (n = integer)

 サイン波は、上記のような周期  2 \pi の周期関数です。従って、下記も成立します。

     \sin{x} = \sin{(x\ mod\ 2 \pi)}     (x \geq 0)

     \sin{x} = \sin{((2 \pi + x\  mod\ 2 \pi)\ mod\ 2 \pi)}     (x \lt 0)

 上記の右辺のsin関数の位相は、 [0, 2 \pi) となります。すなわち、Sin関数への入力位相  x は、結局のところ  [0, 2 \pi) の範囲に落とし込めることがわかります。

 このことから、 \sin{y}\ (0 \leq y \lt 2 \pi) のサイン波1周期分の波形メモリーをあらかじめ用意しておけば、入力位相を  [0, 2 \pi)  の範囲に落とし込み波形メモリーを参照することで、任意の入力位相に対するサイン関数出力を取り出すことができます。

 続いて、サイン波1周期分の波形メモリーをどうやって作成するかを考えてみます。

 コンピュータ上では、離散データしか扱えないので、連続した波形メモリーを用意することはできません。従って、サイン波1周期をN点でサンプリングすることで、波形メモリー数列  Sin_{m} を作成します。

  \displaystyle Sin_{m}(n) = \sum_{k = 0}^{N-1} \sin{(\frac{2 \pi k}{N})} \delta (n - k)     (0 \leq n \lt N)

 ここで、 \delta (n) は単位インパルス数列を表します。また、 nを今後、波形メモリーのアドレスと呼ぶことにします。

  では、続いて任意の入力位相  xから参照すべき波形メモリーのアドレスを算出する方法を考えていきます。

 これは、先の入力位相を  [0, 2\pi) の範囲に落とし込んだやり方そのままになります。ただし、 [0, 2\pi) [0, N) の範囲にスケール変換する必要があります。それを踏まえると、任意の入力位相  x に対応するアドレス  n_{x} は下記のようにして計算できます。

     \displaystyle n_{x} = \frac{N x\ mod\ 2 \pi}{2 \pi}     (x \geq 0)

     \displaystyle n_{x} = \frac{N (2 \pi + x\ mod\ 2 \pi)\ mod 2 \pi}{2 \pi}     (x \lt 0)

 これで、入力位相  xをアドレス  n_{x} に変換できました。ところで、波形メモリーは離散データなので、アドレスが整数値の部分にしかデータが存在しません。しかしながら、先に計算した  n_{x} は、整数値以外の値もとりえます。

 従って、 n_{x} が小数値になった場合、そのアドレスに対応するデータは、前後の整数値アドレスのデータを用いて補完する必要があります。この補完方法には、様々なやり方がありますが、今回は前後1点ずつのデータを用いて行う線形補完 [2]で対処します。この線形補完を行うことで、テーブルルックアップの完成です。

     sin(x) = (1 - \alpha) Sin_{m} (\lfloor n_{x} \rfloor) + \alpha Sin_{m}(\lceil n_{x} \rceil)     (\alpha = n_{x} - \lfloor n_{x} \rfloor)

 実際にこのテーブルルックアップを使って波形を生成してみます。C++でコーディングしてみたものが以下になります。

  以下は、生成波形をグラフ化してみたものですが、大丈夫そうですね。

f:id:aogiri_m2d:20170716135606p:plain

 

波形テーブルをSingletonにする [3]

  シンセサイザーの場合、サイン波のような基本波形は、メインのOSCやLFOといった様々な部分で必要になるかと思います。各モジュール毎に同じ波形テーブルのコピーを持たせてもしょうがないので、1つのSine波形テーブルをプログラム中のどこからでも、参照できるようにしてみます。

 先のコードをベースにSineTableをSingleton化してみると以下のようになるでしょうか(デザインパターンは成書できちんと学んだわけでは無いので、怪しいかも...C++ベースで書かれたおすすめのデザインパターン入門書の情報ください)。

 上記のようなごくごく小規模なサンプルプログラムだと、特に益が無いですね…。今回は、サイン波を例に行いましたが、バンドリミットしたノコギリ波テーブルを用いた基本波形OSCとか、もうちょっと実用的な部分もその内まとめておきたいですね。

 

参考文献
  1.  Joe Wright. "Synthesising band limited waveforms using wavetables". Musicdsp.org.

    http://www.musicdsp.org/files/bandlimited.pdf,  (accessed 2017-07-16).

  2. 青木直史.  C言語ではじめる音のプログラミング―サウンドエフェクトの信号処理. オーム社, 2008.  
  3. _narumi. "ゲームプログラマのためのデザインパターン(シングルトン)". Qiita. 

    http://qiita.com/narumi_/items/b205e59e7fc81695f380, (参照 2017-07-16).

手軽にフィルタ設計

はじめに

 SciPyのSignalサブパッケージを用いて、IIRフィルタを設計する際の基礎的なメモです。今回は、バタワース特性を持つローパスフィルタを設計してみます。

 素人理解なので、間違いがありましたらご指摘いただければ幸いです。

 

IIRフィルタの設計[1-3]

 以下のような手順に沿って行われます。

  1. 既存のアナログフィルタから、要求する周波数特性を満たせそうなものを探す。
  2. アナログフィルタの伝達関数 G(s)に、双一次変換法を施しデジタルフィルタの伝達関数 H(z)を得る。

 今回設計するバタワース特性を有するローパスフィルタの H(z)は、下記のようになります(2次系)。

  \displaystyle H(z) = \frac{b_{0} + b_{1}z^{-1} + b_{2} z^{-2}}{1 + a_{1} z^{-1} +a_{2} z^{-2}}

 ここで、  a_{n} 及び  b_{n} はフィルタ系数という、カットオフ周波数とサンプリング周波数に依存した値になります。  a_{n} 及び  b_{n} を含めた H(z)の形が定まれば、これを差分方程式に直して入力信号に対するフィルタリング処理が可能になります。また、  \displaystyle z = e^{j \omega T} とした時、  \displaystyle |H(e^{j \omega T})| \displaystyle arg(H(e^{j \omega T})) がそれぞれ、振幅特性・位相特性を示します(  \displaystyle H(e^{j \omega T}) は、一般に複素関数 \omega T は、角周波数とサンプリング周期)。

 結局は、既存の G(s)から任意のカットオフ周波数における、フィルタ係数を含めた H(z)全体を求めることになるのですが、まっとうにこの変換作業を行うのはなかなか骨の折れる作業となります。

 

SciPyでデジタルフィルタの伝達関数を求める[4, 5]

 Pythonの外部パッケージであるSciPyには信号処理用の関数がまとまったSignalというサブパッケージが用意されています。これを利用することで手軽に先の  \displaystyle H(e^{j \omega T}) を求めることができます。

 今回使用するSignalサブパッケージの関数は、"iirfilter"と"freqz"の2つになります。前者でフィルタ係数を、後者で  \displaystyle H(e^{j \omega T}) を求めることができます。詳細は、後述のソースコード内のコメント及び、公式のドキュメント[5]を参照してください。

 実際にこれらを使って、バタワース特性を持つローパスフィルタ(2次系)の振幅特性をプロットしてみたのが下記のソースコードになります。

以下、実行結果です(振幅特性のボード線図、フィルタ係数)。

f:id:aogiri_m2d:20170711013037p:plain

f:id:aogiri_m2d:20170711013117p:plain

 ちゃんと、カットオフ周波数 1 kHzから減衰しています。今回は試していませんが、"iirfilter"の返り値には、極と零点を指定することもできるみたいです。

 今回は2次系で行いましたが、高次系でも、同様に簡単にフィルタ係数を求めることができるのでありがたいですね。

 

参考文献

  1. 三谷政昭. 信号解析のための数学. 森北出版, 1990
  2. 大類重範. ディジタル信号処理.  日本理工出版会, 2001
  3. 鏡慎吾. "やる夫で学ぶディジタル信号処理".

    http://www.ic.is.tohoku.ac.jp/~swk/lecture/yaruodsp/preface.html

     (参照 2017-07-11)

  4.  中久喜健司. 科学技術計算のための Python入門. 技術評論社, 2016
  5. The Scipy community. "Signal processing (scipy.signal)". 

    https://docs.scipy.org/doc/scipy-0.19.0/reference/signal.html (参照 2017-07-11)

 

JUCEでソフトシンセをつくる 4 ~ ポリフォニック化

はじめに

 前回までで、オシレータとAmpEnvを持つモノシンセができました。

 今回は、これをポリフォニックシンセに拡張してやります。

 

モノからポリへ拡張する際の問題点

 まずは、前回までのモノフォニックシンセにおけるMIDIと波形生成の流れをざっくりと図示すると、下記のような感じでしょうか (Activity図の正しい書き方を知らないので間違ってても許していただきたい)。

f:id:aogiri_m2d:20170622205747j:plain

 入力MIDI noteのOn / offに応じて、MonoSynth内のOscillatorとAmpEvnの状態が切り替わりホストAudioBufferサイズ分の波形データを生成します。では、これがポリフォニックの場合はどうなるべきかを考えてみます。ポリフォニックでは、同時に複数の波形を生成する必要があるため、発音数分だけのMonoSynth (今後はVoiceと表記)を用意する必要があります。したがって、単純に先のモノフォニックに倣えば、下図のようになるでしょうか。

f:id:aogiri_m2d:20170622213221j:plain

 さて、この図を元にポリフォニック処理を実装しようとすると、MIDI on / off signalを受けっとた際に、どの番号のVoiceを処理すべきかという問題が生じます。MIDI onの時には、AmpEnvがRelease / Off Stateにあるボイス(今後は空のVoiceと表記)が、優先的に処理されることが期待されます。また、MIDI offの場合は、的確に"入力されたMIDI note番号と同じNote音階で鳴っているボイス"が処理される必要があります。その他にも、各ボイスのマージや何やら色々考える必要はありますが、以下、ポリフォニックにおけるMIDI入力時の処理に絞って、その実装を記述します。

ポリフォニックの実装

 引き続き、前回のプロジェクトをベースに拡張していきます。ポリフォニック処理は、新たにPolySynth Classを作成し、そこに記述していきます。下記に、今回実装したPolySynth Classのインターフェイス回りを記載します。

 適切なVoiceのOn / offを実現するためには、各ボイスの状態(Note番号)を常に把握しておく必要があります。そこで、各ボイスのNote番号を保持しておく、"VoiceState"構造体を導入しました。MIDI入力の度に、このVoiceStateを書き換え、On / Off状態に応じて2つのリスト間を移動させます。Voice本体は、このVoiceStateを参照して、そのふるまいを決めます。

 続いて、下記にMIDI入力時の具体的な処理を記載します。

 大体のことは、コード中のコメントに書いてあるので、以下は蛇足です。

 まず、MIDI on入力を受け取った時の処理ですが、空のボイスの有無で処理が分岐しますが、いずれにせよ、リストの先頭ボイスを上書きし、lisOnVoiceの末尾に要素を移しています。変更のあったボイスをリストの末尾から詰めていくことで、変更履歴の古い順にソートされた状態が保たれます。これは、MIDI off入力の時も同じで、MIDI offになったボイスは、lisOnVoiceからlisNoteOffの末尾に移されます。

 MIDI offになった直後のボイスは、Amp EnvがまだRelease状態にある可能性が高く、可能な限り再度On状態になるまでの時間を遅らせたいというのが自然な要求かと思います。これについては、リスト内において、Offなったタイミングが古い順に空ボイスがソートされているため、自然にクリアすることができます (MIDI onの書き込みは、lisNoteOffの先頭に対して行うようになっているため、古い空ボイスから優先して使用されます) 。

 残りのMIDI入力処理以外の部分については、下記のリポジトリに全ソースコードを置いておきます。

 

動作確認

 ようやく、シンセらしくなってきました。

 

今後は

 フィルターやLFOやら、いろいろ必要なものがありますが、正直、未定です。たぶん、FMについてのあれこれになりそう。

JUCEでソフトシンセをつくる 3 ~アンプエンベロープ

前回まで

 MIDI入力を通してAM・FMオシレータが鳴らせるようになりました。

今回は

  ADSRエンベロープカーブを持つアンプを実装します。実装するアンプエンベロープの仕様等については、後ほど記載します。

 

ソースファイルの追加

下の画像のように追加します。

f:id:aogiri_m2d:20170613215157j:plain

 アンプの実装は、前回のオシレータの時と同様にパラメータ部をモジュール本体部から独立させてます ("AmpParameters", "Amplifier")。

 また、オシレータもアンプもパラメータ部の実装については、共通する部分が多いので新たに"ParameterBase"クラスを設けて、それを継承する形で各モジュールのパラメータを実装していきましょう。これで、今後、さらにモジュールが増えることになっても実装をスムーズに進められるはずです。

 

Parameterの実装

 まずは、各モジュールのParameterクラスの基底となるParameterBaseクラスを用意してやります。

 これを継承してAmpParameterクラスを実装します。今回、必要なパラメータはADSR (Attack, Decay, Sustain, Release)の4種類になります。Sustain以外の時間に関するパラメータの表示上の単位次元は"秒"としておきます。Sustainに関しては無次元量としましょう (0 ~ 1.0 = 0 ~ 100 %)。

 継承先では、コンストラクタでパラメータインスタンスを作製するだけです。これで、パラメータの実装はかなり楽になりました。また、前回作製した"OscParameter"も同様の形に修正しておきましょう(詳細は割愛)。

 

 Amplifierの実装

 ADSR Envを持つアンプモジュールの本体部を実装していきます。これから、実装するアンプエンベロープのイメージ図は以下のようになります。

f:id:aogiri_m2d:20170613224551j:plain

 よく見るタイプの図ですね。今回、エベロープカーブは全て直線にしてしまいます。図からわからる用に、エンベロープは、AttackStateからOffStateまでの5種類の状態をとります。基本的には、各状態に入ってからの経過サンプル時間を積算していき、パラメータADRで設定した時間を超えたら、次の状態へと遷移するような仕組みを実装します。ただし、OffState->AttackState、SustainState->ReleaseStateの遷移は、時間経過ではなく、それぞれ、Ampが"MidiOn"、"MidiOff"を受けっとたタイミングで状態の遷移が生じます。

 さて、個々の状態において異なる内部パラメータは、そのカーブの傾き(sloop)になります。各状態におけるsloopを列挙すると以下のようになます。

 \displaystyle sloop_{attack} = \frac{1.0}{AttackTime}

 \displaystyle sloop_{decay} = -\frac{1.0 - SustainGain}{DecayTime}

 \displaystyle sloop_{sustain} = sloop_{off} = 0.0

 \displaystyle sloop_{release} = -\frac{SustainGain}{ReleaseTime}

 状態が遷移する度にパラメータからsloopを計算して、1サンプル時間経過ごとに、gainにsloopの値を加算してやればよさそうです。

 以上をまとめると次のようになります。

  1. MidiOn / MidiOffがあればAttack / Releaseへ状態遷移し、パラメータからsloop、初期gain、状態持続時間を計算。経過サンプル時間もリセット。
  2. gainの値に応じて、AudioBufferの信号強度を減衰させる。
  3. 1サンプル時間進めると同時に、gain値を更新 (sloopをgainに加算)。
  4. もし、状態遷移してからの経過サンプル時間がパラメータで設定した、ADRの時間を超えていれば。状態の遷移を行い、sloop、初期gain、状態持続時間を再計算、経過サンプル時間もリセット。

 これを実装したものが、以下になります。

 個々の状態における処理の違いはさほど複雑なものでもないので、わざわざ、StateパターンやStrategyパターンによる状態分けをする必要はないでしょう。また、先にも述べたようにSustain、OffStateは時間変化による内部パラメータの変化は起こり得ないので、勝手な遷移が起こらないように経過サンプル時間の積算を避けておきます。

 

SynthモジュールにAmplifierを組み込む

 これまでのOscillatorの時と同様に、実装したAmplifierをOscillatorと共にSynthクラス内で走らせてやりましょう。

 これまでとは違い、MidiOffを受け取ってもOscの発振を止めず、AmplifierがOffStateになったタイミングでOscの発振を止めるようにしています。

 後は、いつものように、これをPluginProcessorのProcessBlockで走らせてやればOKです。

  割愛した部分も含めた全ソースコードは、下記リポジトリにあるので適当に参考にして下さい。

 

動作確認

動画とるのがめんどくさいので、後で。 

 

 

 

 

 

 

JUCEでソフトシンセをつくる 2 ~ AM・FMオシレータ

前回は

MIDI入力を通して任意音階のSine波が鳴らせるようになりました。 

今回は

先のSineOsillatorから、AM・FM Oscillatorを作ります。

AM・FM波の演算式は、それぞれ以下のものとして実装してみます。

 \displaystyle y_{AM}(t) = (1+p_{ma} \sin{2 \pi f_m t}) \sin{2 \pi f_c t}

 \displaystyle y_{FM}(t) = \sin{(2 \pi f_c t + p_{ma} \sin{2 \pi f_m t})}

ここで、 f_c , f_mは、それぞれ、キャリアSineOscの周波数、モジュレータSineOscの周波数になります。また、 p_{ma} (0 \leq p_{ma} \leq 1)は、ユーザー側がホストDAWGUIを通じて設定できるパラメータになります。

 f_cは、MIDI入力によって決まるので、 f_mは、 p_{mr} (\geq1)というパラメータを定義して、以下のようにします。

 \displaystyle f_m = p_{mr} \times f_c

以上より、今回の目的は、

"2種類のパラメータを用意し、それをキャリア・モジュレータSine波に適用させ、AM・FM波を合成する機能を実装する"ということになります。

 プロジェクトの設定

下の画像のように設定します。

f:id:aogiri_m2d:20170610235701j:plain

前回のプロジェクトに、"OscParameters"、"ModOscillator"というソースファイルを新たに追加しています。それぞれに、パラメータとAM・FMオシレータの実装を記述していきます。

また、前回の"SineOscillator"も合わせて、オシレータ関係のソースファイルをまとめておきます。

パラメータの実装

以下のように実装します。

パラメータの実装については、以前に少し書いてたので参考にしてください。

Sine波オシレータの修正

前回実装したSineOscillatorを少し改修します。

主な変更点としては、

  • MIDI-ON以外のタイミングでも周波数を変更できるよう、changeFrequency関数を追加
  • メンバ変数をprotectedに変更し、各種関数の内部に空の仮想関数を追加(NVIによって挙動を拡張できるようにする)

これらは、このSineOscillator Classを派生させAM・FMオシレータを実装するための下準備になります。AM・FMもオシレータであるため、結局は、SineOscillatorと同じようなインターフェイス構成を持ちます。従って、今回は継承を使って実装することにしました。 

AM・FMオシレータの実装

SineOscillator Classの派生クラスとして実装します。派生クラスにprotected継承されたメンバ変数を、キャリアオシレータのパラメータとして扱っています。

ProcessBlockでOscを走らせる

後は、前回同様にsynthソースファイルにMIDI入力の処理を書いて、ProcessBlockでModOscillatorを走らせるだけです。これについては、前回とほぼ同じ実装なので詳細は割愛します。下記に今回のAM・FMオシレータシンセの全ソースコードを置いておくので参照してください。

動作確認

ModTypeで、AM・FMモードが切り替えられます。

FMはまだしも、AMはSin波同士だと思ったよりしょっぱいですね。

f:id:aogiri_m2d:20170611005346j:plain

次回の予定

たぶん、アンプエンベロープかポリフォニックの実装をします。

 

JUCEでソフトシンセをつくる 1 ~ Hello, SineとMIDI入力

はじめに

JUCEを使って、ソフトシンセを作っていきます。

とりあえず、今回はSine波オシレータとMIDI入力を実装してみます。

仕様

以下の機能を実装します。

  1. MIDI入力から音階(周波数)を取り出す
  2. 音階に対応したSine波を出力
  3. MIDIがONの間はSine波を出力し、OFFになったら出力を止める
プロジェクトの設定

下記の画像のように設定します。

f:id:aogiri_m2d:20170607212201j:plain

  • Plugin is a SynthとPlugin Midi Inputに☑を入れておきます
  • SineOscillator、Synthヘッダ・ソースファイルを追加します(前者には、Sine波オシレータの実装を、後者には、オシレータで生成した波形のレンダリングMIDI入力に関する実装を書いていきます)
SineOscillatorの実装

SineOscillator.h, cppに記述していきます。

本当はSine波の生成はテーブル・ルックアップを使った方が速い(らしい)のですが、それは、次回ということで。今回は、普通にsin関数を使っています。

波形のレンダリングMIDI処理の実装

Synth.h, cppに記述していきます。

実際、このMIDI入力処理だと1つのMIDI入力があったらすぐにオーディオレンダリングに入っているので、1ボイスしか同時発音できません。

また、鍵盤が現在押しこまれているのかどうかを判断できないので、2鍵盤を押しこんだ状態で片方を放した時、まだ、打鍵状態にある方の音が鳴らない等という問題が残っていたりしますが、この対処については、またの機会に。

とりあえず、MIDI鍵盤を通して任意の音階を鳴らすことはできるようになりました。

 オーディオバッファの取得云々等については、JUCE JAPANを読もう(ダイレクトマーケティング)。

後は、実際にこれをProcessBlockで走らせれば、Hello, sineできます。

f:id:aogiri_m2d:20170607232125j:plain

無事、MIDI入力を通して、Hello, sineできてますね。

次の予定

ただ、Sine波を鳴らすだけではつまらないので、次は、基本波形を一式実装…といきたいのですが、Sine波以外のバンドリミット済みの基本波形テーブル作製や波形の切り替え処理の実装が意外と面倒なので、次回は、SineテーブルのみからできるFM Oscillatorを実装してみようかと思います。そのうち書きます。

 

 

VST作製~JUCEでShort Delay Pluginを作ったメモ

最初に

 本記事は、以下のHaas効果なるステレオ効果を生じさせるVST Pluginを作製した際のメモになります。

偏ったDTM用語辞典 - ハースコウカ ハース効果:Haas Effectとは - DTM / MIDI 用語の意味・解説 | g200kg Music & Software

 Haas効果を生じさせるには、ステレオ入力の片側チャンネルを数十ミリセカンドほど遅らせるようなVST(以下、Short Delay Plugin)を設計すればよさそうです。

 

Short Delay Pluginの仕様

 以下のような仕様を満たすVSTを設計することにします。

  1. ステレオ入力の片側を0 ~ 50 msecの範囲でDelayさせて出力できる
  2. Delayさせるチャンネルは任意に選択可能
  3. Delayさせた入力とDelayさせてない素の入力を任意の量で混ぜ合わせたものを出力できる (Dry / Wetの設定が可能)

これに関しては、以下の完成したVSTGUIを見ていただければ、何となく伝わるかと思います。

f:id:aogiri_m2d:20170505135249j:plain

 

Delay EffectのDSP

 ここで、Delay Effectとは、入力信号を一定の時間間隔で繰り返し再生するようなEffectであるとします。実際のDelay Effectorにおいて、上記の一定の時間間隔と繰り返しの回数は、それぞれ、Delay Time、Feedbackと言う名前のパラメータとして与えられていることが多いように思います。ここで、Delay TimeをT [s]、FeedbackをN [整数]としてやると、Delayされた出力成分は以下のように表現することができます。

 \displaystyle y(t) = \sum_{n = 1}^N\ x(t - nT)

 ここで、y(t)とx(t)は時刻tにおける出力信号と入力信号になります。実際のDelay Effectorでは、Feedback回数に応じて、繰り返し音は減衰していくので、減衰量に関する定数 \displaystyle a (0\lt a \lt1)を導入して、下記のようにした方がより現実的かと思います。

 \displaystyle y(t) = \sum_{n = 1}^N\ a^n x(t - nT)

 今回作製するShort Delay Pluginは、複数回の繰り返しと減衰の必要は無いのでN = 1、a = 1とします。さらに、Delay成分に素の入力(Dry)を混ぜ合わせたものを出力とする(仕様3より)ことを考慮して、全体として以下の処理をPuluginに実装してやることになります。

 \displaystyle y(t)=m\times x(t-T)+(1-m)\times x(t)

 ここで、Delay成分の量を調整するパラメータ \displaystyle m(0\leq m \leq1)を導入しています。m = 1でDelay成分のみ、m = 0の時にDry成分のみが出力されます。

 

DSPの実装

 実装はJUCEを用いて行いました。実際のソースコードをここにベタ貼りするのもアレなので、詳細は下記のリポジトリ(Source/Modules/DelayComponent.h and cpp)を参照していただければと思います。また、実際に、ビルド済みのVST(32 bit / 64 bit)も置いてあるので、DAWに読み込ませたら動くと思います。ここでは、設計の要点のみを記載していきます。

DSP関連の実装部は以下の3つのClassに分けて行います。

  1. Parameters Class
  2. DelayComponent Class
  3. DelayProcessing Class

以下、順に要点のみを記載していきます。

Parameters Class

 Short Delay Pluginには、3つの任意に設定可能なパラメータを持たせます。これらパラメータの値は、DAWホスト、VSTDSP部、GUI部から参照・設定できるようにしたいので、パラメータ部だけを独立したClassにしています。

  1.  delayChannel
  2. delayTime
  3. mixing

 delayChannelは、EffectをかけるChannelを設定します(仕様2より)。0 or 1の値をとり、VSTの仕様上0がL channel、1がR channelに対応します。delayTimeは、0 ~ 1fの値をとるようにします。実際のEffect処理部でこれを0~50 ms範囲にスケール変換させます。mixingは、出力音のDelay成分(Wet成分)の量を調整するパラメータです(先の実装数式のmに相当)。

 

DelayComponent / DelayProcessor Class

 これらClassが、Short Delat Effectの本体部分に相当します。DelayComponent Classには、過去の入力をDelayBufferに保持、そこから0 ~ 50 ms時間前の入力をDelay成分として取り出し、現在の入力(Dry成分)と混ぜ合わせてDAWのAudioBufferに出力するといったShort Delayに必要な各機能群を分けて実装しています。そして、DelayProcessing Classで、この一連の処理をそれぞれの入出力チャンネルのAudioBuffer全体に対して繰り返し適用する関数を実装します。

 

GUIの実装

 割愛。自前で画像素材作れるセンスが無いので、全部JUCEの素材使って実装してます。詳細はソースコードを見ていただければ。