2019-07-11

Final Cut Pro X で音声の音圧を上げる方法

Final Cut Pro X で音声の音圧を上げる方法

Final Cut Proは初心者にも使いやすい動画編集ソフトで、Youtubeなどの動画を作成してる方、特にナレーションを入れる必要のあるYoutuberさんなどでは、このソフトを使用している方も多いのではないでしょうか。

FCPX( Final Cut Pro X )で編集した動画をYoutubeなどに投稿する際に、どのくらいのボリュームで聞こえるか、声などが小さくないか、気になりませんか? あまり音声が小さいと、リスナーさんがスマホのイヤホンなどで聞いた時に聞こえづらいかもしれないですよね。

私も先日、録画したナレーション付き動画をFCPXでカット編集して、その後BGMを追加したのですが、最終的に音圧を上げようとして少しやり方に苦労したので、 FCPX で音圧を上げる方法を備忘録します。

⑴ まず通常のカット編集が終わったらナレーションにコンプとリミッターをかけます 

(これをしないと最終的にマキシマイザーをかけた時に声の大きい所が歪みます)

コンプをかける

エフェクタを表示し、オーディオパートのレベルをクリック、コンプレッサーを探し、ナレーションの所にドラッグします。

コンプを表示する

インスペクタの矢印の部分を押すとエディタが表示されます

コンプエディタ

・右側にあるリミッターをONにして すぐ下のノブを -5〜 -3くらいに設定

・左側にあるスレッショルドはどのレベルからコンプをかけたいか

・レシオはどのくらい強くコンプで叩きたいか(この数値が甘くても結局リミッターでカットされるのでだいたいで大丈夫です)

・メイクアップの数値を上げるとボリュームが大きくなるので、リミッターとの兼ね合いを見てある程度上げておきます。(そこまで大きく聞かせなくて良い所でリミッターランプがついていたらかけ過ぎです)

⑵ BGMを聴感上ちょうどいいくらいに足し合わせます

BGMの大きい所と小さい所の差が気になる場合はこちらにもコンプをかけておきましょう。 波形を見て真っ平らだったらコンプをかける必要はありません。

真っ平らな波形

⑶ ナレーションとBGMを複合クリップにまとめます

・まとめたいクリップを選択して、右クリックから新規複合クリップ

新規複合クリップ

⑷ 作成した複合クリップにマキシマイザーをかけます

マキシマイザーをかける

・Adaptive Limiter というのがFCPXのマキシマイザーになりますので、これを複合クリップにドラッグします。

マキシマイザーエディタ

先ほどと同じようにエディタを表示させます。

・Out Ceiling を -0.1〜 -0.3 くらいに設定します。(レベルメーターが0を越えると音が歪むのですが、再生する機器によっては0の手前で歪むものもありますので、0より手前の数値で設定すると良いでしょう。)

・Gainを上げることで音圧を上げることが出来ます。

(目安は良く聞こえて欲しい所でメーターが -0.1 振れるのが良いと思いますが、ずっと一定のボリュームで聞かせたい場合はしゃべっている間ずっと -0.1 振れる程ゲインを上げると、とても音圧の高い動画を作ることが出来ます)

レベルメーターの出し方 

ウインドウ→ワークスペースに表示→オーディオメーター、もしくはビューアの下にあるオーディオメーターアイコンをクリック

レベルメーターを表示させる

複合クリップを作成した後にその中身を編集したい 

複合クリップをダブルクリックする、もしくは複合クリップを選択し、クリップ→クリップを開く

[通常のタイムラインへの戻り方]
表示→タイムライン履歴内を戻る

複合クリップを解除したい 

複合クリップを選択し、クリップ→クリップ項目を分割

波形のイメージ 

波形のイメージ


Read More

2019-06-16

タイムストレッチ比較【protools】【sound forge】【Logic】【Ableton Live】【studio one】【cubase】

タイムストレッチ比較
今回はDAW&波形編集ソフト各社のタイムストレッチ機能の性能を比較します!
こんにちは!私は普段、舞台音響の仕事をしています。
最近配属が異動になりまして、バレエ等の音源編集をする必要が出てきました。
私のメインDAWはLogicなのですが、職場にmacを置いておらず、windows機のみです。
そこで、新たにwindowsでも使える音源編集用のDAWを探す旅に出ました!

波形編集などはどのDAWを使用しても行えますから、今回はタイムストレッチ機能に注目して比較します。

バレエなどでは、ダンサーに合わせて既存の曲を伸縮させることがあります。
曲のテンポを速くすることは少ないかと思いますので、テンポを遅くして、音質がどの程度劣化するかDAWごとに比較します。

元音源はこちら

 
動画:タイムストレッチ比較【元音源】

元音源は3分45秒あるクラシック音源です。
こちらの曲を4分までタイムストレッチで引き延ばします。

Protools

 
動画:タイムストレッチ比較【Protools】

まずはprotoolsです。
Windowsでも使えるDAWということで真っ先に候補に挙がったのがprotoolsです。比較にはFirst(無料版)を使用しました。
正直Studio Oneと随分迷ったのですが、波形編集機能はprotoolsの方が扱いやすいという評判が多く、なおかつ学生の頃レコーディング系の勉強で少し触れたこともあったことから、protoolsに踏み切りました。
Studio Oneは音がいいと評判ですよね。今度機会があったらこちらも試してみたいです。

タイムストレッチはTCE( Time Compression and Expantion )を使用しました。

タイムストレッチ比較プロツールス


低音の方がぶつぶつと途切れがちです。
低音に少しノイズも乗っています。

sound forge 9

 
動画:タイムストレッチ比較【sound forge 9】(バージョン9)

こちらはDAWではなく波形編集ソフトになります。
protoolsで思うような結果が得られなかったため、波形編集の業界標準と言われるsound forgeであれば自信を持ってこれが最良の結果ですと言えると思い、ソフトを持っている方にお願いして同じ条件で引き伸ばしてもらいました。

protoolsで見られた低音のノイズはないですが、代わりに中域が途切れがちになる所があります。

スライドノブを動かすだけの操作で使いやすそうです。
時間表示と伸縮パーセンテージの表示がありました。

sound forge 13

 
動画:タイムストレッチ比較【sound forge 13】(バージョン13)

sound forgeのバージョン13です。
バージョン9からエラスティックエンジンが変わっており、以前と比べてざらつきがなくなっています。



Logic Pro X

 
動画:タイムストレッチ比較【 Logic Pro X 】

Logicでいい結果が得られるなら、職場にmacを持って行ってもいいかなと思い、Logicでも比較します。



リージョンの右下へマウスを持っていき、altキーを押しながらドラッグします。

目立ったノイズはなく、不安定に途切れる所もなく、全体的にきれいにまとまっている印象です。

Ableton Live

 
動画:タイムストレッチ比較【 Ableton Live 9 】

舞台音響の業界では、Liveをタタキに使う音響さんが多いです。
ちょっとした音源編集であればLiveでまかなってしまう、と言う声がちらほら耳に入ってきますので一応比較してみます。


Warpをかけて曲の終わりにワープマーカーを打ち、伸ばしました。
ストレッチングモードはTextureに変更しました。

なんか…低音の音程が変わってしまっていませんか?
不協和音…音楽性を損なっているように感じます。

↓2019年6月25日追記↓

Studio One 4

 
動画:タイムストレッチ比較【 Studio One 4 】

studio oneでも試してみたら…なんと!!めっちゃきれい…( ;∀;)
ノイズどころか不安定に揺れる所もありません。

タイムストレッチ比較studio one

イベントの右下へマウスを持って行き、altキーを押しながらドラッグします。

他の波形編集なども試してみましたが、とっても操作しやすいですよ!
studio one…すごい(感嘆)もっと早くダウンロードしておくべきでした。。
使用バージョンはstudio one 4 prime (無料版)です。

以前も一度インストールしようとしたことがあったのですが(2年くらい前かな)、ダウンロードが10Gくらいあって断念した記憶があります。
今回試してみた所、ソフトだけだと140M程度、追加の音源やループで3G程度と、扱いやすくなっていました。動作も軽いです。
これだったら他の人にも安心して勧められます。

↓2019年8月16日追記↓

Cubase

 
動画:タイムストレッチ比較【 Cubase 】

時々プツプツとノイズが入ります。


Read More

2019-02-08

google+を通じてブログを読んで頂いた方へお礼申し上げます

ibukiとひよこ


こんにちは!google+が終わってしまいますね。。悲しいです。
このブログはgoogle+を通じて皆さんに見て頂いたブログでした。今まで本当にありがとうございました。皆さんがブログを読んでくれたり、+1をくれたりしたから私はネットで活動する楽しみを見つけ、今まで続けてこれたと思っています。

このブログは「夢見るひよこのデジタルライフ備忘録」という名前ですから、中の人は「夢見るひよこ」だと思うかもしれません。
しかし実は中の人は「ibuki」という名前で動画投稿などを行っています。
google+の終了に伴い、Facebookにページを立ち上げました。また、ツイッターも行っております。今後はこれらのSNSを通じてブログの更新をお知らせしていこうと思います。
さよならは寂しすぎるので、是非フォローをお願いいたします。

ツイッター
https://twitter.com/ibuki_otsukimi

Facebook
https://www.facebook.com/%E3%83%9A%E3%83%BC%E3%82%B8-ibuki-893251254178490/?modal=admin_todo_tour

最後になりますが、素敵なgoogle+を運営してくれていたgoogle様、投稿を見て下さったユーザー様、+1を下さった方、本当にありがとうございました!

ibuki

Read More

2019-01-16

チャットボットは意図した通りにお話しするか

らいか

前記事はこちら
AIの民主化進む
チャットボット作成=キャラクター作成

前々回記事では、作成するチャットボットを、「就活生が気軽に質問出来る、先輩に質問コーナー」のようなコンテンツにすること。前回記事では、「チャットボットのキャラクターイメージ」を作成する所まで書きました。

今回記事では「IBM Watson Assistant」を使用し、実際にチャットボットを作成する所を書いていきたいと思います。

ワトソンの参考URLはこちら
IBM Cloud 資料 Watson Assistant 概説チュートリアル

Watson Assistantの使い方を知るには上記のチュートリアルを見るのがわかりやすく、且つ詳しく載っています。

こちらの記事では詳しい操作方法などは省き、実際に私が作ってみた部分をざっくり説明していきます。ちなみに前回記事に書きましたが、私が作成するチャットボットの名前は「らいか」といいますので、こちらの記事でも「らいか」で話を進めようと思います。

インテントで質問に対する答えの種類を大枠で設定する

インテント


前提として今から紹介するのは私のオリジナルな作り方なので、作成するコンテンツによって最適解は当然変わります。

タイトルが少し分かりにくいかと思いますが、らいかに何を答えさせたいかによってインテントを設定します。

私はこのように設定しました。

[#greeting]
こんにちは等のあいさつです。
ユーザー側のコメント例は「こんにちは」「元気?」などです。

[#question_work_company]
会社や業務のことに関する問い合わせへ返答する用です。
質問例は「仕事内容を教えて」「配属先は希望出来る?」などです。

[#resolve_anxiety]
学生さんの漠然とした不安に対して励ましのメッセージをコメントする用です。
質問例は「仕事を続けていけるかな?」「私にも出来るかな?」などです。

[#idletalk]
雑談用です。
コメント例は「なまえおしえて」「今日の朝なに食べた?」などです。

[#angry]
らいかが上手にしゃべれずにユーザーが苛立った時に謝る用です。
ユーザー側のコメント例は「もう!」「ちゃんとしゃべって!」などです。

インテント中身

ここに出来るだけたくさんの質問例を入れて、ユーザーがコメントを入力した際に、らいかが何について返答するべきなのか、AIが判断出来るようにします。

エンティティを必要に応じて設定する

エンティティ

エンティティ中身

エンティティでは特別にトリガーさせたい単語や語句を設定します。
トリガーというのはシステム(Watson Assistant)が返答を選択する際のきっかけです。

一部を載せます

[@greeting]
・こんにちは
  →(シノニム)
    こんちは
    やっほー
    ハロー
・元気ですか
  →(シノニム)
    元気?
    元気ですか?
    調子はどうですか?

[@labor]
・介護休暇
  →(シノニム)
    介護
    親の介護
・勤務地
  →(シノニム)
    配属先
    所属場所

 [@topics_chat]
・音楽
・食べ物
・恋愛

シノニムというのは同じ意味の言葉で、これを入れておかないと語句が似ていてもちょっと違うとトリガーしません。

ダイアログで返答を入力する

ダイアログ

ダイアログ中身

ダイアログにトリガーの条件と、トリガーした際の返答を入力します。

条件はインテントそのままでもOK。特定の単語に反応させたい時にはエンティティを使います。

全てを載せるとすごい量になるので一部のみ載せます。

条件:@greeting=こんにちは
返答:「こんにちは!」

条件:@greeting=元気ですか
返答:「元気だよ!」

条件:#resolve_anxiety
返答:「やってみたらきっと楽しいよ!」

システム側であらかじめ「ようこそ」ノードと「その他」ノードが用意されています。
「ようこそ」ノードは、ユーザーがページを開いた時にこちらから話しかける言葉を入力します。「こんにちは!」や「質問を入力してね!」などです。

「その他」ノードはダイアログの一番下にあり、他にトリガーされるノード(条件)がなかった時にトリガーされます。「表現を変えるか、他の質問をお願いします!」などです。

ダイアログでは、ノード(条件と返答のセット)を並べる順番が重要で、ユーザーがコメントを送信した際、システムはダイアログの上から順に検証し、条件に一致するノードがあると即座に返答を返します。トリガーされたノードより下にあったノードは検証されていません。

つまり重要な返答ほど上に配置する、ということです。

(それから私が地味につまずいてしまった部分ですが、ノード名に「?」が付くとトリガーしません。)

テスト&修正

ある程度データを入力したら「Try it」でテストします。


右下の欄にコメントを入力すると、システムがインテントやエンティティを認識して、ダイアログを検証、トリガーしたノードの返答をコメントで返してきます。


「仕事を続けていけるかな?」に対して「#question_work_company」が認識されています。これを「#resolve_anxiety」に変えて、「やってみたらきっと楽しいよ!」と返答させたいです。


これで修整できました。

このようにテスト→修整を繰り返して、らいかがユーザーの質問を正しく認識できるようにします。返答のパターンが足りないところはダイアログでノードを足していきます。

(もう一点地味につまずいた部分ですが、slackなどの他アプリと連携させるのは有料サービスのようです。)

まとめ

実際に自分でチャットボットを作成する前は、AIというのはAIが考えて導き出した答えをリターンしてくるものかと思っていましたが、「IBM Watson Assistant」に関して言えば、ダイアログのノードに私が入力した返答以外の言葉はしゃべりません。

2019年1月現在、企業向けに提供されているほとんど全てのチャットボットシステムは、企業の意図に反した言葉を話さないように、このようなシステムを取っているようです。

他国の話ですが、ユーザーと会話をすることで言葉を覚え、自分の意志で発話することができるAIがいたようなのですが、悪意のあるユーザーなども多く、あまり上手くいかなかったようです。

ダイアログに入力した言葉しか話さないのならば、普通のプログラムとどう違うのか?AIとは?と思うでしょうか。

実は一番最初に記述している「インテント」、この部分がAIなのです。
ユーザーの入力したコメントは何についての質問なのか。喜んでいるのか。怒っているのか。つまり「認知」の部分です。

現在流通しているAIの技術において、この「認知」に関してはかなり発達していて、

・人でいう目の役割
Googleなどの写真解析の発達
自動運転車に必要となる道路標識や、道を渡ろうとする人間の認知

・人でいう耳の役割
スマートスピーカーやスマホなど、声で操作できる端末の登場

・人でいう鼻の役割
あんまり聞かないですね。

と、すでに現実世界で活躍していますね。

自分で考えて何か新しい仕事のようなことを始めてみたり、自分の意志で何か人の役にたつような行動をしてみたり、という所謂「強いAI」と呼ばれる、ドラえもんのような、アンドロイドのような存在が生まれるのは、もう少し先の話になるでしょう。

らいか


Read More