ナレーションは全てAIに変わるのか?

ここ最近、「AIに将来全て変わってしまう職業」みたいなものの中に、ナレーターが結構な確率で入ってきています。
確かに、事務所単位でも、「今後AIに仕事が取られていくから、単価も下がっていく」という指南をされている方もいらっしゃるようです。
確かに、「ナレーターの仕事がAIに取られる可能性があるとすれば、その理由は単価、あとはスキャンダルリスク回避」この二つだけです。
AIアイドルも、スキャンダルリスク回避、体調不良の考慮が不要、等。はやり効率に関わる部分だけがメリットになっています。
以前も書きましたが、初音ミクさんが爆発的に売れた理由は、「キャラクター設定の成功」の他に、「人間の手が出せない部分を歌える」と言うのが一番のメリットとしてありました。「こんな音域出ない」という所に、届くので、いわゆる「ボカロP」と言う方たちが、歌手に音域を合わせる必用がない、と言う最大のメリットがあります。

ただ、AIナレーターの場合は逆です。人間のナレーションにいかに近づけるか。が焦点となり、日本語に違和感がない。という所に持って行く必要があるのです。初音さんの場合、「高音域が出る」「ちょっとロボットっぽい要素がある」と言うのが個性でもあったので、暗黙の了解があり、むしろそれが初音さんの個性になり、他の声の特性を持つ個性のAI音声が出てきました。
AIナレーターの場合、まず違和感のないアクセント、発音。その上で必要に応じで声の個性。と言う風になるのですが、私のイメージの中では、「うわ~このAIナレーターの声いい、誰だろうこの人?」と言えるところまで差別化を持って行くのは難しいのではないか?と感じています。AIであることはばれないレベルまで持って行ける(今でもすでにわからない方には気づかれていないレベルになっています)と思いますが、そこから先はかなり難しいと感じています。

若い人だからこそ、全部AIに変えても良いだろう、と言う感覚は違う。

メディア業界もどんどん代替わりになり、若い方に変わっていっています。技術的な面では若い方はどんどん新しいものを使いこなしていきます。
でも、逆に若い方の方が生まれた時に色々な規格の音源を聞く機会があり、むしろ我々よりも音質の違いに敏感と言えるでしょう。若い方が、44KHZ 16BItのCD音源を聴いて【エモい 】と言ったというのを聞いたことがあります。
だからこそ、多用した先に、「やっぱり生声がいい」と言う風に思える確率は、年齢が多い人より確立として高いと感じています。
その代わり、人の声にもっと厳しいと思いますが・・・。

人間の声は、それぞれに色々な特色や成分があると考えています。無条件に「ずっと聴いていたくなる声」という物も存在すると思っていて、とにかくご自分の声を磨いていくことはマストです。人間の声はパーソナルな部分が比較的そのまま反映されます。特に、プレゼンの機会では声の良し悪しがものすごく影響しているのを肌で感じますし、実際に「ボイトレをしてから、セミナーの評価が高くなった」と言う方はかなりいらっしゃいます。

ご自分の理想の声を手に入れましょう。

関連記事

TOP