テクノロジー

こんな業界も進化していた!人工知能が喋るラジオがあったなんて!

こんなに進化していた!人工知能が喋るラジオがあったなんて!

私達は何気ない日常の生活シーンに、人工知能(AI)が普及し始めていることに気づかないまま過ごしていることがあります。あなたがいつも聞いているラジオだって、「これが人工知能が喋るラジオだったら?」なんてわざわざ考えないですよね。

しかし日本のメディア業界にも人工知能(AI)による変化の波がおきています。なんと「人工知能が喋るラジオ」は、すでに放送されているんです!いよいよ人工知能は、人間が持つ能力の一部を、精巧に再現できる段階まできているようです。

そこで今回は、メディア界全体を変革させる「人工知能が喋るラジオ」の仕組みや、誰もが感じる疑問についてもお伝えしていきましょう。

人工知能が喋るラジオの仕組みを解説!

ラジオのイメージ

人工知能が喋るといえば、CMでAmazonの「Alexa」の機能性の高さに驚いた人も多いですよね。「週末の天気は?」と聞くと「快晴です」と答えてくれたり、掃除をしてくれたりと、何役もこなしていました。その他には、「OK Google」で知られるGoogleアシスタントなどが思い浮かぶでしょう。

いずれも人工知能(AI)を搭載した「Amazon Echo」、「Google home」というスマートスピーカーと呼ばれている商品です。しかし、音声を発する人工知能といえども、まだまだ対話するには不十分な点もあります。
例えば、発音の仕方やイントネーションで正確に聞きとってもらえない場面があったり、反対にスマートスピーカーが発声する言葉にも、やや不自然なイントネーションを感じたりすることもあります。

ですがラジオで音声を放送するとなれば、わかりやすい言葉や発音で正確に情報を伝えなくてはなりません。なぜなら日本語の言葉の意味は、語尾やイントネーションの違いで大きく意味が変わる場合もあるからです。

人工知能が喋るラジオには、こういった問題を解決するために、ビッグデータを活用しているのです。簡単にいうとビッグデータとは、その名の通り、巨大なデータの集まりを指し、人工知能をより人間に近い能力に近づけるために利用されます。

ラジオ番組であれば、パーソナリティの話し方や抑揚のつけ方といった情報や、リスナーが望む話題や音楽の情報をビッグデータとして人工知能(AI)に解析してもらうことでリスナーからの支持を得られるようになり、より人間に近い、優良コンテンツとして人気がでる可能性が期待できます。

さらに人工知能(AI)の技術が進歩すると、ラジオ業界のスタジオは、無人になることも予想できますよね。

実際に活躍している人工知能が喋るラジオ「ナナコ」

台風のイメージ

人工知能が喋るラジオを実際に聞いてみたいなら、Amazonのクラウドサービスである「Amazon Polly」を導入した、エフエム和歌山の「人工知能アナウンサー・ナナコ」を通じて聞くことができます。和歌山市内の約50万人対象に、人工知能が喋る天気予報やラジオニュースを配信しています。

このナナコに活用されているAmazon Pollyには、クラウド上で受け取ったデータをリアルタイムで更新しながら、読みあげることができるという特徴があります。

また人工知能アナウンサーのナナコの能力は、自動でニュース原稿を読みあげることだけではありません。たとえば市内で起きた災害時においても効果を発揮しました。

和歌山市は2017年に台風18号の影響で、大規模な停電が発生するほどの被害を受けたのですが、その台風通過中の間でも天気と災害情報をアナウンスし続けたのが、ナナコだったのです!

当時、他のテレビやラジオ局の中で最新情報を更新して提供できたのは、ナナコだけだったといわれています。こうして、人工知能が喋るラジオの実力は想像以上の効果をもたらし、認められるようにようになりました。

さらに、人工知能が喋るラジオの天気やニュース配信のほか、新サービスの提供が始まりました。それは、自動で選曲される音楽をナナコが紹介するDJ番組です。ただ音楽を流すだけでなく、人工知能(AI)がDJまでしてくれるなんて、楽しそうですね!

現段階では、曲のタイトルに人間でも読み間違えがある固有名詞を手作業でデータ加工する手間はあるものの、精度が向上するとこの点も改善されることが期待されています。

海外でも活躍する人工知能が喋るラジオ

海外のラジオのイメージ

これまで国内報道メディアに浸透している人工知能が喋るラジオについて紹介してきましたが、海外では、声を失ったラジオパーソナリティーの声を人工知能が復元することに成功した事例があります。

その声を失ってしまったラジオパーソナリティーの名は、ジェイミー・ドゥプリー氏です。彼は35年にも渡り、ワシントン米議会の政治ニュースを報道し、複数のラジオ局でジャーナリストとしても活動してきた、まさに報道メディア界のベテランです。

そんな彼が、珍しい中枢神経疾患の舌突出ジストニアを発症しました。発声しようとすると舌が前に突き出てし、喉を塞いでしまう病気です。そのためドゥプリー氏は、これまでのように長い文章を読みあげることができなくなり、長年勤めあげたラジオ業界を去ることになってしまいました。

しかし彼の功績を称える演説が米下院で行われたところ、スコットランドに拠点を置く、音声合成会社のセレプロック社とという企業の目にとまりました。同社の技術によって、ドゥプリー氏はAIで生成された音声を使ってラジオに復帰することになったのです。その技術を、詳しく見ていきましょう。

もともとセレプロック社は、早くから独自のニューラルネットワークの開発に着手していました。ニューラルネットワークとは、人間の脳へ情報が伝達されたり、記憶が定着する仕組みを人工知能に学習させるための数学モデルです。

この数学モデルには、色々な種類があり、機械翻訳や音声認識に使われるものがあります。そのひとつが、声を失ったドゥプリー氏に新しい人生を授けるきっかけとなったのです。

セレプロック社が開発したニューラルネットワークは、6~10層にわたって構成され、これまでのオーディオ記録に含まれる単語を発音ごとに区切ります。さらに人工知能(AI)は、読みあげたひとつの単語を100個の要素に細分化していきます。この作業を多くの一般的な単語で繰り返すことによりと、ドゥプリー氏がどのように発音していたのか人工知能(AI)が理解するようになるという仕組みです。

幸いにも、彼を支援するコックス・メディア・グループが、30年間に渡るジェイミー氏のラジオ放送の記録をずっと保管しており、その膨大な彼の音声データをもとに作成することができたのです。

その後、ニューラルネットワークは独自の音を生成して、ドゥプリー氏が会話で使う単語が話した時にどのように聞こえるのか推測してくれるんです。海外の最先端技術の進歩にも驚かされますよね!

こうして、声を失ったドゥプリー氏に代わって人工知能(AI)の音声を使い、彼自身が書いた原稿を読み上げたものを、ラジオで放送することができるようになったのです。

また、この音声を作成する過程には、自動でテキストを読みあげる「Balabolka」というソフトを利用していて、なんと1つの報道に対して7分ほどで音声録音が作成できるのです。

まさに人工知能(AI)の技術は、ドゥプリー氏のラジオ界復帰に無くてはならないものだったのですね!

 

今回は、人工知能が喋るラジオについて紹介するとともに、人工知能(AI)が持つ能力や仕組みについて、以下のようにお伝えしました。

  1. 人工知能が喋るラジオの仕組みには、ビックデータに対してDeep Learning(ディープラーニング) の活用が重要
  2. リアルタイムで情報を更新できる機能「Amazon Polly」を採用している国内の人工知能が喋るラジオの事例
  3. 人間の脳の情報伝達を基にしたニューラルネットワークが利用されている海外の人工知能が喋るラジオの事例

このように人工知能が喋るラジオの登場により、日本のみならず、海外メディア業界にも変革をもたらしてしています。

こうした事例をみると、人工知能(AI)の技術が私たちの想像を超えるスピードで進んでいることが実感できます。今後も、人工知能(AI)が私たちの日常生活をどんな風に変えてくれるのか、また、どんな風にメディア業界で活用されていくのか、注目していきたいですよね。

コメントをどうぞ

トップへ戻る
タイトルとURLをコピーしました