テレビやラジオで、ニュースを読み上げるAIアナウンサーの「声」を聞く機会が増えた気がします。NHKの「ヨミ子」やテレビ朝日の「花里ゆいな」など、主要放送局での実用化が進んでいて、人間そっくりの声に聞こえます。
AIアナウンサーは災害時の情報発信や人間の負担を減らす意味で期待されている存在です。
そこで本記事では、AIアナウンサーの仕組みや事例、さらには人間のアナウンサーとの関係性までをまとめてみました。
- もくじ
1. AIアナウンサーとは?
最近、テレビやラジオ、各種施設の案内放送等で「聞き慣れない声」「CGのような人」に出会ったことはありませんか?それは、もしかしたらAIアナウンサーかもしれません。
AIアナウンサーの概要や技術の進歩について解説していきます。
1-1 AIアナウンサーの定義とシステム
AIアナウンサーとは、AI技術を使って人間のアナウンサーの声や話し方を再現するシステムのことです。
システムは大きく以下の3つで構成されています。
- AIがニュース原稿などのテキストを解析して、文章の意味や文脈を理解する。
- 文章の理解に基づいて、人間の声に近い自然な音声を生成する。このとき、イントネーションやアクセント、話す速さ、間の取り方も考慮する。
- 必要に応じて、3DCGやディープフェイク技術を使って、人間らしい表情や動きを持つバーチャルの映像が付加される。
例えば、ソニーが開発した「荒木ゆい」は、なんと10万件以上ものアナウンサーの音声を学習して作られたそうです。そのため、まるで本物のアナウンサーが話しているかのような自然な発音やイントネーションです。
1-2 AIアナウンサーの歴史と革新
AIアナウンサーの歴史は、音声合成技術の発展とともに歩んできました。音声合成システムを中心に、その歴史を振り返ってみます。
1950年代:最初の音声合成システム登場
1950年代に最初の音声合成システムが登場しました。しかし、この時代の音声はまだまだ機械的で不自然に感じられるものでした。
ロボットが話しているような音声で、とても人間のアナウンサーの代わりが務まるレベルではありませんでしたが、1960年代になると、小説『2001年宇宙の旅』に影響を与えるまでになっていました。
1960年代:コンピュータが文章を読み上げるTTSが登場
1980年代には、コンピュータが文章を読み上げる技術(Text to Speech :TTS)が登場します。
一部の駅のアナウンスなどで使われ始めましたが、やはりまだ機械的な印象は拭えませんでした。しばらくはここから少しずつ進化を進めていきます。
2010年代:技術の発展でAIアナウンサーが現実に
大きな転換点となったのは2010年代。ディープラーニング技術の発展により、音声合成の品質が飛躍的に向上しました。音声合成システムは、人間のアナウンサーの声に近い、自然な話し方の「AIアナウンサー」を現実にできるようになりました。
2015年以降、AIアナウンサーは実用化の時代に入っていきます。日本では2018年、NHKが「ヨミ子」を導入し、地上波ニュース番組に初めてAIアナウンサーが登場しました。
その後、テレビ朝日の「花里ゆいな」や、前述したソニーの「荒木ゆい」など、様々なAIアナウンサーが登場します。
1-3 AIアナウンサーの事例
実際のAIアナウンサーの活躍事例を見ていきましょう。
各社が独自の工夫を凝らし、それぞれ「キャラが立っている」存在感があります。多くのAIアナウンサーの中から、その事例を一部紹介したいと思います。
NHK「ニュースのヨミ子」
2018年にデビューした「ニュースのヨミ子」は、見た目は3DCGで作られた女性キャラクターです。
NHKのアナウンサーの音声を学習して作られており、NHKらしい落ち着いた声と丁寧な話し方が特徴といえます。
国際放送「NHKワールド JAPAN」などで活躍し、24時間体制のニュース配信や多言語での情報提供を行っています。特に災害時の迅速な情報発信では、その真価を発揮しているといわれています。
テレビ朝日「花里ゆいな」
2020年に登場した「花里ゆいな」は、AI技術とCG技術を組み合わせて作られたバーチャルアナウンサーです。
CGを活用した豊かな表情や動作で視聴者に親近感を与え、ニュースや天気予報などさまざまな情報を伝えています。
テレビ北海道「iina(いいな)」
2023年、テレビ北海道の番組「スイッチン!」に「AIデジタルヒューマン」の「iina(いいな)」が登場しました。
「iina」は、AIの課題のひとつである「不気味の谷」について、視聴者とともに考えるとしています。
共同通信デジタル「沢村碧」
共同通信デジタルの「沢村碧」も活躍中です。リリースによると、実証実験も含め、テレビやラジオ、その他さまざまなメディアに出演を開始しているとのことです。
バーチャルアナウンサー「沢村碧」を実現する「アバターエージェントサービス」を提供開始(共同通信デジタル共同通信デジタル)
2.AIアナウンサーの活用領域と期待される効果
2-1 AIアナウンサーに注目が集まる背景と期待される役割
なぜ今AIアナウンサーが注目されているのでしょうか? その背景には、放送業界が抱えている様々な課題があります。
アナウンサー不足の解消
放送局にとってはアナウンサー不足の解消が期待できます。人間のアナウンサーであればシフトを組んだり、休憩時間を想定する必要がありますが、AIアナウンサーなら常時放送が可能です。
また、原稿の読み直しや録音のやり直しが原則として不要なため、制作時間が短縮できるメリットもあり、長期的には人件費の削減につながる可能性があります(余談ですが、人間なら起こしてしまうかもしれないスキャンダルとも無縁です)。
災害時の情報提供
そして、大きな期待が寄せられているのが、災害時の情報提供です。災害が発生すると、人命に関わる重要な情報を、迅速かつ正確に伝え続ける必要があります。
AIアナウンサーは疲労を感じることなく24時間365日稼働できるため、新しい情報が入り次第、即座にアナウンスに反映できるのが強みです。
複数の言語での情報提供
また、外国人居住者や旅行者向けに、複数の言語で情報を提供できることも見逃せません。さらに、パニック状態に陥りやすい災害時でも、常に冷静な口調で情報を伝えられる点も大きな利点といってよいでしょう。
しかし、課題もまだ残されています。例えば、固有名詞や専門用語の発音には改善の余地があります。実際に放送を見ていて、違和感を感じる方もいらっしゃると思います。
また、3DCGを用いたバーチャルアナウンサーでは、人間のような豊かな表情や感情表現は十分とはいえません。予期せぬ事態への臨機応変な対応や、視聴者との双方向コミュニケーションにも制限があります。
これらの課題は技術の進歩とともに改善されていくと考えられますが、完全に克服するまでにはまだ時間がかかりそうです。
しかし、災害時の常時情報提供や24時間体制のニュース配信を可能にしてくれる、疲れ知らずのタフさは魅力です。人間のアナウンサーを補助する存在として、重要性は今後さらに高まっていくと考えられます。
2-2 AIアナウンサーが「できること」と「できないこと」
現在のAIアナウンサーは、「できること」と「できないこと」がはっきりと分かれています。
ここまで述べてきたこととも重なるので、箇条書きにしてまとめてみたいと思います。
できること
- 与えられた原稿をほぼ正確に読み上げられる
- 24時間365日、疲れを知らずに稼働
- 複数の言語で情報を提供できる
- 新しい情報をすぐにアナウンスすることができる
- 経営側から見て、コスト効率が良い
できないこと
- 人間のような豊かな感情表現や声のイントネーションが苦手
- 固有名詞や専門用語の完璧な発音ができないことがある
- 予期せぬ事態への臨機応変な対応は基本的に難しい
- 視聴者との自然な対話やインタビューは今のところ無理
- 独自の視点や解釈を加えた創造的な表現がかなり不得手
2-3 人間のアナウンサーと共存できる?
結論から言うと、AIアナウンサーと人間のアナウンサーにはそれぞれに固有の強みがあり、現時点では上手く棲み分けができています。
AIアナウンサーは24時間休まず働き続けられ、多言語対応が可能なタフさがセールスポイントです。例えば、NHKの「ニュースのヨミ子」は多言語の国際放送で活躍し、24時間体制のニュース配信を担当しています。
一方、人間のアナウンサーは、豊かな感情表現ができ、状況に応じて臨機応変に対応でき、独自の視点で解説を加えることもできます。人と会話をして情報を聞き出すのも上手です。そのため、感動的なスポーツ中継や深い洞察力が必要なドキュメンタリー番組では、人間のアナウンサーが活躍しています。
このような形で、AIアナウンサーと人間のアナウンサーは、お互いの得意な分野を担当しています。つまり、共存に成功しているといえるでしょう。
また、テレビ朝日の「花里ゆいな」は、人間のアナウンサーとともに番組に出演しています。具体的には、AIアナウンサーが基本的な情報を読み上げて、人間のアナウンサーがそれに専門的な解説を加えるといった具合で進行する、両者が協力し合う形です。
中国の新華社通信では、AIアナウンサーと人間のジャーナリストが協力して24時間体制のニュース配信を行っています。これも共存モデルの例だと言えるでしょう。
このように、AIアナウンサーは人間の仕事を奪うというより、むしろ協力関係を築きつつあります。
AIアナウンサーがいわば定型的なアナウンス業務を担当することで、人間のアナウンサーはより専門性の高い仕事や、視聴者とのコミュニケーションに注力できるようになっているようです。
3.AIアナウンサーの課題
3-1 自然な表現と感情表現の向上
AIアナウンサーの大きな課題の一つが、より自然な表現と豊かな感情表現の実現です。
現在のAIアナウンサーは、基本的な抑揚やポーズの付与は可能で、3DCGとの組み合わせで表情表現もできるようになってきました。しかし、まだまだ繊細な感情のニュアンスを表現するのは難しい状況です。
例えば、明るいニュースと暗く重い深刻なニュースでは、異なる話し方が求められます。人間のアナウンサーなら自然に表情や声のトーンを使い分けられますが、現在のAIアナウンサーにはなかなか"ハードルが高い"仕事です。
人間のような自然な感情表現の実現には、まだまだ時間がかかりそうです。
3-2 臨機応変な対応と即興性の獲得
AIアナウンサーもう一つの課題が、臨機応変な対応です。
AIアナウンサーの現在の主な仕事は用意された原稿を読み上げることです。しかし、放送の現場では予期せぬ出来事が日常的に起こります。突発的なニュースが入ってきて、予定が変更になることもあります。その意味で、スポーツ中継は最も苦手とするジャンルの一つと言えるでしょう。
4.AIアナウンサーの今後の展望
4-1 視聴者にどれくらい受容されるのか
AIアナウンサーが、視聴者にどのくらい受け入れられるのかが、今後の普及拡大に関わってきます。簡単に言えば、「ウケる」か「受け入れられる」のか、それとも「気味悪がられる」のかといった課題です。
AIアナウンサーは若い世代は比較的受け入れやすい傾向にあるとされていますが、現時点では「機械的で親しみにくい」と感じる方々も多いようです。人間のアナウンサーのように視聴者との信頼関係を築くにはどうすれば良いのか、考えていく必要がありそうです。
また、AIアナウンサーが誤った情報を伝えてしまった場合、いったい誰が責任を負うのかといった点が課題として指摘されることもあります。課題に対しては、放送局側の丁寧な説明と、視聴者の理解を深める取り組みが必要でしょう。
4-2 視聴者が得られるメリット
AIアナウンサーの導入は、視聴者にも大きなメリットをもたらすといえます。ここまで述べてきたことと重複しますが、大きく2点が挙げられます。
24時間体制で安定した情報提供を得られる
最大の利点は、24時間体制での安定した情報提供を可能にすることです。
南海トラフ地震や首都直下型地震の不安が伝えられる今、災害時に、人間のアナウンサーの場合、疲労で交代する必要がありますが、AIアナウンサーなら休むことなく最新情報を伝え続けることができます。
多言語対応により、日本に住む外国人や旅行者も必要な情報をリアルタイムで得られる
また、多言語対応により、日本に住む外国人や旅行者も、必要な情報をリアルタイムで得られるようになります。
また、地方局での活用も期待できます。マルチリンガルのアナウンサーの人手が不足しているといわれる地方で、地域の情報サービスを充実させ、発信力を高めるられる可能性があります。
まとめ
AIアナウンサーとは、AI技術を使って人間のアナウンサーの声や話し方を再現するシステムのことです。AIアナウンサーは、技術の進歩とともに着実に進化を遂げ、放送現場での実用化が進んでいます。
24時間稼働や多言語対応など、人間のアナウンサーを補完する存在として、特に災害時の情報発信で大きな価値を発揮する一方で、感情表現や臨機応変な対応など、まだまだ課題も残されています。
しかし、AIアナウンサーは人間の仕事を奪うのではなく、協力関係を築きつつあります。
将来的には、AIと人間それぞれの強みを活かした新しい放送のスタイルが確立され、それにより放送の質の向上が期待できるでしょう。