「AbemaTV」がニュース番組でリアルタイムAI字幕を試験的に開始 ── 最新技術がアクセシビリティを加速する

このエントリーをはてなブックマークに追加

サイバーエージェントの子会社である無料インターネットテレビ局「AbemaTV」が、ニュース番組「けやきヒルズ」でAIを導入したと発表しました。12月10日の放送から、生放送のニュース番組としては国内初となるリアルタイムAI字幕を取り入れた放送を試験的に開始したということです。

音声認識から字幕表示までは約1秒。他局より大幅短縮

テレビ朝日と共同開発というこのシステムの名称は、リアルタイムAI字幕システム「AI(あい)ポン」

技術的には、Googleの音声認識テキスト変換サービス「Cloud Speech-To-Text API」ベースとし、株式会社LASSICの「LASSIC Speech Recognition」を活用したとのこと。AIポンを使うことで、生放送中にスタジオで繰り広げられるトークの内容をリアルタイムで音声認識し、字幕として画面に出力します。

  • 出演者の音声を認識
  • ニュース放送に適切な文章に変換
  • 字幕として表示

のプロセスにかかる時間が約1秒と、現在の他局で導入されているリアルタイム字幕に対して大幅に短縮されたということです。

導入時のイメージ

リアルタイムの字幕表示には大きく分けて、

  • 速記字幕入力者と呼ばれる人たちが番組を聞きながらリアルタイムで打ち込み
  • 音声認識での入力

の2つがあります。が、前者などは聞くだけで大変な作業……。音声認識で字幕を入力できたほうが間違いなく便利ですが、それでも屋外でのロケなどではノイズも多くなり、一部誤変換も起きるよう。音声認識での字幕入力の分野は、国内ではNHKが進んでいるようです。

AbemaTVの担当者によると、AIポン導入後、設備構築費、運用費など、あらゆる面で業務を改善できたとのこと。

共同開発したテレビ朝日で導入しているリアルタイム字幕を参考に比較したところ、専用のシステムを一から構築し、100%に近い精度で字幕を出すのに比べ、クラウドでシステムを構築し、自動で字幕化するAIポン導入でコスト面・工数面から大きく改善がおこなわれたようです。

同社は今後、最新の機械学習アルゴリズムを利用し、日々の放送を通して固有名詞などを習得していくとのこと。最初は誤変換も起きるでしょうが、精度の向上に期待がかかります。

最新技術が動画プラットフォームのアクセシビリティを加速する

導入される番組は、昼帯のレギュラー番組『けやきヒルズ』

同番組のターゲットは「ランチをしながらスマホでニュースをキャッチアップしたい」ユーザー。そのため、視聴者には音声をオフにしている視聴者も多いんだとか。字幕がつくことで、ターゲット層の視聴者に対してより良い体験を提供できます。

また、アクセシビリティの観点でも字幕は重要となります。最新のプラットフォームはえてして社会のメインストリームな層をターゲットにしており、マイノリティは後回しにされがち。アメリカでは、過去に聴覚障害者が字幕付与を求めてNetflix、Hulu、Amazon Primeといった動画プラットフォームを提訴しています。

手間のかかる字幕作成の業務がAIに置き換わることで、動画プラットフォームをより多様な人々が利用できるようになります。AIで自動で字幕を付与する取り組みが、AbemaTVを起点として広がればいいですね。

Source:「AbemaNews」が昼のニュース番組『けやきヒルズ』にて人工知能(AI)を導入  国内初、ニュース番組でのリアルタイムAI字幕生放送を試験的にスタート