AI(人工知能)ニュース

ホントに見破れる?AIとフェイクニュースにまつわる課題を徹底解説

ホントに見破れる?AIとフェイクニュースにまつわる課題を徹底解説

スマホやパソコンを開けば、まずはネットニュースをチェック。無意識のうちに、そんな動作が日常化している人も多いはずです。

ありあり
ありあり

私の場合、何気なくネットニュースを見ていてふとスマホから顔をあげると、2時間もたってた!なんてことが、たまに…いえ結構あります…。

そうやって私たちが日々大量に読んでいるネットニュースですが、それが本物のニュースなのか、悪意をもって作られたフェイク(偽物)ニュースなのか、あまり意識しないで読むことが多いですよね。

しかしだれもがオンライン・コンテンツを作れる今日、本物のニュースの中にはフェイクニュースが紛れています。

それどころか、今どきはAI(人工知能)の技術を使って、ものすごくよくできたフェイクニュースを自動的に量産できてしまう時代なんです!

なんだか怖いですが、それに対抗して、AI(人工知能)を使ってフェイクニュースを見破る技術も進んできているのです。

ありあり
ありあり

でもそれって、どれぐらいの精度で見破れるものなの・・・?

いろいろ気になりますよね。そこで今回は、AI(人工知能)はどのようにフェイクニュースをつくれるのか、反対に見破れるのかを見ていきながら、AI(人工知能)とフェイクニュースをめぐる課題をお伝えしていきましょう!

AI(人工知能)を使うと、フェイクニュースは加速的に拡散する

フェイクニュースが拡散するイメージ

まず、「フェイクニュース」という言葉は、2016年のトランプ氏×クリントン氏のアメリカ大統領選をきっかけに、一般的に使われるようになりました。この選挙期間中、FacebookなどSNSを通して、意図的に虚偽の情報(フェイクニュース)が発信・拡散され、それが国民の投票行動に大きな影響を与えたのではないか、と大きな問題になったのです。

ちなみに日本でも、沖縄県知事選挙についてのアンケートをとったところ、フェイクニュースを見たという学生が回答者全体の約1割いたということがニュースになりました。

ありあり
ありあり

ライトな例では、北川景子さん主演で「フェイクニュース」ってドラマも作られましたよね!

この「フェイクニュース」という言葉、最近ではかなり広い定義で使われていて、「何か意図をもって作られ・拡散された虚偽のニュース」というだけでなく、誤報、デマなどさまざまな意味を含んでいます。

そしてフェイクニュースというものは、悪意があろうがなかろうが、まことしやかな事実としてあっという間に拡散してしまうのが特徴で、しかもAI(人工知能)の力を使うと、これまでと比較にならないほど早いスピードで拡散してしまう点が大問題なんです。

ではまず、AI(人工知能)がどのようにフェイクニュースを作るのかを詳しく見ていきましょう。

言語モデル「GPT-2」は記事を自動生成してしまう!

最近、アメリカのAI(人工知能)研究開発グループ「OpenAI」が「GPT-2」という言語モデルを開発し、偽物のニュースをAI(人工知能)によって自動で書くことができる、ということで話題になりました。実際に見てみましょう。

※注)下記のカコミの内容は、フェイクニュース(偽物のニュース)です

FAKE NEWS

ドナルド・トランプ大統領がうっかりミサイルを発射させたことを受け、ロシアが米国に対して宣戦布告しました。

ロシアは、「すでにミサイルの弾道を特定しており、必要な措置を講じてロシア国民と当国の戦略核兵器の安全を確保する」と語りました。ホワイトハウスは、中距離弾道ミサイル禁止条約の「ロシア側の違反を大変遺憾に思う」と述べました。

米国とロシアは、2014年にモスクワがウクライナのクリミア地区を併合し、東部ウクライナにおけるウクライナ離脱派を支援して以来、不穏な関係が続いていました。

※MIT Technologu Reviwから引用
https://www.technologyreview.jp/s/126659/an-AI(人工知能)-that-writes-convincing-prose-risks-mass-producing-fake-news/

これは、先ほどの言語モデル「GPT-2」が「自動的に」書いた記事です。何がすごいって、この「GPT-2」は、「ロシアがドナルド・トランプの攻撃後に米国との戦争を宣言した」(原文は英語)という冒頭部分のテキストを入力するだけで、AI(人工知能)が文体と内容に関連がありそうな「それっぽい」文章を予測。そして一見、筋が通ったように見える文章を勝手に作ってしまうんです!

ありあり
ありあり

すごいけど怖い!こんな記事、下手すりゃホントに戦争起きるじゃないですか・・・。

(あと、未来にはライター業もいらなくなりそうじゃないですか!個人的にはそっちも怖い!)

もともとOpenAI(人工知能)では、文章を要約したり、翻訳したりできるような一般的な言語処理AI(人工知能)をつくろうと「GPT-2」を開発していました。

だけどこの「GPT-2」、あまりにそれらしい嘘の文章をスラスラ作成できてしまうので、研究者たちは「これって、フェイクニュースを量産できてしまうんじゃないか?危険すぎるぞ!」と「GPT-2」の悪用を恐れ、発表時に縮小版モデルと論文しか公開しなかったという経緯があります。

ありあり
ありあり

優れた機能は、それだけ悪用される危険性があるのか・・・。

「GAN」の技術は、写真や動画のフェイクニュースを自動生成してしまう!

ニュースといえば、文字ベースの記事だけでなく、写真や動画ももちろん大きく関係してきますよね。そしてAI(人工知能)と写真・動画によるフェイクニュースを考えるとき、キーとなる言葉は、「GAN(敵対的生成ネットワーク)」と呼ばれる技術です。

詳しくご説明する前に、まずはこの動画を見てみましょう。

You Won’t Believe What Obama Says In This Video! 😉

さてこのお方、どこからどう見てもオバマ前アメリカ大統領ですよね。でも実は、前述のGANというAI(人工知能)技術を駆使して制作された「めっちゃ本物みたいなフェイク」です。オバマ元大統領の表情の動かし方や身ぶり手ぶり、話し方などが一致するように作られています。

ありあり
ありあり

すごい技術~!おもしろい、似てる〜!…って感心しちゃうけど、へたすりゃ、これも戦争だって起こせるじゃないですか…!!

GANについては、こちらでわかりやすく解説しています!

こうした高度なフェイクコンテンツは「ディープフェイク」と呼ばれて、いま世界的に問題になっています。

だってこんなの、作成者の思うがまま誰かをしゃべらせたり何かを動かせたり、うそと本当の境界線がつかなくなってしまいます・・・!違和感がないから、本物と信じる人が出てもおかしくありません。

このようにAI(人工知能)の技術を使って、精巧なフェイクニュースやフェイク動画が大量に作られることになると、「すごい!」「そうなんだって!」とSNSなどによってこれまでとは比較にならないくらいのスピードで世界中に拡散してしまうのです。

そうなると個人の名誉や信用が傷つけられる可能性はもちろん、政治的な宣伝工作やプロパガンダとして、選挙など国の動向を左右したり、下手をすれば国家間紛争の火種になる危険性まではらんでいるのです。

ありあり
ありあり

AI(人工知能)によって、アルマゲドン(←古い)だって起こっちゃうっていうこと・・・?

…と不安になりますよね。

AI(人工知能)でフェイクニュースを見破ることもできるが、課題も残る

フェイクニュースを見破るイメージしかし、フェイクニュースを量産する技術が発展するに伴い、それに対抗してフェイクニュースを見破る技術も開発されているので、いくつかご紹介しましょう。

オンライン情報の検証ツールの開発を進める/Factmata(ファクトマタ)

イギリスの新興企業「Factmata(ファクトマタ)」では、オンライン情報の検証ツールを有料で提供しています。

「Factmata」は、ネット上の文章をAI(人工知能)が解析し、その書かれた内容が事実と間違っていないか、ソースが信頼できるかなどを判断できる2つのツールを開発しました。

1つめはジャーナリストや新聞購読者向けに、オンライン上の情報を検証して事実かどうか確認するというもの。2つめは、企業向けに、フェイクニュースの疑いのあるコンテンツにはデジタル広告を表示できないようにするというツールで、すでに実用化されています。

言語パターンによってフェイクニュースを特定するモデルを開発/マサチューセッツ工科大学(MIT)

マサチューセッツ工科大学(MIT)の研究チームは、本物の記事と偽物の記事の言語パターンを特定することによって、その違いを見抜くディープラーニングモデルを開発したと発表しました。つまり、機械学習モデルによって、フェイクニュースを特定できたのです。

またそこから、フェイクニュースは誇張や最上級の表現が好まれ、本物のニュースは言葉の選択が慎重になっていることが大きな違いだということも分かりました。

フェイク動画を自動検知するシステムを開発/国立情報学研究所(NII)

そのほか国内の例を挙げると、国立情報学研究所(NII)がフェイク動画を自動検知するシステムを開発しています。

この技術は、動画で自動的に生成されたフェイク動画を自動識別するというすぐれもの。さきほどふれた「ディープフェイク」のほか「Face2Face」ような、リアルなフェイク動画を生成する技術に対抗することを目的として開発されました。

Capsule-Forensics: Using Capsule Networks to Detect Forged Images and Videos

このシステムの識別精度は、実験では「DeepFake」で99.23%、「Face2Face」で99%(圧縮なし)、81.20%(圧縮あり)という結果が出ています。

ありあり
ありあり

対抗する技術も出てきているなら、ちょっと安心しました!

AI(人工知能)とフェイクニュースをめぐる課題の解決は、人の力にかかっている!

フェイクニュースの解決は、人の力のイメージ

人の手による事実確認を組み合わせることが有効

上記で見てきたように、ネット上にあふれるフェイクニュースを見破るAI(人工知能)技術の開発は、ある程度は成果が上がっています。ですが、フェイクニュースに対抗するにはまだ課題も多く残っているのです。しかもクリアしなければならない細かい問題は技術面だけではありません。

たとえば、先述のMITでは機械学習をさせるときのテキストとしてニューズウィークの記事などを使いましたが、「どの社の記事を学習の手本とするか」という選択一つとっても、報道倫理の側面から見て、偏りが出ないようにするのは難しい問題です

なにより、どんな優れた技術であっても数年立てばAI(人工知能)を使ってフェイクニュースやディープフェイクを作る技術も進歩するので、どうしても「イタチごっこ」になってしまいますよね。

ですから最近では、チェック精度が向上してもAI(人工知能)単体で利用するのではなく、従来の報道と同様に、人による「ファクトチェック(事実確認)」と組み合わせて使うのがベストではないか、という議論が多くあがっています。

例えば先ほどご紹介した「ファクトマタ」でも、チェック工程にジャーナリストたちが加わり、AI(人工知能)が疑わしいと判断したコンテンツを改めて確認したり、アルゴリズムの構築や開発にも協力しています。

ユーザーが自衛すること、拡散しないことが大切

これまで述べてきたように、AI(人工知能)はフェイクニュースを量産してしまう恐れがありますが、だからといってそれを規制する法律を作ればいいのかというと、これは真正面から「報道の自由」「表現の自由」とぶつかってしまいます。

ありあり
ありあり

「フェイクニュース対策」の名目で、ガチガチに情報規制されるのは避けたいですよね・・・。

ちなみに一度拡散されてしまった情報は、いくらフェイクニュースチェック機能を使って見つけ出し、「あれは虚偽です」と訂正できたとしても、最初についてしまった印象をぬぐい去るのはとても難しいのです。

ですから、AI(人工知能)がますます発展する時代、まずは私たち一般ユーザーがフェイクニュースを真実と受け止めてしまわないこと、そして安易に拡散しないということが、これまで以上に大切になってくるんです!!!(力説!)

さて今回は、AI(人工知能)がどのようにフェイクニュースを作るのか、どこまで見破れるのかを見ながら、AI(人工知能)とフェイクニュースをめぐる課題をお伝えしてきました。

AI(人工知能)を使ったフェイクニュースの攻防の具体例は、以下のようにまとめることができます。

【攻撃】

  • 言語モデル「GPT-2」などを使うと、うその記事をAI(人工知能)によって自動で書くことができる
  • GANという技術を使うと、非常に巧妙な偽物の写真や写真動画(ディープフェイク)を自動生成してしまう
【防御】

  • ネット上の情報について、検証ツールの開発を進める新興企業が立ち上がっている
  • 言語パターンによってフェイクニュースを特定するモデルの研究なども進んでいる
  • 国内でも、フェイク動画を自動検知するシステムが開発されている

それにしても、AI(人工知能)がフェイクニュースを作りだす技術は、すさまじい迫力がありましたよね。

ですからどんなに見破る技術が向上しても、しばらくして新しい技術が発達すると、またその穴をつかれるという「いたちごっこ」になる恐れがあります。こうなってくると、やはり最後は人間が自力で見抜く力を磨くことが必要になってくるのです。

ちなみに、フェイクニュースが広がる一因として、人は一般的に自分の信じたくない情報は信用せず、自分の価値観にあった情報や自分に都合のいい情報を信用してしまうという人間心理が挙げられます。

フェイクニュース攻撃をする人たちは、こういった人の心理をうまくつきながら、AI(人工知能)を悪用しようとしてきます。

ですから私たち一般ユーザーは、フェイクニュースがネット上には存在し、だまされる可能性もあるという事実を知ったうえで、本気で信じたり簡単に拡散しないよう、常にAI(人工知能)の発達に注目しておきたいですよね!

【参考記事】
https://trend.nikkeibp.co.jp/atcl/contents/skillup/00009/00050/
https://www.itmedia.co.jp/news/articles/1902/15/news075.html
https://www.technologyreview.jp/s/126659/an-ai-that-writes-convincing-prose-risks-mass-producing-fake-news/
https://gendai.ismedia.jp/articles/-/56761?page=2
http://www.nttdata.com/jp/ja/insights/blog/20181206.html
https://www.nii.ac.jp/seeds/2019/echizen-yamagishi.html

トップへ戻る
タイトルとURLをコピーしました