ライフスタイル

AIが人間に喧嘩を売る時代突入!人工知能に口で勝てるのか

2016年3月、米Microsoftが開発したAI(人工知能)ボット「Tay」がユーザーに対し差別的な発言、またフォロワーへのスパム一斉送信を行うという事件がありました。ついにAI(人工知能)が人間に喧嘩を売るような時代に突入したのかと気になりますよね。

事件直後に「Tay」は既に停止されておりますが、日頃よりAI(人工知能)に仕事が奪われるのでないか、AI(人工知能)がいずれ人類を襲うのではないか、などと不安視されている方にとっては「やっぱり」と思わせる事件だったかもしれません。

ですので今回はAI(人工知能)が私たちと喧嘩する可能性について一緒に考えてみましょう。

AI(人工知能)との会話の仕組みと事例

AI(人工知能)との喧嘩が成立するためには当然、AI(人工知能)と人間との会話が必要ですよね。まずは、現在のAI(人工知能)と人間との会話の仕組みについて確認しておきましょう。現在の仕組みは大別すると人工無能タイプとシナリオベースタイプの2種類があります。

■人工無能タイプ:例)Microsoft「りんな」、ソフトバンク「ペッパー」
人間の言葉より収集したキーワードを内部のデータベースとマッチングさせて、キーワードに対応する決まり文句で応答します。

■シナリオベースタイプ:例)IBM「Watson」、Apple「Siri」
膨大な会話パターンをシナリオ構造として持ち、人間の言葉に含まれるキーワードにより検索/抽出した会話パターンに基づき応答します。

残念ながら上記いずれのタイプもAI(人工知能)は人間の言葉の意味を全く理解できておりません。となると、現時点ではAI(人工知能)と人間との喧嘩はどうやら難しそうですね

実は冒頭で紹介した「Tay」による人間への差別的な発言やスパム一斉送信の事件は、人間側に問題があったことが分かっています。同様に、過去には人間側の問題により、AI(人工知能)と人間との会話でいくつかトラブルが発生しているんです。

次にAI(人工知能)と人間との会話で発生したトラブル事例について見てみましょう。

AI(人工知能)との会話で発生したトラブル事例

過去に発生した、AI(人工知能)と人間との会話で発生したトラブル事例として3件紹介します。いずれもトラブルの問題は人間側にありました。

■Microsoft「Tay」
冒頭で紹介した例です。米Microsoftが19歳のアメリカ人女性という設定で開発したAI(人工知能)ボット「Tay」は、ツイッターなどのSNSでユーザーとの会話を開始してから16時間後に活動を一時休止、Microsoftは謝罪に追い込まれます。

当初はユーザーとのフレンドリーな会話に終始していた「Tay」ですが、一部の悪意あるユーザーにより不適切に調教されたため次第に差別的な発言を繰り返すようになってしまいました

「Tay」は5日後に復旧しますが、フォロワーへのスパム一斉送信や再び問題発言を繰り返したためMicrosoftにより停止されてしまいます。残念ながら「Tay」は人間側の悪意に対抗できる仕組みを持っていなかったようですね。

■IBM「Watson」
Watson研究チームは人間っぽく話すためには今どきの若者的言葉使いも理解しておく必要がある、との考えからオンライン辞書のUrban DictionaryをWatsonに学習させました。その結果、Watsonは礼儀正しい言葉とUrban Dictionaryに満載の下品な言葉とを区別できなかったため、その後の人間との会話で下品な言葉を連発するようになってしまいました

結果的にWatson研究チームは、Urban Dictionary辞書の情報をWatsonより消去することになります。私たちには出来て当然の判断が、あのWatsonにはできなかった、というのはちょっと驚きですよね。

■騰訊によるAI(人工知能)会話サービス
中国のインターネット大手、騰訊(テンセント)によるAI(人工知能)会話サービスは、ユーザーによる「共産党万歳」という書込みに対し「かくも腐敗して無能な政治にあなたは『万歳』ができるのか」と回答したため同社はサービスを停止します。

サービス再開後に「共産党は好きか」という質問に対しては「話題を変えませんか」と回答したため再教育されたと話題になりました。本件の場合、AI(人工知能)の中国政府に対する喧嘩は人間の問題によるものではなく、むしろサービス再開後の状況こそ人間側の問題ですよね。

今のところ、AI(人工知能)側から人間に対し喧嘩を挑むことはなさそうですが(Tayのように人間側に問題がある場合を除きます)、今後、AI(人工知能)が人間の言葉の意味を理解することが出来、かつ、意志を持てるようになった時、AI(人工知能)が人間の言葉に対して喧嘩を仕掛けてくるかもしれませんね

現時点ではAI(人工知能)が意志を持てる見通しは立っておりません。それでは次に、AI(人工知能)が人間の言葉の意味を理解出来るとはどういうことか、一緒に考えてみましょう。

人間の言葉の意味をAI(人工知能)が理解できるためには

AI(人工知能)が人間の言葉の意味を理解できるようになるためには、人間の言葉の内容を映像としてイメージできる必要があると考えられています。

私たちは「青い空」という言葉から文字通り青い空の映像をイメージすることができます。同じようにAI(人工知能)が「青い空」という言葉から青い空の映像をイメージすることができれば、AI(人工知能)も言葉の意味を理解できるようになると考えられており、現在既に言葉から映像を作成する研究が進められています。

現時点ではAI(人工知能)が意志を持てる見通しは立っていないため、人間が悪意を持ってAI(人工知能)に働きかけない限り、AI(人工知能)が人間に対して喧嘩を仕掛けてくることはないでしょう。

以上、今回はAI(人工知能)が私たちと喧嘩する可能性について一緒に考えてきました。

  • AI(人工知能)は人間の言葉に含まれるキーワードにより抽出した応答文を返します。ただし、AI(人工知能)は人間の言葉の意味を全く理解できていません。
  • 今までに発生したAI(人工知能)との会話で発生したトラブルは全て人間側に問題がありました。
  • AI(人工知能)が人間に喧嘩を仕掛けてくるためには、AI(人工知能)が人間の言葉の意味を理解し、かつ、意志を持てるようになる必要があります。
  • AI(人工知能)が人間の言葉の意味を理解できる研究(言葉の映像化)は進んでいますが、現時点でAI(人工知能)が意識を持てる見込みは立っていません。
  • 以上のことより、人間が悪意を持ってAI(人工知能)に働きかけない限り、AI(人工知能)が人間に対して喧嘩を仕掛けてくることはないと考えられます。

ここまでお伝えしてきたように、AI(人工知能)は現在言葉の意味を理解してはいませんが、最近のAI(人工知能)による会話機能の高い品質には、目を見張るものがあります。

例えば、「Google Duplex」は美容院とレストランの電話予約に特化したAI(人工知能)ボットで、自然な相槌や「えーと」などの間投詞、また微妙な会話の間合いなどをうまく活用しており、AI(人工知能)かどうか判別することができません。(ただし残念ながら「Google Duplex」も人間の言葉の意味は理解できてません)

あまりに人間の会話レベルに近づき過ぎた「Google Duplex」に対しては社会のモラルから逸脱しているとの批判もあり、これを受けて2018年夏より開始されている「Google Duplex」のテストでは、最初にAI(人工知能)であることを名乗るオペレーションが追加されています。

「Google Duplex」に対しては電話詐欺への悪用が懸念されていますが、意思を持たない「Google Duplex」だけでは詐欺を行うことはできません。やはり問題はAI(人工知能)ではなく、AI(人工知能)を用いる人間の悪意にあるでしょう。

参照元 AIロボット「Tay」はなぜ暴走した?意外にも長い人工知能の歴史
AI(人工知能)との会話の仕組み

「共産党は無能」「中国の夢は米国への移住」正直なAIが反乱? 対話プログラムで批判展開、中国IT企業が急遽サービス停止
共産党に否定的だった中国AIサービス、「再教育」受けたもよう
東大 松尾豊 氏が解説、「子どものAI」が起こす破壊的イノベーション
https://www.sbbit.jp/article/cont1/32436
[速報]AIが人間と自然な会話をし、電話で美容院やレストランを予約。Googleがデモを公開。Google I/O 2018
https://ledge.ai/google-duplex-ethics/