オタフ☆クラブ

1クリックで女性が裸に!?恐怖のAI(敵対的生成ネットワーク)アプリ

1クリックで女性が裸に!?恐怖のAI(敵対的生成ネットワーク)アプリ

最近、AI(人工知能)を使ったアプリがどんどん出てきていてAI(人工知能)がますます便利で身近なものになってきてるよね。特にGAN(敵対的生成ネットワーク)っていう技術が現在注目されているけど、中には恐ろしいAI(人工知能)アプリがあって話題になってる。

その恐ろしい内容とは、、、
GAN(敵対的生成ネットワーク)を使って作られたアプリが女性の写真を裸にしてしまうというもの。

この内容を聞いただけでも世界中から大批判を浴びそうなアプリは、やっぱりその通りになってすぐ利用停止になったね。

ビンビンビンセント
ビンビンビンセント
自分にはとっても可愛い娘がいるから、このアプリのニュースを聞いた時、もしとっても可愛い娘にこのアプリが使われたら怖いと思いました。みんなもそう思うでしょ。

そんな背景もあっていろんな意味で気になったので、今回このアプリについて調べてみました。

1クリックで女性を裸にしてしまう「ディープヌード」(DeepNude)

1クリックで女性を裸にしてしまう「ディープヌード」(DeepNude)

早速ですが超問題のアプリの名前は「ディープヌード」(DeepNude)。このアプリに普通の写真にアップロードすると、女性は誰でも全裸になってしまいます。

調べてみると、このソフトウェアは2017年のオープンソースアルゴリズム「pix2pix」を使っているようで、「pix2pix」はGAN(敵対的生成ネットワーク)を使っているアルゴリズムです。
GANはGenerative Adversarial Networkの略で、ディープラーニングアルゴリズムです。

GAN(敵対的生成ネットワーク)とは:

(引用:Wikipedia)

“GANs(敵対的生成ネットワーク)は生成ネットワーク(generator)と識別ネットワーク(discriminator)の2つのネットワークから構成される。例として画像生成を目的とするなら生成側がイメージを出力し、識別側がその正否を判定する。生成側は識別側を欺こうと学習し、識別側はより正確に識別しようと学習する。このように2つのネットワークが相反した目的のもとに学習する様が敵対的と呼称される所以である”

ビンビンビンセント
ビンビンビンセント

GAN(敵対的生成ネットワーク)を使えば、驚くべきディープフェイク(Deepfake)のビデオを作ることができます。例えばこんな動画とか。

You Won’t Believe What Obama Says In This Video! 😉

この動画びっくりするでしょ。
GAN(敵対的生成ネットワーク)の事例について気になる人はこっちの記事も見てみてください。

数十秒で女性のフェイク画像を生成するサービスは5日間で終了

さて、実際のアプリはどんなことができるのでしょうか?次のように女性の写真を入れると、こんな結果になっています。

deepnude example

30秒ぐらいで、新しいイメージが作成されて、結構リアルな感じで裸になってしまいます。

このアプリは2019年6月23日に50ドルの値段で販売が始まりました。

販売されたすぐ後に話題になって、人気でダウンロードが多くなりましたが、アクセスが殺到しすぎてアクセスダウンするにまでなったみたいです。もちろん、多くの批判も殺到したことは言うまでもないけど。このアプリには大きく次のような問題がありました。

アプリの問題:

  • アプリは女性の写真のみで使うことができて、男性の写真をアップロードすると、服が女性の体に変換される
  • 写真はリアルすぎて、だれでも「リベンジポルノ」のようなものを作れる
  • 作成された写真には「FAKE」という文字がつくのですが簡単に取れるものです
これらの問題が原因で、公開からたった5日間で販売が停止されました。

最後はDeepNudeの作者側のツイッターアカウントがツイートを更新し、次のようにサービスの終了が宣言されました。

なぜ開発者はこんなとんでもないアプリを作ったのか

アプリの開発者は子供のところに70年代の雑誌を見ると、中にレントゲンの眼鏡のストーリーがありました。このレントゲンの眼鏡のオマージュのためにこのアプリを作ったようです。DeepNudeのアプリのロゴもオマージュになっています。

Deepnudeロゴ

DeepNudeの開発者は2年前、GAN(敵対的生成ネットワーク)の存在を知って、Nvidiaが作った「昼間の写真を夜の写真に変換する」アプリを見たところ、服を着ている人の写真は裸の写真にすることができると思ったと言ってます。

昼間の写真を夜の写真に変換する映像はコチラ↓

Day2NightImageTranslation-06

前に書いた通り、DeepNudeは男性の写真で使うことはできなくて、その理由は裸の女性の写真の方が見つかりやすく、集めやすいので男性のバージョンはまだできていないとのことです。だってAIを学習させるためには大量の画像を準備することが必要で、実際DeepNudeを作るために1万以上の女性の写真で学習したから。

ビンビンビンセント
ビンビンビンセント

技術は使い方を間違えば大変な問題になることをDeepNudeの事件は表してるね。この事例は怖いでしょ。

まとめ

さて、今回はGAN(敵対的生成ネットワーク)を用いた恐ろしいアプリDeepNudeを紹介してきました。

女性の写真をアップロードするだけで裸にしてしまう恐ろしいアプリが登場しているように、たったの5年でGAN(敵対的生成ネットワーク)のできることは多くなって、10年後はどんなことができるようになるだろう?・・・テクノロジーの発展に対して楽しみな気持ちと不安な気持ちの両方があります。

ビンビンビンセント
ビンビンビンセント
最初にも触れましたが自分にはとっても可愛い娘がいるので、いつかそういうアプリに娘の写真が使われたらと思うと、やっぱり怖いね。

技術の進歩と共にこれからAI(人工知能)が作ったディープフェイク、フェイクニュース等がどんどん増えていくことは避けられないから、自分の見る画像や動画が、本物か偽物かを自分で判断して見極めていく必要があると思う。一人一人が気をつけるのが大事なことです。

燃やせ探究心!突き詰めろ美しきソースコード!オタフ☆クラブ

コメントをどうぞ

トップへ戻る
タイトルとURLをコピーしました