Deepfakeとは?
「アイコラ」という言葉を覚えている読者は多いだろう。
アイドルの顔写真とポルノ画像をコラージュ(合成)したフェイクポルノ画像の一種で、2000年代前半に大量に出回り、多くの芸能事務所がそれらの撲滅に躍起になった。
当時は「職人」と呼ばれる人々が暗躍し、その量産に一役買ってきたが、今はその役をAIが担っている。それが、いま問題になっている「Deepfake」だ。
Deepfake は、ある人物のさまざまな写真をAIに読み込ませて作られる偽動画のこと。2018年3月に爆発的に広がったインターネットミームで、たとえば「どんな映画にもニコラス・ケイジが出演している」というような動画が作られた。
(video:Usersub/YouTube)
念のために伝えておくと、これはニコラス・ケイジの映画出演シーンを繋げた動画ではない。ニコラス・ケイジの顔を学習したAIが、「アイコラ」の要領で映画の登場人物の顔をニコラス・ケイジに差し替えて動かしているのだ。
そして、はじめに「アイコラ」の例をとったように、これがポルノに使われるまでに時間はかからなかった。
AIの利点がそのまま問題を深刻化させているDeepfake
この技術を使えば、どのような人のどのような動画も作ることができる。もちろんポルノも。
米国では早くもこれが社会問題化している。作られたビデオがプライベートビデオではなく商品としてのポルノビデオのように見えることから、一部の社会学者からは「リベンジポルノよりも被害が大きい」と規制を呼びかける声もあるほどだ。
しかし、作り方が単純であるだけに、何を規制すればフェイクポルノを防ぐことができるのか分からないことが、この問題をさらに根深くしている。
AI技術の素晴らしい点は、どんな人でもそれを扱うことができるということだ。SFの世界に登場する「マザーコンピューター」のような全知全能の存在を作ろうとするなら話は別だが、ある特定分野でのみ活用されるAIなら、一般的なコンピューターで十分に動かすことができる。
実際、AIを利用したニューラル翻訳はオフラインのスマホでも使うことができることからも、それは明らかだろう。
Deepfakeを見抜くたった一つの方法