AIが「フェイクニュース」を作り出す、もはや動画も信じられない時代に

ここ最近のIT業界のトレンドワードに「ディープ・フェイク」というものがある。
AI関連の用語で、AIが作り出す真実らしく見える動画のこと、さらに最近では付随する偽情報についてもこの用語が使われる。

IT用語 ディープフェイク
https://www.sophia-it.com/content/%E3%83%87%E3%82%A3%E3%83%BC%E3%83%97%E3%83%95%E3%82%A7%E3%82%A4%E3%82%AF

"ディープフェイクとは、高度な画像生成技術を駆使して合成され、偽物(フェイク)とは容易に見抜けないほど作り込まれたニセ動画の通称である。とりわけポルノ動画を指す場合が多い。

ディープフェイクと呼ばれる動画はAI(人工知能)を使って極めて高度に自然に画像合成が施されており、ニセモノであると知らされていなければニセモノと見破ることは容易でない。この技術を用いると、アダルト動画に有名女優の顔をはめ込んだ高度なアイコラのような動画を作成したり、政治家の発言や行動をでっちあげたフェイクニュースを作成したり、といった事が可能となり得る。"



具体的には、たとえば、以下のようなものだ。

・映像の中の人物をすり替える、表情を変える
 →これは写真であればフォトショなどで加工する技術が既にあったが、AIが作業を自動的に行い、動画でも行えるようになった

・ある人の音声を学習することで、その人の声を使って実際には発言していない発言を作り出す
 →これはボーカロイドが近いかも。音声サンプルが揃えば、それを繋ぎ合わせて会話を捏造出来てしまう

・生きている色んな人の写真やプロフィールを合成して実際には存在しない人物を作りだせるようになった
 →facebookなどSNSの世界で既に問題になっているもの。存在しない人物による最もらしい情報が流せるようになる

これらは単品でもかなりの大問題だ。

たとえば、SNS上に、ある人が通行人を暴行している映像が流されたとする。映像があるのだから犯行は明白だと思うだろう。しかし、その動画は実はディープ・フェイクで、暴行していたのは別人だった。もしくは、そもそも暴行事件など発生していなかった。
この場合、犯人として晒しあげられた人にどんな悲劇が待っているかは簡単に想像できると思う。

フェイクニュースを拡散してしまった場合、現在であれば、名誉棄損などの罪に問うことが出来る。
実際、日本でもある市議がフェイクニュースを信じ込んだために訴訟に発展したケースがあった。
https://www.fnn.jp/posts/00048706HDK/201910301203_MEZAMASHITelevision_HDK
しかし、SNSで拡散した「人物」自体も、実在しない「ディープ・フェイク」の中の一つだったとしたらどうだろう?

訴える相手もおらず、証拠もつかめないという事態になりかねない。


こうしたディープ・フェイクの技術が進歩するにつれ、危機感を覚えたのか、ディープ・フェイクを禁止する法律を作る国も幾つか現れた。
しかし法律を作ったところであまり意味がない。なぜなら、ディープ・フェイクを取り締まるには、それが虚偽だと確実に見わけられないと意味がないからだ。そもそも人間が見て判るような出来なら、最初から苦労はしていない。そしてこのテの映像を作る人たちは、そもそも法律を守る気も、捕まる気もないだろう。

つまり今の世の中は、たとえ動画であろうと信用出来ない状態に既になりつつある、ということだ。
実在する政治家の演説動画をほんの少しいじって、場面をつぎはぎし、言っていない音声を合成するだけで人々は勝手にそれを信じ込み、支持率がガッツリ下がるかもしれない。
有名タレントが居酒屋で乱れているところを目撃した、と言って流されたフェイクの動画を、面白がって拡散することに手を貸してしまうかもしれない。

また、実際にディープ・フェイクが詐欺事件に使われたケースも出てきている。
これは映像ではなく合成音声での詐欺事件だが、オレオレ詐欺どころではない。ルパン三世の世界がリアルになったようなものだ。

アポロ計画は失敗していた? 脅威を増すディープフェイク・ビデオ
https://www.itmedia.co.jp/news/articles/1911/29/news146_2.html

"さらに直接的な被害も生まれています。フランスの保険会社Euler Hermesによれば、彼らの顧客である英国の某エネルギー会社が、音声合成技術を駆使した詐欺行為の被害にあってしまったというものです。

その手口とは、次のようなものでした。まず詐欺師は、ドイツにある同社の親会社のメールアドレスを偽装。そのアドレスから、ハンガリーにある取引先に送金を行うようメールを送信しました。その上で、親会社のCEOそっくりの声を合成し、その声でエネルギー会社のCEOに電話をかけ、重ねて送金を命じたそうです。彼のドイツ人風のアクセントや喋り方を完璧にまねした声によって、エネルギー会社のCEOはすっかりだまされてしまい、言われるままでハンガリーの会社に送金を行ってしまいました。その額は実に20万ユーロ(約2400万円)。このお金は、その後さらにさまざまな会社を転送され、行方がつかめなくなってしまっています。"



さらにもっと最悪なのは、詐欺事件に留まらず、フェイクニュースが戦争の火種になったり、政治の世界を動かしたりと、取返しのつかない事態を引き起こすことだ。
たとえば、仲の悪いAという民族とBという民族が隣り合って暮らす土地で、AがBの村を襲撃する動画がニュースとして流されたらどうなるだろう。
選挙戦のさなかに、候補者Cのスキャンダル動画が流されたらどうなるだろう。


簡単に見分けがつくなら、誰も苦労はしないのである。
ただ、「そういうものもある」と知っておくことで、何となくおかしいなと違和感を覚えたときに、ギリギリのところで騙されずにとどまれるかもしれない。

ちなみに、ディープ・フェイクを作り出すのがAIの悪用なら、それを検出するためのAI活用というのも考えられている。
フェイクを作りだすAIと告発者としてのAIの戦いという、何だか昔どこかのSFで見たような世界も、もうすでに始まろうとしている。

この記事へのトラックバック