【戦慄】もはや何でもあり!! 最新フェイク動画事情…

2019.05.27

インタビューで酔っぱらっているかのように話す米民主党のナンシー・ペロシ下院議長の動画がYouTubeで公開され、瞬時にTwitterやFacebookで拡散した。(トランプ大統領も喜々としてツイート⇒後に削除)


米Washington Postの記者ドリュー・ハーウェル氏が、この動画を低レベルな編集方法で偽造したフェイク動画だと記事で喝破した。Washington Postの記事によると、動画をスロー再生して編集しているため、ナンシー・ペロシ下院議長の動作が緩慢で、音声が低くなり、ろれつが回っていないように聞こるとのこと。

記事には編集前の映像も紹介されているため、比較するとフェイク動画だということが一目瞭然である。
このように高度な技術を必要としない手軽なフェイク動画「シャローフェイク(シャロー=浅い)」でさえも今回の騒動のように拡散して影響を与えることを考えると、AIを使って作る本格的なフェイク「ディープフェイク」が本物と見分けがつかない動画を作るようになってきたら、取り締まるのは難儀になりそうだ。

SamsungのAI Center(ロシアのモスクワにある)の研究者らがYouTubeで公開した「Few-Shot Adversarial Learning of Realistic Neural Talking Head Models」は、ディープラーニングの手法のGAN(敵対的生成技術)を使った動画を紹介している。

人が会話する動きの頭部モデルを使えば、数枚の顔写真を元にその顔の人が会話している動画が作れるというもので、サンプルとして使われている文豪ドストエフスキーやクラムスコイの名作「忘れえぬ女」がかなり自然に動いている。

この手法は「Few-Shot Learning(少数ショット学習)」といい、顔の多数の部位のランドマークで構成する「動くお面」のようなものを作り、このお面のランドマークを顔写真のランドマークに変換して写真を動かすというもので、1ショットでも学習できてしまう。

AIラボを持つFacebookでさえ、シャローフェイク動画をフェイクだと判断するのに大変な時間がかかったが、ディープフェイクを技術的に見破るには更に大変な労力が必要になるだろう。

(ITmedia『写真から本人そっくりの動画をAIで生成 フェイク動画を後押しするリスクも』2019年05月26日)

詳しくはこちら

コメントを残す

メールアドレスが公開されることはありません。 *が付いている欄は必須項目です

関連記事

TOPICS

MORE