広がる「ディープフェイク」犯罪の実例と予防策、一般人も被害の恐れ

会員限定
記事をクリップ
URLをコピー
記事を印刷
Xでシェア
Facebookでシェア
はてなブックマークでシェア
LINEでシェア
noteでシェア
広がる「ディープフェイク」犯罪の実例と予防策、一般人も被害の恐れ写真はイメージです Photo:PIXTA

人工知能(AI)によって、2つの画像や動画の一部を結合させ、元とは異なる映像を作成する技術である「ディープフェイク」。映画制作の現場やバラエティー番組の演出などで活用される一方、女性芸能人の顔をアダルトコンテンツにはめ込んだり、政治家の動画を歪曲(わいきょく)、捏造(ねつぞう)してネガティブキャンペーンに利用したりするなど、悪用事例も多い。技術の進展に伴い、近年は著名人のみならず、ネットに顔を公開している一般人も被害を受けるリスクが高まっている。AIの社会問題に詳しく『悪のAI論』の著書もある桜美林大学教授の平和博氏に、ディープフェイクを用いた犯罪事例、悪用を食い止めるために必要な対策について聞いた。(清談社 山田剛志)

米ネット掲示板の動画が
普及のきっかけ

ディープフェイクとは、人工知能による「ディープランニング(深層学習)」の一手法である「GAN(敵対的生成ネットワーク)」という技術を用いて、動画に写っているオリジナルの顔に他人の顔をマッピングして作成される合成動画、または技術そのものを指す。

元々はCGをふんだんに使用した大作映画などで使われる、高価な設備と高度な専門知識を必要とする技術であったが、AI技術が発展するに伴い、一般ユーザーでも利用できるまでに浸透。現在、オンライン上にはあまたの有料サービスがあり、中には素材用、合成用の動画の再生時間がそれぞれ60秒以内(合計2分以内)であれば、約3000円で映像内の顔交換を請け負うサービスも存在する。

あなたにおすすめ

特集

アクセスランキング

  • 最新
  • 昨日
  • 週間
  • 会員

最新記事

AltStyle によって変換されたページ (->オリジナル) /