ディープフェイク

はじめに

ディープフェイク技術は、単なる技術的ツールではなく、我々の情報生態系を再構築しつつある、人工知能における極めて重要な両義的(デュアルユース)な進歩として位置づけられる。この技術は、デジタルメディア、証拠、そして現実そのものとの関係性を根本的に見直すことを社会に強いる、社会技術的(sociotechnical)な現象を代表するものである。本報告書は、このディープフェイクという現象を多角的に分析することを目的とする。

その語源が示唆するように、ディープフェイクは深層学習(ディープラーニング)と偽物(フェイク)を組み合わせたものであり、当初は特定の技術を指す言葉であった 1。しかし、その意味合いは急速に拡大し、今日では人工知能(AI)を用いて生成された、本物と見紛うほど精巧な偽の画像、音声、動画全般を指す言葉として広く認識されている 2。この技術の特筆すべき点は、その「民主化」にある。かつては専門的な研究所の専有物であった高度な画像生成能力が、今や簡単な操作で誰でも利用可能なツールとして普及し始めているのである 1

この技術の普及は、創造性の新たな地平を切り開く一方で、悪意ある脅威という深刻な影を落としている。エンターテインメントから医療、教育に至るまで、その応用可能性は計り知れない。しかし、同時に、詐欺、世論操作、個人の尊厳の侵害といった、社会の根幹を揺るがしかねないリスクも顕在化している。本報告書では、ディープフェイクを支える技術的基盤の詳細な解説から始め、その建設的および破壊的な応用事例を対比的に検証する。さらに、民主主義、信頼、プライバシーといった社会的価値に与える深刻な影響を分析し、現在進行形で開発されている技術的、法的、そして倫理的な対抗策を包括的に考察する。これにより、我々が直面している「合成された現実」の全体像を明らかにし、未来の情報社会が取るべき進路を探るための一助とすることを目指す。

第1章 ディープフェイク技術の起源と技術的基盤

ディープフェイクの能力と限界を理解するためには、その中核をなす技術の解体が不可欠である。本章では、ディープフェイクがどのようにして作られるのかを、概念的なレベルから、その劇的な品質向上とアクセシビリティの拡大を可能にした具体的なアーキテクチャの革新に至るまで、段階的に解説する。

1.1 「ディープフェイク」の定義:造語から社会技術的現象へ

「ディープフェイク」という言葉は、「ディープラーニング(深層学習)」と「フェイク(偽物)」を組み合わせた造語である 1。この用語が初めて登場した当初、その意味は比較的限定的であった。具体的には、機械学習を用いて2つの写真や動画の一部を交換(スワップ)する技術を指していた 2。この初期の定義は、ある人物の顔を別の人物の身体に移植するといった、特定の技術的プロセスに焦点を当てたものであった。

しかし、技術の急速な進化と社会への浸透に伴い、この言葉の定義は大きく広がった。現在では、より広義に、AIを利用して作成または編集された、現実を模倣した偽の画像、音声、動画全般を指す包括的な用語として使われることが一般的になっている 2。この意味の拡大は、社会の関心が特定の「手法」から、それがもたらす「結果」、すなわち、人間には真贋の判別が困難な合成メディアの存在そのものへと移行したことを反映している。本報告書では、この現代的で広範な定義を採用する。なぜなら、この技術の社会的な影響は、単なる顔交換技術に留まらず、あらゆる形態の合成メディアを生成する能力に根差しているからである。

この現象のもう一つの重要な側面は、技術の「民主化」である 2。かつては高度な専門知識と計算資源を必要とした画像生成技術が、現在ではいくつかの単語を入力するだけで、誰でも簡単にフェイク画像を生成できるアプリケーションとして利用可能になっている 1。このアクセシビリティの飛躍的な向上は、創造的な可能性を広げる一方で、悪用のハードルを劇的に下げ、社会的なリスクを増大させる主要な要因となっている。

1.2 創造のエンジン:敵対的生成ネットワーク(GAN)への深掘り

高品質なディープフェイクの多くを支える基盤技術は、敵対的生成ネットワーク(Generative Adversarial Network、GAN)である。これは、教師なし学習に分類される深層学習モデルの一種であり、2014年にイアン・グッドフェロー氏らによって発表された 1。GANの最大の特徴は、2つのニューラルネットワークが互いに競い合う「敵対的」な学習プロセスにある。

敵対的プロセス

GANは、以下の2つのネットワークで構成される。

  • 生成ネットワーク(Generator): このネットワークの役割は、ランダムなノイズ(潜在変数)から、本物のデータ(例えば、実在の人物の顔写真)に似た新しい合成データ(偽のデータ)を生成することである 1。このプロセスは、完璧な偽札を作ろうとする「偽造者」に例えられることが多い 1
  • 識別ネットワーク(Discriminator): このネットワークの役割は、入力されたデータが、訓練データセットに含まれる「本物」のデータなのか、それとも生成ネットワークが作った「偽物」のデータなのかを識別することである 1。これは、偽造者が見せた偽札を鑑定する「警察官」や「鑑定士」に相当する 1

学習ループ

この2つのネットワークは、ゼロサムゲームのように互いを高め合う形で訓練される 11

  1. 生成ネットワークは、偽のデータを生成し、識別ネットワークを騙そうと試みる。
  2. 識別ネットワークは、本物のデータと偽のデータの両方を与えられ、両者を正確に見分けるように学習する。
  3. 識別ネットワークが偽物を見破ると、そのフィードバックが生成ネットワークに伝えられる。生成ネットワークは、そのフィードバックを基に、より識別ネットワークを騙せるような、さらに精巧な偽データを生成するように自身のパラメータを更新する。
  4. 一方で、生成ネットワークの能力が向上すると、識別ネットワークもまた、より巧妙な偽物を見破るために自身の識別能力を向上させる。

この「いたちごっこ」のような敵対的訓練(adversarial training)のプロセスを繰り返すことで、生成ネットワークは最終的に、識別ネットワークが本物と偽物を確率的に区別できなくなる(識別精度が50%に近づく)ほど、極めてリアルで高忠実度なデータを生成できるようになる 1

GANの利点

GANがディープフェイク技術の中核を担う理由は、他の生成モデルと比較して、主観的に見て非常に高品質で鮮明なサンプルを生成できる点にある 7。例えば、変分オートエンコーダ(VAE)のような他の生成モデルは、生成される画像がぼやけがちであるという欠点があった 7。GANは、このような問題を克服し、説得力のあるディープフェイクコンテンツの生成を可能にした。ただし、学習が不安定になりやすく、「モード崩壊(生成する画像の種類が偏ってしまう問題)」や「勾配消失問題」といった課題も抱えている 7

1.3 フォトリアリズムの追求:StyleGANにおけるアーキテクチャの革新

StyleGANは、NVIDIA社によって開発されたGANの発展形であり、特に人間の顔のような複雑な対象において、前例のないレベルの写実性(フォトリアリズム)と制御性を実現した画期的なモデルである 14。その生成する画像の品質は非常に高く、「もはや写真は証拠にならない」とまで言われるほどのインパクトを与えた 1。StyleGANの成功は、単なるGANの改良ではなく、ジェネレーターのアーキテクチャに対する複数の根本的な革新に基づいている。

  • プログレッシブ成長(Progressive Growing): StyleGANは、先行研究であるProgressive GANのアイデアを基盤としている。これは、画像を最初から高解像度で生成するのではなく、まず4×4ピクセルのような非常に低い解像度で生成を開始し、学習が進むにつれてネットワークに新しい層を段階的に追加していくことで、解像度を8×8、16×16と徐々に上げていき、最終的に1024×1024のような高解像度に到達させる手法である 15。このアプローチにより、モデルはまず大まかな全体構造(ポーズや輪郭など)を学習し、その後で細かいディテール(髪の毛や肌の質感など)を学習することができるため、学習プロセス全体が安定し、高品質な画像の生成が可能になる 15
  • マッピングネットワークと特徴の分離(Disentanglement): StyleGANの最も重要な革新の一つが、マッピングネットワークの導入である。従来のGANでは、ランダムな潜在ベクトルzを直接ジェネレーターの最初の層に入力していた。しかしStyleGANでは、zをまず8層からなる多層パーセプトロン(マッピングネットワーク)に通し、中間的な潜在ベクトルwに変換する 15。このプロセスは、入力されたランダムな特徴を「分離(disentangle)」する効果がある。つまり、訓練データに内在する様々な変動要因(例えば、顔画像であれば、ポーズ、個人性、髪型といった高レベルの属性と、そばかす、髪の質感、照明といった確率的な変動)を、互いに絡み合わない形で中間ベクトル
    wの中に表現することができる。この特徴の分離こそが、生成される画像のスタイルをきめ細かく制御するための鍵となる。
  • 適応的インスタンス正規化(AdaIN)によるスタイル制御: 生成された中間ベクトルwは、次に、合成ネットワークの各層で画像の「スタイル」を制御するために使用される。これを実現するのが**適応的インスタンス正規化(Adaptive Instance Normalization, AdaIN)**である 14。各畳み込み層の後で、AdaINは特徴マップを正規化し、その後
    wから生成されたスケール(倍率)とバイアス(偏り)を適用する。数式で表すと、各特徴マップxi​に対してAdaINは$AdaIN(x_i, y) = y_{s, i}(\frac{x_i – \mu(x_i)}{\sigma(x_i)}) + y_{b, i}$として定義される。ここで、$y = (y_s, y_b)$は$w$から導出されたスタイル情報である。この操作により、各解像度レベルで異なるスタイル情報(ポーズ、テクスチャ、配色など)を効果的に「注入」することが可能になる 15
  • 低解像度層(4×4~8×8): ポーズ、髪型、顔の形など、大局的な特徴を制御する 15
  • 中解像度層(16×16~32×32): 顔の細かい特徴、髪の毛の大きな流れ、目の形などを制御する 15
  • 高解像度層(64×64~1024×1024): 肌の色合い、質感、照明効果などの微細な特徴を制御する 15
  • ノイズ注入による確率的変動: そばかす、毛穴、個々の髪の毛といった、現実の写真に見られるようなランダムで予測不可能なディテールを再現するために、StyleGANは合成ネットワークの各層に直接ガウスノイズを注入する 14。このノイズは、画像の全体的な構造やアイデンティティに影響を与えることなく、確率的な変動を加える役割を果たす。これにより、生成される画像のリアリズムが大幅に向上する。
  • 混合正則化(Mixing Regularization): 異なる解像度レベルのスタイルが不必要に相関してしまうのを防ぐため、StyleGANは訓練中に「混合正則化」という手法を用いる。これは、2つの異なる潜在ベクトルz1​,z2​から2つの中間ベクトルw1​,w2​を生成し、合成ネットワークのある地点で、使用するスタイルベクトルをw1​からw2​にランダムに切り替えるというものである 15。これにより、モデルは各解像度レベルのスタイルを独立して学習することを強いられ、特徴の組み合わせの多様性が増し、より頑健なモデルが構築される。

これらのアーキテクチャ上の革新の組み合わせが、ディープフェイク技術の脅威を増大させる直接的な要因となっている。なぜなら、悪意のある攻撃者は、単にランダムな偽の顔を生成したいのではなく、特定の人物(CEOや政治家など)が特定の事柄(不正な送金の指示や虚偽の声明など)を話している、制御可能で信憑性の高い偽動画を作成することを目的としているからである。StyleGANが実現した「制御可能なリアリズム」は、学術的な進歩であると同時に、標的型の巧妙なディープフェイク攻撃を可能にする技術的基盤そのものなのである。

第2章 適用の二元性:建設的利用と破壊的利用

ディープフェイク技術は、その根底にある原理が同じでありながら、応用次第で社会に全く異なる影響を及ぼすという、顕著な両義性(デュアルユース)を持つ。本章では、この技術が創造性と革新を促進する一方で、いかにして詐欺や欺瞞の強力なツールとなり得るのか、その対照的な側面をバランスの取れた視点から探求する。

2.1 創造性と産業の新たなフロンティア(肯定的利用)

ディープフェイク技術は、その悪用が懸念される一方で、多くの分野で革新的な価値を生み出す可能性を秘めている。エンターテインメントから教育、商業に至るまで、その建設的な応用はすでに現実のものとなりつつある。

  • エンターテインメントと映画産業: 映画業界は、ディープフェイク技術によって革命的な変化を遂げている。最も注目される応用の一つが、多言語への吹き替えである。従来は音声のみを差し替えていたため、俳優の唇の動きと音声が一致しない不自然さが課題であった。しかし、ディープフェイク技術を用いれば、俳優の口の動きを吹き替え音声に合わせて自然に合成することが可能になり、視聴体験が大幅に向上する 19。また、俳優を若返らせる「デエイジング」や、故人となった俳優をスクリーンに蘇らせる「デジタル復活」も可能になる。映画『ワイルド・スピード SKY MISSION』で故ポール・ウォーカーの未撮影シーンを完成させた事例や、ジェームズ・ディーンを映画で復活させるプロジェクトがその代表例である 20。さらに、ファンが制作した『ライオン・キング』や『ターミネーター2』の顔交換動画は、個人の創造性を刺激するツールとしての可能性を示している 22
  • 教育とアート: 教育分野では、ディープフェイクはこれまでにない没入型の学習体験を提供する。例えば、歴史上の偉人であるアルバート・アインシュタインやサルバドール・ダリが、まるで生きているかのように授業を行ったり、美術館の来館者に自身の作品を解説したりすることが可能になる 20。これにより、生徒や学習者の興味を引きつけ、対話的で主体的な学びを促進することができる 20。アートの世界では、ArtbreederのようなGANを利用したプラットフォームが登場し、ユーザーが様々な要素を組み合わせて全く新しいユニークな芸術作品を創造することを可能にしている 8
  • 商業と産業: 商業分野でも応用は多岐にわたる。広告業界では、実在しない人物のリアルなAIモデルを生成することで、権利フリーの広告素材として活用できる。これにより、モデルのキャスティングや写真撮影にかかるコストと時間を削減できる 19。ファッション業界では、バーチャル試着(バーチャルフィッティング)技術に応用されている。ユーザーは、自身の体型に合わせた衣服の試着画像を生成することで、オンラインショッピングの体験を向上させることができる 19。また、企業は経営幹部のAIアバターを作成し、研修ビデオやプレゼンテーションに活用することもできる。テキストを入力するだけで、本人そっくりのアバターが多言語で話す動画を短時間で生成可能である 19
  • データ拡張: 医療や自動運転といった、大量の訓練データを必要とする分野においても、GANは重要な役割を果たす。例えば、希少疾患のCTスキャン画像や、危険な道路状況のシミュレーション画像を合成的に生成することで、AIモデルの訓練データを人為的に増やす(データ拡張)ことができる 8。これにより、データの不足を補い、AIの診断精度や安全性を向上させることが期待される 14

2.2 肯定的応用のケーススタディ:「In Event of Moon Disaster」とメディアリテラシー

ディープフェイク技術を公共の利益のために活用した模範的な事例として、エミー賞を受賞したアートプロジェクト「In Event of Moon Disaster」が挙げられる。このプロジェクトは、マサチューセッツ工科大学(MIT)のCenter for Advanced Virtualityが制作し、Mozillaの支援を受けて実現した 25

  • プロジェクトの概要: この作品は、1969年のアポロ11号の月面着陸がもし失敗に終わっていたら、という架空の歴史を提示する。その中心となるのは、リチャード・ニクソン大統領が、月面に孤立した宇宙飛行士たちの死を悼むために準備されていたものの、実際には読まれることのなかった緊急時用演説を、ディープフェイク技術を用いて極めてリアルに再現した映像である 25
  • プロジェクトの目的: このプロジェクトの明確な目的は、人々を欺くことではなく、教育することにある。歴史的な大事件に関する説得力のある偽の映像を提示することで、ディープフェイクがどのように機能し、いかに悪用されうるか、そしてメディアリテラシーの重要性について、一般市民の理解を深めることを目指している 25。制作者たちは、この代替の歴史を通じて、新しい技術がいかに我々の周りの真実を曖昧にしうるかを示し、視聴者が日常的に接するメディアを注意深く吟味することを促している 25
  • 社会的貢献: 「In Event of Moon Disaster」は、合成メディアが単なる悪意の道具ではなく、芸術的、教育的、そして啓発的な目的にも利用できることを具体的に示した。このプロジェクトは、操作されたメディアが現代のメディア環境において重要な役割を果たしていることを人々に理解させ、より深い理解と注意深さをもってすれば、不当な影響を受ける可能性を減らすことができるという希望を与える 25。これは、ディープフェイク技術に対する一方的な恐怖や非難とは一線を画し、そのリスクを直視しながらも建設的な利用法を模索するという、バランスの取れたアプローチの重要性を示唆している。

2.3 合成メディアの兵器化:悪意ある利用の分類

ディープフェイク技術の悪意ある利用は、その目的と手口によっていくつかのカテゴリーに分類できる。これらの攻撃は、金銭的な利益の追求から、政治的な工作、そして個人への直接的な攻撃まで、多岐にわたる。以下の表は、その主要な悪用カテゴリーをまとめたものである。


表1:悪意あるディープフェイク攻撃の分類

攻撃カテゴリー主な目的主な標的技術的手法代表的な事例
金融詐欺不正な金銭的利益の獲得企業幹部(CEO, CFO)、経理担当者、一般大衆音声クローニング、ビデオなりすまし香港での複数人参加のビデオ会議詐欺(約38億円)30、英国CEOへの音声詐欺(約2,600万円)32、日本における著名人なりすまし投資詐欺 32
政治的偽情報選挙妨害、民主的プロセスの毀損、社会不安の煽動、国家の評判失墜政治家、候補者、国家元首、ジャーナリスト捏造された演説、虚偽の発表、汚職の偽証拠ゼレンスキー大統領の偽「降伏」動画 2、米大統領選挙への介入懸念 32、トルコでの偽テープによる候補者辞退 35
不同意ポルノ嫌がらせ、脅迫、恐喝、個人の尊厳の毀損主に女性(著名人および一般人)露骨なコンテンツへの顔の移植(フェイススワップ)日本での女性芸能人の顔をアダルトビデオに合成した事件での逮捕 36。女性政治家を標的にし、政治参加を阻害する目的での利用 35
名誉毀損・人格攻撃個人的または職業的な評判の毀損公人、元交際相手、競争相手不利な状況や発言の捏造フィリピン大統領が非倫理的な行動をとっているように見せかける動画 35、個人的な恨みや復讐のための一般的な利用 21
セキュリティシステム回避機密データや物理的施設への不正アクセス生体認証で保護されたアカウントを持つ個人、安全な施設フェイススワップ、音声合成銀行の顔認証や音声認証の突破 30、eKYC(オンライン本人確認)システムの突破 38、「GoldFactory」マルウェアによる顔データ窃盗と不正利用 4

この分類から明らかなように、ディープフェイク技術の悪用は、単一の問題ではなく、社会の様々な側面に影響を及ぼす複合的な脅威群である。それぞれのカテゴリーは異なる動機と標的を持ち、したがって、それらに対抗するためには、画一的ではない、それぞれの脅威に合わせた多層的な対策が必要となる。

2.4 悪意のケーススタディ:金融詐欺と投資詐欺

ディープフェイク技術の悪用は、単なる理論上の脅威ではなく、すでに現実世界で甚大な金銭的被害をもたらしている。特に、企業を標的とした詐欺や、著名人の信頼を悪用した投資詐欺は、その手口の巧妙化と被害の深刻さにおいて注目すべき事例である。

  • 香港の金融詐欺事件(2024年): 多国籍企業の香港支社に勤務する経理担当者が、2億香港ドル(約2500万米ドル、約38億円)以上を詐取されるという衝撃的な事件が発生した。この事件の手口は、これまでのソーシャルエンジニアリング攻撃を大きく超えるものであった。被害者は、英国本社にいるはずのCFO(最高財務責任者)や他の同僚たちが参加するビデオ会議に出席するよう指示された。会議に参加した人物たちは、被害者が知る同僚たちとそっくりであったため、送金指示を正規のものと信じ込んでしまった。しかし実際には、被害者以外の会議参加者全員が、ディープフェイク技術によってリアルタイムで生成された偽物であった 4。この事件は、複数人が登場するインタラクティブなビデオ会議全体をディープフェイクで演出し、大規模な企業詐欺を成功させた画期的な事例であり、脅威のレベルが新たな段階に入ったことを示している。
  • 英国エネルギー企業のCEO音声詐欺事件(2019年): これは、音声のみのディープフェイクが用いられた初期の注目すべき事例である。英国に拠点を置くエネルギー企業のCEOが、ドイツの親会社のCEOの声を完璧に模倣した攻撃者からの電話を受け、ハンガリーの仕入先口座へ22万ユーロ(約2,600万円)を不正に送金してしまった 30。被害を受けたCEOは、電話口の声の調子、アクセント、そして口調が本物のCEOと完全に一致していたと証言しており、ディープフェイク音声の説得力の高さを物語っている。
  • 日本における著名人なりすまし投資詐欺: 日本では、著名人の社会的信頼を悪用したSNS上の投資詐欺が急増している。攻撃者は、実業家の堀江貴文氏などの著名人の顔や声をディープフェイク技術で無断使用し、本人が推奨しているかのような偽の投資広告を作成する 32。これらの広告に惹かれた被害者は、LINEグループなどに誘導され、さらに巧妙な詐欺の罠にはまっていく。著名人が勧めているという安心感から、多くの人が疑いを持たずに多額の資金を投じてしまい、個人の被害額が5,000万円を超えるケースや、SNS型投資詐欺全体の被害総額が数百億円規模に達する事態となっている 33。これは、ディープフェイクが大衆の心理的脆弱性を突き、広範囲にわたる経済的被害を生み出す強力なツールとなりうることを示している 4

これらの事例は、ディープフェイクによる攻撃が、単発の偽動画を拡散させるような単純なものから、特定の個人や組織を標的とし、複数のコミュニケーションチャネル(メール、チャット、ビデオ会議)を組み合わせて現実そのものをシミュレートする、高度なソーシャルエンジニアリング攻撃へと進化していることを明確に示している。これは、ディープフェイクが単なる偽情報ツールから、サイバー犯罪と企業スパイ活動の最先端ツールへと変貌を遂げたことを意味する 43

第3章 社会的衝撃波:ディープフェイクが信頼、民主主義、プライバシーに与える影響

ディープフェイク技術の影響は、個別の応用事例に留まらず、社会の根幹をなす柱である信頼、民主主義、そして個人のプライバシーに対して、より広範かつ構造的な衝撃を与えている。本章では、この技術が引き起こす浸食的な効果を体系的に分析する。

3.1 政治的偽情報と民主的プロセスの健全性

ディープフェイクは、極めて効果的な情報操作を可能にすることで、民主主義に直接的な脅威をもたらす 30。悪意ある主体は、特定の政治家が人種差別的な発言をしたり、犯罪を告白したり、あるいは選挙戦からの撤退を表明したりする、説得力のある偽動画を作成することができる。これらの偽情報は、世論を操作し、選挙結果を左右し、あるいは社会不安を煽ることを目的として利用される 35

この脅威は、もはや単なる仮説ではない。2023年半ばから2024年半ばにかけての1年間で、政治的なディープフェイクが38カ国で確認されており、その多くが選挙期間中であった 35。トルコでは、ディープフェイクのセックステープとされる映像が公開された後、大統領候補者が選挙戦からの撤退を余儀なくされる事態が発生した 35。米国では、2024年の大統領選挙に向けて、AIが選挙キャンペーンのツールとして利用される一方で、悪意あるディープフェイクによる混乱への懸念がかつてなく高まっている 32

ケーススタディ:ゼレンスキー大統領の偽「降伏」動画

2022年3月、ロシアによるウクライナ侵攻のさなか、ウクライナのウォロディミル・ゼレンスキー大統領が国民と兵士に対し、武器を置いてロシアに降伏するよう呼びかけるディープフェイク動画がSNS上で拡散された。この動画は比較的粗雑なもので、すぐにゼレンスキー大統領自身によって偽物であると否定されたが、戦時下において敵国の士気を低下させ、混乱を引き起こす目的でディープフェイクが兵器として利用されうることを明確に示した事例となった 2

3.2 認識論的危機:信頼の侵食と「嘘つきの配当」

ディープフェイクがもたらす最も深刻かつ潜在的な脅威は、人々が偽物を信じてしまうことではなく、人々が本物をもはや信じなくなることかもしれない 47。この現象は「

嘘つきの配当(Liar’s Dividend)」として知られている 48

ディープフェイク技術の存在が広く知れ渡るにつれて、悪事を働いた人物が、その動かぬ証拠となる本物の映像や音声を提示されたとしても、「それはディープフェイクだ」と主張することで、その証拠の信頼性を貶め、責任を逃れることが可能になる 49。これは、単に一つの偽情報が流布するのとは次元の異なる問題である。

この現象は、ジャーナリズム、司法制度、そして歴史記録の基盤である映像、音声、写真といったあらゆるメディアに対する根源的な信頼を侵食する 37。その結果、情報生態系全体が汚染され、真実が主観的で操作可能なものとなり、社会の共通認識が崩壊していく。これは、市民が何が真実かを知るための手段を失う「認識論的危機(epistemological crisis)」であり、健全な民主的議論や為政者への説明責任の追及を麻痺させる可能性がある 47

この「嘘つきの配当」は、偽情報攻撃の形態を根本的に変える。第一段階の攻撃は、偽の動画を作成して人々を騙し、偽りを信じさせることである(例:ゼレンスキー動画)。しかし、第二段階の攻撃である「嘘つきの配当」は、第一段階の攻撃の存在そのものを利用する。その目的は、特定の偽りを信じさせることではなく、特定の真実を信じさせないことにある。これは戦略的にはるかに強力である。なぜなら、偽の動画は証拠をもって反証できるが、映像証拠という概念そのものが毀損されれば、反証自体が意味をなさなくなるからである。したがって、この問題への対策は、単なるディープフェイク検出技術の向上だけでは不十分であり、ジャーナリズムや司法といった制度への信頼を再構築し、デジタル証拠の来歴を保証する新たな基準の確立が不可欠となる。

3.3 個人の尊厳への攻撃:プライバシー、ハラスメント、不同意ポルノ

ディープフェイクは、社会システム全体への脅威に加えて、個人に対して深刻かつ直接的な危害を及ぼす。この技術は、プライバシー侵害とハラスメントの新たな、そして極めて強力な形態を可能にした 21

個人の肖像、すなわち顔や声は、本人の同意なしに盗用され、偽の推薦広告から犯罪行為のなりすましまで、様々な目的に悪用されうる 6。これにより、個人のアイデンティティが乗っ取られ、その尊厳が著しく傷つけられる。

この種の攻撃の中で最も悪質な形態が、不同意のディープフェイクポルノの作成である。これは、個人の顔(その大半は女性)をポルノコンテンツに合成するものであり、深刻なプライバシー侵害であり、人間の尊厳に対する冒涜である 6。被害者にもたらされる精神的苦痛は計り知れず、一度インターネット上に拡散されたコンテンツを完全に削除することはほぼ不可能であるため、その被害は永続的なものとなりうる。

この脅威は、著名人だけに留まらない。技術の民主化により、SNS上に顔写真を公開している一般市民であれば誰でも、リベンジポルノ、いじめ、恐喝の標的となる可能性がある 21。これは、既存のオンラインハラスメントのパターンを増幅・先鋭化させるものである。特に、女性政治家を標的としたディープフェイクポルノの作成は、彼女たちの評判を失墜させ、政治参加を妨害する目的で利用されることが指摘されており 35、ディープフェイクが既存の社会的な不平等をいかに悪化させるかを示している。したがって、ディープフェイク対策は、単なる技術的な問題としてではなく、オンライン上のハラスメントや脆弱な立場にある人々を保護するためのより広範な取り組みの一環として位置づけられる必要がある。

第4章 多層的防御:悪意あるディープフェイクの脅威への対抗

ディープフェイクがもたらす複合的な脅威に対して、世界中で技術、法律、企業ガバナンス、教育といった多岐にわたる分野で対抗策が講じられている。これは、単一の解決策では不十分であり、継続的な「軍拡競争」ともいえる動的な取り組みが求められる領域である。

4.1 技術的軍拡競争:検出、電子透かし、来歴証明

ディープフェイクとの戦いの最前線は、技術開発の領域にある。そのアプローチは、大きく「偽物を検出する」方向性と、「本物を証明する」方向性に大別される。

  • 検出技術: ディープフェイクを自動的に見破るAIモデルの開発は、研究の主要な柱である。これらのツールは、人間が見逃すような微細な不整合を分析する。例えば、不自然な瞬き、顔の輪郭や影の不整合、頭部の微動の一貫性の欠如、あるいは顔のピクセルから血流のパターンを読み取り、その不自然さを検出する技術などが存在する 36
  • 検出の課題: この分野は、生成技術と検出技術の絶え間ない競争の場である。生成モデルであるGANが巧妙になれば、それを検出するモデルもまた進化しなければならない 1。さらに、学術研究で高い精度を示した検出モデルが、実際にSNSなどで流通している「イン・ザ・ワイルド(in-the-wild)」なディープフェイクに対しては、性能が大幅に低下するという課題が指摘されている。これらのコンテンツは圧縮や再エンコードによって、検出の手がかりとなる微細なアーティファクトが失われやすいためである。2024年に公開されたベンチマークデータセット「Deepfake-Eval-2024」を用いた評価では、最先端の検出モデルの性能が、従来の学術データセットと比較して最大50%も低下することが示された 54
  • ベンチマークデータセット: このような課題に対応し、研究を促進するために、研究者コミュニティは「DeepFaceGen」や「DeepfakeBench」といった大規模なベンチマークデータセットを構築している。これらは、多様な生成手法で作られた偽画像と本物の画像を体系的に収集し、検出モデルの性能を公正に評価するための標準的な基盤を提供する 55
  • 革新的な研究(Self-Blended Images): 東京大学の研究チームは、「Self-Blended Images (SBIs)」という画期的な訓練手法を開発した。これは、既知の偽画像をAIに学習させるのではなく、一枚の本物の画像をわずかに改変した2つのバージョンをブレンドして疑似的なフェイク画像を生成し、それをAIに学習させるというものである。これにより、AIは極めて微細な不整合を検出する能力を身につけ、複数の主要なベンチマークデータセットで世界最高水準の検出精度を達成した 58
  • 来歴証明と電子透かし: 偽物を検出するアプローチとは対照的に、本物のコンテンツが本物であることを証明するアプローチも存在する。C2PA (Coalition for Content Provenance and Authenticity) は、Adobe、Microsoft、Intelなどが主導する業界標準であり、コンテンツが作成された時点(撮影時など)で、その来歴(いつ、どこで、どのように作成・編集されたか)を安全なメタデータとして埋め込む技術である 46。これにより、コンテンツの信頼性をその起源から追跡・検証することが可能になる。これは、偽物を事後的に探すのではなく、信頼できる情報のための検証可能なエコシステムを構築するという、より積極的な戦略である。

この「偽物の検出」と「本物の証明」という2つの哲学の間の緊張関係は、ディープフェイク対策の根源的な課題を浮き彫りにする。検出技術は、すでにインターネット上に溢れる来歴不明のコンテンツに対処するために不可欠な、リアクティブな防衛策である。一方、来歴証明は、将来の信頼できる情報生態系を構築するための、プロアクティブな長期戦略である。専門家コミュニティが両方のアプローチを追求しているという事実は、検出技術だけではこの戦いに勝利できないという認識を示唆している。最終的な解決策は、既存コンテンツに対する強力な検出技術と、プロフェッショナルなメディアや公的機関が発行するコンテンツに対する来歴証明基準の広範な採用を組み合わせ、検証可能な真実のための「信頼のレーン」を確立することにあるだろう。

4.2 法律と規制の役割:世界的な立法の動向

世界各国の政府は、ディープフェイクがもたらすリスクに対処するため、法的な枠組みの整備を急いでいる。しかし、この取り組みは、技術の急速な進化、国境を越える情報の性質、そして安全保障と表現の自由との間の微妙なバランスを取る必要性といった、多くの課題に直面している 37


表2:世界のディープフェイク規制の比較分析

国・地域法的枠組みディープフェイクの定義主要な規定責任と執行
欧州連合(EU)EU AI法(包括的、リスクベース)AIによって生成・操作され、本物のように見えるコンテンツと広く定義 61透明性義務: AI生成コンテンツであることを開示する義務(第50条)60リスクの階層化: 政治操作などに利用される場合は「高リスク」と見なされ、より厳格な規制が適用される可能性 61違反に対する罰金。責任の枠組みが法の中核をなすが、実効性には批判もある 62
米国州法と連邦法のパッチワーク(個別課題対応型)法律により異なる。「悪意ある意図」を持つ「偽造されたデジタルの肖像」63や、特定の目的(政治広告、ポルノ)に焦点 64犯罪化: 一部の州では不同意ポルノのディープフェイクを犯罪としている 63政治広告: 一部の州で開示義務 63連邦法案: NO FAKES法案などが、無断でのデジタル肖像利用に対する連邦レベルでの権利確立を目指す 61法律により様々。刑事罰や民事責任(提訴権)を含む 63。プラットフォームの責任はセーフハーバー条項(セクション230など)により限定されることが多い 63
日本ディープフェイクに特化した法律は存在しない。法的に定義されていない。既存の法律を適用して対応。著作権法違反、名誉毀損罪(刑法230条)、肖像権侵害など、既存の法律に基づいて訴追・提訴 36

この比較から明らかなように、ディープフェイクに対する法規制のアプローチは、国や地域によって大きく異なる。EUが包括的でリスクに基づいたアプローチを取る一方で、米国は個別の問題に対応する形で法整備が進み、日本では既存法の解釈と適用に依存している。

この状況は、技術、法律、そして社会規範が、それぞれ異なる、同期していない速度で進化しているという典型的な「ペーシング問題」を露呈している。技術は常に最も速く進化し、新しい生成モデルが次々と登場する 1。法律の制定は、熟慮を要するため最も遅い 60。プラットフォームのポリシーはその中間に位置し、スキャンダルに反応して更新されることが多いが、一貫性に欠けるとの批判もある 67。そして、社会規範やメディアリテラシーの浸透はさらに時間を要する 4。この速度の不一致が、悪意ある攻撃者が悪用する脆弱性の窓口を生み出している。したがって、静的な法律や単一の技術的解決策だけでは不十分であり、迅速なプラットフォームの対応、適応力のある規制、そして継続的な市民教育を組み合わせた「アジャイル・ガバナンス」のアプローチが唯一の現実的な道筋となるだろう 68

4.3 プラットフォーム・ガバナンス:巨大テック企業のポリシーと執行

ディープフェイクが拡散する主要な経路であるソーシャルメディアプラットフォームは、そのリスクを管理するためのポリシー策定と執行という重要な役割を担っている。しかし、そのアプローチは企業ごとに異なり、一貫した基準が存在するわけではない。


表3:主要テクノロジープラットフォームのディープフェイクポリシー

プラットフォーム操作されたメディアに関する主要ポリシーラベリング・開示削除基準特徴と批判
Google(検索・広告)ディープフェイクポルノを生成するサービスの広告を禁止 69。検索結果から不同意の偽の露骨な画像を削除する方針 70C2PAのようなコンテンツ来歴証明技術をサポート 72不同意の露骨な画像に関するユーザーからの削除リクエストや広告ポリシー違反に基づいてコンテンツを削除。全てのコンテンツを積極的に監視するのではなく、主に検索順位の引き下げや削除リクエストへの対応に重点を置いている。
Meta(Facebook, Instagram)AIによって生成され、動画の被写体が言っていないことを言ったかのように誤解させる可能性のある操作されたメディアを禁止 67一部のAI生成コンテンツにラベルを付与。主要ポリシーに違反するコンテンツを削除。ただし、パロディや風刺を目的とするコンテンツは削除の対象外。「パロディ・風刺」の例外規定が抜け穴であると厳しく批判されている。この規定により、操作されたナンシー・ペロシ下院議長の動画などがプラットフォーム上に残存した 67
TikTok実際の人物の肖像を含み、危害を引き起こす可能性のある方法で真実を歪め、ユーザーを誤解させる合成メディアを禁止 74クリエイターに対し、リアルなAI生成コンテンツには専用機能を用いてラベル付けすることを義務付けている 75有害な偽情報や知的財産権侵害など、コミュニティガイドラインに違反するコンテンツを削除 75クリエイターの責任とユーザー教育に重点を置いている 77。ポリシー執行の一貫性が課題として指摘されることがある。

これらのプラットフォームは、ラベル表示の義務化や有害コンテンツの削除といった対策を進めているが、その基準や執行の厳格さにはばらつきが見られる。特に、Metaの「パロディ・風刺」の例外規定は、政治的な風刺を装った偽情報が拡散する抜け道となりうるとして、多くの専門家から批判を浴びている。プラットフォーム各社が設定するこれらの「道路の規則」は、情報生態系の健全性を左右する極めて重要な要素であり、その一貫性の欠如や抜け穴は、悪意ある攻撃者にとって格好の標的となる。

4.4 ヒューマン・ファイアウォール:メディアリテラシーと倫理的枠組みの必要性

最終的に、技術的な検出ツールや法規制だけではディープフェイクの脅威に完全に対抗することはできない。最も重要な防衛線の一つは、教育を受け、批判的な思考力を持つ市民、すなわち「ヒューマン・ファイアウォール」である 37

  • メディアリテラシー教育: 市民がオンライン情報を批判的に評価し、情報源を確認し、操作の兆候を認識する能力を養うための教育イニシアチブが不可欠である 37。ディープフェイクがどのように作成され、どのようなリスクを伴うのかを理解することは、個人が被害を未然に防ぐための第一歩となる。「In Event of Moon Disaster」のようなプロジェクトは、この種の教育において重要な役割を果たす 25。衝撃的な情報に接した際には、鵜呑みにせず、発信源を確認し、複数の情報源を比較するという基本的な行動が、偽情報の拡散を防ぐ上で極めて重要である 80
  • 倫理的枠組み: AI開発者や利用者に対する強固な倫理的ガイドラインの確立が求められている 81。これには、開発者が自らの創造物が悪用される可能性に対する責任を負い、技術に安全対策を組み込むことが含まれる。UNESCOのような国際機関は、AI開発における人間の尊厳やプライバシーの尊重といった原則を推進しており、こうした倫理基準をグローバルな規範として定着させる努力が続けられている 82
  • 個人の責任: 市民一人ひとりにも責任がある。ディープフェイクの学習データとして悪用されやすい鮮明な顔写真の公開を控えるなど、自らのデジタル・フットプリントを管理すること、そして、真偽不明の扇情的なコンテンツを安易に共有しないことが求められる 6。無意識のうちに偽情報の拡散に加担し、加害者とならないための自覚と行動が、社会全体のレジリエンスを高める上で不可欠である。

結論:合成された現実の未来を航行する

本報告書で詳述してきたように、ディープフェイク技術は、我々のデジタル環境における恒久的な要素となった。その両義的な性質を管理することは、一度解決すれば終わる「問題」ではなく、継続的かつ適応的な対応を要する「挑戦」である。この技術がもたらす創造的な恩恵を享受しつつ、その破壊的なリスクを抑制するためには、単一の解決策に頼るのではなく、複数のステークホルダーによる持続的な努力が必要不可欠である。

未来への道筋は、以下の4つの要素を織り交ぜた、多層的なアプローチによって描かれるべきである。

  1. 技術の共進化: 一方で、検出技術と生成技術の間の「軍拡競争」を継続し、より巧妙化する偽造に対抗する能力を高め続ける必要がある。しかし、それと同時に、C2PAのようなコンテンツ来歴証明技術の普及を促進し、信頼できる情報のための並行したエコシステムを構築することが、長期的な安定には不可欠である。これは、偽物を追いかけるだけでなく、真実を積極的に保護する戦略への転換を意味する。
  2. アジャイル・ガバナンス: 技術の進化の速度に、従来の法制度は追いつけない。この「ペーシング問題」を乗り越えるためには、硬直的で時間のかかる法律制定プロセスから、技術の変化に柔軟に対応できる、より機敏な「アジャイル・ガバナンス」へと移行する必要がある。これには、拘束力のある法律、業界の自主規制、そして技術標準を組み合わせた、動的な規制フレームワークの構築が含まれる。
  3. プラットフォームの責任: ディープフェイクコンテンツの主要な拡散経路であるテクノロジープラットフォームには、社会に対する重大な責任がある。明確で実効性のあるポリシーを策定し、それを一貫性をもって透明に執行することが強く求められる。「パロディ」のような曖昧な例外規定を見直し、悪意あるコンテンツの拡散を許さない断固とした姿勢を示すことが、信頼できる情報空間を維持するための前提条件となる。
  4. 市民社会のレジリエンス(強靭性): 最終的な防衛線は、市民一人ひとりである。偽情報の存在を単に知っているだけでなく、それを批判的に分析し、情報源を検証し、自らが偽情報の拡散に加担しないという倫理観を持つ、デジタルリテラシーの高い市民社会を育成することが、最も持続可能な対策である。教育機関、メディア、そして政府が連携し、この「ヒューマン・ファイアウォール」を強化するための継続的な投資が不可欠である。

ディープフェイクという挑戦は、我々の社会が強力な新技術をいかに統御し、民主主義と個人の尊厳の基盤である「共有された現実感覚」をいかにして守り抜くことができるかを問う、現代における決定的な試金石である。その航路は困難であるが、多層的な防御を協調して構築することによってのみ、我々は合成された現実の荒波を乗り越え、より安全で信頼できる未来へと進むことができるだろう。

引用文献

  1. ディープフェイクとは?実例や悪用問題・作り方・アプリを徹底解説 https://www.sedesign.co.jp/ai-blog/what-is-deepfake
  2. 偽・誤情報の現状とこれから求められる対策 – 総務省 https://www.soumu.go.jp/main_content/000867454.pdf
  3. ディープフェイクとは – IT用語辞典 e-Words https://e-words.jp/w/%E3%83%87%E3%82%A3%E3%83%BC%E3%83%97%E3%83%95%E3%82%A7%E3%82%A4%E3%82%AF.html
  4. ディープフェイクとは?個人ユーザが気をつけるポイントや悪用 … https://news.trendmicro.com/ja-jp/article-deepfake-overview/
  5. 「ディープフェイク」とは何か?AI技術やフェイクポルノとはどう関係しているのか? – ビジネス+IT https://www.sbbit.jp/article/cont1/36999
  6. ディープフェイクとは。法律は?詐欺など悪用事例への対策 | マーケトランク – ProFuture株式会社 https://www.profuture.co.jp/mk/column/about-deepfake
  7. GAN(敵対的生成ネットワーク)とは?基礎知識やメリットデメリット・活用例を解説 | EAGLYS https://eaglys.co.jp/resource/columns/gan
  8. 敵対的生成ネットワーク(GAN)とは?その仕組みや種類、活用例を解説 – AI総合研究所 https://www.ai-souken.com/article/adversarial-networks-overview
  9. GAN(敵対的生成ネットワーク)とは?仕組みや活用事例2選・課題や今後の展望も解説! https://hblab.co.jp/blog/what-is-gan/
  10. 敵対的生成ネットワーク(GAN)とは?画像生成の仕組みと今後の課題を解説 – AIsmiley https://aismiley.co.jp/ai_news/what-is-a-generative-adversarial-network/
  11. GAN とは何ですか? – 敵対的生成ネットワークの説明 – AWS https://aws.amazon.com/jp/what-is/gan/
  12. Generative Adversarial Networks: An Overview – arXiv http://arxiv.org/pdf/1710.07035
  13. [1701.00160] NIPS 2016 Tutorial: Generative Adversarial Networks – ar5iv https://ar5iv.labs.arxiv.org/html/1701.00160
  14. StyleGAN Explained: AI Image Generation at Its Best – Simplilearn.com https://www.simplilearn.com/tutorials/generative-ai-tutorial/stylegan
  15. StyleGAN – Style Generative Adversarial Networks – GeeksforGeeks https://www.geeksforgeeks.org/machine-learning/stylegan-style-generative-adversarial-networks/
  16. A Gentle Introduction to StyleGAN the Style Generative Adversarial Network – MachineLearningMastery.com https://machinelearningmastery.com/introduction-to-style-generative-adversarial-network-stylegan/
  17. The Evolution of StyleGAN: Introduction – Paperspace Blog https://blog.paperspace.com/evolution-of-stylegan/
  18. Understanding StyleGAN2 – Paperspace Blog https://blog.paperspace.com/understanding-stylegan2/
  19. ディープフェイクとは?問題点・課題・ビジネス利用方法、使われるAI技術徹底解説! https://ai-market.jp/case_study/deepfake-business/
  20. ディープフェイク活用事例解説 – 株式会社Nuco https://nuco.co.jp/blog/article/4Iw_DN8O
  21. ディープフェイク(Deepfake)とは?事例とフェイクを見破るコツ、対策 | Hakky Handbook https://book.st-hakky.com/data-science/deepfake-explanation/
  22. ディープフェイク(deepfake)とは?顔合成AI技術の動画実例と作成方法 – AIsmiley https://aismiley.co.jp/ai_news/deepfake/
  23. ディープフェイクとは?活用例や悪用された場合のリスク、対策について解説 | セキュリティのSHIFT https://service.shiftinc.jp/column/9636/
  24. GAN (敵対的生成ネットワーク) について説明します! – クリスタルメソッド株式会社 https://crystal-method.com/blog/gan/
  25. An Apollo 11 Deepfake to Help Understand Misinformation – Mozilla … https://www.mozillafoundation.org/en/blog/apollo-11-deepfake-help-understand-misinformation/
  26. In Event of Moon Disaster – Sainsbury Centre https://sainsburycentre.ac.uk/whats-on/in-event-of-moon-disaster/
  27. In Event of Moon Disaster – Ulrich Museum of Art https://ulrich.wichita.edu/ulrich_exhibition/in-event-of-moon-disaster/
  28. In Event of Moon Disaster – MIT – Docubase https://docubase.mit.edu/project/in-event-of-moon-disaster/
  29. In Event of Moon Disaster – Arts at MIT https://arts.mit.edu/in-event-of-moon-disaster/
  30. ディープフェイクとは?危険性や被害事例、見分け方を解説 – LANSCOPE https://www.lanscope.jp/blogs/cyber_attack_dt_blog/20250228_25331/
  31. 生成AIを使った詐欺の危険性やあらゆる手口 – Keeper Security https://www.keepersecurity.com/blog/ja/2024/08/23/how-dangerous-is-phishing-making-generative-ai/
  32. ディープフェイクとは?悪質な手口や危険性、虚偽を見破る3つのポイント – Qbook https://www.qbook.jp/column/1873.html
  33. AIを使ったフェイク動画・音声で 堀江貴文氏かたる投資勧誘 SNS投資被害で5260万円被害 | 特集 https://www.ktv.jp/news/feature/240415/
  34. 【生成AIとセキュリティ②】生成AIのセキュリティ脅威とリスク – データのじかん https://data.wingarc.com/generative-ai-and-security-02-81610
  35. 2024年ディープフェイクと選挙偽情報レポート:主な調査結果と緩和戦略 – Recorded Future https://www.recordedfuture.com/jp/research/targets-objectives-emerging-tactics-political-deepfakes
  36. ディープフェイクとは?悪用対策や悪用事例、生成AIのリスクを解説 | 株式会社SMSデータテック https://www.sms-datatech.co.jp/column/consulting_generativeai-deepfake/
  37. AIによって高度化するディープフェイクの脅威と効果的な最新対策 … https://www.fsi.co.jp/techtips/quick/0014/
  38. ディープフェイクの現在とこれから~悪用を阻止するために https://info.fujico.co.jp/executive/technical-articles-deepfake/
  39. 企業の生成AI活用におけるセキュリティ失敗事例10選|Shin | 代表社員@DigDaTech Inc. – note https://note.com/_sintaro0221_/n/nec45ab4bc3b2
  40. ディープフェイクとは?仕組みや企業へのリスクと対策を解説 – Meltwater https://www.meltwater.com/jp/blog/deep-fake
  41. SNS型投資詐欺 | 最新の詐欺 | 警察庁・SOS47特殊詐欺対策ページ https://www.npa.go.jp/bureau/safetylife/sos47/new-topics/investment/
  42. 広がるディープフェイクの脅威 – グッドリンク https://www.goodlink.co.jp/post/%E5%BA%83%E3%81%8C%E3%82%8B%E3%83%87%E3%82%A3%E3%83%BC%E3%83%97%E3%83%95%E3%82%A7%E3%82%A4%E3%82%AF%E3%81%AE%E8%84%85%E5%A8%81
  43. ディープフェイク | セキュリティ用語集 | サイバーセキュリティ – NECソリューションイノベータ https://www.nec-solutioninnovators.co.jp/ss/insider/security-words/33.html
  44. AI時代の米大統領選――有害ディープフェイクをいかに規制すべきか? | DTFA Institute https://faportal.deloitte.jp/institute/report/articles/000834.html
  45. 米選挙を駆け巡るディープフェイク スイスにとっても危険なワケ – SWI swissinfo.ch https://www.swissinfo.ch/jpn/%E7%9B%B4%E6%8E%A5%E6%B0%91%E4%B8%BB%E5%88%B6/%E7%B1%B3%E9%81%B8%E6%8C%99%E3%82%92%E9%A7%86%E3%81%91%E5%B7%A1%E3%82%8B%E3%83%87%E3%82%A3%E3%83%BC%E3%83%97%E3%83%95%E3%82%A7%E3%82%A4%E3%82%AF%E3%80%80%E3%82%B9%E3%82%A4%E3%82%B9%E3%81%AB%E3%81%A8%E3%81%A3%E3%81%A6%E3%82%82%E5%8D%B1%E9%99%BA%E3%81%AA%E3%83%AF%E3%82%B1/87918932
  46. ディープフェイクとは 脅威と3つの対策 – WOR(L)D ワード|大和総研の用語解説サイト https://www.dir.co.jp/world/entry/deepfake
  47. 生成AIによる情報の信頼性の低下と真実の喪失 – TechSuite AI Blog https://techsuite.biz/14187/
  48. デジタル時代のプロパガンダ: サイバー影響工作はいかに信頼を損なわせるか | Security Insider https://www.microsoft.com/ja-jp/security/security-insider/emerging-threats/propaganda-in-the-digital-age
  49. ディープフェイク最大の脅威は画像の信憑性を貶めること – アクシオン https://www.axion.zone/the-biggest-threat-to-the-deep-fake-is-to-undermine-the-credibility-of-the-image/
  50. ディープフェイクの社会への影響: 生成AIがもたらす新たな課題 – withAI https://withai.co.jp/deepfake/
  51. ディープフェイクとは?悪用例、問題点とビジネス利用方法、使われるAI技術徹底解説! https://digital-shift.jp/flash_news/s_230921_2
  52. ディープフェイクとは?活用例や悪用のリスク、その対策について解説 – PreBell https://prebell.so-net.ne.jp/tips/pre_24012601.html
  53. ディープフェイク検出ツールとテクニック7選(2025年XNUMX月) – Unite.AI https://www.unite.ai/ja/%E6%9C%80%E9%AB%98%E3%81%AE%E3%83%87%E3%82%A3%E3%83%BC%E3%83%97%E3%83%95%E3%82%A7%E3%82%A4%E3%82%AF%E6%A4%9C%E5%87%BA%E3%83%84%E3%83%BC%E3%83%AB%E3%81%A8%E6%8A%80%E8%A1%93/
  54. A Multi-Modal In-the-Wild Benchmark of Deepfakes Circulated in 2024 – arXiv https://arxiv.org/html/2503.02857v1
  55. A Large-scale Universal Evaluation Benchmark For Face Forgery Detection – OpenReview https://openreview.net/forum?id=iReypJFqa1
  56. DeepfakeBench: A Comprehensive Benchmark of Deepfake Detection – NIPS https://proceedings.neurips.cc/paper_files/paper/2023/file/0e735e4b4f07de483cbe250130992726-Paper-Datasets_and_Benchmarks.pdf
  57. SCLBD/DeepfakeBench: A comprehensive benchmark of deepfake detection – GitHub https://github.com/SCLBD/DeepfakeBench
  58. 【論文読み】Detecting Deepfakes with Self-Blended Images(SBIs)【DeepFake検知新技術】 https://qiita.com/keisuke-okb/items/7faba2537bab8916651a
  59. ディープフェイクの検出で世界最高性能を達成 ~SBIs でディープ … https://www.i.u-tokyo.ac.jp/news/files/IST_pressrelease_20220426_yamasaki-shiohara_R.pdf
  60. Regulating Deep Fakes in the Artificial Intelligence Act – Publishers Panel https://publisherspanel.com/api/files/view/2290334.PDF
  61. Legal Challenges of AI, Deepfakes, and the NO FAKES Act https://www.gamingtechlaw.com/2025/04/legal-challenges-of-ai-deepfakes-and-the-no-fakes-act/
  62. Regulating Deepfakes: The EU’s AI Law Faces Criticism (EU) https://www.reviewofailaw.com/Tool/Evidenza/Single/view_html?id_evidenza=2876
  63. Washington State Broadly Criminalizes All Malicious Deepfakes, Expanding on Existing Deepfake Regulation | BakerHostetler https://www.bakerlaw.com/insights/washington-state-broadly-criminalizes-all-malicious-deepfakes-expanding-on-existing-deepfake-regulation/
  64. Deepfake Laws: Is AI Outpacing Legislation? – Entrust https://www.entrust.com/blog/2024/02/deepfake-law
  65. 論点整理 https://www.kantei.go.jp/jp/singi/titeki2/ai_kentoukai/gijisidai/dai4/siryou4.pdf
  66. 生成 AI と知的財産法上の諸問題 – 立命館大学 https://www.ritsumei.ac.jp/acd/cg/law/lex/23-3/006hihara.pdf
  67. フェイスブックがディープフェイクを禁止…抜け道はあるが、第一歩であることは確か https://www.businessinsider.jp/article/205423/
  68. 2024-06-10 ディープフェイクと生成AI時代の挑戦:技術、倫理 … https://automation.jp/research-report/2024-06-10-challenges-deepfakes-generative-ai-tech-ethics-regulation
  69. Googleが不適切なコンテンツに関する広告ポリシーを更新。ディープフェイクでポルノ画像を生成できるサービスが宣伝禁止に | AUDIO MARKETING INSIGHTS – 株式会社オトナル https://otonal.co.jp/audio-marketing-insights/36717
  70. 「Google 検索」に偽のポルノ画像対策 ~ディープフェイク被害を抑止 – 窓の杜 https://forest.watch.impress.co.jp/docs/news/1614132.html
  71. Google、検索結果からディープフェイク画像を排除する複数の対策 – ITmedia NEWS https://www.itmedia.co.jp/news/articles/2408/01/news083.html
  72. Google、ディープフェイク画像への対策強化 類似画像をフィルタリング – Impress Watch https://www.watch.impress.co.jp/docs/news/1613020.html
  73. 情報操作に対する措置について – About Meta https://about.fb.com/ja/news/2020/01/enforcing-against-manipulated-media/
  74. Combating misinformation and election interference on TikTok – Newsroom https://newsroom.tiktok.com/en-us/combating-misinformation-and-election-interference-on-tiktok
  75. 誠実性と信頼性 – コミュニティガイドライン | TikTok https://www.tiktok.com/community-guidelines/ja/integrity-authenticity
  76. TikTok、一部のディープフェイクを禁止–セキュリティ懸念が米国で高まる中 – CNET Japan https://japan.cnet.com/article/35201605/
  77. TikTok、安全なデジタル空間づくりに貢献すべく『みんなで守ろう「ネットコミュニティ」プロジェクト』を始動! 第1弾の取り組みとして、クリエイター向け「偽・誤情報対策ワークショップ」を実施 | 自治体通信Online https://www.jt-tsushin.jp/articles/case/platform-tiktok-20250219
  78. 「偽・誤情報」どう向き合う? 信頼と安全性高めるTikTokの取り組み – note https://note.com/tiktok/n/n20fdfa07ba7c
  79. 生成AIを活用したディープフェイクとは?危険性や対策法まで徹底解説 https://shift-ai.co.jp/blog/8006/
  80. ディープフェイクの光と闇:あなたの日常は大丈夫?AIが創る偽物の脅威から身を守る全知識|Minoru Tanaka – note https://note.com/tanakaminoru_/n/n8d4ddf882d3f
  81. ディープフェイクとは?その脅威と有用性、法的な課題を徹底解説 – AI総合研究所 https://www.ai-souken.com/article/deepfake-overview
  82. AIガバナンスに関する議論の方向性について (ディスカッションペーパー) – 内閣府 https://www8.cao.go.jp/cstp/ai/ningen/r5_1kai/siryo3.pdf
  83. ディープフェイクとは?騙されないための見分け方や対策を紹介! – LISKUL https://liskul.com/deepfake-167329