
エグゼクティブサマリー
本レポートは、OpenAIの動画生成サービス「Sora2」が採用するオプトアウトモデルに内在する問題について、包括的な法的・政策的分析を提供するものである。その核心的な問題は、保護された著作物の利用には事前の積極的な同意(オプトイン)を必要とする、確立された著作権の原則を根本から覆す点にある。Sora2はデフォルトで利用許諾を前提とし、権利侵害を発見し報告するという保護の全責任をクリエイター側に転嫁している 1。このアプローチは、特に独立したアーティストにとって手続き的に過大な負担を強いるだけでなく 2、法的に極めて不安定である。欧州連合(EU)の明確な規制の枠組みと真っ向から対立し 3、米国および日本の法制度においても深刻な不確実性を生み出している 3。OpenAIが個人の肖像(「カメオ」機能)に対して厳格なオプトイン方針を採用していることとの著しい対比は、知的財産権の尊重よりも、個人の権利侵害から生じる直接的な法的リスクを回避することを優先する戦略的なリスク計算を露呈している 5。本レポートは、Sora2のオプトアウト方針が重大な転換点であり、もし強力な法的・規制的明確化によって対処されなければ、創造的な作品の価値を切り下げ、世界のクリエイティブエコノミーを不安定化させる危険な前例となる、と結論付ける。
第1章:論争の構造:Sora2オプトアウトモデルの解体
本章では、Sora2のオプトアウト方針の基本的な仕組みと原則を詳細に分析し、それが法的規範からの根本的な逸脱であり、クリエイターにとって内部矛盾と実行不可能性に満ちたシステムであることを明らかにする。
1.1. 「許諾が必要」から「許諾が前提」へ:著作権原則の転覆
根本的な問題は、この方針が著作権のパラダイムを逆転させていることにある。歴史的に、著作権で保護された素材を利用するには、権利者から許可を得る(オプトイン)必要がある 2。Sora2のモデルは、権利者が明確に異議を唱えない限り(オプトアウト)、あらゆるデータを使用する権利を自らに仮定している 1。
この転換は、「米国に長らく存在してきた著作権法に真っ向から反対している」と評され 2、著作権が自動的に保護されるべき財産権であるという原則を覆すものである 7。この方針は、クリエイターの認識や同意の有無にかかわらず、参加がデフォルトの状態となることを意味する 2。
批評家たちは、このアプローチを、競合他社に遅れをとることへの恐怖が潜在的な法的問題よりも優先される、AI業界の過当競争に起因する「まず行動し、後から許しを請う」という考え方の表れだと見なしている 2。
1.2. 二つの方針の物語:個人の肖像(オプトイン)と知的財産(オプトアウト)の矛盾
OpenAIは、ユーザーが生成された動画に自身の肖像を挿入できる「カメオ」機能に対して、厳格な同意に基づくオプトインシステムを導入している。ユーザーは明確な同意を提供する必要があり、アクセスを制御し、いつでも許可を取り消すことができる 6。このシステムは、許可なく著名な公人の画像を生成することはない 1。
これとは対照的に、著作権で保護された架空のキャラクターや芸術的スタイルは、寛容なオプトアウト方針の対象となる.1 これは、ディズニーが異議を唱えない限りスパイダーマンはデフォルトで使用可能だが、一個人の顔はデフォルトで保護されるということを意味する 5。
この二元的なアプローチは、一貫した倫理原則に基づくものではなく、法的および評判上のリスクに対する実利的な評価に基づいている。個人の肖像の侵害(ディープフェイク)は、即時的かつ強烈な社会的反発を招き、個人の権利(パブリシティ権、名誉毀損など)に基づく訴訟につながる可能性がある。これは個々の原告にとって立証が比較的容易な場合が多い。嫌がらせ、いじめ、偽情報といった潜在的なリスクは、広報上および法務上の地雷原である 9。一方で、著作権侵害はより抽象的な損害であり、訴訟は複雑で、しばしば集団訴訟を必要とし、法的枠組み(特に米国における「フェアユース」)はAIの学習利用に関して未だ議論の最中である 13。したがって、OpenAIの戦略は、最も直接的で危険な法的・広報的脅威(個人の肖像)を厳格なオプトインで防御壁を築き、一方で著作権侵害の主張を大規模に執行することの法的曖昧さと手続き上の困難さに賭けるというものである。これは原則に基づいた方針ではなく、法的な裁定取引(リーガル・アービトラージ)の方針であり、個人の権利を最小化すべき負債として、知的財産権を法的に停止させられるまで搾取すべき資源として扱っている 6。
1.3. コントロールの幻想:手続き上の障壁とクリエイターにとっての執行の非現実性
オプトアウトのプロセスは、意図的に煩雑にされている。OpenAIは、アーティストの全ポートフォリオを対象とするような「包括的な一括オプトアウト要求」を受け付けない 1。
権利者は、まずプラットフォーム上で特定の侵害を発見し、その後、ケースバイケースで報告することが求められる 1。これは、クリエイターをOpenAIのプラットフォームのための無給のコンテンツモデレーターに変えてしまう。
この仕組みは、継続的で退屈、かつ潜在的に費用のかかる監視と報告の負担を生み出す。これは、専門の法務チームを持たない独立したアーティストや小規模スタジオにとっては、事実上不可能な作業である 2。あるコメントでは、このプロセスが「意図的に面倒にされている」と指摘されている 13。
第2章:人的コスト:クリエイティブエコシステムへの影響
本章では、オプトアウト方針がもたらす現実世界での影響を分析し、その負担の不公平な配分と、OpenAIが提案する救済策の中心にある根本的な技術的誤解(あるいは誤表現)に焦点を当てる。
2.1. 階層化されたシステム:オプトアウト方針がいかにして独立クリエイターよりも巨大企業を優遇するか
大手スタジオやタレントエージェンシーは、OpenAIからオプトアウトプロセスについて直接通知を受けた 1。ディズニーのような一部の企業は、自社のIPカタログ全体の完全なオプトアウトを強制する交渉力とリソースを持っており、ユーザーからはスパイダーマンやダース・ベイダーといったキャラクターが生成できなくなったとの報告がある 5。
対照的に、独立したアーティストは自力でこの方針を発見する必要があり、自分の作品が利用されていることさえ知らない可能性があり、面倒なケースバイケースの報告プロセスや法的措置を追求するためのリソースを欠いている 2。
これは明確な力の不均衡を生み出している。大企業は保護を交渉したりオプトアウトを強制したりできるが、独立したクリエイターの作品は事実上、デフォルトで徴用される 2。このシステムは大手スタジオに「優遇的な保護」を提供している 2。
2.2. 技術的誤謬:なぜ出力のブロックは不正な学習データという核心的問題の解決にならないのか
証拠は、OpenAIの「オプトアウト」メカニズムが、モデルの学習データから著作物を削除するものではないことを強く示唆している。その代わりに、特定の出力の生成をブロックするためのフィルターやガードレールとして機能している 1。
そのタイムラインがこれを裏付けている。OpenAIがスタジオにオプトアウトについて連絡を取り始めたのはSora2のローンチ直前の1週間に過ぎず、その短期間でモデルが再学習されたとは考えられない 9。
過去の調査では、Soraの旧バージョンがYouTubeなどのソースから許可なく大量の著作物で学習されていたことが判明している 9。スポンジ・ボブ、ピカチュウ、そして様々なアニメキャラクターの生成は、このデータがモデルの学習データに依然として存在していることを裏付けている 9。
この状況は、AI開発者に対する中核的な法的議論、すなわち学習データセットを作成するための最初の不正な著作物複製という「原罪」を浮き彫りにする。OpenAIが提案する出力フィルタリングという救済策は、この核心的な問題を完全に回避している。モデルはすでに著作物から「学習」を終え、その価値は抽出済みである。出力のブロックは、論文のために本を盗用した学生が、その論文の議論全体の構造が盗まれた作品に基づいているにもかかわらず、直接の引用はしないと申し出るようなものである。これは危険な前例を作る。AI企業が人間の創造性の全コーパスを無許可で取り込み、その唯一の義務は、要求に応じて露骨な侵害出力に対して「もぐら叩き」をすることだけだ、ということを示唆しているからだ。これは、データライセンス市場全体を根本から損なう。もし法的な前例が「無料でデータを取得し、後から明白なコピーに対する削除要求に対応すればよい」ということになるのであれば、なぜAI企業がデータのライセンス料を支払う必要があるだろうか。オプトアウトモデルは、出力に焦点を当てることで、入力(学習)段階が法的に許容されると暗黙のうちに主張しているが、これは極めて議論の的となっている主張である 13。これは救済策ではなく、技術的な解決策を装った戦略的な法的議論である。
第3章:分断された法的状況:AIと著作権に関する国際的視点
本章では、日本、米国、EUにおける法的枠組みの比較分析を行い、OpenAIの画一的なオプトアウト方針が各法域でどのように異なって作用し、それぞれで特有の法的リスクを生み出しているかを示す。
表1:AI学習における著作権フレームワークの比較分析
| 特徴 | 日本 | 米国 | 欧州連合(EU) |
| 中核となる法原則 | 「非享受」目的利用の例外 | 「フェアユース(公正な利用)」の法理 | テキスト・データマイニング(TDM)例外 |
| 主要な法律 | 著作権法第30条の4 | 著作権法第107条 | AI法、デジタル単一市場における著作権指令(CDSM指令)第3条・第4条 |
| AI学習へのスタンス | 「非享受」目的(例:情報解析)であれば一般的に許容。AI開発に非常に有利 3。 | 未確定。ケースバイケースの4要素分析に依存。進行中の訴訟で激しく争われている 3。 | TDM例外の下で許容されるが、特定の条件と権利に従う必要がある 3。 |
| オプトアウトの仕組み | 明示的な法的オプトアウト権はなし。robots.txt等の効果は議論されているが、認識されつつある 21。 | 正式なオプトアウトの仕組みはなし。「フェアユース」は抗弁であり、ユーザーのオプトアウト要求によって先制的に放棄される権利ではない 23。 | CDSM指令に基づき、商業的TDMに対する明示的なオプトアウト権が権利者に付与されている 3。 |
| 主要な法的論点 | 「著作権者の利益を不当に害することとなる場合」の解釈と「非享受」の範囲 28。 | AI学習が「変形的(transformative)」か否か。原著作物の潜在的市場への影響 14。 | オプトアウト権の法域を超えた執行。学習データの要約に関する透明性義務 3。 |
3.1. 日本:「AI天国」のパラドックスと争われる第30条の4の解釈
日本の著作権法第30条の4は、「享受」を目的としない利用、例えば情報解析などのためには、著作権者の許諾なく著作物を利用することを認めており、これはAIの学習を広くカバーすると解釈されている 18。このため、日本は「AI天国」とも呼ばれている 33。
しかし、これには「著作権者の利益を不当に害することとなる場合は、この限りでない」という重要な但し書きが付随しており、この条項の解釈が対立の中心点となっている 28。
日本のクリエイター団体(新聞、雑誌、写真、出版の各協会)は共同声明を発表し、現状が不均衡であり、クリエイターに経済的損害を与え、第30条の4が生成AIの時代を想定して作られたものではないとして、深刻な懸念を表明している 34。彼らは法の解釈の明確化と、場合によっては法改正を要求している。
Sora2において、一部の米国キャラクターがブロックされている一方で、人気アニメキャラクターが生成されている事実は、日本のIPがこの法的曖昧さの下で利用されているのではないかという憶測を呼んでいる 15。ある法律専門家は、これらのキャラクターの生成を「法的にも倫理的にも問題がある」と指摘し、日本のクリエイティブ産業を守るために厳格な対応を求めている 15。
3.2. 米国:生成AI時代における「フェアユース」の未解決のフロンティア
米国では、AI企業は「フェアユース」の法理の下で学習データの利用を正当化している。これは4つの要素からなる法的テストである 19。中心的な論点は、学習が「変形的(transformative)」であるか否かである 14。
これは非常に争点の多い未解決の法的問題であり、権利者(ニューヨーク・タイムズ、作家団体など)とAI開発者との間で大規模な訴訟が進行中である 38。最近の裁判所の判断は様々で、学習をフェアユースと認める判事もいれば、海賊版データの取得を違法と判断する判事もいる 1。
米国著作権局は、学習が本質的に変形的であるという主張は「誤り」であり、出力が原著作物と競合する場合、その利用は「せいぜい、わずかに変形的」であるに過ぎない、との見解を示す報告書を発表している 16。
EUとは異なり、有効なフェアユースの抗弁を覆すような確立された法的な「オプトアウト」の権利は存在しない。この概念自体が、クリエイターの基本的権利を損なう譲歩であると一部では見なされている 23。
3.3. 欧州連合:明示的な権利と規制監督の新たなモデル
EUは、OpenAIの方針にとって最も厳しい法的環境を提供している。デジタル単一市場における著作権指令(CDSM指令)は、権利者が商業目的のテキスト・データマイニング(TDM)のために自らの作品が利用されることを「オプトアウト」する権利を明確に認めている 3。
EUのAI法はこれをさらに強化し、汎用AIモデルの提供者に対して、EUの著作権法、特にこれらのオプトアウトを尊重する方針を実施することを義務付けている 4。また、学習データの要約を公表する透明性義務も含まれている 27。
これにより、OpenAIのオプトアウトモデルは、すでにオプトアウトの権利を法典化している法的枠組みと直接的に衝突することになる。EUにおける議論は、オプトアウト権が存在するかどうかではなく、それを技術的にどのように実装し(例:robots.txt、メタデータ)、執行するかである 26。一部では、この枠組みをオプトインモデルに改正すべきだという議論さえ起きている 25。
第4章:前例と危機:OpenAIの戦略がもたらす広範な影響
本最終章では、これまでの分析を統合し、Sora2の方針がもたらす長期的な戦略的影響を評価し、主要なステークホルダーへの提言を行う。
4.1. 計算されたリスク:競争的なAI開発競争におけるオプトアウト方針の位置づけ
OpenAIの攻撃的な姿勢は、GoogleのようなライバルとのAI分野における熾烈な競争の直接的な産物である 1。「許しを請うより、まず実行する」という気風が支配的であり、技術的に遅れをとるという認識されたコストが、将来の潜在的な法的ペナルティを上回っている 2。
オプトアウトモデルを確立することで、OpenAIは事実上の業界標準を設定しようと試みている。このモデルが受け入れられるか、あるいは異議を唱えられなければ、データの大量流用が常態化し、クリエイティブ業界全体が守勢に立たされることになる。
OpenAIは、日本と米国における法的曖昧さ、そしてEUにおける直接的な法的対立を十分に認識している洗練された主体である。オプトアウト方針は、無邪気な過ちではなく、これらの状況を意図的に利用する戦略である。日本では、第30条の4の寛容な解釈を利用する。米国では、有利な「フェアユース」判決に賭ける。EUでは、CDSM指令の執行可能性に挑戦し、EUが米国の企業を実質的に監督できるかを試している。この方針自体が、法的状況を形成するためのツールとなる。システムを構築し、何百万ものユーザーとクリエイターにそれを利用させることで、裁判所や規制当局が後から対応せざるを得ない「新しい常識」を作り出す。これは、国際的な知的財産法の基盤に直接適用された、典型的なシリコンバレーの破壊的戦術である。
4.2. 持続可能な未来への提言
4.2.1. 権利者(クリエイティブ業界団体、法律顧問)へ
- 団結した行動: 個々の執行は無意味である。業界団体は協力して、統一された機械可読なオプトアウト基準(例:robots.txt、ai.txt)を作成し、ライセンス契約について団体交渉を行うべきである 22。
- 戦略的訴訟: EUのような最も明確な法的保護を持つ法域での訴訟に焦点を当て、世界的に活用できる有利な判例を確立する。入力と出力の区別に異議を唱え、学習のための最初の不正な複製行為に焦点を当てる。
- 公共および政策提言: 共同声明 36 を基盤として政策立案者との関与を続け、特に日本の第30条の4但し書きの解釈の明確化と、米国における新たな立法措置の必要性を訴える。
4.2.2. AI開発者(OpenAIおよび競合他社)へ
- 倫理的な調達への転換: データ取得のために、積極的にオプトイン、同意ベースのモデルに移行する。これにより、長期的な法的リスクを軽減し、信頼を構築し、流用ではなく公正なライセンスに基づく、より持続可能なビジネスモデルを創造する 42。
- 出所追跡ツールへの投資: 出力時点での後付けではなく、取り込み時点でデータの出所を追跡し、クリエイターが定義した許可を尊重する堅牢なツールを開発・導入する。OpenAIの「Media Manager」ツールが開発されれば、この方向への一歩となり得る 26。
4.2.3. 政策立案者(政府および規制機関)へ
- 法的な明確化: 法的曖昧さに緊急に対処する。日本の国会は、第30条の4の「不当に利益を害する」条項を明確化しなければならない。米国の議会は、「フェアユース」法理が不適切で予測不可能であることが証明されつつあるため、AI学習に特化した立法を検討すべきである 14。
- 国際的な調和: 広島AIプロセス 43 のような枠組みを基に、AIに関する著作権原則を調和させるための国際対話を促進する。現在の分断された状況は、法的な裁定取引とクリエイター保護の底辺への競争を生み出している。
- 執行: 既存の法律を精力的に執行する。EUのデータ保護当局および著作権関連機関は、AI企業に対し、AI法およびCDSM指令(その域外適用条項を含む)への説明責任を問わなければならない 3。
結論
Sora2のオプトアウト方針を巡る論争は、著作権の細部に関する専門的な議論をはるかに超えるものである。それは、人工知能時代におけるクリエイティブエコノミーの未来を決定づける瞬間である。同意という基本原則を覆すというOpenAIの決定は、法的リスクと経済的負担をクリエイターに転嫁し、法的曖昧さと手続きの複雑さを戦略的資産として活用する、計算された試みである。この前例に異議を唱えなければ、知的財産の価値が組織的に侵食され、AIモデルの燃料となる創造的な作品が無料で搾取可能な資源として扱われる新しいパラダイムが確立されるリスクがある。今後の道筋には、クリエイターからの協調した対応、AI開発者による倫理的なデータ調達への根本的な戦略転換、そしてクリエイティブコミュニティの権利と生活を犠牲にすることなくイノベーションを促進するために必要な法的明確性を提供する政策立案者による断固たる行動が求められる。
引用文献
- OpenAI’s Sora 2 Will Not Recreate Your Copyrighted Character – If … https://www.eweek.com/news/openai-sora-2-copyright-opt-out/
- OpenAI Unveils Opt-Out Policy For Its Sora Video Generator – Cartoon Brew https://www.cartoonbrew.com/tech/openai-sora-genai-opt-out-policy-255118.html
- The European Union is still caught in an AI copyright bind – Bruegel https://www.bruegel.org/analysis/european-union-still-caught-ai-copyright-bind
- AI and copyright: The training of general-purpose AI – European Parliament https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/769585/EPRS_ATA(2025)769585_EN.pdf
- OpenAI’s Sora 2 launches into copyright chaos – Implicator.ai https://www.implicator.ai/openais-sora-2-launches-into-copyright-chaos/
- Sora 2: Consent for Faces, Opt-Out for Copyright – Implicator.ai https://www.implicator.ai/openai-wants-your-face-on-its-feed/
- OpenAI Sora 2ソーシャルアプリ、TikTok規制延期で市場参入―10秒動画でクリエイター経済に波紋 – innovaTopia https://innovatopia.jp/tech-entertainment/tech-entertainment-news/67531/
- オープンAIの動画生成AI「sora」最新版、著作権者にオプトアウト求める仕様に | The Wall Street Journal発 | ダイヤモンド・オンライン https://diamond.jp/articles/-/373793
- Sora 2 Can Generate Pikachu and Other Copyrighted Characters https://www.eweek.com/news/sora-generating-copyrighted-characters/
- OpenAI Is Reportedly Building A TikTok-Style App For Sora 2 AI Video Slop – BGR https://www.bgr.com/1982898/openai-tiktok-style-app-sora-2-ai-videos/
- OpenAIが動画生成AI「Sora 2」をリリース。動画投稿できるソーシャルフィード付き https://www.gizmodo.jp/2025/10/openai-sora-2-release.html
- 【衝撃】OpenAI新アプリに潜む、恐怖のサム・アルトマンAIなりすましとは? – note https://note.com/ai_solution/n/n3e98917d84f8
- Sora 2 generates copyrighted content by default unless owners opt out : r/singularity – Reddit https://www.reddit.com/r/singularity/comments/1ntwrfx/sora_2_generates_copyrighted_content_by_default/
- Fair use or free ride? The fight over AI training and US copyright law – IAPP https://iapp.org/news/a/fair-use-or-free-ride-the-fight-over-ai-training-and-us-copyright-law
- 「ドラゴンボール」「NARUTO」もそっくり再現 Sora 2使った日本 … https://www.itmedia.co.jp/news/articles/2510/02/news089.html
- Copyright Office Weighs In on AI Training and Fair Use https://www.skadden.com/insights/publications/2025/05/copyright-office-report
- Japan’s AI copyright loophole lets OpenAI use Ghibli art — but shuts down Japanese studios for doing the same thing – Reddit https://www.reddit.com/r/COPYRIGHT/comments/1k2ypx8/japans_ai_copyright_loophole_lets_openai_use/
- AI Training and Copyright Infringement: Solutions from Asia | TechPolicy.Press https://www.techpolicy.press/ai-training-and-copyright-infringement-solutions-from-asia/
- Generative Artificial Intelligence and Copyright Law – Congress.gov https://www.congress.gov/crs-product/LSB10922
- Generative AI Training and Copyright Law – arXiv https://arxiv.org/html/2502.15858v1
- 弁護士が解説!著作物のAI学習利用に関する海外制度と最新動向(2023年) https://zelojapan.com/en/lawsquare/35949
- 生成AIにおける報道コンテンツの保護に関する声明 – 日本新聞協会 https://www.pressnet.or.jp/statement/broadcasting/250604_15900.html
- Opt-Out Approaches to AI Training: A False Compromise https://btlj.org/2025/04/opt-out-approaches-to-ai-training/
- Having to “opt out” of having copyrighted works used for Machine Learning and AI Gen products is simply “Gaslighting”. : r/aiwars – Reddit https://www.reddit.com/r/aiwars/comments/1hysnxa/having_to_opt_out_of_having_copyrighted_works/
- European Parliament’s New Study on Generative AI and Copyright Calls for Overhaul of Opt-Out Regime | Insights | Jones Day https://www.jonesday.com/en/insights/2025/08/european-parliaments-new-study-on-generative-ai-and-copyright-calls-for-overhaul-of-optout-regime
- How to ‘opt-out’ your images from use in AI training: German court considers the EU text and data mining copyright exceptions – Lewis Silkin LLP https://www.lewissilkin.com/insights/2024/10/07/how-to-opt-out-your-images-from-use-in-ai-training
- The EU AI Act and copyrights compliance – IAPP https://iapp.org/news/a/the-eu-ai-act-and-copyrights-compliance
- 【弁護士解説】論点整理!生成AIに関する著作権法上の解釈まとめ – GVA法律事務所 https://gvalaw.jp/blog/i20230810/
- AIと著作権に関する チェックリスト&ガイダンス – 文化庁 https://www.bunka.go.jp/seisaku/chosakuken/pdf/94097701_01.pdf
- AIと著作権に関する考え方のポイント https://www.taira-m.jp/AI%E3%81%A8%E8%91%97%E4%BD%9C%E6%A8%A9%E3%81%AB%E9%96%A2%E3%81%99%E3%82%8B%E8%80%83%E3%81%88%E6%96%B9%E3%81%AE%E3%83%9D%E3%82%A4%E3%83%B3%E3%83%88.pdf
- 解説・「AIと著作権に関する考え方について」 – 文化庁 https://www.bunka.go.jp/seisaku/chosakuken/pdf/94097701_02.pdf
- 改正著作権法 第30条の4解説:AI・ビッグデータ時代の著作権法 – 虎ノ門法律特許事務所 https://chosakukenhou.jp/%E6%94%B9%E6%AD%A3%E8%91%97%E4%BD%9C%E6%A8%A9%E6%B3%95-%E7%AC%AC30%E6%9D%A1%E3%81%AE%EF%BC%94%E8%A7%A3%E8%AA%AC%EF%BC%9Aai%E3%83%BB%E3%83%93%E3%83%83%E3%82%B0%E3%83%87%E3%83%BC%E3%82%BF%E6%99%82/
- 生成AIに関する共同声明 | JPCA 一般社団法人日本写真著作権協会 https://jpca.gr.jp/release/release230817/
- 生成AIに対するクリエイター団体・企業などの反応・対応 – アットウィキ (@WIKI) https://w.atwiki.jp/genai_problem/pages/42.html
- 雑書協など4団体、「生成AIに関する共同声明」発表 – 新文化 – WEB本の雑誌 https://www.webdoku.jp/shinbunka/2023/08/24/172520.html
- 生成AIに関する共同声明|著作権|声明・見解|日本新聞協会 https://www.pressnet.or.jp/statement/copyright/230817_15114.html
- *あとで読むの最新人気記事 629402件 – はてなブックマーク https://b.hatena.ne.jp/q/%2A%E3%81%82%E3%81%A8%E3%81%A7%E8%AA%AD%E3%82%80?date_range=all&safe=on&users=50&sort=recent&target=tag
- 生成AIの著作権侵害事例3選|注意すべき2つのポイントも紹介 – AI総研 https://metaversesouken.com/ai/generative_ai/copyright/
- 生成AIの著作権侵害の事例7選!企業のリスクと具体的対策を解説 – 株式会社アドカル https://www.adcal-inc.com/column/copyright-infringement/
- Judge approves $1.5 billion copyright settlement between AI company Anthropic and authors https://apnews.com/article/anthropic-authors-copyright-judge-artificial-intelligence-9643064e847a5e88ef6ee8b620b3a44c
- EU AI Act’s Opt-Out Trend May Limit Data Use for Training AI Models | Insights https://www.gtlaw.com/en/insights/2024/7/eu-ai-acts-opt-out-trend-may-limit-data-use-for-training-ai-models
- It’s pretty rude of OpenAI to make their use of your content opt-out – Hidde’s blog https://hidde.blog/llm-theft-opt-out/
- OpenAI announces strategic collaboration with Japan’s Digital Agency https://openai.com/global-affairs/strategic-collaboration-with-japan-digital-agency/
- OpenAI receives warning from Japanese privacy watchdog – Finextra Research https://www.finextra.com/newsarticle/42409/openai-receives-warning-from-japanese-privacy-watchdog



