生成AIや倫理/法律の関係について、今回は見ていきます。前回の「AI創作の市場規模・著作権・社会への影響」についても併せてご覧くださいね。

生成AIと倫理/法律
AI生成物の著作権課題
AIが作り出すコンテンツの著作権を誰が保有するのでしょうか。法的な枠組みが各国で議論されています。多くの国では著作権保護の要件として「人間による創作性」を必要とすると解釈されています。
日本
日本の著作権法でも「思想または感情を創作的に表現したもの」と定義されています。つまり、人間の関与が不可欠です。そのため純粋なAI単独で生成した作品は法律上「著作物」として保護されない可能性が高いとされています。
米国
2023年に著作権局が発表しました。そこでは、「完全にAIが作成した作品には著作権登録は認められない」とのガイダンスを出しています。
EU
イギリスやEUも同様に人間が関与しない生成物は著作権対象外との立場です。一方、AIを補助ツールとして人間が編集・創作に関与した場合、その人間の貢献部分については著作権が認められ得るとされています。この線引きは曖昧な部分も多く、各国で法解釈やガイドライン整備が進められています。
日本では2024年3月に文化庁が「AIと著作権に関する考え方」を取りまとめました。現行法上の適用関係について一定の指針を示しました。そこでは生成AIによる出力物も、既存作品の著作権保護要素を無断で再現・利用していれば侵害となりうることさとされています。また、人間の関与ない生成物自体は原則著作物と認められないことなどが確認されています。このように「AIが生んだ作品の著作権は誰のものでもない」可能性が高いです。一方、訓練データや生成物が既存の著作物に依拠・類似している場合には従来通り著作権侵害が問われます。そのため、クリエイターの権利保護とAI開発のバランスが課題となっています。
データ使用の透明性と倫理的懸念
生成AIの学習には大量の既存データ(文章・画像・音声など)が使われます。その訓練データに第三者の著作物や個人情報が含まれる場合の扱いが大きな争点です。
実際に起きた問題
AI開発企業がインターネット上の膨大なデータを無断で収集・学習させていました。これに対し、「許可なき盗用ではないか」という批判が起きました。実際、画像生成AIに自身の作品が無断利用されたとして、複数のアーティストがStability AIやMidjourneyなど開発企業を相手取り集団訴訟を提起しています。彼らは「学習過程で著作物を無断使用し、生成物にその要素が含まれるのは著作権侵害だ」と主張しています。現在米国で係争中です。
またGetty Images社は、大量のストック写真が無断で学習に使われたと主張しています。Stability AIを英米で提訴しました。こうした訴訟は「AIの学習はデータの複製行為に当たるか」という点があります。また、「学習段階を著作権制限とみなせるか」といった前例のない法的問題を含みます。
国ごとの対策
日本やEUでは研究目的などのデータマイニングについて一定の著作権制限規定があります。営利目的でも著作市場に影響を与えない範囲でデータ活用を認めるルールがあります。しかし生成AIのように営利サービスの根幹として大量データを使う場合、その適用可否は明確ではありません。このため訓練データの透明性が強く求められるようになりました。
2023年のG7広島AIプロセスでも、知的財産や個人データ保護のため「訓練データセットの透明性向上」を各国に呼びかける原則が合意されています。米国でも2023年に「著作者が自作品のAI学習利用状況を知り、異議申し立てできる透明性確保」を狙いとした法案が上程されました。このように、政策的対応が進み始めています。
倫理的懸念
倫理面では、AI生成コンテンツの偏見・差別表現があります。また、誤情報の拡散リスクも指摘されています。モデルが学習データ中のバイアスを増幅する点です。また、有害な出力を生成したり、フェイクニュースや偽情報を大量生産する懸念です。このため開発企業には安全策や透明性の確保が求められています。業界ガイドラインや自主規制の動きも出ています。
フェイクコンテンツへの規制と対応策
AI創作技術の中でもディープフェイクは社会的リスクが高いです。そのため、各国で規制が検討・導入されています。悪意あるディープフェイクは個人の名誉やプライバシー侵害、選挙介入や詐欺など深刻な被害を招くためです。
EU
包括的なAI規制法であるAI法があります。これによって、 ディープフェイク を含む生成AIコンテンツへの表示義務を定めました。AI法の第52条3項で「ユーザーが生成物だと認識できるよう、その人工的な起源を明示し技術的詳細を開示する」ことを生成AIの提供者・利用者に義務付けています。これにより一般消費者がコンテンツの真偽を判断しやすくしています。これにより、悪用抑止を図っています。
中国
2023年1月に「 ディープフェイク 規制条例」を施行しています。AIによる合成音声や映像には目に見えるラベル付与を義務付けています。不法・有害な深度合成の禁止や提供者への安全審査・データ管理義務など包括的な規制を敷きました。
米国
連邦レベルの統一法こそありませんが、州法での対応が進んでいます。例としてテキサス州やカリフォルニア州が挙げられます。本人同意のないポルノディープフェイクの作成・配布を禁じています。また、選挙候補者を偽るディープフェイク動画の禁止法を制定しました。連邦議会でも「DEEPFAKES Accountability法案」などが該当します。これにより、ディープフェイク規制の立法提案が出されています。
日本
ディープフェイクによるリベンジポルノや偽情報拡散への懸念があります。2023年に総務省や経産省が調査報告書をまとめています。技術的検知手段の開発支援や法的対応の検討を始めています。こうした規制に対応し、技術面でもディープフェイク検出技術がは点しています。また、コンテンツに透かしを埋め込んで真贋検証を容易にする取り組みが進んでいます。
大手プラットフォームもポリシー強化を行っています。不正なAI合成コンテンツの削除やラベル表示、政治プロパガンダ目的のディープフェイク禁止などの措置を講じ始めています。国際的には、主要IT企業が結集して2024年選挙に向けた「AIディープフェイク不正利用防止の協定」締結があります。G7やOECDでのガイドライン策定など、ガバナンス整備が進行中です。
各国の法規制の動向
生成AI全般に関する法規制も各国で議論が活発化しています。
EU
EUのAI法は世界初の包括的AI規制となっています。リアルタイム監視や社会スコアリングの禁止が挙げられます。また、リスクに応じたAIシステムの規制措置があります。そして前述の生成AIの透明性義務などを盛り込んで2024年に成立しました。施行に向け各企業は準拠が求められます。
米国
バイデン政権が「AI権利章典(AI Bill of Rights)」の枠組みを提示しました。連邦取引委員会(FTC)が生成AIの不正利用取り締まりを表明しました。このように、行政ベースでの動きがあります。ただ、包括法の制定には至っていません。しかし2023年末には主要AI企業が自主的にホワイトハウスと合意しています。AIシステムの安全テストや水印付与、サイバーセキュリティ対策、透明性確保など8つの表明を行うっています。このようにソフトローによる対応が進んでいます。また米議会でも複数のAI規制法案が提出され、今後本格審議が見込まれます。
日本
他国に先駆けて2018年に著作権法改正でデータの解析利用のための著作物利用を包括的に合法化しています。これにより、AI開発基盤を整えてきました。直近では2023年に総務省がAIガバナンスに関する有識者会議を立ち上げました。生成AIの社会影響やリスクについて提言をまとめています。個人情報保護の観点では、ChatGPTの個人データ学習が問題視されました。このような一時停止命令を出したイタリアを皮切りに、各国のデータ保護当局もAIサービスへの監督を強めています。総じて「イノベーション促進と社会的リスク低減のバランス」が各国で模索されています。透明性・説明責任の確保や知財・プライバシー保護といった観点から規制の枠組み作りが進展中です。今後も国際的な協調のもとでルール形成が図られていくでしょう。
いかがでしたか?次回は「文化・社会的側面」について見ていきます。お楽しみに。