YouTube、類似性検出技術の利用範囲を拡大:著名人のディープフェイク不正利用対策を強化
YouTubeは、AIによるディープフェイクなど、著名人の肖像権の不正利用を防ぐため、類似性検出技術の利用範囲を大幅に拡大すると発表しました。この技術は、Content IDと同様の仕組みで機能し、利用者は自身の顔のディープフェイクなど、自身に似たAI生成コンテンツをプラットフォーム上で検索し、発見した場合は削除を要求する権限を得ます。
これまで、この技術はYouTube上で人気のクリエイター向けに提供されてきましたが、2026年初頭には一部の政治家や公務員向けに利用範囲が拡大されてきました。今回、その利用範囲はエンターテインメント業界全体、すなわち俳優、アスリート、ミュージシャンなど、YouTubeチャンネルの有無にかかわらず、著名人すべてが利用可能となりました。
YouTubeの幹部は、この強化された技術により、「肖像権の悪用リスクが高い人なら誰でも利用できるようになる」と説明しています。メアリー・エレン・コーCEOは、AIツールの影響を考慮し、著名人が被害に遭う前に先手を打つため、タレントエージェンシーやマネジメント会社と緊密に連携してきた経緯を語っています。
この動きは、ディープフェイクがエンタメ業界に深刻な問題を引き起こした過去の事例を受けてのものです。具体的には、2025年9月末のOpenAIによるSora 2のリリース時(著作権保護アニメ・マンガの生成問題)や、2026年2月のByteDanceによるSeedance 2.0のリリース時(トム・クルーズとブラッド・ピットの著作権侵害動画生成問題)など、大きな問題が複数回発生しています。ただし、コーCEOは、削除の要請があっても、パロディや風刺などコミュニティガイドラインで認められるケースや、ファン制作の予告編など、判断が曖昧なケースは残ることも指摘しています。
背景
近年、動画生成AIの進化に伴い、著名人の顔や声を利用したディープフェイクコンテンツが大量に生成され、肖像権や著作権の侵害が深刻な社会問題となっています。特に、2025年以降の主要AIツールのリリースは、この問題の緊急性を高めました。
重要用語解説
- 類似性検出技術: AI生成コンテンツにおいて、特定の人物(顔、声など)の肖像や特徴が利用されているかを特定する技術。Content IDと同様の仕組みで、不正利用の発見と削除要求を可能にする。
- ディープフェイク: AI技術を用いて、実在の人物の顔や声を合成し、あたかもその人物が撮影したかのような偽の動画や音声を作成すること。肖像権侵害の主要な手段となっている。
- 肖像権: 個人の顔や姿を無断で利用されない権利。特にAIによる生成コンテンツの分野で、その保護が喫緊の課題となっている専門的な権利である。
今後の影響
本技術の利用範囲拡大は、著名人やクリエイターのデジタル資産保護を大幅に強化し、AIコンテンツ制作における倫理的・法的なガイドライン確立を促します。しかし、削除の判断基準が曖昧な部分も残るため、プラットフォーム側の運用ポリシーや、パロディと悪用コンテンツの線引きが今後の焦点となります。これにより、エンタメ業界のデジタル著作権保護の基準が引き上げられると予想されます。