アップル、児童性虐待資料検知対策怠ったとして西バージニア州に訴えられる
ウエストバージニア州は、AppleがiCloudで児童性虐待記録物(CSAM)の保存・流通を放置し、適切な対策を取らなかったとして提訴しました。司法長官JB・マッカスキー氏は、Appleが検知技術導入を拒否し、CSAMを報告する義務を怠ったと指摘しています。連邦法では、アメリカ企業は検出されたCSAMをNCMECに報告する義務がありますが、2023年の報告数はMetaが3,060万件以上、Googleが147万件に対し、Appleはわずか267件にとどまりました。ウエストバージニア州司法長官事務所は、Appleに対して法廷損害賠償、懲罰的損害賠償、効果的なCSAM検出手段の実装を義務付ける差し止め命令、今後の安全な製品設計を求めています。Appleは過去に児童性搾取防止のためのiCloudスキャン機能を発表しましたが、人権団体からの反対を受け、破棄されています。
背景
近年、テクノロジー企業における児童性虐待記録物の検知と対策が重要な課題となっている。Appleは過去にiCloudスキャン機能を提案したが、プライバシー侵害の懸念から破棄された経緯がある。今回の訴訟は、AppleがCSAM対策を怠ったとして提起されたもので、テクノロジー企業の責任と法的義務に関する議論を深める可能性がある。
重要用語解説
児童性虐待記録物(CSAM): 児童の性的搾取や虐待を記録した画像や動画のこと。違法であり、国際的に問題視されている。
NCMEC(全米行方不明・搾取児童センター): アメリカ合衆国で活動する、行方不明児童や搾取された児童に関する情報を収集し、支援を行う機関。CSAMの報告も受けている。
ウエストバージニア州司法長官事務所: ウエストバージニア州の最高法執行機関である司法長官が率いる組織。今回のApple訴訟を提起した。
iCloud: Appleが提供するクラウドストレージサービス。写真、動画、文書などを保存・共有できる。
オンライン安全法案: イギリスで議論されている法律案。メッセージアプリの通信内容スキャンなどを義務付ける内容だが、プライバシー侵害などの懸念からAppleなどが反対している。
今後の影響
今回の訴訟は、テクノロジー企業が児童性虐待記録物対策に積極的に取り組む必要性を改めて浮き彫りにする。今後、Appleの対応や裁判の結果が注目される。また、同様の訴訟が他の企業にも起こる可能性もあり、業界全体に大きな影響を与える可能性がある。