アップル社 iCloud上の児童性的虐待コンテンツ問題に対する不作為で提訴される

2024/08/17
更新: 2024/08/17

最近提起された訴訟によると、アップルはユーザーのプライバシーにリスクをもたらすとして、児童性的虐待コンテンツのスキャンツールの使用を中止したという。

同社がiCloudおよびiMessageでの児童性的虐待コンテンツ(CSAM)の拡散を防ぐために十分な対策を講じていないと、原告は非難した。

2024年8月15日にカリフォルニア州北部地区連邦地方裁判所に提出された訴状は、アップルが 「深刻なCSAM問題を把握していたにもかかわらず、それに対処しないことを選んだ 」と主張している。

この訴訟は、9歳の匿名の未成年者が保護者を通じて提起した。2023年12月から2024年1月の間に、原告はメッセージングアプリ Snapchat の2人の見知らぬユーザーから友達リクエストを受け取った。

2人は、アップルのiCloudのIDを要求し、その後iMessageを通じて5本のCSAM動画を送信してきた。これらの動画には若い子供たちが性的行為をしている様子が描かれていた。その後、彼らは原告に対しiMessageを通じて、露骨な動画を作成するよう要求した。

訴状によれば、「このやり取りの結果、原告は精神的および身体的に深刻な被害を受けており、現在、心理療法やメンタルヘルスケアを求めている」とされている。

エポックタイムズはアップルにコメントを求めているが、直ちに回答は得られなかった。

集団訴訟案は、アップルがプライバシー保護を口実に、iCloud上で児童性的資料が拡散するのを「見て見ぬふり」していたと非難し、同社がNeuralHash CSAMスキャンツールを放棄したことを指摘している。

2021年、アップルはiCloud上の児童性的資料をスキャンするためのツール「NeuralHash」を発表したが、その後「ユーザーに対して深刻な意図しない結果」をもたらすとしてプロジェクトを中止したという。

アップルは電子メールで、このようなスキャニングの取り組みは大量監視やユーザーの政治的・宗教的見解の検査につながり、言論の自由に悪影響を及ぼす可能性があると警告した。

訴状は、アップルが「プライバシー・ウォッシング」という詐欺的なマーケティング手法を用い、消費者のプライバシー保護に対するコミットメントを誇示しながら、実際にはその理念を実践するための具体的な措置を講じていないと非難している。

また、訴状によると、アップルは全米行方不明・被搾取児童センター (National Center for Missing & Exploited Children、 NCMEC)などの機関に対してCSAMを過少報告してきた。

昨年、主要なテクノロジー企業はNCMECに3500万件以上のCSAM報告を提出したが、アップルは267件のみだった。

「アップルには豊富なリソースがあるにもかかわらず、CSAM検出のための業界標準を採用せず、代わりに安全なユーザーエクスペリエンスを提供するための負担とコストを子供たちとその家族に転嫁している。これは、CSAM検出ツールを完全に放棄するという決定からも明らかだ」と訴状は述べている。

訴状はアップルに対し、「ユーザーのプライバシーを包括的に強化し、子供たちの安全を保証するための投資と手段の導入」を求めている。

アップルのCSAM問題

非営利団体Heat Initiativeが2023年9月に発表した報告書では、アップル製品またはサービスに関与した93件のCSAMが確認され、そのうち多くの被害者が13歳未満だった。93件のうち34件は、iCloudを利用してCSAMを保存および配布するものだった。

訴状は、オーストラリアの元児童虐待調査官のジョン・ルース(Jon Rouse)氏がフォーブス誌に対して行ったインタビューを引用し、アップルは児童搾取対策として法執行機関を支援するために、自社の製品やサービスについて「積極的なスキャン」を行っていないと主張している。

また、エピック・ゲームズ社のアップルに対する訴訟によると、アップルの社員が同僚に対し、アップルのプライバシーに対する厳格な焦点が「児童ポルノの配布に最適なプラットフォームを提供している」とチャットのメッセージで述べたという。

訴状では、アップルが2018年に中国を拠点とするGuizhou-Cloud Big Data (GCBD)にiCloudの運用を移管した際の問題も取り上げている。この行為は、反体制派を迫害する国家として国際的に認知されている中国において、匿名の中国市民のプライバシーを本質的に否定するものであった。

中国のサイバーセキュリティ法によれば、GCBDは中国当局の要求に応じてユーザーの個人データを提供する義務があり、これがアップルのプライバシー優先の主張と矛盾すると訴状は述べている。

テクノロジープラットフォームにおけるCSAMの拡散

4月、全米性的搾取センター(National Center on Sexual Exploitation、NCOSE)は「性的搾取の主な加害者」とされる企業をリストアップした「Dirty Dozen List(ダーティダズンリスト)」を発表した。リストのトップには、アップル、マイクロソフト、メタという世界的に影響力のある3社が挙げられた。

NCOSEの副会長兼企業広報部長を務めているリナ・ニーロン氏は、「これらの企業の製品とポリシーは、児童性的虐待危機を助長し、画像ベースの性的虐待の拡散を促進している」と述べ、

「児童および成人の搾取を防ぐために必要な資源を投入する代わりに、利益を優先し、AIの軍拡競争に巻き込まれている」と指摘している。

CSAMコンテンツのオンライン拡散に対抗するため、ディック・ダービン上院議員(イリノイ州選出、民主党)は、2023年5月に「「2023年虐待に苦しむ子供たちを守るための透明性と義務の強化法」(STOP CSAM Act)を提案した。

この法律は、児童の性的搾取の被害者が、そのような素材をホスト、保存、または利用可能にした企業に対して民事訴訟を起こすことを可能にすることで、テック企業にCSAMの責任を負わせることを目的としている。

この法案はまた、児童搾取の被害者への賠償を可能にし、被害者がテック企業にプラットフォームからCSAMコンテンツを削除するよう求める権限を与えており、削除要請に応じないプラットフォームには行政罰が科される。

英語大紀元記者。担当は経済と国際。
関連特集: アメリカ社会