児童ポルノ対策 / 児童虐待(用語)

アップルが次期iOS15での児童性的虐待コンテンツ検出技術導入を延期

次の記事

ヴァージン・ギャラクティック初の商用フライトは7月の事故原因調査のためFAAが飛行停止に

Apple(アップル)は、顧客や政策グループからのフィードバックを考慮して、2021年8月に突然発表した児童性的虐待コンテンツ(CSAM)検出技術の展開計画を延期した。

振り返ってみれば、そのフィードバックは大部分が否定的なものだった。Electronic Frontier Foundation(EFF、電子フロンティア財団)は今週、消費者から2万5000を超える署名を集めたと語っている。またそれに加えて100に迫る政策ならびに権利団体(「アメリカ自由人権協会」も含まれている)も、Appleに技術を展開する計画を放棄するように呼びかけていた。

関連記事
アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ
また批判を浴びるアップルの児童虐待検出技術

米国時間8月3日朝の声明で、AppleはTechCrunchに次のように語った。

「先月私たちは、コミュニケーションツールを使用して子どもを引き込んだり悪用したりするする捕食者たちから子どもたちを保護し、児童性的虐待コンテンツ(CSAM)の拡散を制限することを目的とした機能の計画を発表しました。しかし顧客の皆さま、プライバシー擁護団体、研究者の方々などからのフィードバックに基づいて、これらの非常に重要な子どものための安全機能をリリースする前に、今後数カ月にわたってさらに意見や情報を収集し、機能を改善するために時間をかけることに致しました」。

このAppleの計画しているNeuralHash(ニューラルハッシュ)テクノロジーは、ユーザーのデバイス上の既知のCSAMを、画像を取得しなくても、また画像の内容がわからなくても識別できるように設計されている。iCloudに保存されているユーザーの写真はエンド・ツー・エンドで暗号化されているために、Appleでもデータにアクセスできない、よってNeuralHashは代わりにユーザーのデバイス上で既知のCSAMをスキャンする。このことからAppleは、現在多くのクラウドプロバイダーが行っている一括スキャンよりもプライバシーに配慮していると主張している

関連記事:【インタビュー】アップルのプライバシー責任者、児童虐待検出機能とメッセージアプリの通信の安全性機能への懸念について答え

しかし、セキュリティの専門家やプライバシー擁護派は、政府などの豊富な資源を持つ者がシステムを悪用して、罪のない犠牲者を巻き込んだり、権威主義的な国民国家が、好ましくないと判断する任意のデータを検出するためにシステムを操作したりする可能性があると懸念を表明している。

技術が発表されてからわずか数週間で、研究者たちは、NeuralHashを使用して「ハッシュ衝突」を作成し、事実上システムをだまして2つのまったく異なる画像が同じであると思わせることができたと発表している。

iOS 15は、今後数週間以内にリリースされる予定だ。

関連記事:アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表

画像クレジット:Bryce Durbin/TechCrunch

原文へ

(文:Zack Whittaker、翻訳:sako)