アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表

次の記事

自動車技術会社VeoneerにQualcommがMagnaを上回る約5000億円で買収を提案

Apple(アップル)は、子どもがMessages(メッセージ)アプリを通じて性的に露骨な写真を送受信した場合、子どもと親に警告する新しいツールを、2021年後半に導入すると発表した。この機能は、アップルのプラットフォームやサービスにおける児童性的虐待素材(Child Sexual Abuse Material:CSAM)の拡散を制限することを目的に、同社が導入するいくつかの新技術の一部だ。

関連記事:アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

これらの開発の一環として、アップルは消費者のプライバシーを尊重しつつ、iPhoneやiPadなどのモバイルデバイスやiCloud(アイクラウド)にアップロードされた写真の中から、既知のCSAM画像を検出できる技術を導入する。

一方、メッセージアプリの新機能は、子どもたちが健全なオンライン・コミュニケーションを取れるように、親がより積極的に関わり、情報が得られるようにするためのものだ。2021年後半に予定されているソフトウェアアップデートにより、アップルのメッセージアプリは機械学習を使って画像添付ファイルを分析し、メッセージアプリで送受信される画像が、性的に露骨なものでないかを判断できるようになる。この技術では、すべての処理がデバイス上で行われるため、アップルが子どものプライベートな通信にアクセスしたり、それを傍受する必要はない。クラウド上のアップルのサーバーには何も転送されることはない。

メッセージの中に、性的な問題がありそうな画像が検知された場合、その画像はブロックされ、写真の下に「これは問題があるかもしれない画像です」というラベルが表示される。タップすればその画像を見ることができるが、子どもが写真の閲覧を選択すると、さらに詳しい情報を伝える別の画面が表示される。そこには、問題のありそうな写真や動画について「水着で隠すプライベートな体の部分が写っています」とか「あなたは悪くないけれど、刺激的な写真や動画はあなたを傷つけるために使われることがあります」というメッセージが表示される。

また、写真や動画に写っている人が、見られたくないと思っているのに本人が知らないうちに共有されている可能性があることも提言する。

これらの警告は、子どもがそのコンテンツを見ないという正しい判断をするように導くためのものだ。

しかし、それでも子どもがタップして画像を見ようとすると、さらに別の画面が現れ、写真を見ることを選択した場合、親に通知されることが伝えられる。また、この画面では、親たちが子どもの安全を願っていることを説明し、本当は見たくないのに見るようにと強制されているなら、信頼できる人に相談するように勧めている。助けを求めるためのリソースへのリンクも表示される。

画面の下には写真を見るための選択肢は残されているものの、デフォルトで選べるようにはなっていない。その代わり「写真を表示しない」という選択肢の方が目立つように画面がデザインされている。

コミュニケーションを妨げてアドバイスやリソースを提供するだけでなく、システムが保護者に警告を発するこのような機能は、子どもを性犯罪者から守ることに役立つ可能性がある。子どもが性犯罪者から被害を受けた時、親は子どもが相手とネットや電話で会話を始めたことにさえ気づかなかったというケースが多いからだ。性犯罪者は子どもの心理を巧みに操って信頼を得ようとし、子どもを親から引き離して、コミュニケーションを親に内緒にさせようとする。あるいは犯罪者が親に近づいてくるケースもある。

アップルのテクノロジーは、性的に露骨な内容の画像や動画が共有されることに介入し、特定して、警告を発することで、どちらのケースにおいても役に立つだろう。

しかし、CSAMの中には、いわゆる自己作成型CSAM、つまり子ども自身が撮影した画像を、子どものパートナーや仲間と合意の上で共有するものが増えている。セクスティングとか、裸の写真の共有などだ。子どもの性的搾取に対抗する技術を開発している企業のThorn(ソーン)が2019年に行った調査によると、この行為は非常に一般的になっており、13歳から17歳の女子の5人に1人が、自分の裸の写真を共有したことがあると答え、男子の10人に1人が、同じことをしたことがあると答えている。しかし、その画像を共有することで、性的虐待や搾取の危険にさらされることを、子どもは十分に理解していないかもしれないのだ。

アップルの新しいメッセージアプリは、これに対しても同様の保護機能が働く。この場合、子どもが性的に露骨な写真を送ろうとすると、写真が送信される前に警告が表示される。それでも子どもが写真を送信しようとした場合には、保護者にメッセージが届く。

アップルによれば、この新機能は2021年後半に行われるソフトウェアアップデートの一環として、まずは米国から、iOS 15、iPadOS 15、macOS Monterey(モントレー)のiCloudで、家族として設定されたアカウントで有効になるとのこと。

このアップデートはSiriと検索にも適用され、子どもや親がオンラインで安全に過ごせるように、安全でない状況で助けを得るためのガイダンスやリソースが拡充される。例えば、ユーザーはSiriに、CSAMや児童の性的搾取を報告する方法を尋ねることができるようになる。また、ユーザーがCSAMに関連する疑問を検索すると、Siriと検索が介入して、そのトピックが有害であることを説明し、助けを得るための情報や相談先を提供する。

関連記事
iOS 15ではさらにセキュリティとプライバシー保護機能が充実
アップルの最新アクセシビリティ機能は手足や声が不自由な人へさらに寄り添う

カテゴリー:ソフトウェア
タグ:Apple子どもメッセージプライバシー機械学習iOS 15macOS MontereyiPad OS15iCloud児童ポルノ対策

画像クレジット:Janis Engel / EyeEm / Getty Images

原文へ

(文:Sarah Perez、翻訳:Hirokazu Kusakabe)