CSAM(用語)

child sexual abuse material、児童への性的虐待コンテンツ素材。

  • フェイスブックがエンド・ツー・エンド暗号化の全面導入を「2023年中まで」延期

    フェイスブックがエンド・ツー・エンド暗号化の全面導入を「2023年中まで」延期

    Facebook改めMetaが、エンド・ツー・エンド暗号化を同社の全サービスに全面展開することを「2023年中まで」延期する。このことは、同社の安全部門のグローバル責任者であるアンティゴン・デイビス氏が英国のTelegraph紙に寄稿した論説記事によって明らかになった。 続きを読む

  • アップルが2019年からiCloudメールに児童虐待画像が添付されていないかスキャンしていると認める

    アップルが2019年からiCloudメールに児童虐待画像が添付されていないかスキャンしていると認める

    アップルがCSAM(子供を巻き込んだ性的に露骨な活動を描くコンテンツ)を検出するため、2019年からiCloudメールの添付ファイルをスキャンしていることを認めたと伝えられています。その一方で、iCloud画像やiCloudバックアップはスキャンしていないとのことです。この声明はアップルの不正防止責任者Eric Friedman氏が、自社サービスが「児童ポルノ写真を配布するための最大の温床になっている」と述べる社内メールが発覚した(Epic Gamesとの訴訟で提出された証拠から発掘)件を受けて、米9to5Macが問い合わせたことに対して… 続きを読む

  • 【インタビュー】アップルのプライバシー責任者、児童虐待検出機能とメッセージアプリの通信の安全性機能への懸念について答える

    【インタビュー】アップルのプライバシー責任者、児童虐待検出機能とメッセージアプリの通信の安全性機能への懸念について答える

    先にAppleは、同社の端末を使う児童の安全性の向上を目的とした一連の新機能を発表した。これらの機能は、未成年の保護と児童性的虐待画像の拡散を抑えることをも目的としており、良い機能として受け入れられているものの、アップルが採用しているやり方に疑問の声が上がっている。 続きを読む

  • 電子フロンティア財団が「アップルの大規模な監視計画に反対」と声明発表、請願書への署名を呼びかけ

    電子フロンティア財団が「アップルの大規模な監視計画に反対」と声明発表、請願書への署名を呼びかけ

    アップルは今月初め、児童虐待対策をiPhoneやMacに導入するとして、2つのしくみを発表しました。これに対してEFF(電子フロンティア財団)が「アップルの大規模な監視計画に反対する」との声明を発表し、iPhoneユーザーらに請願書への署名を呼びかけています。EFFとは米国に拠点を置く非営利組織であり、デジタル世界での市民の自由を擁護することを目的とする団体です。 続きを読む

  • アップルが台湾・香港・中国向け刻印サービスで「ダライ・ラマ」「雨傘革命」など法的義務以上に検閲と明らかに

    アップルが台湾・香港・中国向け刻印サービスで「ダライ・ラマ」「雨傘革命」など法的義務以上に検閲と明らかに

    アップルはAirPodsやiPadなどを公式ストアで注文したユーザーに対して、無料で刻印サービスを提供しています。このサービスに付き、中国や香港、台湾で政治的検閲を行っていると指摘するレポートが発表されています。この報告書は、カナダにあるトロント大学のインターネット監視団体Citizen Labが調査に基づき公表したものです。 続きを読む

  • また批判を浴びるアップルの児童虐待検出技術

    また批判を浴びるアップルの児童虐待検出技術

    Appleが2021年8月初めに発表した、児童への性的虐待コンテンツ素材(CSAM)を検出する技術は、大きな反発を招いた。AppleがNeuralHashと呼ぶその技術はまだ、その10億あまりのユーザーに対して起動すらされていないが、すでにそのアルゴリズムは欠陥のある結果を出すと主張するセキュリティ研究者たちからの非難に直面している。 続きを読む

  • 電子フロンティア財団などが批判する中、アップルの児童虐待対策用iCloud写真スキャンに関する社内メモ流出か

    電子フロンティア財団などが批判する中、アップルの児童虐待対策用iCloud写真スキャンに関する社内メモ流出か

    アップルが予告した次期iOS 15等での児童の性的虐待対策は、メッセージアプリに添付された写真やiCloudに保存される画像をスキャンすることから、複数の方面からプライバシー侵害や監視の恐れがあると批判を集めています。こうした反発に対して、アップルが新機能を「誤解」を招きやすいと認めつつも、これらの新機能は子供たちの安全を守るための「重要な使命」の一部だと信念を強調した社内メモが流出したと伝えられています。 続きを読む

  • アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

    アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

    Appleは、児童性的虐待素材(CSAM)の検出は同社のサービスを使用する子どもたちをオンライン危害から守ることを目的とした新機能の一環であるとTechCrunchに語った。子どものiMessageアカウントを通じて送受信される性的に露骨な画像をブロックするフィルターもその1つだ。 続きを読む