
Appleは、児童ポルノに関連するメディアコンテンツを含む、児童の性的虐待資料(CSAM)についてiPhoneの写真をスキャンするツールを開発していると報じられています。間もなく発表される予定の新しい開発は、クライアント側(ユーザーのデバイス)に実装され、特定の知覚的ハッシュを探して、高品質で表示される場合はAppleサーバーに直接送信します。このシステムが何らかの形で悪用される可能性があるかどうかは明らかではありませんが、ユーザーのデバイスでチェックを実行することにより、ユーザーのプライバシーを保護するという考え方です。
米国のジョンズホプキンス情報セキュリティ研究所の准教授として働いているサイバーセキュリティの専門家マシューダニエルグリーンは、iPhoneから児童虐待の画像を検出するためのクライアントサイドシステムを立ち上げるというアップルの計画についてツイートしました。彼は、開発中のツールは、暗号化されたメッセージングシステムに監視を追加する際の「重要な要素」になる可能性があると述べました。
「Appleがこのローンチを行っている方法では、人々がすでにクラウドと共有している非E2E [非エンドツーエンド]の写真から始めます。したがって、それは誰かのプライバシーを「傷つける」ことはありません。しかし、E2E写真をスキャンすることが目標ではなかった場合、なぜ誰もがこのようなシステムを開発するのかを尋ねる必要があります」とGreen氏はTwitterの詳細なスレッドで述べています。