「アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ | TechCrunch Japan」
Appleは、児童性的虐待素材(CSAM)の検出は同社のサービスを使用する子どもたちをオンライン危害から守ることを目的とした新機能の一環であるとTechCrunchに語った。子どものiMessageアカウントを通じて送受信される性的に露骨な画像をブロックするフィルターもその1つだ。
コンテンツ文字数:0 文字
見出し数(H2/H3タグ):0 個
閲覧数:105 件
2021-08-07 11:00:18