「iOS15で導入の児童ポルノ検出、同技術の研究者が「危険」と批判 - iPhone Mania」

  AppleがiOS15などで導入すると発表した、ユーザーのiPhoneに保存された児童への性的虐待画像(CSAM:Child Sexual Abuse Material)の検出機能について、同様の技術を研究する研究者「危険」と述べ、導入を見送るべきだと指摘しています。

  AppleがiOS15などで導入すると発表した、ユーザーのiPhoneに保存された児童への性的虐待画像(CSAM:Child Sexual Abuse Material)の検出機能について、同様の技術を研究する研究者「危険」と述べ、導入を見送るべきだと指摘しています。

iphone-mania.jp

Webページ

コンテンツ文字数:0 文字

見出し数(H2/H3タグ):0 個

閲覧数:113 件

2021-08-21 17:08:36

オリジナルページを開く