「「説明可能なAI」に欠陥、少数派の扱いが不公平になるとMITが指摘する根拠は?:結果が誰に影響を与えるのかを考えなければならない - @IT」

マサチューセッツ工科大学(MIT)の研究チームは、機械学習モデルの予測を信頼するかどうかをユーザーが判断するためによく使われる「説明モデル」には問題があることを示した。少数派を公平に扱えないという問題だ。なぜこのようなことが起きるのだろうか。

マサチューセッツ工科大学(MIT)の研究チームは、機械学習モデルの予測を信頼するかどうかをユーザーが判断するためによく使われる「説明モデル」には問題があることを示した。少数派を公平に扱えないという問題だ。なぜこのようなことが起きるのだろうか。

atmarkit.itmedia.co.jp

Webページ

コンテンツ文字数:0 文字

見出し数(H2/H3タグ):0 個

閲覧数:103 件

2022-06-10 14:09:53

オリジナルページを開く