「「説明可能なAI」に欠陥、少数派の扱いが不公平になるとMITが指摘する根拠は?:結果が誰に影響を与えるのかを考えなければならない - @IT」
マサチューセッツ工科大学(MIT)の研究チームは、機械学習モデルの予測を信頼するかどうかをユーザーが判断するためによく使われる「説明モデル」には問題があることを示した。少数派を公平に扱えないという問題だ。なぜこのようなことが起きるのだろうか。
コンテンツ文字数:0 文字
見出し数(H2/H3タグ):0 個
閲覧数:103 件
2022-06-10 14:09:53