AIは大量のデータを処理して意思決定を支援する一方で、公平性(Fairness) の問題がしばしば指摘されます。
特に アルゴリズムバイアス や サンプリングバイアス によって、AIが差別的・不公平な判断を下す可能性があり、社会的な信頼性に直結します。
アルゴリズムバイアス(Algorithmic Bias)
定義
- AIモデルの出力に体系的な偏りが生じる現象。
- 原因は データの偏り や 設計上の偏り による。
事例
- 採用AIが女性より男性を優先して評価した事例。
- 顔認識AIが特定の人種に対して誤認識率が高い。
対策
- 学習データの多様性を確保。
- モデル評価時に「公平性指標」を導入。
- バイアスを検出するアルゴリズムを組み込む。
サンプリングバイアス(Sampling Bias)
定義
- 学習データの収集方法に偏りがあることで、AIの判断が不公平になる現象。
事例
- 医療AIで特定の年齢層や地域のデータばかりが集まり、他の層で精度が低下。
- 音声認識AIが特定の方言・言語で精度が悪い。
対策
- データ収集段階で母集団を代表するように工夫。
- 不足データを補完(データ拡張、重み付け学習)。
公平性指標
AIの公平性を測るための代表的な指標:
- Demographic Parity
- 属性に関係なく、肯定的な判定の割合が同程度になること。
- Equal Opportunity
- 実際に正しいラベルを持つ人々に対して、属性に依存せず正しく予測できること。
👉 試験ポイント:「公平性=バイアスを減らす工夫」「Demographic ParityやEqual Opportunityがキーワード」。
実務での留意点
- 公平性は「技術的課題」であると同時に「倫理的課題」でもある。
- 完全にバイアスをゼロにすることは困難だが、透明性と説明責任 を持つことが重要。
- 組織として公平性評価のプロセスを整備する必要がある。
まとめ
- アルゴリズムバイアス:AIの設計や学習に起因する偏り。
- サンプリングバイアス:データ収集に起因する偏り。
- 公平性指標を用いて検証し、透明性を確保することが求められる。
出題チェック
- 「アルゴリズムバイアスの原因は?」=データや設計の偏り
- 「サンプリングバイアスの例は?」=特定集団のデータしかない医療AI
- 「公平性指標には何がある?」=Demographic Parity, Equal Opportunity
練習問題(例題)
問題:採用AIが、同じ能力を持つ女性より男性を高く評価する傾向を示した。この現象は何と呼ばれるか?
- サンプリングバイアス
- アルゴリズムバイアス
- フィルターバブル
- ブラックボックス問題
👉 正解:2