9.3 公平性(アルゴリズムバイアス、サンプリングバイアス)

G検定

AIは大量のデータを処理して意思決定を支援する一方で、公平性(Fairness) の問題がしばしば指摘されます。
特に アルゴリズムバイアスサンプリングバイアス によって、AIが差別的・不公平な判断を下す可能性があり、社会的な信頼性に直結します。


アルゴリズムバイアス(Algorithmic Bias)

定義

  • AIモデルの出力に体系的な偏りが生じる現象。
  • 原因は データの偏り設計上の偏り による。

事例

  • 採用AIが女性より男性を優先して評価した事例。
  • 顔認識AIが特定の人種に対して誤認識率が高い。

対策

  • 学習データの多様性を確保。
  • モデル評価時に「公平性指標」を導入。
  • バイアスを検出するアルゴリズムを組み込む。

サンプリングバイアス(Sampling Bias)

定義

  • 学習データの収集方法に偏りがあることで、AIの判断が不公平になる現象。

事例

  • 医療AIで特定の年齢層や地域のデータばかりが集まり、他の層で精度が低下。
  • 音声認識AIが特定の方言・言語で精度が悪い。

対策

  • データ収集段階で母集団を代表するように工夫。
  • 不足データを補完(データ拡張、重み付け学習)。

公平性指標

AIの公平性を測るための代表的な指標:

  • Demographic Parity
    • 属性に関係なく、肯定的な判定の割合が同程度になること。
  • Equal Opportunity
    • 実際に正しいラベルを持つ人々に対して、属性に依存せず正しく予測できること。

👉 試験ポイント:「公平性=バイアスを減らす工夫」「Demographic ParityやEqual Opportunityがキーワード」。


実務での留意点

  • 公平性は「技術的課題」であると同時に「倫理的課題」でもある。
  • 完全にバイアスをゼロにすることは困難だが、透明性と説明責任 を持つことが重要。
  • 組織として公平性評価のプロセスを整備する必要がある。

まとめ

  • アルゴリズムバイアス:AIの設計や学習に起因する偏り。
  • サンプリングバイアス:データ収集に起因する偏り。
  • 公平性指標を用いて検証し、透明性を確保することが求められる。

出題チェック

  • 「アルゴリズムバイアスの原因は?」=データや設計の偏り
  • 「サンプリングバイアスの例は?」=特定集団のデータしかない医療AI
  • 「公平性指標には何がある?」=Demographic Parity, Equal Opportunity

練習問題(例題)

問題:採用AIが、同じ能力を持つ女性より男性を高く評価する傾向を示した。この現象は何と呼ばれるか?

  1. サンプリングバイアス
  2. アルゴリズムバイアス
  3. フィルターバブル
  4. ブラックボックス問題

👉 正解:2

タイトルとURLをコピーしました