9.3 公平性(アルゴリズムバイアス、サンプリングバイアス)

G検定

AIは大量のデータを処理して意思決定を支援する一方で、公平性(Fairness) の問題がしばしば指摘されます。
特に アルゴリズムバイアスサンプリングバイアス によって、AIが差別的・不公平な判断を下す可能性があり、社会的な信頼性に直結します。


アルゴリズムバイアス(Algorithmic Bias)

定義

  • AIモデルの出力に体系的な偏りが生じる現象。
  • 原因は データの偏り設計上の偏り による。

事例

  • 採用AIが女性より男性を優先して評価した事例。
  • 顔認識AIが特定の人種に対して誤認識率が高い。

対策

  • 学習データの多様性を確保。
  • モデル評価時に「公平性指標」を導入。
  • バイアスを検出するアルゴリズムを組み込む。

サンプリングバイアス(Sampling Bias)

定義

  • 学習データの収集方法に偏りがあることで、AIの判断が不公平になる現象。

事例

  • 医療AIで特定の年齢層や地域のデータばかりが集まり、他の層で精度が低下。
  • 音声認識AIが特定の方言・言語で精度が悪い。

対策

  • データ収集段階で母集団を代表するように工夫。
  • 不足データを補完(データ拡張、重み付け学習)。

公平性指標

AIの公平性を測るための代表的な指標:

  • Demographic Parity
    • 属性に関係なく、肯定的な判定の割合が同程度になること。
  • Equal Opportunity
    • 実際に正しいラベルを持つ人々に対して、属性に依存せず正しく予測できること。

👉 試験ポイント:「公平性=バイアスを減らす工夫」「Demographic ParityやEqual Opportunityがキーワード」。


実務での留意点

  • 公平性は「技術的課題」であると同時に「倫理的課題」でもある。
  • 完全にバイアスをゼロにすることは困難だが、透明性と説明責任 を持つことが重要。
  • 組織として公平性評価のプロセスを整備する必要がある。

まとめ

  • アルゴリズムバイアス:AIの設計や学習に起因する偏り。
  • サンプリングバイアス:データ収集に起因する偏り。
  • 公平性指標を用いて検証し、透明性を確保することが求められる。

出題チェック

  • 「アルゴリズムバイアスの原因は?」=データや設計の偏り
  • 「サンプリングバイアスの例は?」=特定集団のデータしかない医療AI
  • 「公平性指標には何がある?」=Demographic Parity, Equal Opportunity

練習問題(例題)

問題:採用AIが、同じ能力を持つ女性より男性を高く評価する傾向を示した。この現象は何と呼ばれるか?

  1. サンプリングバイアス
  2. アルゴリズムバイアス
  3. フィルターバブル
  4. ブラックボックス問題

👉 正解:2

G検定
スポンサーリンク
この記事を書いた人

運営者について

当サイトは、個人が運営する学習・記録ブログです。

AI・データサイエンス・自動化を中心に、
Python、G検定・DS検定の学習内容や、
実際に試しながら整理した知識をまとめています。

特定の企業や団体に属さない個人サイトとして、
学習過程で得た気づきや判断の整理を目的に運営しています。

「知識はあるが、どう使えばよいか分からない」
「情報が多く、判断に迷ってしまう」
といった状態を減らすことを目的に発信しています。

専門家として教える立場ではなく、
自分自身がつまずき、試し、整理してきた過程をそのまま共有するスタイルです。

用語の暗記やテクニックの紹介よりも、
・なぜそう考えるのか
・どの順番で判断するのか
・どこで迷いやすいのか
といった思考の整理を重視しています。

学び場をフォローする
学び場をフォローする
タイトルとURLをコピーしました