2.4 ディープラーニングの発展

G検定

2010年代以降の第3次AIブームを牽引した中心技術が ディープラーニング(深層学習) です。
ニューラルネットワークの再評価と計算資源・データ量の飛躍的増大が重なり、AIが実社会に大規模に応用される転機となりました。
G検定では ImageNet・AlphaGo・生成AI といった具体例を問う問題が多く出題されます。


ディープラーニング誕生の背景

1. ビッグデータの出現

  • インターネット・IoT・SNSの普及により、学習に使える大規模データが急増。
  • 例:数百万枚の画像データセット「ImageNet」。

2. 計算資源(GPU)の進化

  • GPUが行列演算に特化しており、ディープラーニングの高速化を可能にした。
  • 2010年代にNVIDIA製GPUが研究者に広く使われ始めた。

3. アルゴリズムの改良

  • 活性化関数ReLU → 勾配消失問題を軽減。
  • ドロップアウト → 過学習を防止。
  • Batch Normalization → 学習の安定化と高速化。

👉 これら3要素が揃ったことでブレイクスルーが起きた。


ディープラーニングの代表的転機

ImageNetコンテスト(2012年)

  • 年次の大規模画像認識大会。
  • 2012年、カナダのトロント大学チームが AlexNet を発表。
  • CNN(畳み込みニューラルネットワーク)を用い、従来の誤り率を大幅に下回った。
  • これが「ディープラーニング時代の幕開け」とされる。

AlphaGo(2016年)

  • DeepMind社が開発した囲碁AI。
  • ディープラーニングと モンテカルロ木探索(MCTS) を組み合わせ、人類トップ棋士を破った。
  • 囲碁は状態空間が膨大で従来は不可能とされていたが、深層学習+探索で突破。

生成AI(2022年〜)

  • OpenAIの ChatGPT や、画像生成の Stable Diffusion が社会実装。
  • Transformerベースの大規模言語モデル(LLM)が実用レベルに到達し、社会全体に大きなインパクトを与えた。

ディープラーニングの特徴

  • 自動特徴抽出
    • 機械学習では人間が特徴量を設計する必要があったが、ディープラーニングは多層ネットワークで自動的に学習。
  • 表現力の高さ
    • 階層的な表現により、画像・音声・テキストなど多様なデータを処理可能。
  • 汎用性
    • 画像認識、音声認識、自然言語処理、ゲームAIなど幅広く応用。

ディープラーニングの課題

  • ブラックボックス性
    • 内部の処理過程が解釈しにくい。説明可能性(XAI)が研究課題。
  • データ依存性
    • 学習には大量の高品質データが必要。バイアスの影響を受けやすい。
  • 計算コストと環境負荷
    • LLMの学習には膨大な電力を消費。気候変動への影響も議論されている。

まとめ

  • ディープラーニングの発展は ビッグデータ・GPU・アルゴリズム改良 が背景。
  • ImageNet(2012年)、AlphaGo(2016年)、生成AI(2022年〜) が大きな転機。
  • 特徴は 自動特徴抽出・高い表現力・汎用性
  • 課題は ブラックボックス性・データ依存・環境負荷

出題傾向

  • 「ImageNetコンテストでディープラーニングが注目された年と技術」
  • 「AlphaGoで使われた要素技術」
  • 「ディープラーニングの特徴と従来型機械学習の違い」

練習問題(例題)

問題:2012年のImageNetコンテストでディープラーニングを世界に知らしめたモデルはどれか?

  1. ResNet
  2. AlexNet
  3. LeNet
  4. VGGNet

👉 正解:2

タイトルとURLをコピーしました