2010年代以降の第3次AIブームを牽引した中心技術が ディープラーニング(深層学習) です。
ニューラルネットワークの再評価と計算資源・データ量の飛躍的増大が重なり、AIが実社会に大規模に応用される転機となりました。
G検定では ImageNet・AlphaGo・生成AI といった具体例を問う問題が多く出題されます。
ディープラーニング誕生の背景
1. ビッグデータの出現
- インターネット・IoT・SNSの普及により、学習に使える大規模データが急増。
- 例:数百万枚の画像データセット「ImageNet」。
2. 計算資源(GPU)の進化
- GPUが行列演算に特化しており、ディープラーニングの高速化を可能にした。
- 2010年代にNVIDIA製GPUが研究者に広く使われ始めた。
3. アルゴリズムの改良
- 活性化関数ReLU → 勾配消失問題を軽減。
- ドロップアウト → 過学習を防止。
- Batch Normalization → 学習の安定化と高速化。
👉 これら3要素が揃ったことでブレイクスルーが起きた。
ディープラーニングの代表的転機
ImageNetコンテスト(2012年)
- 年次の大規模画像認識大会。
- 2012年、カナダのトロント大学チームが AlexNet を発表。
- CNN(畳み込みニューラルネットワーク)を用い、従来の誤り率を大幅に下回った。
- これが「ディープラーニング時代の幕開け」とされる。
AlphaGo(2016年)
- DeepMind社が開発した囲碁AI。
- ディープラーニングと モンテカルロ木探索(MCTS) を組み合わせ、人類トップ棋士を破った。
- 囲碁は状態空間が膨大で従来は不可能とされていたが、深層学習+探索で突破。
生成AI(2022年〜)
- OpenAIの ChatGPT や、画像生成の Stable Diffusion が社会実装。
- Transformerベースの大規模言語モデル(LLM)が実用レベルに到達し、社会全体に大きなインパクトを与えた。
ディープラーニングの特徴
- 自動特徴抽出
- 機械学習では人間が特徴量を設計する必要があったが、ディープラーニングは多層ネットワークで自動的に学習。
- 表現力の高さ
- 階層的な表現により、画像・音声・テキストなど多様なデータを処理可能。
- 汎用性
- 画像認識、音声認識、自然言語処理、ゲームAIなど幅広く応用。
ディープラーニングの課題
- ブラックボックス性
- 内部の処理過程が解釈しにくい。説明可能性(XAI)が研究課題。
- データ依存性
- 学習には大量の高品質データが必要。バイアスの影響を受けやすい。
- 計算コストと環境負荷
- LLMの学習には膨大な電力を消費。気候変動への影響も議論されている。
まとめ
- ディープラーニングの発展は ビッグデータ・GPU・アルゴリズム改良 が背景。
- ImageNet(2012年)、AlphaGo(2016年)、生成AI(2022年〜) が大きな転機。
- 特徴は 自動特徴抽出・高い表現力・汎用性。
- 課題は ブラックボックス性・データ依存・環境負荷。
出題傾向
- 「ImageNetコンテストでディープラーニングが注目された年と技術」
- 「AlphaGoで使われた要素技術」
- 「ディープラーニングの特徴と従来型機械学習の違い」
練習問題(例題)
問題:2012年のImageNetコンテストでディープラーニングを世界に知らしめたモデルはどれか?
- ResNet
- AlexNet
- LeNet
- VGGNet
👉 正解:2