5.6 転移学習・ファインチューニング(事前学習モデル、破壊的忘却など)

G検定

ディープラーニングは高性能ですが、通常は 大量のデータと計算資源 が必要です。
この制約を緩和し、少ないデータでも高い性能を発揮できる方法が 転移学習(Transfer Learning)ファインチューニング(Fine-tuning) です。
また、学習の過程で問題となる 破壊的忘却(Catastrophic Forgetting) も重要なトピックです。


転移学習(Transfer Learning)

定義

  • あるタスクで学習した知識を、別のタスクに応用する手法。

背景

  • 画像認識・NLPでは大規模データセット(ImageNet, Wikipediaなど)で学習したモデルを再利用するのが一般的。

利点

  • データ不足の分野でも高精度を実現。
  • 学習コストを削減。

👉 試験頻出:「転移学習は大規模データで学習したモデルを別タスクに再利用する手法」。


ファインチューニング(Fine-tuning)

定義

  • 転移学習の一種で、事前学習済みモデルを特定タスクに合わせて微調整する手法

方法

  1. 事前学習モデル(Pre-trained Model)を読み込む。
  2. 出力層(分類層など)を目的タスク用に置き換える。
  3. 全層または一部を再学習する。

  • 画像認識:ResNetをImageNetで事前学習 → 医療画像診断に適用。
  • NLP:BERTを事前学習 → 質問応答や感情分析にファインチューニング。

事前学習モデル(Pre-trained Models)

定義

  • 大規模データで学習済みのモデルを公開し、転移学習やファインチューニングに活用可能。

代表例

  • 画像:ResNet, EfficientNet, Vision Transformer (ViT)
  • 言語:BERT, GPT, T5

👉 試験で狙われる:「事前学習モデルの利用により、少ないデータでも高精度が可能になる」。


破壊的忘却(Catastrophic Forgetting)

定義

  • 新しいタスクを学習する際に、過去のタスクの知識を急激に忘れてしまう現象。

発生理由

  • ニューラルネットワークが新しいデータに適応する過程で、既存の重みが大きく変化するため。

対策

  • 逐次学習(Continual Learning) の研究が盛ん。
  • Elastic Weight Consolidation (EWC):重要な重みの変化を抑制。
  • リプレイ法:過去データを一部保存して再利用。

👉 試験頻出:「破壊的忘却は転移学習や逐次学習で問題となる」。


まとめ

  • 転移学習:大規模データで学習した知識を別タスクに応用。
  • ファインチューニング:事前学習モデルを特定タスクに微調整。
  • 事前学習モデル:ResNet, BERT, GPTなどが公開され、幅広く利用可能。
  • 破壊的忘却:新タスク学習で過去の知識を失う問題。対策としてEWCやリプレイ法が研究されている。

出題傾向

  • 「転移学習の定義は?」
  • 「ファインチューニングの流れは?」
  • 「事前学習モデルの利点は?」
  • 「破壊的忘却の原因と対策は?」

練習問題(例題)

問題:新しいタスクを学習する際に、過去の知識を急激に失ってしまう現象を何と呼ぶか?

  1. 過学習
  2. 勾配消失
  3. 破壊的忘却
  4. 汎化不足

👉 正解:3

タイトルとURLをコピーしました