4.7 要素技術(CNN、RNN、Attention、オートエンコーダ、データ拡張、スキップ結合など)

G検定

ディープラーニングの成功を支えるのは、多様な 要素技術(アーキテクチャや工夫) です。
本節では代表的な構造や技術を整理し、試験によく出題される観点とともに解説します。


CNN(畳み込みニューラルネットワーク)

特徴

  • 画像処理に強いニューラルネットワーク。
  • 畳み込み層で特徴を抽出し、プーリング層で圧縮。

応用

  • 画像分類(ImageNet)
  • 医用画像診断(腫瘍検出など)
  • 自動運転(カメラ画像解析)

👉 試験ポイント:「CNNは画像認識に強い理由=局所特徴を捉える畳み込み層」。


RNN(リカレントニューラルネットワーク)

特徴

  • 時系列データや**系列データ(文章など)**を扱うネットワーク。
  • 出力を次の入力にフィードバックする構造。

課題

  • 長期依存関係を扱うと勾配消失/爆発が発生。

改良

  • LSTM(Long Short-Term Memory)
  • GRU(Gated Recurrent Unit)

応用

  • 音声認識
  • 機械翻訳
  • 株価予測

👉 試験頻出:「LSTMはRNNの勾配消失問題を解決するために開発された」。


Attention(自己注意機構)

特徴

  • 入力系列の中で「どの部分に注目するか」を学習する仕組み。
  • 全体の情報を効率よく処理できる。

Transformer

  • Attentionをベースにしたアーキテクチャ。
  • BERTやGPTなど大規模言語モデルの基盤。

応用

  • 自然言語処理(翻訳、要約、対話AI)
  • 音声認識
  • 画像認識(Vision Transformer)

👉 試験で狙われる:「Attentionは系列データの重要部分に重み付けを行う」。


オートエンコーダ(Autoencoder)

特徴

  • 入力を圧縮し、再構成することで特徴を抽出するニューラルネットワーク。
  • 符号化(Encoder)潜在表現(Latent Space)復号化(Decoder)

応用

  • 次元削減
  • 画像のノイズ除去
  • 異常検知(再構成誤差が大きいものを「異常」と判定)

👉 試験頻出:「オートエンコーダは教師なし学習の一種」。


データ拡張(Data Augmentation)

特徴

  • 学習データを人工的に増やして過学習を防止する手法。

手法例

  • 画像:回転、反転、切り取り、色調補正
  • 音声:ノイズ付与、ピッチ変換
  • テキスト:同義語置換、ランダム削除

👉 試験ポイント:「データ拡張は過学習を防ぎ、汎化性能を高める」。


スキップ結合(Residual Connection, ResNet)

特徴

  • 出力に入力を直接足し合わせる構造。
  • 勾配消失を防ぎ、非常に深いネットワークを学習可能にした。

成果

  • ResNet(2015年、ImageNetで優勝)により、数百層のディープネットワークが実現。

👉 試験頻出:「スキップ結合は勾配消失問題を解決する技術」。


まとめ

  • CNN:画像認識に強い
  • RNN/LSTM/GRU:時系列・系列データ処理に強い
  • Attention/Transformer:自然言語処理のブレイクスルー
  • オートエンコーダ:教師なし学習、特徴抽出・異常検知
  • データ拡張:学習データを人工的に増やす手法
  • スキップ結合(ResNet):勾配消失を防ぎ、超深層ネットを可能に

出題傾向

  • 「CNNの特徴は?」=画像認識
  • 「RNNの課題とその改良版は?」=勾配消失問題、LSTM/GRU
  • 「Attentionの役割は?」=系列データの重要部分に重み付け
  • 「オートエンコーダの用途は?」=次元削減、異常検知
  • 「データ拡張の目的は?」=過学習防止
  • 「スキップ結合を導入したモデルは?」=ResNet

練習問題(例題)

問題:次のうち「勾配消失を防ぎ、非常に深いニューラルネットワークを可能にした技術」はどれか?

  1. Dropout
  2. Batch Normalization
  3. Residual Connection(スキップ結合)
  4. Contrastive Loss

👉 正解:3

タイトルとURLをコピーしました