4.1 ニューラルネットワーク基礎(パーセプトロン、CPU/GPU/TPU)

G検定

ディープラーニングの中核を成すのが ニューラルネットワーク です。
本節では、その基本構造である「パーセプトロン」から始め、現代の深層学習を支える計算基盤(CPU/GPU/TPU)までを整理します。


ニューラルネットワークとは?

  • 定義
    生物の神経回路(ニューロンとシナプス)をモデル化した数理的な仕組み。
    複数の「人工ニューロン」を結合させ、入力データから複雑なパターンを学習できる。
  • 構造
    • 入力層 → 隠れ層 → 出力層
    • 多層化することで「ディープラーニング」と呼ばれる。

👉 ポイント:G検定では「ニューラルネットワーク=人間の神経回路の数理モデル」として問われる。


パーセプトロン(Perceptron)

基本モデル

  • 単純な人工ニューロンの数学モデル。
  • 入力(x)に重み(w)を掛け合わせ、閾値を超えれば1、そうでなければ0を出力。

数式

y = f( Σ wi・xi + b )
  • f:活性化関数(例:ステップ関数、シグモイド関数)
  • b:バイアス項

意義

  • 1950年代にローゼンブラットが提案。
  • AND/ORなどの論理回路を再現可能。

限界

  • 単層パーセプトロンでは「線形分離可能な問題」しか解けない(例:XOR問題は解けない)。
  • → これを解決するために「多層パーセプトロン(MLP)」が登場。

多層パーセプトロン(MLP)

  • 複数の隠れ層を持つニューラルネットワーク。
  • 活性化関数を導入することで非線形問題も解けるようになった。
  • 誤差逆伝播法(Backpropagation, 1986年) により学習が可能となり、深層学習の基盤が築かれた。

👉 試験頻出:「XOR問題は単層パーセプトロンでは解けないが、多層パーセプトロンで解ける」。


ハードウェアの進化(CPU → GPU → TPU)

ニューラルネットワークの進化を支えたのは、アルゴリズムだけでなく「計算資源の進化」です。

CPU(Central Processing Unit)

  • 汎用的な計算を処理。
  • 単一タスクに強いが、大量の並列演算には不向き。

GPU(Graphics Processing Unit)

  • 本来は画像処理用だが、行列演算に特化。
  • ニューラルネットワークの学習(特にディープラーニング)を飛躍的に加速。
  • 2012年の ImageNetコンテストでのAlexNet の成功もGPUの力による。

TPU(Tensor Processing Unit)

  • Googleが開発した機械学習専用プロセッサ。
  • TensorFlow向けに最適化され、大規模ニューラルネットワークの学習を効率化。
  • データセンターやクラウド環境で利用される。

👉 試験で狙われる:「GPUがディープラーニングを加速させた」「GoogleのTPU」。


まとめ

  • ニューラルネットワークは「人工ニューロン」を多層に組み合わせたモデル。
  • パーセプトロン:人工ニューロンの基本単位。単層ではXOR問題を解けない。
  • 多層パーセプトロン(MLP):誤差逆伝播法により非線形問題を解決。
  • 計算資源の進化:CPU(汎用)→ GPU(行列演算に強い)→ TPU(ML専用)。

出題傾向

  • 「単層パーセプトロンで解けない問題は?」(XOR)
  • 「多層パーセプトロンの学習に必要なアルゴリズムは?」(誤差逆伝播法)
  • 「ディープラーニングの発展に寄与したハードウェアは?」(GPU, TPU)

練習問題(例題)

問題:次のうち、ディープラーニングの発展に大きく貢献した計算資源はどれか?

  1. CPU
  2. GPU
  3. FPGA
  4. DSP

👉 正解:2

タイトルとURLをコピーしました