ディープラーニングの中核を成すのが ニューラルネットワーク です。
本節では、その基本構造である「パーセプトロン」から始め、現代の深層学習を支える計算基盤(CPU/GPU/TPU)までを整理します。
ニューラルネットワークとは?
- 定義
生物の神経回路(ニューロンとシナプス)をモデル化した数理的な仕組み。
複数の「人工ニューロン」を結合させ、入力データから複雑なパターンを学習できる。 - 構造
- 入力層 → 隠れ層 → 出力層
- 多層化することで「ディープラーニング」と呼ばれる。
👉 ポイント:G検定では「ニューラルネットワーク=人間の神経回路の数理モデル」として問われる。
パーセプトロン(Perceptron)
基本モデル
- 単純な人工ニューロンの数学モデル。
- 入力(x)に重み(w)を掛け合わせ、閾値を超えれば1、そうでなければ0を出力。
数式:
y = f( Σ wi・xi + b )
- f:活性化関数(例:ステップ関数、シグモイド関数)
- b:バイアス項
意義
- 1950年代にローゼンブラットが提案。
- AND/ORなどの論理回路を再現可能。
限界
- 単層パーセプトロンでは「線形分離可能な問題」しか解けない(例:XOR問題は解けない)。
- → これを解決するために「多層パーセプトロン(MLP)」が登場。
多層パーセプトロン(MLP)
- 複数の隠れ層を持つニューラルネットワーク。
- 活性化関数を導入することで非線形問題も解けるようになった。
- 誤差逆伝播法(Backpropagation, 1986年) により学習が可能となり、深層学習の基盤が築かれた。
👉 試験頻出:「XOR問題は単層パーセプトロンでは解けないが、多層パーセプトロンで解ける」。
ハードウェアの進化(CPU → GPU → TPU)
ニューラルネットワークの進化を支えたのは、アルゴリズムだけでなく「計算資源の進化」です。
CPU(Central Processing Unit)
- 汎用的な計算を処理。
- 単一タスクに強いが、大量の並列演算には不向き。
GPU(Graphics Processing Unit)
- 本来は画像処理用だが、行列演算に特化。
- ニューラルネットワークの学習(特にディープラーニング)を飛躍的に加速。
- 2012年の ImageNetコンテストでのAlexNet の成功もGPUの力による。
TPU(Tensor Processing Unit)
- Googleが開発した機械学習専用プロセッサ。
- TensorFlow向けに最適化され、大規模ニューラルネットワークの学習を効率化。
- データセンターやクラウド環境で利用される。
👉 試験で狙われる:「GPUがディープラーニングを加速させた」「GoogleのTPU」。
まとめ
- ニューラルネットワークは「人工ニューロン」を多層に組み合わせたモデル。
- パーセプトロン:人工ニューロンの基本単位。単層ではXOR問題を解けない。
- 多層パーセプトロン(MLP):誤差逆伝播法により非線形問題を解決。
- 計算資源の進化:CPU(汎用)→ GPU(行列演算に強い)→ TPU(ML専用)。
出題傾向
- 「単層パーセプトロンで解けない問題は?」(XOR)
- 「多層パーセプトロンの学習に必要なアルゴリズムは?」(誤差逆伝播法)
- 「ディープラーニングの発展に寄与したハードウェアは?」(GPU, TPU)
練習問題(例題)
問題:次のうち、ディープラーニングの発展に大きく貢献した計算資源はどれか?
- CPU
- GPU
- FPGA
- DSP
👉 正解:2