スポンサーリンク
G検定

5.2 自然言語処理(word2vec、BERT、GPT、LLM、ChatGPT)

自然言語処理(NLP: Natural Language Processing)は、人間の言語をコンピュータに理解・生成させる技術です。ディープラーニングの進展により、機械翻訳、要約、質問応答、対話システムなどの性能が飛躍的に向上しました。...
G検定

5.1 画像認識(CNN系、YOLO、ResNet、Vision Transformerなど)

画像認識は、ディープラーニングが最も大きな成果を上げた分野の一つです。特に2012年の ImageNetコンテスト(ILSVRC) で登場した AlexNet を契機に、畳み込みニューラルネットワーク(CNN)が爆発的に発展しました。ここで...
G検定

4.7 要素技術(CNN、RNN、Attention、オートエンコーダ、データ拡張、スキップ結合など)

ディープラーニングの成功を支えるのは、多様な 要素技術(アーキテクチャや工夫) です。本節では代表的な構造や技術を整理し、試験によく出題される観点とともに解説します。CNN(畳み込みニューラルネットワーク)特徴画像処理に強いニューラルネット...
G検定

4.6 最適化手法(SGD、Adam、学習率調整、ハイパーパラメータ探索)

ディープラーニングの学習において、モデルの重みを更新するために利用されるのが 最適化手法(Optimization Methods) です。どのように勾配を利用して重みを更新するか、学習率をどう調整するか、ハイパーパラメータをどう選ぶかによ...
G検定

4.5 誤差逆伝播法(勾配消失・勾配爆発)

ニューラルネットワークを学習させる上で中核となるのが 誤差逆伝播法(Backpropagation, BP) です。これは、出力の誤差を逆方向に伝え、各重みを効率的に更新するアルゴリズムです。G検定では 仕組み・役割・問題点(勾配消失/勾配...
G検定

4.4 正則化(L1/L2、ドロップアウト)

機械学習・ディープラーニングの大きな課題のひとつが 過学習(Overfitting) です。過学習を防ぎ、モデルの汎化性能を高めるために使われる手法群を 正則化(Regularization) と呼びます。本節では代表的な正則化手法である ...
G検定

4.3 誤差関数(クロスエントロピー、KL情報量、Contrastive Lossなど)

ニューラルネットワークの学習において「どのように予測が正しいか/間違っているか」を数値化するのが 誤差関数(損失関数, Loss Function) です。誤差関数は「教師データと予測値の差」を定量化し、学習の方向を決める重要な役割を果たし...
G検定

4.2 活性化関数(ReLU、Sigmoid、Softmax、勾配消失問題)

ニューラルネットワークの各ノード(人工ニューロン)は「入力の重み付き和」を計算し、それを 活性化関数(Activation Function) に通して出力します。活性化関数はネットワークの「非線形性」を担う重要な役割を果たし、学習の性能に...
G検定

4.1 ニューラルネットワーク基礎(パーセプトロン、CPU/GPU/TPU)

ディープラーニングの中核を成すのが ニューラルネットワーク です。本節では、その基本構造である「パーセプトロン」から始め、現代の深層学習を支える計算基盤(CPU/GPU/TPU)までを整理します。ニューラルネットワークとは?定義生物の神経回...
G検定

3.4 ハイパーパラメータと汎化性能

機械学習では、単に学習させるだけでなく「どのモデルを選び、どのように評価するか」が極めて重要です。G検定では 過学習、交差検証、混同行列、ROC・AUC、誤差指標(MSE, RMSE, MAE) が頻出ポイントです。モデル選択の基本機械学習...
スポンサーリンク