深層学習 改訂第2版

岡谷貴之・著
シリーズ:
機械学習プロフェッショナルシリーズ

深層学習 改訂第2版

発行
2022/01/17
サイズ
A5
ページ数
384
ISBN
978-4-06-513332-3
定価
3,300円(税込)
在庫
在庫あり

書籍を購入する

定価
3,300円(税込)

内容紹介

ベストセラーの改訂版。最高最強のバイブルが大幅にパワーアップ!トランスフォーマー、グラフニューラルネットワーク、生成モデルなどをはじめ、各手法を大幅に加筆。深層学習のさまざまな課題とその対策についても詳説

目次

第1章 はじめに
1.1 研究の歴史
1.2 本書の構成

第2章 ネットワークの基本構造
2.1 ユニットと活性化関数
2.2 順伝播型ネットワーク
2.3 学習の概要
2.4 問題の定式化:出力層と損失関数の設計

第3章 確率的勾配降下法
3.1 確率的勾配降下法(SGD)
3.2 汎化性能と過剰適合
3.3 正則化
3.4 学習率の選定と制御
3.5 SGDの改良
3.6 層出力の正規化
3.7 重みの初期化
3.8 その他

第4章 誤差逆伝播法
4.1 勾配計算の煩わしさ
4.2 誤差逆伝播法
4.3 自動微分
4.4 勾配消失問題
4.5 残差接続

第5章 畳み込みニューラルネットワーク
5.1 単純型細胞と複雑型細胞
5.2 畳み込み
5.3 畳み込み層
5.4 プーリング層
5.5 畳み込み層の出力の正規化
5.6 推論のためのCNNの構造
5.7 入出力間の幾何学的関係
5.8 畳み込み層の一般化
5.9 アップサンプリングと畳み込み
5.10 物体カテゴリ認識への適用例

第6章 系列データのためのネットワーク
6.1 系列データ
6.2 リカレントニューラルネットワーク
6.3 ゲート機構
6.4 自己回帰モデル
6.5 1次元畳み込みネットワーク
6.6 逆伝播の計算

第7章 集合・グラフのためのネットワークと注意機構
7.1 集合データを扱うネットワーク
7.2 注意機構
7.3 トランスフォーマー
7.4 グラフニューラルネットワーク

第8章 推論の信頼性
8.1 推論の不確かさ
8.2 不確かさの数理モデル
8.3 不確かさの予測
8.4 分布外入力の検出
8.5 敵対的事例
8.6 品質保証の試み

第9章 説明と可視化
9.1 はじめに
9.2 入力による出力の微分
9.3 入力の遮蔽・挿入
9.4 中間層出力の表示
9.5 寄与度の分解
9.6 寄与度の逆伝播
9.7 可視化手法の評価
9.8 影響関数
9.9 学習内容の可視化

第10章 いろいろな学習方法
10.1 距離計量学習
10.2 事例集合(マルチインスタンス)学習
10.3 クラスラベルの誤り
10.4 クラス間不均衡
10.5 継続・追加学習
10.6 知識蒸留
10.7 枝刈り
10.8 推論の量子化
10.9 ネットワーク構造探索(NAS)

第11章 データが少ない場合の学習
11.1 はじめに
11.2 データ拡張
11.3 転移学習
11.4 半教師あり学習
11.5 自己教師学習
11.6 マルチタスク学習
11.7 ドメイン適応・汎化
11.8 少数事例学習
11.9 能動学習

第12章 生成モデル
12.1 データの生成モデル
12.2 自己符号化器
12.3 変分自己符号化器(VAE)
12.4 敵対的生成ネットワーク(GAN)
12.5 正規化フロー
12.6 ボルツマンマシン