アルゴリズム

パターン認識と機械学習 下

C.M.ビショップ

丸善出版

第6章 カーネル法

  • 6.1 双対表現
  • 6.2 カーネル関数の構成
  • 6.3 RBFネットワーク
    • 6.3.1 Nadaraya--Watsonモデル
  • 6.4 ガウス過程
    • 6.4.1 線形回帰再訪
    • 6.4.2 ガウス過程による回帰
    • 6.4.3 超パラメータの学習
    • 6.4.4 関連度自動決定
    • 6.4.5 ガウス過程による分類
    • 6.4.6 ラプラス近似
    • 6.4.7 ニューラルネットワークとの関係
  • 演習問題

第7章 疎な解を持つカーネルマシン

  • 7.1 最大マージン分類器
    • 7.1.1 重なりのあるクラス分布
    • 7.1.2 ロジスティック回帰との関係
    • 7.1.3 多クラスSVM
    • 7.1.4 回帰のためのSVM
    • 7.1.5 計算論的学習理論
  • 7.2 関連ベクトルマシン
    • 7.2.1 回帰問題に対するRVM
    • 7.2.2 疎性の解析
    • 7.2.3 分類問題に対するRVM
  • 演習問題

第8章 グラフィカルモデル

  • 8.1 ベイジアンネットワーク
    • 8.1.1 例:多項式曲線フィッティング
    • 8.1.2 生成モデル
    • 8.1.3 離散変数
    • 8.1.4 線形ガウスモデル
  • 8.2 条件付き独立性
    • 8.2.1 3つのグラフの例
    • 8.2.2 有向分離(D分離)
  • 8.3 マルコフ確率場
    • 8.3.1 条件付き独立性
    • 8.3.2 分解特性
    • 8.3.3 例:画像のノイズ除去
    • 8.3.4 有向グラフとの関係
  • 8.4 グラフィカルモデルにおける推論
    • 8.4.1 連鎖における推論
    • 8.4.2 木
    • 8.4.3 因子グラフ
    • 8.4.4 積和アルゴリズム
    • 8.4.5 max-sumアルゴリズム
    • 8.4.6 一般のグラフにおける厳密推論
    • 8.4.7 ループあり確率伝播
    • 8.4.8 グラフ構造の学習
  • 演習問題

第9章 混合モデルとEM

  • 9.1 K-meansクラスタリング
    • 9.1.1 画像分割と画像圧縮
  • 9.2 混合ガウス分布(Mixtures of Gaussians)
    • 9.2.1 最尤推定
    • 9.2.2 混合ガウス分布のEMアルゴリズム
  • 9.3 EMアルゴリズムのもう一つの解釈
    • 9.3.1 混合ガウス分布再訪
    • 9.3.2 K-meansとの関連
    • 9.3.3 混合ベルヌーイ分布
    • 9.3.4 ベイズ線形回帰に関するEMアルゴリズム
  • 9.4 一般のEMアルゴリズム
  • 演習問題

第10章 近似推論法

  • 10.1 変分推論
    • 10.1.1 分布の分解
    • 10.1.2 分解による近似のもつ性質
    • 10.1.3 例:一変数ガウス分布
    • 10.1.4 モデル比較
  • 10.2 例:変分混合ガウス分布
    • 10.2.1 変分事後分布
    • 10.2.2 変分下界
    • 10.2.3 予測分布
    • 10.2.4 混合要素数の決定
    • 10.2.5 導出された分解
  • 10.3 変分線形回帰
    • 10.3.1 変分分布
    • 10.3.2 予測分布
    • 10.3.3 変分下界
  • 10.4 指数型分布族
    • 10.4.1 変分メッセージパッシング
  • 10.5 局所的変分推論法
  • 10.6 変分ロジスティック回帰
    • 10.6.1 変分事後分布
    • 10.6.2 変分パラメータの最適化
    • 10.6.3 超パラメータの推論
  • 10.7 EP法
    • 10.7.1 例:雑音データ問題
    • 10.7.2 グラフィカルモデルとEP法
  • 演習問題

第11章 サンプリング法

  • 11.1 基本的なサンプリングアルゴリズム
    • 11.1.1 標準的な分布
    • 11.1.2 棄却サンプリング
    • 11.1.3 適応的棄却サンプリング
    • 11.1.4 重点サンプリング
    • 11.1.5 SIR
    • 11.1.6 サンプリングとEMアルゴリズム
  • 11.2 マルコフ連鎖モンテカルロ
    • 11.2.1 マルコフ連鎖
    • 11.2.2 Metropolis--Hastingsアルゴリズム
  • 11.3 ギブスサンプリング
  • 11.4 スライスサンプリング
  • 11.5 ハイブリッドモンテカルロアルゴリズム
    • 11.5.1 力学系
    • 11.5.2 ハイブリッドモンテカルロアルゴリズム
  • 11.6 分配関数の推定
  • 演習問題

第12章 連続潜在変数

  • 12.1 主成分分析
    • 12.1.1 分散最大化による定式化
    • 12.1.2 誤差最小化による定式化
    • 12.1.3 主成分分析の応用
    • 12.1.4 高次元データに対する主成分分析
  • 12.2 確率的主成分分析
    • 12.2.1 最尤法による主成分分析
    • 12.2.2 EMアルゴリズムによる主成分分析
    • 12.2.3 ベイズ的主成分分析
    • 12.2.4 因子分析
  • 12.3 カーネル主成分分析
  • 12.4 非線形潜在変数モデル
    • 12.4.1 独立成分分析
    • 12.4.2 自己連想ニューラルネットワーク
    • 12.4.3 非線形多様体のモデル化
  • 演習問題

第13章 系列データ

  • 13.1 マルコフモデル
  • 13.2 隠れマルコフモデル
    • 13.2.1 HMMの最尤推定
    • 13.2.2 フォワード--バックワードアルゴリズム
    • 13.2.3 HMMの積和アルゴリズム
    • 13.2.4 スケーリング係数
    • 13.2.5 Viterbiアルゴリズム
    • 13.2.6 隠れマルコフモデルの拡張
  • 13.3 線形動的システム
    • 13.3.1 LDSにおける推論
    • 13.3.2 LDSの学習
    • 13.3.3 LDSの拡張
    • 13.3.4 粒子フィルタ
  • 演習問題

第14章 モデルの結合

  • 14.1 ベイズモデル平均化
  • 14.2 コミッティ
  • 14.3 ブースティング
    • 14.3.1 指数誤差の最小化
    • 14.3.2 ブースティングのための誤差関数
  • 14.4 木構造モデル
  • 14.5 条件付き混合モデル
    • 14.5.1 線形回帰モデルの混合
    • 14.5.2 ロジスティックモデルの混合
    • 14.5.3 混合エキスパートモデル
  • 演習問題

下巻のための参考文献
訳者あとがき
和文索引
英文索引