本文へスキップします。

【参】モーダルJS:読み込み
書籍DB:詳細

続・わかりやすい パターン認識 -教師なし学習入門-

続・わかりやすい パターン認識 -教師なし学習入門-

  • 著者石井 健一郎上田 修功
  • 定価3,520円 (本体3,200円+税)
  • 判型A5
  • 320頁
  • ISBN978-4-274-21530-8
  • 発売日2014/08/26
  • 発行元オーム社

定番「わかりやすい パターン認識」の続編!ベイズ統計学の基礎から、最新のノンパラメトリックベイズモデルまでやさしく解説した唯一の書籍!

初学者にはとっつきにくいパターン認識の基本を丁寧な図解と数式展開で解説して好評を得てきた、1998年発行「わかりやすい パターン認識」の続編です。前作で取り上げることのできなかった教師なし学習を主に取り上げてわかりやすくまとめました。教師なし学習を理解することで、より広い対象の音声・画像処理技術、ビッグデータなどを扱うことができるようになります。また、ノンパラメトリックベイズモデルについてわかりやすく解説した日本語の書籍は本書のみで、機械学習やパターン認識をこれから志す研究者、学生の方にもおすすめです。
第1章 ベイズ統計学
 1・1 試行と事象
 1・2 ベイズの定理
 1・3 頻度から確信度ヘ
 1・4 逆確率 -結果から原因を-
 1・5 三つの扉問題
 〔1〕 扉Aが当たりの場合
 〔2〕 扉Bが当たりの場合
 〔3〕 扉Cが当たりの場合

第2章 事前確率と事後確率
 2・ 1 事後確率の計算
 〔1〕 コインを1度だけ投げる場合
 〔2〕 コインをn回投げる場合
 2・2 ベイズ更新
 2・3 ベイズ更新の実験

第3章 ベイズ決定則
 3・1 パターン認識
 3・2 事後確率最大化
 3・3 事前確率の効果
 3・4 ベイズ誤り確率

第4章 パラメータ推定
 4・1 学習とパラメータ推定
 4・2 最尤推定
 4・3 ベイズ推定
 4・4 ベータ分布
 4・5 共役事前分布
 4・6 ベイズ推定における推定値の特定
 4・7 ベイズ推定の実験
 〔1〕 観測回数の効果
 〔2〕 事前分布の効果
 4・8 最尤推定とベイズ推定との比較
 4・9 ディリクレ分布
 
第5章 教師付き学習と教師なし学習
 5・1 学習のための二つの観測方法
 5・2 最尤推定に必要な数学
 5・3 教師付き学習
 〔1〕 パラメータπiの推定
 〔2〕 パラメータθikの推定
 5・4 教師なし学習
 〔1〕 パラメータπiの推定
 〔2〕 パラメータθikの推定
 〔3〕 推定結果の妥当性
 〔4〕 教師付き学習との関係
 〔5〕 教師なし学習アルゴリズムの演算
 5・5 教師なし学習の実験

第6章 EMアルゴリズム
 6・1 教師なし学習に伴う問題
 6・2 log-sumからsum-logヘ
 6・3 Q関数の特性
 6・4 Q関数の最大化
 〔1〕 R1の最大化
 〔2〕 R2の最大化
 6・5 EMアルゴリズムと補助関数法
 〔1〕 非負値行列因子分解とEMアルゴリズム
 〔2〕 補助関数法

第7章 マルコフモデル
 7・1 マルコフ性とマルコフモデル
 7・2 マルコフモデルのパラメータ推定
 〔1〕 Laの最大化
 〔2〕 Lbの最大化
 〔3〕 Lρの最大化

第8章 隠れマルコフモデル
 8・1 隠れマルコフモデルとは
 8・2 前向き・後向きアルゴリズム
 8・3 ビタービアルゴリズム
 8・4 バウム・ウェルチアルゴリズム
 〔1〕 Q(θ゜,A)の最大化
 〔2〕 Q(θ゜,B)の最大化
 〔3〕 Q(θ゜,ρ)の最大化
 8・5 隠れマルコフモデルによる識別系
 8・6 隠れマルコフモデルの実験
 〔1〕 前向きアルゴリズムの実験
 〔2〕 ビタービアルゴリズムの実験
 〔3〕 バウム・ウェルチアルゴリズムの実験
 〔4〕 識別実験

第9章 混合分布のパラメータ推定
 9・1 混合分布に対するパラメトリックな学習
 9・2 教師付き学習によるパラメータ推定
 9・3 教師なし学習によるパラメータ推定
 〔1〕 最適なパラメータ
 〔2〕 教師付きの場合との対比
 〔3〕 EMアルゴリズムとの関係
 9・4 混合正規分布のパラメータ推定
 9・5 混合正規分布のパラメータ推定実験
 〔1〕 一次元正規分布
 〔2〕 多次元正規分布
 〔3〕 クラスタリングについて

第10章 クラスタリング
 10・1 クラスタリングとは
 10・2 K-means法
 〔1〕 δkに関する最小化
 〔2〕 Piに関する最小化
 10・3 K-means法の実験
 〔1〕 使用データおよびベイズ識別関数による決定境界
 〔2〕 K-means法による決定境界
 10・4 K-means 法とEMアルゴリズム
 10・5 凸クラスタリング法
 10・6 凸クラスタリング法の実験
 10・7 クラスタ数の推定

第11章 ノンパラメトリックベイズモデル
 11・1 分割の確率モデル
 11・2 ホップの壺モデル
 11・3 中華料理店過程
 11・4 事前確率のための確率モデル
 11・5 ディリクレ分布から分割ルールヘ
 11・6 ディリクレ過程の数学
 〔1〕 ディリクレ過程の定義
 〔2〕 確率分布G(θ)の形状
 〔3〕 棒折り過程

第12章 ディリクレ過程混合モデルによるクラスタリング
 12・1 ディリクレ過程混合モデルとその学習法
 〔1〕 クラスタリング法1:所属クラスタとそのパラメータの決定
 〔2〕 クラスタリング法2:所属クラスタのみ決定
 12・2 ノンパラメトリックベイズモデルの実験
 〔1〕 基底分布の設定
 〔2〕 クラスタリング法1の実験
 〔3〕 クラスタリング法2の実験

第13章 共クラスタリング
 13・1 関係データに対する共クラスタリング
 13・2 無限関係モデル(IRM)
 13・3 IRMの学習

付録A 補足事項
 A・1 凸計画問題と最適化
 〔1〕 凸集合と凸関数
 〔2〕 正定値および半正定値
 〔3〕 へッセ行列
 〔4〕 最適化問題
 A・2 イェンゼンの不等式
 A・3 ベクトルと行列に関する基本公式
 A・4 KLダイバージェンス
 A・5 ギブスサンプリング
 A・6 ウィシャート分布と逆ウィシャート分布
 〔1〕 ウィシャート分布
 〔2〕 逆ウィシャート分布
 A・7 ベータ・ベルヌーイ過程
 ここでは、本書の演習問題の解答・解説をPDF形式(pranswer_151002.pdf;約1.5MB)で提供いたします。
『わかりやすいパターン認識(第2版)』の発行(2019年11月20日)に伴い、本書第1刷~第6刷内に掲載されている『わかりやすいパターン認識』への参照箇所が変更になります。
以下に変更箇所を示します。

本書第1刷~第6刷の該当箇所  わかりやすいパターン認識(第1版) わかりやすいパターン認識 (第2版)
 9p の上から7-8行目  49p, 79p  78p
 45p の下から2行目  77p  110p
 46p の上から4行目  78ページの式(5.20)  111ページの式(5.18)
 191p の脚注*1  34-35p  43-44p

たとえば、『続・
わかりやすいパターン認識』(第1刷~第6刷)の9ページ、上から7-8行目では、『わかりやすいパターン認識』(第1版)を参照しており、
    「…(49p,79p)でも述べた.」
となっています。同箇所を『わかりやすいパターン認識』(第2版)で参照する場合は、この部分を
    「…(78p)でも述べた.」
と読み替えてください。 

関連書籍