【2023最新】「パターン認識」のおすすめ本!人気ランキング
- パターン認識と機械学習 上
- はじめてのパターン認識
- パターン認識と機械学習 下 (ベイズ理論による統計的予測)
- Rによるやさしい統計学
- データマイニング入門―Rで学ぶ最新データ解析―
- 実践Data Scienceシリーズ ゼロからはじめるデータサイエンス入門 R・Python一挙両得 (KS情報科学専門書)
- 改訂2版 データサイエンティスト養成読本 [プロになるためのデータ分析力が身につく! ] (Software Design plus)
- 機械学習のエッセンス -実装しながら学ぶPython,数学,アルゴリズム- (Machine Learning)
- 見て試してわかる機械学習アルゴリズムの仕組み 機械学習図鑑
- Rで学ぶ確率統計学一変量統計編
RとPython両方学べる。コスパ最強の一冊!「データサイエンスの準備」にページを割いたから、プログラミング経験ゼロで大丈夫 ◆RとPython両方学べる。コスパ最強の一冊!◆ ・コードが理解の試金石! ・「データサイエンスの準備」にページを割いているから、プログラミング経験ゼロで大丈夫! ・自分に合った言語を見つけたい、言語を乗り換えたいという方にもおすすめ! [サポートサイト] https://github.com/taroyabuki/fromzero [主な内容] 第1部 データサイエンスのための準備 1章 コンピュータとネットワーク 2章 データサイエンスのための環境 3章 RとPython 4章 統計入門 5章 前処理 第2部 機械学習 6章 機械学習の目的・データ・手法 7章 回帰1(単回帰) 8章 回帰2(重回帰) 9章 分類1(多値分類) 10章 分類2(2値分類) 11章 深層学習とAutoML 12章 時系列予測 13章 教師なし学習 付録A 環境構築 第1部 データサイエンスのための準備 1章 コンピュータとネットワーク 1.1 コンピュータの基本操作 1.2 ネットワークのしくみ 2章 データサイエンスのための環境 2.1 実行環境の選択 2.2 クラウド 2.3 Docker 2.4 ターミナルの使い方 2.5 RとPython 2.6 サンプルコードの利用 3章 RとPython 3.1 入門 3.2 関数 3.3 コレクション 3.4 データフレーム 3.5 1次元データの(非)類似度 3.6 Rのパッケージ,Pythonのモジュール 3.7 反復処理 3.8 その他 4章 統計入門 4.1 記述統計 4.2 データの可視化 4.3 乱数 4.4 統計的推測 5章 前処理 5.1 データの読み込み 5.2 データの変換 第2部 機械学習 6章 機械学習の目的・データ・手法 6.1 機械学習の目的(本書の場合) 6.2 機械学習のためのデータ 6.3 機械学習の手法 7章 回帰1(単回帰) 7.1 自動車の停止距離 7.2 データの確認 7.3 回帰分析 7.4 当てはまりの良さの指標 7.5 K最近傍法 7.6 検証 7.7 パラメータチューニング 8章 回帰2(重回帰) 8.1 ブドウの生育条件とワインの価格 8.2 重回帰分析 8.3 標準化 8.4 入力変数の数とモデルの良さ 8.5 変数選択 8.6 補足:正則化 8.7 ニューラルネットワーク 9章 分類1(多値分類) 9.1 アヤメのデータ 9.2 木による分類 9.3 正解率 9.4 複数の木を使う方法 9.5 欠損のあるデータでの学習 9.6 他の分類手法 10章 分類2(2値分類) 10.1 2値分類の性能指標 10.2 トレードオフ 10.3 2値分類の実践 10.4 ロジスティック回帰 11章 深層学習とAutoML 11.1 Kerasによる回帰 11.2 Kerasによる分類 11.3 MNIST:手書き数字の分類 11.4 AutoML 12章 時系列予測 12.1 日時と日時の列 12.2 時系列データの予測 13章 教師なし学習 13.1 主成分分析 13.2 クラスタ分析 付録A 環境構築
機械学習の原理を知るための、初めての入門書 本書は具体的なデータ分析の手法を説明する意図で書かれたものではありません。 実用的な目的ならscikit-learnやChainerなどの既存のフレームワークを使うべきですが、本書では機械学習のいくつかの有名なアルゴリズムを、自分でゼロから実装することを目標としています。こうすることにより、とかくブラックボックスになりがちな機械学習の仕組みを理解し、さらなる応用力と問題解決力を身につけることができるようになります。 また、処理系にはデファクトスタンダードであるPythonを使い、機械学習に必要な数学の知識もわかりやすく解説しています。 これから機械学習を始める学生さんや、いきなりプロジェクトに放り込まれていまいち理解できないままデータ分析の仕事をしているエンジニアの方にも最適です。 ●目次 はじめに 第01章 学習を始める前に 01 本書の目的 02 本書は何を含まないか 03 機械学習の初歩 04 実行環境の準備 第02章 Pythonの基本 01 プログラムの実行方法 02 基本的な文法 03 数値と文字列 04 複数行処理 05 制御構造 06 リスト、辞書、集合 07 関数定義 08 オブジェクト指向 09 モジュール 10 ファイル操作 11 例外処理 第03章 機械学習に必要な数学 01 基本事項の確認 02 線形代数 03 微積分 第04章 Pythonによる数値計算 01 数値計算の基本 02 NumPyの基本 03 配列の基本計算 04 疎行列 05 NumPy/SciPyによる線形代数 06 乱数 07 データの可視化 08 数理最適化 09 統計 第05章 機械学習アルゴリズム 01 準備 02 回帰 03 リッジ回帰 04 汎化と過学習 05 ラッソ回帰 06 ロジスティック回帰 07 サポートベクタマシン 08 k-Means法 09 主成分分析(PCA) INDEX はじめに 第01章 学習を始める前に 01 本書の目的 02 本書は何を含まないか 03 機械学習の初歩 04 実行環境の準備 第02章 Pythonの基本 01 プログラムの実行方法 02 基本的な文法 03 数値と文字列 04 複数行処理 05 制御構造 06 リスト、辞書、集合 07 関数定義 08 オブジェクト指向 09 モジュール 10 ファイル操作 11 例外処理 第03章 機械学習に必要な数学 01 基本事項の確認 02 線形代数 03 微積分 第04章 Pythonによる数値計算 01 数値計算の基本 02 NumPyの基本 03 配列の基本計算 04 疎行列 05 NumPy/SciPyによる線形代数 06 乱数 07 データの可視化 08 数理最適化 09 統計 第05章 機械学習アルゴリズム 01 準備 02 回帰 03 リッジ回帰 04 汎化と過学習 05 ラッソ回帰 06 ロジスティック回帰 07 サポートベクタマシン 08 k-Means法 09 主成分分析(PCA) INDEX
数理統計学とRの使い方を同時にマスター.既に刊行している「一変量統計編」の続刊.数理統計学とRをより実践的に活用できるよう工夫を凝らした書. 目 次: 第1章 分割表の検定(1) 1.1 統計で用いられるデータの種類 質的データ/量的データ 1.2 適合度検定 1.3 適合度検定をやってみる 1.4 カイ二乗統計量 1.5 尤度比検定 1.6 カイ二乗検定の数学的仕組み 1.7 章末問題 第2章 分割表の検定(2) 2.1 分割表の独立性の検定 2.2 2×2分割表 イエーツの補正/一般的な2×2分割表のカイ二乗値 2.3 母比率の差の検定 2標本の比率の検定の数学的原理 2.4 フィッシャーの正確検定 フィッシャーの正確検定の計算原理 2.5 独立性の検定が役に立つ場合 2.6 残差分析 2.7 章末問題 第3章 単回帰分析 3.1 散布図を近似する直線を求める 回帰直線の当てはまりのよさ/最小二乗法と最尤推定との関係 3.2 Rにおける決定係数 定数項(切片)を0とした場合 3.3 説明変数と被説明変数の取り方で回帰直線が変わること 3.4 外れ値の影響 3.5 章末問題 第4章 赤池情報量基準によるモデル選択 4.1 cars再考 4.2 AIC (赤池情報量基準) 4.3 AICについて カルバック=ライブラー情報量/正規分布に対する KL情報量 4.4 AICの導出の概略 4.5 KL情報量の性質についての補足 4.6 章末問題 第5章 線形モデル 5.1 線形モデルの定式化 5.2 最小二乗推定パラメータの性質 5.3 分散σ2の不偏推定量 5.4 母数の検定 5.5 ^α, ^β の分布を見る 5.6 章末問題 第6章 曲線の当てはめ 6.1 lmを用いた曲線当てはめがうまくいく場合 6.2 lmによる当てはめが使えない場合-非線形最小二乗法 6.3 nls関数に関するいくつかの注意 6.4 変数変換と直線回帰を組み合わせる方法 両対数グラフが直線的な場合/より複雑な変換を必要とする場合 6.5 章末問題 第7章 重回帰分析 (1) 7.1 ワインの価格を予想する 7.2 重回帰分析の原理 7.3 分析例 7.4 Excelファイルのデータを読み込む 7.5 章末問題 第8章 重回帰分析 (2) 8.1 多重共線性とは何か 8.2 多重共線性の数学的仕組み 8.3 多重共線性のシミュレーション例 8.4 正しく推定できる場合 8.5 交互作用 交互作用の例 8.6 ダミー変数 8.7 章末問題 第9章 一般化線形モデルの基礎 9.1 一般化線形モデルの定義 条件付き期待値/一般化線形モデルの概要 9.2 指数型分布族 指数型分布族の期待値と分散 9.3 フィッシャー情報行列 9.4 一般化線形モデルのパラメータ最尤推定 9.5 スコア関数の具体的な形 9.6 残差逸脱度 9.7 章末問題 第10章 二項選択モデル 10.1 二項選択モデルの考え方 10.2 ロジスティックモデルとプロビットモデル 10.3 ロジスティックおよびプロビット回帰分析の例 ロジットモデルとプロビットモデルの母数の推定値 10.4 より複雑なモデルへの適用 10.5 章末問題 第11章 計数データへの一般化線形モデルの適用 11.1 ポアソンモデル 11.2 ポアソンモデルの適用例 11.3 負の二項分布モデル 負の二項分布/warpbreaks 11.4 章末問題 第12章 多変量正規分布とその応用 12.1 多変量の正規分布 12.2 集中楕円 集中楕円を描いてみる 12.3 集中楕円と分散共分散行列の固有値の関係を確認する 相関係数の区間推定/二次元正規乱数の応用 12.4 相関のない二次元正規分布に対する t0の分布 相関係数の区間推定の数学的原理 12.5 章末問題 第13章 主成分分析 13.1 主成分分析の考え方 13.2 Rによる主成分分析 13.3 USArrestsを用いた分析例 13.4 章末問題 第14章 分散分析と多重比較入門 14.1 三群以上の比較問題 平均点に差があるか?/データの様子を調べる/Rによる一元配置分散分析 14.2 一元配置分散分析の数学的原理 全変動の分解公式/F分布 14.3 多重比較 ボンフェローニの方法/ホルムの方法/チューキーの方法 14.4 二元配置分散分析 14.5 章末問題
パターン認識と統計的学習の概要 特徴空間の構成と統計的性質 線形識別の方法 ナイーブベイズ法 線形部分空間による次元縮約 テンプレートマッチングとk最近傍識別法 決定木 集団学習法 非線形判別関数とニューラルネットワーク カーネル法〔ほか〕
Rを利用してパターン認識の様々な方法を解説 パターン認識とは、対象の特徴量から対象が属するカテゴリを推測する方法をさす。本書では、フリーソフトウェアであるRを利用して、パターン認識のさまざまな方法を解説している。手法としては、判別分析、ロジスティック回帰、k平均法、k近傍法、階層的クラスタリングといった古典的な方法から、サポートベクターマシンやブースティングといった比較的最近の話題まで取り上げている。各章は独立に読むことができるように構成され、簡単な例題をRを用いて実際に解析しながら読み進むことにより、パターン認識の基本的な考え方を身に着けることができる。また付録としてRの基本的な操作の説明と、アルゴリズムの実装例を紹介している。 第1章 判別能力の評価 第2章 k-平均法 第3章 階層的クラスタリング 第4章 混合正規分布モデル 第5章 判別分析 第6章 ロジスティック回帰 第7章 密度推定 第8章 k-近傍法 第9章 学習ベクトル量子化 第10章 決定木 第11章 サポートベクターマシン 第12章 正則化とパス追跡アルゴリズム 第13章 ミニマックス確率マシン 第14章 集団学習 第15章 2値判別から多値判別へ 付録A Rの使い方 付録B プログラムの実装例
自然言語処理編
機械学習とは,コンピュータに学習能力を持たせるための方法論を研究する学問の名称であり,もともとは人工知能分野の一部として研究されていた。その後,機械学習は統計学と密接な関わりを持つようになり,「統計的学習」として独自の発展の道を歩み始めた。そして,1990年代から現在に至るまでの計算機やインターネットの爆発的な普及と相まって統計的学習の技術は目覚ましい発展を遂げ,いまや情報検索,オンラインショッピングなど,われわれの日常生活とは切り離すことのできない情報通信技術の根幹を支える重要な要素技術の一つとなった。 本書は,このような発展著しい統計的学習分野の世界的に著名な教科書である“The Elements of Statistical Learning” の全訳である。回帰や分類などの教師あり学習の入門的な話題から,ニューラルネットワーク,サポートベクトルマシンなどのより洗練された学習器,ブースティングやアンサンブル学習などの学習手法の高度化技術,さらにはグラフィカルモデルや高次元学習問題に対するスパース学習法などの最新の話題までを幅広く網羅しており,計算機科学などの情報技術を専門とする大学生・大学院生,および,機械学習技術を基礎科学や産業に応用しようとしている大学院生・研究者・技術者にとって最適な教科書である。 第1章 序章 第2章 教師あり学習の概要 2.1 導入 2.2 変数の種類と用語 2.3 予測のための二つの簡単なアプローチ:最小2乗法と最近傍法 2.3.1 線形モデルと最小2乗法 2.3.2 最近傍法 2.3.3 最小2 乗法から最近傍法へ 2.4 統計的決定理論 2.5 高次元での局所的手法 2.6 統計モデル,教師あり学習,関数近似 2.6.1 同時分布Pr(X,Y) のための統計モデル 2.6.2 教師あり学習 2.6.3 関数近似 2.7 構造化回帰モデル 2.7.1 なぜ問題が困難なのか 2.8 制限付き推定法 2.8.1 粗度に対する罰則とベイズ法 2.8.2 カーネル法と局所回帰 2.8.3 基底関数と辞書による方法 2.9 モデル選択と,バイアスと分散のトレードオフ 第3章 回帰のための線形手法 3.1 導入 3.2 線形回帰モデルと最小2乗法 3.2.1 例:前立腺癌 3.2.2 ガウス=マルコフ定理 3.2.3 単純な単回帰から重回帰へ 3.2.4 複数の目的変数 3.3 変数選択 3.3.1 最良変数組み合わせ選択 3.3.2 前向き/後向き漸次的選択法 3.3.3 前向き段階的回帰 3.3.4 例:前立腺癌(続き) 3.4 縮小推定 3.4.1 リッジ回帰 3.4.2 lasso 3.4.3 考察:部分集合選択,リッジ回帰,lasso 3.4.4 最小角回帰 3.5 入力に対して線形変換を行う方法 3.5.1 主成分回帰 3.5.2 部分最小2乗法 3.6 考察:選択法と縮小法の比較 3.7 複数の目的変数の縮小推定と変数選択 3.8 lasso と関連する解追跡アルゴリズムに関する詳細 3.8.1 逐次前向き段階的回帰 3.8.2 区分的線形解追跡アルゴリズム 3.8.3 ダンツィク選択器 3.8.4 グループlasso 3.8.5 lasso の性質について 3.8.6 総当たり座標最適化 3.9 計算上考慮すべき事柄 第4章 分類のための線形手法 4.1 導入 4.2 指示行列の線形回帰 4.3 線形判別分析 4.3.1 正則化判別分析 4.3.2 線形判別分析の計算 4.3.3 階数低減型線形判別分析 4.4 ロジスティック回帰 4.4.1 ロジスティック回帰モデルの当てはめ 4.4.2 例:南アフリカの心臓疾患データ 4.4.3 2 次近似と2 次推測 4.4.4 L1 正則化付きロジスティック回帰 4.4.5 ロジスティック回帰か線形判別分析か 4.5 分離超平面 4.5.1 ローゼンブラットのパーセプトロン学習アルゴリズム 4.5.2 最適分離超平面 第5章 基底展開と正則化 5.1 導入 5.2 区分的多項式とスプライン 5.2.1 3次自然スプライン 5.2.2 例:南アフリカの心臓疾患データ 5.2.3 例:音素認識 5.3 フィルタリングと特徴抽出 5.4 平滑化スプライン 5.4.1 自由度と平滑化行列 5.5 平滑化パラメータの自動選択 5.5.1 固定自由度 5.5.2 バイアスと分散のトレードオフ 5.6 ノンパラメトリックロジスティック回帰 5.7 多次元スプライン 5.8 正則化と再生核ヒルベルト空間 5.8.1 カーネルにより生成される関数空間 5.8.2 再生核ヒルベルト空間の例 5.9 ウェーブレット平滑化 5.9.1 ウェーブレット基底とウェーブレット変換 5.9.2 適応的ウェーブレットフィルタリング 第6章 カーネル平滑化法 6.1 1次元カーネル平滑化手法 6.1.1 局所線形回帰 6.1.2 局所多項式回帰 6.2 カーネル幅の選択 6.3 R^p における局所回帰 6.4 R^p における構造化局所回帰モデル 6.4.1 構造化カーネル 6.4.2 構造化回帰関数 6.5 局所尤度およびその他の手法 6.6 カーネル密度推定と識別 6.6.1 カーネル密度推定 6.6.2 カーネル密度分類器 6.6.3 単純ベイズ分類器 6.7 動径基底関数とカーネル 6.8 密度推定と識別のための混合モデル 6.9 計算上考慮すべき事柄 第7章 モデルの評価と選択 7.1 導入 7.2 バイアス,分散,モデルの複雑度 7.3 バイアス-分散分解 7.3.1 例:バイアスと分散のトレードオフ 7.4 訓練誤差の最善度 7.5 訓練標本外誤差の推定 7.6 有効パラメータ数 7.7 ベイズ法とベイズ情報量規準 7.8 最小記述長 7.9 バプニック=チェルボネンキス次元 7.9.1 例(続き) 7.10 交差確認 7.10.1 K分割交差確認 7.10.2 交差確認を実行する正しい方法と間違った方法 7.10.3 交差確認は本当に有効か 7.11 ブートストラップ法 7.11.1 例(続き) 7.12 条件付きテスト誤差か期待テスト誤差か 第8章 モデル推論と平均化 8.1 導入 8.2 ブートストラップと最尤推定法 8.2.1 平滑化の例 8.2.2 最尤推定による推論 8.2.3 ブートストラップ法vs.最尤推定 8.3 ベイズ法 8.4 ブートストラップ法とベイズ推論の関係 8.5 EM アルゴリズム 8.5.1 要素が二つの混合モデル 8.5.2 一般の場合のEM アルゴリズム 8.5.3 最大化-最大化手法としてのEM 8.6 事後確率分布から標本抽出するためのMCMC 8.7 バギング 8.7.1 例:模擬データによる木 8.8 モデルの平均と統合 8.9 確率的探索:バンピング 第9章 加法的モデル,木,および関連手法 9.1 一般化加法的モデル 9.1.1 加法的モデルの当てはめ 9.1.2 例:加法的ロジスティック回帰 9.1.3 まとめ 9.2 木に基づく方法 9.2.1 背景 9.2.2 回帰木 9.2.3 分類木 9.2.4 他の問題 9.2.5 例:スパムメール(続き) 9.3 抑制的規則導出法 9.3.1 例:スパムメール(続き) 9.4 多変量適応的回帰スプライン 9.4.1 例:スパムメール(続き) 9.4.2 例:試行データ 9.4.3 その他の話題 9.5 階層的エキスパート混合モデル 9.6 欠損データ 9.7 計算上考慮すべき事柄 第10章 ブースティングと加法的木 10.1 ブースティング法 10.1.1 本章の概要 10.2 ブースティングの加法的モデル当てはめ 10.3 前向き段階的加法的モデリング 10.4 指数損失とアダブースト 10.5 なぜ指数損失関数か 10.6 損失関数とロバスト性 10.7 データマイニングの「万能」手法 10.8 例:スパムデータ 10.9 ブースティング木 10.10 勾配ブースティングによる数値最適化 10.10.1 最急降下法 10.10.2 勾配ブースティング 10.10.3 勾配ブースティングの実装 10.11 ブースティングのための木の適切な大きさ 10.12 正則化 10.12.1 縮小法 10.12.2 部分標本化 10.13 説明性 10.13.1 予測変数の相対的重要性 10.13.2 部分依存図 10.14 具体例 10.14.1 カリフォルニアの住宅 10.14.2 ニュージーランドの魚 10.14.3 個人属性情報データ 第11章 ニューラルネットワーク 11.1 導入 11.2 射影追跡回帰 11.3 ニューラルネットワーク 11.4 ニューラルネットワークの当てはめ 11.5 ニューラルネットワークを訓練するときのいくつかの問題 11.5.1 初期値 11.5.2 過学習 11.5.3 入力のスケーリング 11.5.4 隠れユニットと隠れ層の数 11.5.5 複数の極小解 11.6 例:試行データ 11.7 例:郵便番号データ 11.8 考察 11.9 ベイズニューラルネットワークとNIPS 2003 チャレンジ 11.9.1 ベイズ,ブースティング,バギング 11.9.2 性能比較 11.10 計算上考慮すべき事柄 第12章 サポートベクトルマシンと適応型判別 12.1 導入 12.2 サポートベクトル分類器 12.2.1 サポートベクトル分類器の計算 12.2.2 例:混合分布(続き) 12.3 サポートベクトルマシンとカーネル 12.3.1 分類のためのSVM の計算 12.3.2 罰則化手法としてのSVM 12.3.3 関数推定と再生核 12.3.4 SVM と次元の呪い 12.3.5 SVM 分類器のための解追跡アルゴリズム 12.3.6 回帰のためのSVM 12.3.7 回帰とカーネル 12.3.8 考察 12.4 線形判別分析の一般化 12.5 適応型判別分析 12.5.1 FDA 推定値の計算 12.6 罰則付き判別分析 12.7 混合判別分析 12.7.1 例:波形データ 12.8 計算上考慮すべき事柄 第13章 プロトタイプ法と最近傍探索 13.1 導入 13.2 プロトタイプ法 13.2.1 K 平均クラスタリング 13.2.2 学習ベクトル量子化 13.2.3 混合ガウス分布 13.3 k 最近傍分類器 13.3.1 例:比較研究 13.3.2 例:k 最近傍法と画像シーンの分類 13.3.3 不変計量と接距離 13.4 適応的最近傍法 13.4.1 例 13.4.2 最近傍探索のための大域的な次元削減 13.5 計算上考慮すべき事柄 第14章 教師なし学習 14.1 導入 14.2 相関ルール 14.2.1 バスケット分析 14.2.2 アプリオリアルゴリズム 14.2.3 例:バスケット分析 14.2.4 教師あり学習としての教師なし学習 14.2.5 一般化相関ルール 14.2.6 教師あり学習法の選び方 14.2.7 例:バスケット分析(続き) 14.3 クラスタ分析 14.3.1 類似度行列 14.3.2 属性に基づく非類似度 14.3.3 オブジェクト間非類似度 14.3.4 クラスタリングアルゴリズム 14.3.5 組み合わせアルゴリズム 14.3.6 K 平均クラスタリング 14.3.7 ソフトなK 平均クラスタリングとしての混合ガウス分布 14.3.8 例:ヒト腫瘍マイクロアレイデータ 14.3.9 ベクトル量子化 14.3.10 K メドイドクラスタリング 14.3.11 実用上の問題 14.3.12 階層的クラスタリング 14.4 自己組織化マップ 14.5 主成分分析と主曲線・主曲面 14.5.1 主成分分析 14.5.2 主曲線と主曲面 14.5.3 スペクトラルクラスタリング 14.5.4 カーネル主成分分析 14.5.5 疎主成分分析 14.6 非負値行列分解 14.6.1 原型分析 14.7 独立成分分析と探索的射影追跡 14.7.1 隠れ変数と因子分析 14.7.2 独立成分分析 14.7.3 探索的射影追跡法 14.7.4 独立成分分析への直接的アプローチ 14.8 多次元尺度構成法 14.9 非線形次元削減と局所多次元尺度構成法 14.10 Google ページランクのアルゴリズム 第15章 ランダムフォレスト 15.1 導入 15.2 ランダムフォレストの定義 15.3 ランダムフォレストの詳細 15.3.1 抜取標本 15.3.2 変数重要度 15.3.3 類似度図 15.3.4 ランダムフォレストと過学習 15.4 ランダムフォレストの解析 15.4.1 分散と無相関効果 15.4.2 バイアス 15.4.3 適応型最近傍法 第16章 アンサンブル学習 16.1 導入 16.2 ブースティングと正則化軌跡 16.2.1 罰則付き回帰 16.2.2 「まばらなところに賭けろ」の法則 16.2.3 正則化軌跡,過学習,マージン 16.3 アンサンブルの学習 16.3.1 良いアンサンブルを学習する 16.3.2 規則のアンサンブル 第17章 無向グラフィカルモデル 17.1 導入 17.2 マルコフグラフとその性質 17.3 連続変数に対する無向グラフィカルモデル 17.3.1 グラフ構造が既知の場合のパラメータ推定 17.3.2 グラフ構造の推定 17.4 離散変数に対する無向グラフィカルモデル 17.4.1 グラフ構造が既知の場合のパラメータ推定 17.4.2 隠れ頂点 17.4.3 グラフ構造の推定 17.4.4 制限ボルツマンマシン 第18章 高次元の問題:p ≫ N 18.1 p がN よりもかなり大きい場合 18.2 対角線形判別分析と最近傍縮小重心 18.3 2次正則化を用いた線形分類器 18.3.1 正則化判別分析 18.3.2 2次正則化を用いたロジスティック回帰 18.3.3 サポートベクトル分類器 18.3.4 特徴選択 18.3.5 p ≫ N の場合の計算上の工夫 18.4 L_1 正則化を用いた線形分類器 18.4.1 lasso のタンパク質の質量分析への応用 18.4.2 関数型データに対する融合型lasso 18.5 特徴量が使えない場合の分類 18.5.1 例:文字列カーネルとタンパク質分類 18.5.2 内積カーネルとペア間距離に基づく分類器とその他のモデル 18.5.3 例:概要の分類 18.6 高次元回帰:教師あり主成分分析 18.6.1 潜在変数モデルとの関係 18.6.2 部分最小2 乗法との関係 18.6.3 特徴選択のための出力変数の前処理 18.7 特徴量評価と多重検定問題 18.7.1 誤り発見率 18.7.2 非対称閾値とマイクロアレイ有意性分析法 18.7.3 誤り発見率のベイズ的解釈
ベストセラーの改訂版。最高最強のバイブルが大幅にパワーアップ! 深層学習のさまざまな課題とその対策についても詳しく解説。 ◆ベストセラーの改訂版。最高最強のバイブルが大幅にパワーアップ!!◆ ・トランスフォーマー、グラフニューラルネットワーク、生成モデルなどをはじめ、各手法を大幅に加筆。 ・深層学習のさまざまな課題と、その対策についても詳しく解説。 [本書まえがきより抜粋] ないもの(=理論)ねだりをしても仕方がありません.それでも皆が研究を進めるのは,そうすることに意義があるからです.なぜうまく働くのか,なぜそうすべきか,数学的な証明はなくても,正しい説明は必ずあるはずです.それを手にできれば,目の前の課題を解決するのに,また次に進むべき道を知るうえで役に立つでしょう. そこで本書では,それぞれの方法について,今の時点で最も納得できる説明をきちんと与えることにこだわりました.名前の通った方法であっても,理屈が成り立たない,あるいは役に立たない方法や考え方については,はっきりそう書きました.著者の主観といわれても仕方がない場合もあるかもしれませんが,そのほうが有益であると信じています. また,現在の深層学習の広がりを把握できるように,定番となった問題・方法に加えて,重要だと思われる問題については,必ずしもそれほど有名でない方法も含めてなるべく網羅するようにしました.その取捨選択には,深層学習が実践的技術であることを踏まえ,実用性を最も重視しました.そこには,この間に著者が企業の実務家たちと行ってきた共同研究での経験が反映されています. [主な内容] 第1章 はじめに 第2章 ネットワークの基本構造 第3章 確率的勾配降下法 第4章 誤差逆伝播法 第5章 畳み込みニューラルネットワーク 第6章 系列データのためのネットワーク 第7章 集合・グラフのためのネットワークと注意機構 第8章 推論の信頼性 第9章 説明と可視化 第10章 いろいろな学習方法 第11章 データが少ない場合の学習 第12章 生成モデル 1章 はじめに 1.1 研究の歴史 1.2 本書の構成 2章 ネットワークの基本構造 2.1 ユニットと活性化関数 2.2 順伝播型ネットワーク 2.3 学習の概要 2.4 問題の定式化:出力層と損失関数の設計 3章 確率的勾配降下法 3.1 確率的勾配降下法 3.2 汎化性能と過剰適合 3.3 正則化 3.4 学習率の選定と制御 3.5 SGDの改良 3.6 層出力の正規化 3.7 重みの初期化 3.8 その他 4章 誤差逆伝播法 4.1 勾配計算の煩わしさ 4.2 誤差逆伝播法 4.3 自動微分 4.4 勾配消失問題 4.5 残差接続 5章 畳み込みニューラルネットワーク 5.1 単純型細胞と複雑型細胞 5.2 畳み込み 5.3 畳み込み層 5.4 プーリング層 5.5 畳み込み層の出力の正規化 5.6 推論のためのCNNの構造 5.7 入出力間の幾何学的関係 5.8 畳み込み層の一般化 5.9 アップサンプリングと畳み込み 5.10 物体カテゴリ認識への適用例 6章 系列データのためのネットワーク 6.1 系列データ 6.2 リカレントニューラルネットワーク 6.3 ゲート機構 6.4 自己回帰モデル 6.5 1次元畳み込みネットワーク 6.6 逆伝播の計算 7章 集合・グラフのためのネットワークと注意機構 7.1 集合データを扱うネットワーク 7.2 注意機構 7.3 トランスフォーマー 7.4 グラフニューラルネットワーク 8章 推論の信頼性 8.1 推論の不確かさ 8.2 不確かさの数理モデル 8.3 不確かさの予測 8.4 分布外入力の検出 8.5 敵対的事例 8.6 品質保証の試み 9章 説明と可視化 9.1 はじめに 9.2 入力による出力の微分 9.3 入力の遮蔽・挿入 9.4 中間層出力の表示 9.5 寄与度の分解 9.6 寄与度の逆伝播 9.7 可視化手法の評価 9.8 影響関数 9.9 学習内容の可視化 10章 いろいろな学習方法 10.1 距離計量学習 10.2 事例集合(マルチインスタンス)学習 10.3 クラスラベルの誤り 10.4 クラス間不均衡 10.5 継続・追加学習 10.6 知識蒸留 10.7 枝刈り 10.8 計算の量子化 10.9 ネットワーク構造探索 11章 データが少ない場合の学習 11.1 はじめに 11.2 データ拡張 11.3 転移学習 11.4 半教師あり学習 11.5 自己教師学習 11.6 マルチタスク学習 11.7 ドメイン適応・汎化 11.8 少数事例学習 11.9 能動学習 12章 生成モデル 12.1 データの生成モデル 12.2 自己符号化器 12.3 変分自己符号化器 12.4 敵対的生成ネットワーク 12.5 正規化フロー 12.6 ボルツマンマシン
仕事で機械学習に携わる際に知っておきたい事を伝えるというコンセプトで、機械学習を使った実務に初めて関わる読者のための1冊。 大好評の機械学習実務者向け書籍が最新情報にアップデート! 2018年に発行された初版から3年ぶりの改訂となる本書は、「仕事で機械学習に携わる際に知っておきたい事」を伝えるというコンセプトはそのままに、3年の間に登場した新たな考え方、手法など最新の情報を踏まえて内容を全面的に見直しました。これまで同様、機械学習を使った実務に初めて関わる読者にとって頼りになる1冊となるでしょう。「バンディットアルゴリズム」を紹介する新章など、追加原稿も多数。 仕事で機械学習に携わる際に知っておきたい事を伝えるというコンセプトで、機械学習を使った実務に初めて関わる読者のための1冊。
実用に供されることの多い回帰分析の方法を,豊富な実例と厳密な数学的証明をおりまぜて解説。 統計手法のうち,最も実用に供されることの多い回帰分析の方法を,豊富な実例と厳密な数学的証明をおりまぜて解説。〔内容〕回帰分析への誘い/ベクトルと行列/多変量正規分布/線形回帰モデル/仮説検定・区間推定・予測/説明変数の問題 1. 回帰分析への誘い 1.1 2変数回帰 1.2 最小2乗推定 1.3 本書のプラン 2. ベクトルと行列 2.1 ベクトルとベクトル空間 2.2 行列と行列式 2.3 2次形式の標準化 2.4 不等式と最大最小問題 2.5 ベクトルの微分とベクトル確率変数 3. 多変量正規分布 3.1 多変量正規分布 3.2 2次形式の分布 4. 線形回帰モデル 4.1 最小2乗推定 4.2 最小2乗推定量の性質 4.3 誤差分散σ2 の推定 4.4 回帰モデルの正準化 4.5 推定量の分布 5. 仮説検定,区間推定,予測 5.1 線形制約の検定 5.2 信頼領域の構成 5.3 区間予測 6. 標準的諸仮定からのズレ 6.1 誤差項の相関と分散不均一 6.2 仮説検定 6.3 正規分布からのズレ 6.4 残差の分析 7. 説明変数の問題 7.1 説明変数選択のための諸基準 7.2 多重共線性 7.3 変数変換と非線形性 8. 文献解題 9. 付 表 10. 索 引
個人の地域密着型アウトドアショップがデジタルマーケティングで業績を飛躍的にアップさせていくストーリーに乗せて、DMの基礎を… 個人の地域密着型アウトドアショップがデジタルマーケティングで業績を飛躍的にアップさせていくストーリーに乗せて、DMの基礎を学ぶ
ビジネスで利用されるデータの多くは、その施策の意思決定を行う人物や組織の目的にそった活動の延長上で作られています。具体的には、DM送付などの広告施策であれば、担当者はユーザの反応率を上げるために、反応しやすいであろうユーザに対してのみDMを発送します。ここで発生したデータでDMの効果を計る場合、単純にDMを受け取っているか否かで結果を比較することは、DMの効果以外にも意図的にリストされたユーザの興味や関心を含んでしまうことになります。 データが生まれるプロセスに人の意思が関わる場合、単純な集計では判断ミスとなる可能性があります。わずかな計算の狂いでも後々のビジネスにおいて大きな影響を及ぼすことになるため、バイアスのない状態で効果検証できることが望まれるのです。 本書では「単純に比較すると間違った結論に導くデータ」から、より正しい結果を導くための分析手法と考え方を提供します。計量経済学における効果とは何か? を提示し、RCT(ランダム化比較試験)がいかに理想的な方法かを説明し、RCTができない場合でも因果推論を用いてRCTの再現が可能だということを説明していきます。 嘘っぱちの効果とそれを見抜けないデータ分析 思い込みによる意思決定の蔓延 「バイアス」によって見誤る効果 因果推論と計量経済学のビジネス適用 本書の構成 想定する読者 サンプルコードとサポート 1 章 セレクションバイアスとRCT 1.1 セレクションバイアスとは 1.1.1 効果 1.1.2 潜在的な購買量の差 1.1.3 誤った施策の検証 1.2 RCT(Randomized Controlled Trial) 1.2.1 本当の「効果」と理想的な検証方法 1.2.2 RCTによる検証 1.3 効果を測る理想的な方法 1.3.1 母集団と推定 1.3.2 ポテンシャルアウトカムフレームワーク 1.3.3 ポテンシャルアウトカムフレームワークによる介入効果の推定 1.3.4 平均的な効果 1.3.5 平均的な効果の比較とセレクションバイアス 1.3.6 介入の決まり方がセレクションバイアスの有無を決める 1.3.7 RCTを行った疑似データでの比較 1.3.8 有意差検定の概要と限界 1.4 R によるメールマーケティングの効果の検証 1.4.1 RCTを行ったデータの準備 1.4.2 RCTデータの集計と有意差検定 1.4.3 バイアスのあるデータによる効果の検証 1.5 ビジネスにおける因果推論の必要性 1.5.1 RCTの実行にはコストがかかる 1.5.2 セレクションバイアスが起きる理由 1.5.3 ビジネスにおけるバイアスのループ 参考文献 2 章 介入効果を測るための回帰分析 2.1 回帰分析の導入 2.1.1 単回帰分析 2.1.2 効果分析のための回帰分析 2.1.3 回帰分析による効果の推定 2.1.4 回帰分析における有意差検定 2.1.5 Rによるメールマーケティングデータの分析(回帰編) 2.1.6 効果検証のための回帰分析で行わないこと 2.2 回帰分析におけるバイアス 2.2.1 共変量の追加による効果への作用 2.2.2 脱落変数バイアス(OVB) 2.2.3 R によるOVBの確認 2.2.4 OVB が与えてくれる情報 2.2.5 Conditional Independence Assumption 2.2.6 変数の選び方とモデルの評価 2.2.7 Post treatment bias 2.3 回帰分析を利用した探索的な効果検証 2.3.1 PACESによる学費の割引券配布の概要 2.3.2 R による回帰分析の実行 2.3.3 私立学校への通学と割引券の利用についての分析 2.3.4 割引券は留年を減らしているか? 2.3.5 性別による効果差 2.3.6 分析のまとめ 2.4 回帰分析に関するさまざまな議論 2.4.1 予測と効果推定 2.4.2 制限被説明変数(Limited Dependent Variable) 2.4.3 対数を利用した回帰分析 2.4.4 多重共線性 2.4.5 パラメータの計算 参考文献 3 章 傾向スコアを用いた分析 3.1 傾向スコアのしくみ 3.1.1 傾向スコアのアイデア 3.1.2 傾向スコアの推定 3.2 傾向スコアを利用した効果の推定 3.2.1 傾向スコアマッチング 3.2.2 逆確率重み付き推定 3.2.3 より良い傾向スコアとは 3.2.4 傾向スコアと回帰分析の比較 3.2.5 マッチングとIPW の差 3.3 機械学習を利用したメールマーケティング施策の効果推定 3.3.1 データの作成 3.3.2 RCTと平均の比較 3.3.3 傾向スコアを用いた分析 3.4 LaLonde データセットの分析 3.4.1 NSW の概要とデータの準備 3.4.2 RCTによる結果の確認 3.4.3 回帰分析による効果の推定 3.4.4 傾向スコアによる効果の推定 参考文献 4 章 差分の差分法(DID)とCausalImpact 4.1 DID(差分の差分法) 4.1.1 DID が必要になる状況 4.1.2 集計による効果検証とその欠点 4.1.3 DID のアイデアを用いた集計分析 4.1.4 回帰分析を利用したDID 4.1.5 DID における標準誤差 4.1.6 平行トレンド仮定(Common Trend Assumption)と共変量 4.2 CausalImpact 4.2.1 DID の欠点 4.2.2 CausalImpactのアイデア 4.3 大規模禁煙キャンペーンがもたらすタバコの売上への影響 4.3.1 データの準備 4.3.2 DID の実装 4.3.3 CausalImpactの実装 4.3.4 分析結果の比較 4.4 不完全な実験を補佐する 4.4.1 DID のアイデアを用いた分析が使えないとき 参考文献 5 章 回帰不連続デザイン(RDD) 5.1 ルールが生み出すセレクションバイアス 5.1.1 回帰不連続デザインのしくみ 5.1.2 集計によるセレクションバイアスの確認 5.2 回帰不連続デザイン(RDD) 5.2.1 線形回帰による分析 5.2.2 非線形回帰による分析 5.2.3 メールによる来訪率の増加効果を分析する 5.3 nonparametric RDD 5.3.1 nonparametric RDD のしくみ 5.3.2 R によるnonparametric RDD の実装 5.4 回帰不連続デザインの仮定 5.4.1 Continuity of Conditional Regression Functions 5.4.2 non-manipulation 5.4.3 LATEの妥当性 5.5 ビジネスにおける介入割り当てルール 5.5.1 ユーザセグメントへの介入 5.5.2 Uber による価格変更の分析 参考文献 付録 RとRStudioの基礎 A.1 R およびRStudio のダウンロード Rのインストール Rの起動と終了 RStudio のインストール A.2 RStudio の基本 パネルの役割 プロジェクトと作業ディレクトリ A.3 R プログラミングの初歩 オブジェクト ベクトル 関数 データフレーム 行列 パッケージの利用 ■ 作業(ワーク)スペース 因果推論をビジネスにするために 因果推論を活用できる環境とは より正しい意思決定をするために 高次元の共変量を扱うためのR パッケージ より強い因果効果を得るために 参考文献 索引
マルコフ連鎖モンテカルロ法(MCMC)が驚くほど真面目によくわかる!理解を助けるためのR言語のコードや章末の練習問題が充実! ベイズ統計を支えるMCMCをやさしく丁寧に! マルコフ連鎖モンテカルロ法(MCMC)が驚くほど真面目によくわかる! 理解を助けるためのR言語のコードや章末の練習問題が充実! モンテカルロ法の感覚を養ってもらうために「乱数の生成」を第2章で解説した。また,入門向けを標榜しながらも,後半の第4章以降では,和書で情報を得ることが難しい「エルゴード性」について踏み込んだ。 【主な内容】 1章 序論 2章 乱数 3章 積分法 4章 マルコフ連鎖 5章 ギフスサンプリング 6章 メトロポリス・ヘイスティングス法 【「巻頭言」より抜粋】 文部科学省は「数理及びデータサイエンスに係る教育強化拠点」6 大学(北海道大学、東京大学、滋賀大学、京都大学、大阪大学、九州大学)を選定し、拠点校は「数理・データサイエンス教育強化拠点コンソーシアム」を設立して、全国の大学に向けたデータサイエンス教育の指針や教育コンテンツの作成をおこなっています。 本シリーズは、コンソーシアムのカリキュラム分科会が作成したデータサイエンスに関するスキルセットに準拠した標準的な教科書シリーズを目指して編集されました。またコンソーシアムの教材分科会委員の先生方には各巻の原稿を読んでいただき、貴重なコメントをいただきました。 データサイエンスは、従来からの統計学とデータサイエンスに必要な情報学の二つの分野を基礎としますが、データサイエンスの教育のためには、データという共通点からこれらの二つの分野を融合的に扱うことが必要です。この点で本シリーズは、これまでの統計学やコンピュータ科学の個々の教科書とは性格を異にしており、ビッグデータの時代にふさわしい内容を提供します。本シリーズが全国の大学で活用されることを期待いたします。 ――編集委員長 竹村彰通(滋賀大学データサイエンス学部学部長、教授) 【推薦の言葉】 データサイエンスの教育の場や実践の場で利用されることを強く意識して、動機付け、題材選び、説明の仕方、例題選びが工夫されており、従来の教科書とは異なりデータサイエンス向けの入門書となっている。 ――北川源四郎(東京大学特任教授、元統計数理研究所所長) 国を挙げて先端IT人材の育成を迅速に進める必要があり、本シリーズはまさにこの目的に合致しています。本シリーズが、初学者にとって信頼できる案内人となることを期待します。 ――杉山将(理化学研究所革新知能統合研究センターセンター長、東京大学教授) 第1章 序論 1.1 確率と条件つき確率 1.1.1 分割表 1.1.2 スパムメールフィルタ 1.1.3 ベイズの公式の一般化 1.1.4 R 言語について 1.2 個人確率とベイズ統計学 1.2.1 事後分布 1.2.2 正規モデルの事後分布 1.2.3 ポアソン・ガンマモデルの事後分布 1.2.4 多変数の事後分布 1.3 ベイズ統計学の基本 1.3.1 信用集合 1.3.2 事後予測 1.3.3 客観的ベイズ統計学 1.4 モデル事後確率 1.4.1 モデル事後確率 1.4.2 ベイズ因子 1.5 線形回帰モデル 第2章 乱数 2.1 一様乱数 2.2 逆変換法 2.2.1 連続な確率分布の生成 2.2.2 離散の確率分布の生成 2.2.3 近似累積分布関数による乱数生成 2.3 変数変換法 2.3.1 ガンマ,ベータ分布の生成 2.3.2 正規分布と関連した分布の生成 2.4 棄却法 第3章 積分法 3.1 数値積分法 3.2 基本的モンテカルロ積分法 3.2.1 基本的モンテカルロ積分法 3.2.2 誤差評価 3.3 自己正規化モンテカルロ積分法 3.4 重点サンプリング法 3.4.1 重点サンプリング法の構成 3.4.2 重点サンプリング法の最適性 第4章 マルコフ連鎖 4.1 ライト・フィッシャーモデル 4.2 自己回帰過程 4.3 マルコフ連鎖 4.3.1 マルコフカーネル 4.3.2 マルコフ連鎖の同時分布 4.3.3 マルコフカーネルの作用 4.4 不変性と特異性 4.4.1 不変性 4.4.2 特異性 4.5 エルゴード性とマルコフ連鎖モンテカルロ法 第5章 ギブスサンプリング 5.1 有限混合モデル 5.2 プロビット回帰モデル 5.3 二変量ギブスサンプリング 5.3.1 二変量ギブスサンプリング 5.3.2 二変量ギブスサンプリングの性質 5.3.3 ベイズ統計学における二変量ギブスサンプリング 5.4 多変量ギブスサンプリング 第6章 メトロポリス・ヘイスティングス法 6.1 メトロポリス・ヘイスティングス法 6.2 独立型メトロポリス・ヘイスティングス法 6.3 ランダムウォーク型メトロポリス法 6.3.1 ランダムウォーク型メトロポリス法の性質 6.3.2 調整パラメータの選択 6.4 ロジスティック回帰モデル 6.5 ハミルトニアン・モンテカルロ法
Now in its third edition, this classic book is widely considered the leading text on Bayesian methods, lauded for its accessible, practical approach to analyzing data and solving research problems. Bayesian Data Analysis, Third Edition continues to take an applied approach to analysis using up-to-date Bayesian methods. The authors-all leaders in the statistics community-introduce basic concepts from a data-analytic perspective before presenting advanced methods. Throughout the text, numerous worked examples drawn from real applications and research emphasize the use of Bayesian inference in practice. New to the Third Edition Four new chapters on nonparametric modeling Coverage of weakly informative priors and boundary-avoiding priors Updated discussion of cross-validation and predictive information criteria Improved convergence monitoring and effective sample size calculations for iterative simulation Presentations of Hamiltonian Monte Carlo, variational Bayes, and expectation propagation New and revised software code The book can be used in three different ways. For undergraduate students, it introduces Bayesian inference starting from first principles. For graduate students, the text presents effective current approaches to Bayesian modeling and computation in statistics and related fields. For researchers, it provides an assortment of Bayesian methods in applied statistics. Additional materials, including data sets used in the examples, solutions to selected exercises, and software instructions, are available on the book's web page. FUNDAMENTALS OF BAYESIAN INFERENCE Probability and Inference Single-Parameter Models Introduction to Multiparameter Models Asymptotics and Connections to Non-Bayesian Approaches Hierarchical Models FUNDAMENTALS OF BAYESIAN DATA ANALYSIS Model Checking Evaluating, Comparing, and Expanding Models Modeling Accounting for Data Collection Decision Analysis ADVANCED COMPUTATION Introduction to Bayesian Computation Basics of Markov Chain Simulation Computationally Efficient Markov Chain Simulation Modal and Distributional Approximations REGRESSION MODELS Introduction to Regression Models Hierarchical Linear Models Generalized Linear Models Models for Robust Inference Models for Missing Data NONLINEAR AND NONPARAMETRIC MODELS Parametric Nonlinear Models Basic Function Models Gaussian Process Models Finite Mixture Models Dirichlet Process Models APPENDICES A: Standard Probability Distributions B: Outline of Proofs of Asymptotic Theorems C: Computation in R and Stan Bibliographic Notes and Exercises appear at the end of each chapter.
ネットワーク分析とは,さまざまな対象を点と線からなるネットワークとして表現し,その構造的な特徴を探る研究方法である。本書は,データ分析用のフリーソフトであるRを使って,ネットワーク分析の理論と実際の分析法を学ぶことを目的としている。 第2版では,近年応用の進んでいる統計的なネットワークの分析手法に関する説明を加えた。また,社会ネットワークの調査分析法およびソーシャル・メディアのネットワーク分析に関する章を新たに設けた。複雑ネットワークおよびネットワーク描画に関する章も大幅に改訂している。これらの改訂により,ネットワーク分析の応用的なニーズにも対応できるようになった。 第1章 ネットワークデータの入力 1.1 ネットワークとグラフ 1.2 隣接行列 1.3 辺リスト 1.4 Rへのファイルの読み込み 1.5 多重グラフ 1.6 重み付きグラフ 1.7 二部グラフ 1.8 snaの場合 1.9 igraphの場合 第2章 最短距離 2.1 最短経路と最短距離 2.2 幅優先探索 2.3 ダイクストラ法 2.4 ワーシャル・フロイド法 2.5 到達可能性行列 2.6 snaの場合 2.7 igraphの場合 第3章 ネットワーク構造の諸指標 3.1 密度 3.2 推移性 3.3 相互性 3.4 階層的構造 3.5 snaの場合 3.6 igraphの場合 3.7 分析例 第4章 中心性 4.1 点中心性 4.2 離心中心性・近接中心性 4.3 次数中心性 4.4 固有ベクトル中心性 4.5 PageRank 4.6 ボナチッチのパワー中心性 4.7 媒介中心性 4.8 情報中心性 4.9 snaの場合 4.10 igraphの場合 4.11 集中度 4.12 分析例:中心性指標の比較 4.13 二部グラフの中心性 4.14 分析例:アフィリエーション・ネットワークの中心性 第5章 ネットワーク構造の分析 5.1 サブグループ 5.1.1 連結成分 5.1.2 クリーク 5.1.3 クリーク概念の拡張 5.1.4 コミュニティ 5.1.5 リンクコミュニティ 5.2 構造同値性 5.2.1 ユークリッド距離 5.2.2 相関係数 5.2.3 ブロックモデリング 5.3 ストラクチュラル・ホール 5.4 モチーフ 5.5 トライアド・センサス 第6章 ネットワークの類似性 6.1 関係構造の類似性 6.1.1 ハミング距離 6.1.2 相関係数 6.2 中心化の類似性 6.3 コア/周辺構造の抽出 第7章 統計的ネットワーク分析 7.1 ネットワーク分析における統計的仮説検定 7.2 QAP検定 7.3 コア/周辺構造のQAP検定 7.4 CUG検定 7.5 指数ランダムグラフモデル 7.5.1 p1モデル 7.5.2 p*モデル 7.5.3 曲指数型分布族モデル 7.5.4 statnetの場合 7.6 Siena 7.6.1 RSienaの場合 第8章 社会ネットワークの調査分析法 8.1 パーソナル・ネットワーク 8.1.1 ネーム・ジェネレータ 8.1.2 ネーム・ジェネレータの分析例 8.2 認知ネットワークからのホール・ネットワークの推定 8.2.1 認知ネットワーク 8.2.2 ネットワークのベイズ推定 8.2.3 snaによるネットワークのベイズ推定 第9章 ソーシャル・メディアのネットワーク分析 9.1 ソーシャル・メディア・ネットワーク 9.2 Twitterからのネットワーク抽出 9.2.1 twitteRの場合 9.2.2 rtweet の場合 9.3 テキストマイニングによるネットワーク抽出 9.4 テキスト中の人間関係の抽出 第10章 複雑ネットワークのシミュレーション 10.1 複雑ネットワーク 10.2 ランダムグラフ 10.3 スモールワールド・ネットワーク 10.4 スケールフリー・ネットワーク 10.5 友人数のパラドクス 10.6 次数相関 第11章 ネットワーク描画 11.1 snaの場合 11.2 igraphの場合 11.3 ggplot2の利用 11.3.1 ggnetwork 11.3.2 GGally 11.3.3 ggraph 11.4 JavaScriptの利用 11.4.1 networkD3 11.4.2 visNetwork 11.5 その他のネットワーク描画手法 11.5.1 コードダイアグラム 11.5.2 アークダイアグラム 11.5.3 ハイブプロット 11.6 グラフィックスの保存 付録A Rの基礎知識 A.1 Rのインストール A.2 パッケージのインストール A.3 パッケージのマニュアル A.4 ディレクトリの確認と変更 A.5 Rの基本操作 A.6 Rの終了 付録B 数学の基礎知識 B.1 四則計算など B.2 ベクトル B.3 行列 B.4 行列の固有値と固有ベクトル B.5 記述統計学 参考文献 索 引
多くの読者から親しまれてきた定評あるテキストの新版。練習問題を増やし解答をつけ学習の便宜を図った。統計検定1級対策にも好適。 多くの読者から親しまれてきた定評あるテキストの新装改訂版. 数理統計学の基礎的な概念,標準的な理論を数学的説明だけでなく言葉で丁寧に解説する.さらに,広範にわたる話題を一貫した視点でとらえることにより統一的・俯瞰的な理解へ導く. このたびの改訂では読者の学習の便宜をはかり,新たに40題の練習問題を追加するとともに,問題解答例をサポートサイトにて公開する. 統計検定®1級試験に向けた学習にも好適. 【統計検定®推薦図書】 ※ 本書は,1991年11月に創文社より刊行されたものを新たに組み直し増補改訂した新版です. ※ 統計検定®は一般財団法人統計質保証推進協会の登録商標です. 多くの読者から親しまれてきた定評あるテキストの新版。このたびの改訂では,練習問題を増やし解答をつけ,読者の学習の便宜を図った。統計検定1級試験に向けた学習にも好適。 第1章 前置きと準備 第2章 確率と1次元の確率変数 第3章 多次元の確率変数 第4章 統計量と標本分布 第5章 統計的決定理論の枠組み 第6章 十分統計量 第7章 推定論 第8章 検定論 第9章 区間推定 第10章 正規分布,2項分布に関する推測 第11章 線形モデル 第12章 ノンパラメトリック法 第13章 漸近理論 第14章 ベイズ法 補論 参考文献