口絵
 翻訳にあたって・翻訳者紹介序論
 
 原書著者・Reviewer 紹介
 

 基本原理:Julia の環境 訳:高尾 克也
1.1Julia は独特である
1.2環境構築
1.2.1Julia のインストール(Linux)
1.2.2Julia のインストール(Mac)
1.2.3Julia のインストール(Windows)
1.2.4ソースコードの探索
1.3REPL の使用
1.4Jupyter Notebook の使用
1.5パッケージ管理
1.5.1Pkg.status() パッケージのステータス
1.5.2Pkg.add() パッケージの追加
1.5.3登録されていないパッケージの使用
 
(1)Pkg.update() パッケージの更新
1.5.4METADATA リポジトリ
1.5.5パッケージの開発
1.5.6新規パッケージの作成
1.6Julia を用いた並列計算
1.7Julia の重要な特徴:多重ディスパッチ
1.7.1多重ディスパッチにおけるメソッド
1.7.2曖昧さ:メソッド定義
1.8言語相互運用性の促進
1.8.1Julia での Python コードの呼び出し
1.9まとめ
 References
 

 データマンジング 訳:中村 和敬
2.1データマンジングとは何か?
2.1.1データマンジングのプロセス
2.2DataFrame とは何か?
2.2.1NA データ型とその重要性
2.2.2DataArray:シリーズ様のデータ構造
2.2.3DataFrame:表形式のテーブルデータ構造
2.2.4DataFrames.jl のインストールと使用法
(1)データのファイルへの書き込み
2.2.5DataFrame の操作
 
(1)DataFrame 結合操作の理解
2.2.6分割-適用-統合戦略
2.2.7データの再成形
2.2.8データ集合のソート
2.2.9formula:数式のための特別なデータ型
2.2.10データのプール
2.2.11Web スクレイピング
2.3まとめ
 References
 

 データ探索 訳:岩中 公紀
3.1サンプリング
3.1.1母集団
3.1.2重みベクトル
3.2列型の推定
3.3基本要約統計量
3.3.1配列または DataFrame の平均値の計算
3.4スカラー統計量
3.4.1標準偏差と分散
3.5変動の計量値
3.5.1z スコア
3.5.2エントロピー
 
3.5.3四分位数
3.5.4モード(最頻値)
3.5.5データ集合の要約
3.6散乱行列と共分散
3.7偏差の計算
3.8ランキング
3.9計数を行う関数(カウント関数)
3.10ヒストグラム
3.11相関分析
3.12まとめ
 References
 

 推測統計学に深く踏み込む 訳:菅野 剛
4.1インストール
4.2標本分布の理解
4.3正規分布の理解
4.3.1パラメータ推定
4.4Distributions.jl の型ヒエラルキー
4.4.1Sampleable の理解
(1)確率分布の表現
4.5単変量分布
4.5.1パラメータの抽出
4.5.2統計関数
4.5.3確率の評価
4.5.4単変量分布での標本抽出
4.5.5離散型単変量分布とその型の理解
(1)ベルヌーイ分布
(2)二項分布
4.5.6連続型分布
(1)コーシー分布
(2)カイ分布
(3)カイ二乗分布
4.6切断分布
4.6.1切断正規分布
4.7多変量分布の理解
4.7.1多項分布
 
4.7.2多変量正規分布
4.7.3ディリクレ分布
4.8行列変量分布の理解
4.8.1ウィッシャート分布
4.8.2逆ウィッシャート分布
4.9分布の当てはめ
4.9.1分布の選択
(1)対称な分布
(2)右に歪んだ分布
(3)左に歪んだ分布
4.9.2最尤推定
4.9.3十分統計量
4.9.4最大事後確率(MAP)推定
4.10信頼区間
4.10.1信頼区間の解釈
(1)使用法
4.11z スコアの理解
4.11.1z スコアの解釈
4.12p 値の有意性の理解
4.12.1片側検定と両側検定
4.13まとめ
 References
 

 ビジュアル化を使用したデータの理解 訳:太田 博三
5.1using と importall の違い
5.2Julia の Pyplot
5.2.1マルチメディア I/O
5.2.2インストール
5.2.3基本的プロット
(1)サインとコサインを用いたプロット
5.3unicode プロット
5.3.1インストール
5.3.2
(1)unicode の散布図の作成
(2)unicode の線プロットの作成
5.4Vega を用いたビジュアル化
5.4.1インストール
5.4.2
(1)散布図
5.4.3Vega のヒートマップ
5.5Gadfly を用いたデータのビジュアル化
5.5.1Gadfly のインストール
5.5.2plot 関数を使用した Gadfly によるインタラクティブな操作
(1)
5.5.3Gadfly を用いた DataFrame のプロット
5.5.4Gadfly を用いた関数と式のビジュアル化
5.5.5複数のレイヤを持つ画像の作成
5.5.6統計量を用いた様々な美的特性を持つプロットの作成
 
(1)step 関数
(2)Q-Q 関数
(3)Gadfly の ticks
5.5.7ジオメトリを用いた様々な美的特性を持つプロットの作成
(1)箱ひげ図
(2)ジオメトリを用いた密度プロットの作成
(3)ジオメトリを用いたヒストグラムの作成
(4)棒グラフ
(5)Histogram2d:二次元ヒストグラム
(6)平滑線プロット
(7)サブプロットなグリッド
(8)水平線および垂直線
(9)リボンのプロット
(10)バイオリンプロット
(11)ビースウォームプロット
5.5.8要素:スケール
(1)x_countinuous および y_continuous
(2)x_discrete および y_discrete
(3)連続的カラースケール
5.5.9要素:ガイド
5.5.10Gadfly の動作の理解
5.6まとめ
 References
 

 教師付き機械学習 訳:大前 奈月
6.1機械学習とは何か?
6.1.1機械学習の使用例
6.1.2機械学習と倫理
6.2機械学習:処理工程
6.2.1様々なタイプの機械学習
6.2.2バイアス-バリアンスのトレードオフとは何か?
6.2.3モデルにおける過学習とアンダーフィッティングの影響
6.3決定木の理解
6.3.1決定木の構築:分割統治
6.3.2決定木はどこに用いるべきか?
6.3.3決定木の長所
6.3.4決定木の短所
6.3.5決定木学習のアルゴリズム
(1)決定木アルゴリズムはどのように動作するのか?
(2)純度の理解とノードの純度測定
 
6.3.6
6.4ナイーブベイズを用いた教師付き学習
6.4.1ナイーブベイズの長所
6.4.2ナイーブベイズの短所
6.4.3ナイーブベイズ分類器の使用例
6.4.4ベイズ法はどのように動作するのか?
(1)事後確率
(2)クラス条件付き確率
(3)事前確率
(4)エビデンス
6.4.5bag-of-words モデル
(1)ナイーブベイズのスパムフィルターを用いる利点
(2)ナイーブベイズフィルターの短所
6.4.6ナイーブベイズの例
6.5まとめ
 References
 

 教師なし機械学習 訳:兼松 正人
7.1クラスタリングの理解
7.1.1クラスタ作成法
7.1.2クラスタリングの種類
(1)階層的クラスタリング
(2)重複、排他的、ファジィクラスタリング
(3)部分クラスタリングと完全クラスタリングの違い
7.2k-平均法クラスタリング
7.2.1k-平均法アルゴリズム
(1)k-平均法のアルゴリズム
(2)データ点の最近傍重心への関連付け
(3)初期重心の選択法
(4)k-平均法アルゴリズムの時空間的複雑性
7.2.2k-平均法に関するいくつかの問題点
(1)k-平均法における空クラスタ
(2)データ集合の外れ値
7.2.3様々な種類のクラスタ
 
(1)k-平均法:長所と短所
7.2.4二分割 k-平均法アルゴリズム
7.2.5階層的クラスタリングの詳細
7.2.6凝集型階層的クラスタリング
(1)近接度の計算法
(2)階層的クラスタリングの長所と短所
7.2.7DBSCAN テクニックの理解
(1)では、密度とは何か?
(2)中心に基づく密度を用いてデータ点を分類する方法
(3)DBSCAN アルゴリズム
(4)DBSCAN アルゴリズムの長所と短所
7.2.8クラスタの評価
7.2.9
7.3まとめ
 References
 

 アンサンブルモデルの作成 訳:石井 一夫
8.1アンサンブル学習法とは何か?
8.1.1アンサンブル学習法の理解
8.1.2アンサンブル学習器の作成法
(1)組み合わせ法
8.1.3訓練データ集合の部分抽出法
(1)バギング
 <バギングの動作時>
(2)ブースティング
 <ブースティング方法>
 <ブースティングアルゴリズム>
(3)AdaBoost:標本抽出によるブースティング
 <ブースティングの動作内容>
 <バイアスとバリアンスの分解>
8.1.4入力特徴量の取り扱い
 
8.1.5ランダム性の導入
8.2ランダムフォレスト
8.2.1ランダムフォレストの特徴量
8.2.2ランダムフォレストの動作
8.2.3out-of-bag(obb)エラーの推定
(1)ジニ重要度
(2)近接度(proximity)
8.3Julia での実装
8.3.1学習と予測
8.4アンサンブル学習が優れている理由
8.4.1アンサンブル学習の応用
8.5まとめ
 References
 

 時系列 訳:石井 一夫
9.1予測とは何か?
9.1.1意思決定プロセス
(1)システムのダイナミクス
9.2時系列とは何か?
9.2.1傾向、季節性、周期、残差
(1)標準線形回帰との違い
(2)分析の基本目的
(3)モデルの種類
(4)最初に考慮すべき重要な特徴
(5)系統的パターンとランダムノイズ
(6)時系列パターンの 2 つの一般的側面
9.2.2傾向分析
(1)平滑化
(2)関数の当てはめ
9.2.3季節性の分析
(1)自己相関
 <コレログラムの試験>
(2)偏自己相関
(3)連続依存性の除去
9.2.4ARIMA モデル
(1)共通プロセス
(2)ARIMA の方法論
 <同定>
 <推定と予測>
 < ARIMA モデルの定数>
 <同定フェーズ >
 
 <季節モデル>
(3)パラメータ推定
(4)モデルの評価
(5)中断された時系列 ARIMA
9.2.5指数平滑法
(1)単純指数平滑法
(2)適合欠如(誤差)の指標
9.3Julia での実装
9.3.1TimeArray の時系列型
9.3.2時間制約の使用
(1)when メソッド
(2)from メソッド
(3)to メソッド
(4)findwhen メソッド
(5)find メソッド
(6)数学、比較、論理演算子
(7)TimeSeries 型へのメソッド適用
 < lag メソッド>
 < lead メソッド>
 < percentage メソッド>
(8)TimeSeries 型での統合法
 < merge メソッド>
 < collapse メソッド>
 < map メソッド>
9.4まとめ
 References
 

 協調フィルタリングとレコメンデーションシステム 訳:石井 一夫
10.1レコメンデーションシステムとは何か?
10.1.1ユーティリティ行列
10.2相関ルールマイニング
10.2.1相関ルールの測定
10.2.2商品集合の作成法
10.2.3ルールの作成法
10.3内容ベースフィルタリング
10.3.1内容ベースフィルタリングに含まれる手順
10.3.2内容ベースフィルタリングの長所
 
10.3.3内容ベースフィルタリングの短所
10.4協調フィルタリング
10.4.1ベースライン予測法
10.4.2ユーザベース協調フィルタリング
10.4.3アイテムベース協調フィルタリング
(1)アイテムベース協調フィルタリングのアルゴリズム
10.5映画推薦システムの構築
10.6まとめ
 

 深層学習入門 訳:古徳 純一
11.1線形代数の再考
11.1.1スカラーの要点
11.1.2ベクトルの概要
11.1.3行列の重要性
11.1.4テンソルとは何か?
11.2確率論と情報理論
11.2.1なぜ確率なのか?
11.3機械学習と深層学習の違い
11.3.1深層学習とは何か?
11.3.2ディープフィードフォワードネットワーク
(1)ニューラルネットワーク内の隠れ層の理解
(2)ニューラルネットワークの動機付け
11.3.3正則化の理解
11.3.4深層学習モデルの最適化
(1)最適化の例
 
11.4Julia での実装
11.4.1ネットワークアーキテクチャ
11.4.2層の種類
11.4.3ニューロン(活性化関数)
11.4.4人工ニューラルネットワーク用正則化項の理解
11.4.5ノルム拘束
11.4.6ディープニューラルネットワークでのソルバーの使用
11.4.7コーヒーブレイク
11.4.8訓練済みの Imagenet CNN による画像分類
11.5まとめ
 References
 索引
 
 
Juliaデータサイエンス
〜Juliaを使って自分でゼロから作るデータサイエンス世界の探索〜
Copyright (C) 2017 NTS Inc. All right reserved.