【2024年】「強化学習」のおすすめ 本 104選!人気ランキング
- ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装
- ゼロから作るDeep Learning ❷ ―自然言語処理編
- Pythonによる深層強化学習入門 ChainerとOpenAI Gymではじめる強化学習
- 現場で使える!Python深層強化学習入門 強化学習と深層学習による探索と制御
- 強化学習
- Kaggleで勝つデータ分析の技術
- 直感 Deep Learning ―Python×Kerasでアイデアを形にするレシピ
- 機械学習スタートアップシリーズ Pythonで学ぶ強化学習 [改訂第2版] 入門から実践まで (KS情報科学専門書)
- OpenAI Gym / Baselines 深層学習・強化学習 人工知能プログラミング 実践入門
- 強化学習 (機械学習プロフェッショナルシリーズ)
自然言語処理編
アルファ碁ゼロで利用されている深層学習・強化学習の仕組みがわかる! 【本書の概要】 本書は学術論文(NatureやGoogleのサイト)などで提供されている難解なアルファ碁およびアルファ碁ゼロの仕組みについて、 著者がとりまとめ、実際の囲碁の画面を見ながら、 アルファ碁およびアルファ碁ゼロで利用されている深層学習や強化学習の仕組みについてわかりやすく解説した書籍です。特にデュアルネットワークはまったく新しい深層学習の手法で国内外の技術者の関心を集めています。 本書を読むことで、最新AIの深層学習、強化学習の仕組みを知ることができ、 自身の研究開発の参考にできます。また著者の開発したDeltaGoを元に実際に囲碁AIを体験できます。 【増補改訂のポイント】 Chapter1から5の部分は、よりわかりやすく内容を加筆修正しています。 またChapter6はアルファ碁ゼロに対応しています。 改訂にあたり、色数も2Cに変更。よりわかりやすいビジュアルになっています。 【対象読者】 人工知能関連の開発者、研究者 【著者プロフィール】 大槻知史(おおつき・ともし) 2001年東京大学工学部計数工学科卒業。2003年同大学院新領域創成科学研究科複雑理工学専攻修士課程修了。 以降、機械学習・最適化などの研究開発に取り組む。ゲームAIプログラマとしては、2001年より、囲碁・将棋プログラムの開発に従事。 著者の開発した将棋プログラム「大槻将棋」は、2009年世界コンピュータ将棋選手権にて第2位。博士(情報理工学)。 【監修者プロフィール】 三宅陽一郎(みやけ・よういちろう) デジタルゲームの人工知能の開発者。京都大学で数学を専攻、大阪大学大学院物理学修士課程、 東京大学大学院工学系研究科博士課程を経て、人工知能研究の道へ。 ゲームAI開発者としてデジタルゲームにおける人工知能技術の発展に従事。 国際ゲーム開発者協会日本ゲームAI専門部会設立(チェア)、日本デジタルゲーム学会理事、芸術科学会理事、人工知能学会編集委員。 共著『デジタルゲームの教科書』『デジタルゲームの技術』『絵でわかる人工知能』(SBクリエイティブ)、 著書『人工知能のための哲学塾』(BNN新社)、『人工知能の作り方』(技術評論社)、 『ゲーム、人工知能、環世界』(現代思想、青土社、2015年12月)、 最新の論文は『デジタルゲームにおける人工知能技術の応用の現在』(人工知能学会誌 2015年、学会Webにて公開)。 【目次】はじめに 監修者のことば 本書の対象読者とダウンロードファイルについて 囲碁AIの歴史 対局レポート:アルファ碁と世界ナンバーワン棋士・柯傑九段の最終決戦 Chapter1 アルファ碁の登場 01 ゲームAIの歴史と進歩 02 天才デミス・ハサビスの登場 03 アルファ碁の活躍 04 囲碁AIの基礎 05 まとめ Chapter2 ディープラーニング~囲碁AIは瞬時にひらめく~ 本章で説明する技術トピックと、全体の中の位置づけ 01 ディープラーニングとは 02 手書き数字認識の例 03 アルファ碁における畳み込みニューラルネットワーク 04 ChainerでCNNを学習させてみる05 まとめ Chapter3 強化学習~囲碁AIは経験に学ぶ~ 本章で説明する技術トピックと、全体の中の位置づけ 01 強化学習とは 02 強化学習の歴史 03 多腕バンディット問題 04 迷路を解くための強化学習 05 テレビゲームの操作獲得のための強化学習 06 アルファ碁における強化学習 07 まとめと課題 Chapter4 探索~囲碁AIはいかにして先読みするか~ 本章で説明する技術トピックと全体の中の位置づけ 01 2人ゼロ和有限確定完全情報ゲーム 02 ゲームにおける探索 03 従来のゲーム木探索(ミニマックス木探索) 04 囲碁におけるモンテカルロ木探索 05 モンテカルロ木探索の成功要因と課題 06 まとめ Chapter5 アルファ碁の完成 01 アルファ碁の設計図 02 非同期方策価値更新モンテカルロ木探索(APV-MCTS) 03 大量のCPU・GPUの利用 04 アルファ碁の強さ Chapter6 アルファ碁からアルファ碁ゼロへ 01 はじめに 02 アルファ碁ゼロにおけるディープラーニング 03 アルファ碁ゼロにおけるモンテカルロ木探索 04 アルファ碁ゼロにおける強化学習 05 アルファ碁ゼロの強さ 06 アルファ碁ゼロは知識ゼロから作られたのか? 07 アルファ碁やアルファ碁ゼロに弱点はあるのか? 08 アルファ碁ゼロの先の未来 Appendix1 数式について 01 畳み込みニューラルネットワークの学習則の導出 02 強化学習の学習則の導出 Appendix2 囲碁プログラム用のUIソフト「GoGui」およびGoGui用プログラム「DeltaGo」の利用方法 01 DeltaGoとは 02 GoGuiのインストールとGoGui用プログラム「DeltaGo」の利用方法 おわりに INDEX
本書はディープラーニング、ニューラルネットワークについての予備知識がなくても学習を進められるようゼロから丁寧に、理論とその実装について解説します。 実装にはPythonのディープラーニング向けのライブラリ、TensorFlow (1.0) およびKeras (2.0) を用います。 「ディープラーニングについて何となくわかってはいるけれど、もう少し理解を深めたい」「画像認識だけでなく、時系列データを分析するためのモデルについても学びたい」という方にとって、学びの役に立つのではないかと思います。 単純パーセプトロンにはじまり、多層パーセプトロン、ディープニューラルネットワーク、リカレントニューラルネットワークなど多くの手法について学びます。扱うデータの種類ごとに考えるべき課題も異なり、それに合わせてネットワークも様々な形に変化させ学習を進めます。 ディープラーニングは1つひとつのテクニックの積み重ねであり、その根底にあるのは「人間の脳をどう数式やアルゴリズムで表現できるか」です。本書で学んできた土台となる理論さえきちんと理解していれば、今後どのようなディープラーニングの手法が出てこようとも、すぐに理解し使いこなせるようになるでしょう。そして、自身で新たなモデルを考え出すこともできるはずです。 [本書の構成] 1章では、ニューラルネットワークの理論を学習するうえで必要となる数学の知識について簡単におさらいし、続く2章では、実装に向けてのPython開発環境のセットアップ、およびPythonライブラリの簡単な使い方を扱います。 3章からは、いよいよニューラルネットワークの学習に入っていきます。3章ではその基本形について学び、4章ではディープニューラルネットワーク、いわゆるディープラーニングについて学びます。通常のニューラルネットワークと何が違うのか、どのようなテクニックが用いられているのかを実装を交えて理解します。 5、6章では、時系列データを扱うためのモデルであるリカレントニューラルネットワークについて詳しく学んでいきます。5章では、リカレントニューラルネットワークの基本形を簡単なデータ例を用いて理論・実装について学び、6章ではその応用例について扱います。
文科と理科両方の学生のために,統計的なものの考え方の基礎をやさしく解説するとともに,統計学の体系的な知識を与えるように,編集・執筆された.豊富な実際例を用いつつ,図表を多くとり入れ,視覚的にもわかりやすく親しみながら学べるよう配慮した. 第1章 統計学の基礎(中井検裕,縄田和満,松原 望) 第2章 1次元のデータ(中井検裕) 第3章 2次元のデータ(中井研裕,松原 望) 第4章 確率(縄田和満,松原 望) 第5章 確率変数(松原 望) 第6章 確率分布(松原 望) 第7章 多次元の確率分布(松原 望) 第8章 大数の法則と中心極限定理(中井検裕) 第9章 標本分布(縄田和満) 第10章 正規分布からの標本(縄田和満) 第11章 推定(縄田和満) 第12章 仮説検定(縄田和満,松原 望) 第13章 回帰分析(縄田和満) 統計数値表 練習問題の解答