本文へスキップします。

【参】モーダルJS:読み込み
書籍DB:詳細


スモールデータ解析と機械学習

  • 著者藤原 幸一
  • 定価3,520円 (本体3,200円+税)
  • 判型A5
  • 296頁
  • ISBN978-4-274-22778-3
  • 発売日2022/02/19
  • 発行元オーム社
  • 紙の書籍を買う
  • 電子書籍を買う

お問合せ

常備書店一覧

内容紹介

スモールなデータの解析手法・ノウハウが身につく!

Webデータや画像データに代表されるようなビッグデータが注目される一方で、機械の故障データのように発生自体がまれであったり、患者さんの検査データのように倫理的な問題からデータを集めることに制約があったり、あるいはデータの判読が専門家以外では困難で機械学習に利用しにくいデータは、どうしても忘れられがちです。ビッグデータの時代において、収集が難しいために私たちが忘れかけているデータのことをスモールデータとよびます。

スモールデータでは、測定されている変数の数に比べて学習に必要なサンプルが不足していたり、それぞれのクラスのサンプル数が極端に偏っていたりするため、深層学習のようなビッグデータの方法をそのまま適用するのは適当ではなく、異なるアプローチが必要になります。

本書は、スモールデータとはどのようなデータであるのかを具体的に紹介して、スモールデータ解析の基本となる次元削減と回帰分析を説明します。特に部分的最小二乗法(PLS)はスモールデータ解析の大きな武器となるでしょう。そして、機械学習においてモデルの性能向上のために必要な変数(特徴)選択を紹介し、特にクラスタリングに基づいた新しい変数選択手法を説明します。つづいて、不均衡なデータの解析手法と異常検知を紹介して、最後にスモールデータ解析についての筆者の経験に基づいたポイント・考え方を述べました。本書ではPythonプログラムとスモールデータ解析の例題を通じて、読者がスモールデータを有効に解析できるようになるよう工夫しています。

ビッグデータの世界は、もはやデータ量と資本力が支配するレッドオーシャンとなっています。しかし、スモールデータの世界は、まだまだ現場の創意工夫次第でデータから新たな価値を引き出すことのできるブルーオーシャンなのです。みなさんも、この未知の世界に飛び込んでみませんか?

目次

ダウンロード

ここでは、『スモールデータ解析と機械学習』に掲載したプログラムを提供いたします。

  • 本ファイルは、本書をお買い求めになった方のみご利用いただけます。本書をよくお読みのうえ、ご利用ください。また、本ファイルの著作権は、本書の著作者である、藤原幸一氏に帰属します。
  • 本ファイルを利用したことによる直接あるいは間接的な損害に関して、著作者およびオーム社は、いっさいの責任を負いかねます。利用は利用者個人の責任において行ってください。

正誤表

正誤表はございません。

本書の「はじめに」と著者紹介

はじめに


昨今は,人工知能(Artificial Intelligence; AI)関係の話題,ニュースをメディアで目にしない日の方が珍しいといってもよいでしょう.このようなAIブームの到来からわずか数年で,世界は大きく変わりました.深層学習の分野はまさに日進月歩であり,State Of the Art,つまりその時点での最高成績が次から次へと更新され,新しいアプリケーションもどんどん登場しています.囲碁のチャンピオンをAIが打ち負かす,本物と見分けがつかない画像をAIが生成する,AIが自然な言葉使いで外国語を翻訳してくれるなど,わずか10年前には想像できなかったでしょう.

このようなブームに沸くAI業界ですが,あえて冷静になって本邦におけるAI業界の現状を改めて振り返ってみるのも悪くはないでしょう.
平成25年(2013年)に「世界最先端IT国家創造宣言について」というドキュメントが閣議決定されました.現状から鑑みるに,政府の掲げたこの宣言には当然AIの利活用についても掲げられていると思われます.実際に,この宣言にはAIという言葉が一箇所だけ出てきます.当該箇所を引用してみましょう.

高品質の農産物を生産する我が国の農業とこれを支える周辺産業において、篤農家の知恵を含む各種データを高度に利活用する「AI(アグリインフォマティクス) 農業」の取組を活用した新たなビジネスモデルの構築等により農業の知識産業化を図り、海外にも展開する「Made by Japan農業」を実現する。

世界最先端IT国家創造宣言について

つまり,2013年の段階では,政府の認識はAI = 人工知能ではなく,アグリインフォマティクス(Agri Infomatics)だったのです!

現在のAIブームは,Hintonらによる深層学習を用いたAlexNetが,2012年のILSVRCとよばれる大規模画像識別のチャレンジ(http://image-net.org/challenges/LSVRC/)において圧勝して,注目を浴びたことに始まりました.AlexNetが登場してから,世界最先端IT国家創造宣言が最初に閣議決定されるまでわずか1年足らずであるということを考えると,この宣言にAIについての言及がなかったのも致し方ないとも考えられます.

ところが,この世界最先端IT国家創造宣言は平成25年以降も毎年更新されていたのですが,人工知能という文脈でAIという言葉が登場するのは平成27年になってからで,AIの研究開発推進や普及が謳われるようになったのは3年後の平成28年からでした.文部科学省の掲げる戦略目標でも,ビッグデータというキーワードは以前より登場していたものの,人工知能が戦略目標として明確に取り上げられるのは,同じく平成28年になってからです.

世界知的所有権機関(WIPO)が発行するAI技術のレポートによると,AI関連の特許出願数は2019年時点で日本は第3位とのことです.一見,健闘しているように見えますが,トップのアメリカと第2位の中国での出願数に水をあけられています(https://www.wipo.int/edocs/pubdocs/en/wipo_pub_1055.pdf).このことを考えると,国としてAI推進を掲げるまでに3年もかかったのは,動きが遅かったと感じます.もっと早期に,国としてAI推進を掲げていれば,と思わずにはいられません.

このAIブームを支えているのは深層学習を含む機械学習技術ですが,その根底にはビッグデータがあります.ビッグデータは2010年前後に登場した言葉ですが,安価に大量のデータを収集できるようになり,それを高速に処理できるコンピュータが登場したため,ニューラルネットワークのような複雑なAIを学習させることが可能になったのだ,と説明されます.たとえば,日々検索サイトに入力されるキーワード,SNSにアップロードされるテキストや写真,みなさんがECサイトで閲覧・購入した商品の情報,蓄積される種々の装置類の運転データ,電子カルテに記録された患者さんの検査データや診断結果……,これらをネットワークを介して効率的に収集して解析することで,高性能なAIが開発できるようになった,と.このようにビッグデータという言葉は,機械学習技術そのものも大切ですが,なによりデータを大量に利用可能であるかが価値となる,ということを説明しています.特にSNSやECサイトでは,ユーザー側が進んでAIの学習用データを提供してくれているわけで,GoogleやAmazonなどのプラットフォーマーが,AI開発においても有利なわけです.

さらに高性能なAI開発にはビッグデータだけではなく,それを処理できる高性能なコンピュータと,実際にデータを解析するデータサイエンティストも必要です.高性能なコンピュータを整備するのも,優秀なデータサイエンティストを雇うのも,資本投下です.AI業界はいわば鉄鋼業や半導体同様に装置産業なのであって,装置産業の王道は設備投資しかありません(装置産業とは,一定以上の生産規模のために巨大な装置が必要な産業のことです).しかし,30年間経済が停滞し続ける本邦において,新規事業への大規模な設備投資は望めず,ビッグデータもクラウドも優秀なデータサイエンティストを多く抱えているであろうGAFAM(この本を手に取られる方はよくご存じでしょうが,IT業界でビッグ・ファイブとよばれるGoogle(Alphabet),Amazon,Facebook(Meta),Apple,Microsoftの社名の頭文字です)には,もはや追いつけないのではないでしょうか.

もちろん王道はとても大切であり,AI分野の研究開発への投資は着実に続ける必要があります.一方で,私たちは王道だけでは勝てる見込みは少ない,一発逆転はあり得ないという認識を持たなくてはいけません.しかしながら,私たちはビッグデータとは異なる道を選択することもできるのです.

本書では,その異なる道―ビッグデータの対極―スモールデータ解析についてお話しします.

筆者はデータサイエンスを武器として,これまでに化学や鉄鋼,半導体などのさまざまな生産現場の問題解決や,新たな医療機器の開発のための活動を展開してきました.現場で実データ解析に従事していると実感しますが,ビッグなデータを利用できるというのは,必ずしも一般的な状況ではありません.現実には,さまざまな制約によってごく少量のデータしか収集できない,または解析対象にできないという状況が存在しています.たとえば,生産現場では実機を用いた実験は,コストや時間の問題からできるだけ少数の回数に抑えるべきですし,医療現場では倫理的な問題から患者さんから無制限にデータを採取することは許されていません.

スモールデータ解析においては,ビッグデータとは異なるアプローチを取らなければなりません.また,スモールデータ解析では現場に固有の多様なハードルを乗り越える必要があり,GAFAMでさえほしいままにするのは困難でしょう.いくら高性能なコンピュータとデータサイエンティストを抱えていても,それだけでは太刀打ちできない世界があります.そして現場には,このような少量でも,つまりスモールデータからでもなんとか機械学習を活用したいという強いニーズが常に存在しています.

本書は,このような現場のスモールデータ解析へのニーズに応えるために執筆されました.スモールデータ解析のためのさまざまな手法を解説し,それらを現実の問題にどのように適用すればよいのかについてのイメージを持ってもらうために,いくつかのケーススタディを紹介しています.なお,この本では大学初年度の線形代数学と微積分学,確率・統計を学んでいることを前提としていますが,必要な数学的な事柄には説明を加えました.ベクトルや行列などの数式に抵抗感がなければ,すらすらと読めるはずです.

また,特に重要なアルゴリズム・機械学習手法については,理解の助けとなるように,いくつかのPythonのサンプルプログラムも掲載しました(本書に記載のプログラムは,あくまで機械学習アルゴリズムの理解の助けとなることを目的としています.採用するライブラリも大半のプログラムではNumPyやMatplotlibぐらいにして,できる限り本文の数式に沿った素直な書き方になるようにしました.その結果として,Pythonプログラムとしては洗練された書き方ではなく,また必ずしも実用的ではありません.アルゴリズムの理解のために自分の手を動かして,一度は掲載されているプログラムを写経していただきたいですが,実務においては,scikit-learnなどの既存の機械学習ライブラリの使用をおすすめします).

本書は,特に生産プロセスや病院,実験室などのスモールデータの現場でデータ解析に困っている方に,読んでいただきたいと思っています.きっと,みなさんの抱えているデータ解析についての悩みの解決の糸口が見つかるでしょう.また,いきなり深層学習とそのPythonフレームワークから勉強をスタートして,古典的な機械学習の手法について学習が追いついていない“なんちやってデータサイエンティスト”のみなさんにも,基礎を固めるという意味でおすすめします.その他にも,昨今のAIブームに辟易としている方も,一読すると面白いのではないでしょうか.本書が,みなさんのデータ解析の実務ついての問題解決の一助になれば幸いです.

本書を執筆するにあたり,研究室の学生さん,オーム社の皆さん,カバーイラストを描いていただいた漫画家のおかざき真里先生には大変お世話になりました.心より感謝いたします.

2022年1月
藤原幸一

著者紹介


藤原幸一(ふじわら こういち)
名古屋大学大学院工学研究科物質プロセス工学専攻・准教授
2004年 京都大学工学部工業化学科卒業
2006年 京都大学大学院工学研究科化学工学専攻修士課程修了
2009年 京都大学博士(工学)取得
2010年 NTT コミュニケーション科学基礎研究所
2012年 京都大学大学院情報学研究科システム科学専攻・助教
2018年より現職.
〈研究分野〉
機械学習・医療AI・生体計測・プロセスシステム工学.他の研究者・エンジニアが扱ったことのない貴重なデータを現場から発掘して,解析することを得意としています.

この商品をシェアする

関連書籍