内容紹介
はたしてなぜ生成AIは嘘をつくのか?
ハルシネーションの原理とその対策を一からわかりやすく解説
生成AIを利用する際に最も厄介な問題となるのがハルシネーション(hallucination)です.ハルシネーションは幻覚とも呼ばれる現象で,一見もっともらしいのに,まったく正しくない文章が生成されることをいいます.これによって,実際にはありもしない発言や事実が大量につくり出され,SNSなどで拡散されて私たちの社会や認識を大きくゆがめてしまっています.これからの情報系エンジニアにとって,ハルシネーションの対策に必要な知見やスキルは非常に重要です.
本書では,ハルシネーションに挑むための土台となるべき自然言語処理や機械学習の基礎的な知識や,「言語の正しさ」に関する基本的な知見から解説しています.そして,現時点で考えうる現実的な対策法について解説しています.また,本分野で著名な数理モデルについて,その当初の目的や経緯をできるだけわかりやすく解説しています.
AI関連の技術は日進月歩で進歩していますが,エンジニアにとって重要なことは流行に乗り遅れないことより,少しずつ自分の引き出しを増やしていくことであると考えられます.この観点から,本書では「スタンダードな手法への手っとり早い入門」という以上の価値を提供できるように心がけています.
このような方におすすめ
AI、機械学習の研究者・実務者、および学生
広くICTの技術者・実務者、および学生
目次
主要目次
第1章 自然言語処理の基礎
第2章 統計学と機械学習の基礎
第3章 Transformerと大規模言語モデル
第4章 ハルシネーションの基礎
第5章 ハルシネーション対策の基礎
第6章 外部知識活用にもとづく生成
第7章 ハルシネーションの検出
詳細目次
第1章 自然言語処理の基礎
1.1 自然言語処理とは
1.2 トークン化と分散表現
1.3 言語モデル
1.4 自然言語処理の評価指標
1.5 古代の言語研究
第2章 統計学と機械学習の基礎
2.1 帰 納
2.2 統計的推測
2.3 強化学習
2.4 さまざまな生成AI
第3章 Transformerと大規模言語モデル
3.1 Transformer登場の背景
3.2 Transformerの内部構造
3.3 学 習
3.4 Transformerによる大規模言語モデル
3.5 ChatGPT
3.6 さまざまな大規模言語モデル
第4章 ハルシネーションの基礎
4.1 ハルシネーションとは
4.2 事実性と忠実性
4.3 内在型と外在型
4.4 ハルシネーションの発生源
4.5 LLMの内部挙動の解明
4.6 LLMに埋め込まれたパラメトリックな知識
4.7 正しい文とは何か
4.8 ハルシネーションの評価
第5章 ハルシネーション対策の基礎
5.1 学習データの品質の改善
5.2 デコーディングの改善
5.3 事前学習の改善
5.4 モデル構造の改良
5.5 プロンプトエンジニアリング
第6章 外部知識活用にもとづく生成
6.1 検索を組み合わせた生成
6.2 疎ベクトル検索
6.3 密ベクトル検索
6.4 知識データベース
6.5 RAG のデザインパターン
6.6 RAG の評価方法
6.7 RAG の実装例
6.8 ツール拡張生成
第7章 ハルシネーションの検出
7.1 忠実性ハルシネーションの評価・検出
7.2 事実性ハルシネーションの検出手法
7.3 Verifier による出力の改善
続きを見る