【AWS】生成AIの問題点であるハルシネーション(幻覚)とRAGによる対策とは

AI

本記事について

先日「AWS Builders Online Series」というセミナーに参加しました。

このセミナーは公式が主催しているAWS初心者を対象とした、AWSの基礎を幅広く学ぶことができるオンラインイベントです。

このセミナーの中で紹介されていたハルシネーション(幻覚)とその対応策として便利なRAG(拡張検索生成)について簡単に紹介します。

ちなみに実際のセミナーの資料や動画は以下画像のリンク先にありますので、興味がある人は直接見てもらう方が良いかと思います。

生成AIの基礎知識とAmazon Bedrockについて

生成AIについて未だほとんど何も知らないという方は先に以下の記事を閲覧ください。

こちらの記事では生成AIの基礎知識とAmazon BedrockをAWSコンソール上から使用した際の使用感について載せています。

ハルシネーション(幻覚)とは

生成AIを使うにあたって懸念される問題がいくつかあります。

その問題の中で一番大きなものの一つが「ハルシネーション(幻覚)」と呼ばれる事象です。

このハルシネーションとは、「生成AIが事実とは異なる回答をしてしまうこと」を指しています。

そもそも生成AIとは基盤モデルが学習した大規模データに基づいて回答を生成しており、その学習データはこの世の全ての事象を網羅している訳ではないことから、正確な回答が出来ないのである。

更に生成AIは創造性のある回答をする(確率で文章を生成する)ように調整されているため、正確な事実が欲しい場合の回答でも、創造性を無駄に発揮してしまい事実とは異なる回答をすることもある。

これらの理由によって生成AIはハルシネーションが起きてしまうのである。

RAG(拡張検索生成)とは

このハルシネーションは基盤モデルの学習した内容に含まれない質問をされているために起こっている事象であることから、その対策としては質問内容に対応するドキュメントを質問と一緒に読み込ませれば良いということになる。

この対応方法を「RAG(Retrieval-Augmented Generation︓検索拡張生成)」と呼んでいる。
RAGの実現方法はいくつかあるが、AWSではサービスとしてその仕組みが提供されていることが大きい。

特に大きいのは「Knowledge bases for Amazon Bedrock」を使うことで簡単にRAGをフルマネージドサービスとして利用することが出来る点だろう。
また、「Knowledge bases for Amazon Bedrock」ではデータベースを作成することもなく、ドキュメントをアップロードするだけでRAGを利用することも可能。
このように生成AIにおける最大の問題点の一つであるハルシネーションをAWSであれば簡単にRAGを利用することで解決することが可能なのである。

まとめ

今回は生成AIの問題点「ハルシネーション(幻覚)とその対応策である「RAG(拡張検索生成)」について記事にしました。

生成AIは業務には使えないと物知り顔で話す有識者の方もテレビ等にいますが、そういった生成AIが使えないという根本的な問題であるハルシネーション等は対策があるということです。

基盤モデルを一から作るための知識は非常にハードルが高いですが、RAGを自力で構築できるための知識であればそこまで難しくありません。

今後はRAG等の構築知識を持った人材が実際の現場では重要視されると思いますので、これを機に勉強してみることをお勧めします。

また、前回の生成AIに関する基礎知識とコンソール上からAmazon Bedorockを使用した際の記事も興味があれば閲覧ください。

それでは次の記事も閲覧いただけると幸いです。

https://senkohome.com/aws-bedrock/

コメント

タイトルとURLをコピーしました