1:生成AIに潜む「ハルシネーション」リスク
昨今、ChatGPTを代表とされる生成AIの普及が進み、業務効率化などのメリットが期待され、大学などの教育現場やビジネスシーンでも活用が進んでいます。
利用方法について多くの議論が存在するなか、特にビジネスシーンにおいては、以下のリスクが懸念されています。
・情報漏洩リスク
・著作権侵害リスク
・ハルシネーション
今回は生成AI利用に伴うリスクの中で典型的な例ともいえる「ハルシネーション」について、現象と対策方法をご紹介します。
2:ハルシネーションとは?
2022年に、ハルシネーションが原因でメタ社がAIサービスのデモ公開を中止した事例をご存じですか?
ハルシネーションとは、AIが生成する「もっともらしい嘘(hallucination:幻覚)」のことで、AIが事実と異なる情報を回答する現象を指します。
生成AIは、膨大なデータを学習し、それに基づいて回答を生成します。
しかし、その学習データ自体に誤りがあったり、元来の意味とは異なる意訳、データ不足による推測などから、「ハルシネーション」が起こす可能性もあります。
このことを、利用者側も十分に理解し、活用しなければなりません。
意図せずフェイク情報を作成することにつながらないよう、注意が必要です。
3:ハルシネーション対策としてのファクトチェック
今後生成AIがさらに進化してハルシネーションが減る可能性はありますが、まだ確実ではありません。
現時点で利用者側ができる対策としては、ファクトチェックのやり方を知っておくのが得策です。
AIが作成した文章であっても人間が作成した文章であっても、企業が発信する情報は公開前に複数人で校正を行うことが一般的ですが、生成AIを利用した場合には、併せてファクトチェックを行うことをお勧めします。
4:ファクトチェックの方法
ファクトチェックの際には、以下の点がポイントとなります。
・「事実」と「意見」を区別し、「事実」について客観的な証拠を確認する
・情報源が発信された時期、情報発信者の専門性、信頼性を評価する
・複数の情報源を確認する
記載されている事柄についてさまざまな調査を行い、信頼できる一次情報から内容が事実であると証明していく作業になります。
多くの場合は、Googleなどのウェブ検索で情報取集を行うことからはじめますが、Web情報の中には真偽不明の情報が数多く存在します。
ファクトチェックを効率的に、かつ正確に実施するためには、信頼できる情報源を見つけることが重要になります。
<信頼できる情報源の例>
1)公的機関・行政機関のWebサイト
2)専門家が発表する情報
3)企業や組織の公式サイト
4)新聞記事
5)論文・科学技術文献
5:有効な情報検索ツール
「過去の新聞記事」や「論文・科学技術文献」は、Web検索では調査が困難ですが、以下から検索することができます。
新聞・雑誌記事横断検索 >
全国紙・地方紙・専門紙・経済誌など、 約150紙誌のバックナンバーを探すことができます。
論文・科学技術文献検索 >
日本最大級の科学技術文献情報データベースです。
生成AIの普及が進むことで、ファクトチェックが必要になる場面が増えることが予測されます。
ハルシネーション対策やファクトチェックの効率化に、ぜひお役立てください。