2025/09/06

人工知能はかく騙りき

 最近、googleで検索すると、最上位に「AIによる概要」というのが表示されるようになったのだ。
検索ワードに対して生成AIのgeminiが回答を用意してくれるらしい。
今は概要だけだけど、米国ではすでに「AIモード」というのも実装されていて、より詳細なAIを活用した検索もできるのだとか。
確かにけっこう便利。
なんだけど・・・。
時々ウソがまじってるんだよなぁ(>_<)
例えば、ポイ活のためにやっているクイズの回答を調べようと検索して、ここに表示されたものを選ぶんだけど、けっこう間違っていることがある!

これは生成AIあるあるのひとつで、「ハルシネーション」という現象なのだ。
AIに質問したとき、非常にそれっぽい回答が返ってくるんだけど、それが事実誤認だったり、まったくのでっちあげ立ったりする、というもの。
知識があれば見抜けるけど、そもそもわからないからAIに聞いているのだし、非常にそれっぽくできているので審議の見極めは難しいのだ。
google剣先の場合も、下の方に注記で「AI の回答には間違いが含まれている場合があります。」と書いてあるよ。
生成AIに聞くとデータをまとめたうえで答えてくれるので、資料作成やら、場合によっては学生・生徒の宿題やらで非常に便利なんだけど、ここがひっかかるんだよなぁ。
荒唐無稽なものではないか、ウソが混じってないか、確認する必要があるのだ。
おそらく、今後はそういうのが長けた人がAIを自由闊達に使いこなす有能な人、ということになるんだろうね。

でも、なぜ「ハルシネーション(=幻覚)」なのか?
アンドロイドは電気羊の夢を見るかもだけど、AIがありもしないものを見て混乱しているわけではないよね。
プログラムに従って計算・処理をして回答を導き出しているだけど、その回答の精度の問題なのだ。
むしろ、ありもしない、それっぽいものを見せられているのは調べものをしている方。
そう、この名前のつけ方は利用者である人間視点なんだよね。
なので、この名前自体に意見を持っている専門家もいるようだけど、すでに広まってしまっているのでここから名前を変えるとまた混乱するだろうなぁ。
そして、そういうことをすると、この「ハルシネーション」の原因になるかもしれないのだ。

「ハルシネーション」の原因として考えられているものにはいくつかあるんだけど、根本的なものとしては、参照している元データが誤っているというもの。
そもそもウソの混じったデータを参照していたらそこから正解は抽出できないのだ。
そうではなくとも、データソースが古いと松井がってしまう可能性があるんだよね。
例えば、古い教科書で学習してしまったAIは鎌倉幕府の成立を「いい国作ろう鎌倉幕府」で「1192年」と答えるわけだけど、最新の教科書では、兵士を滅ぼし、朝廷から諸国への守護・地頭職の設置・任免を許可された「1185年」で教えているんだよね。
さらに、幅広くネット上の情報全般を拾うようなものにしてしまうと、そこに流れている誤情報も拾ってしまうのだ。
例えば、なぜか多くの人が誤解している「うるおぼえ」という表現や、野球は自分の本名ののぼるをもじって正岡子規が作った言葉、といった事実誤認が確認されている通説などなど。
参照元データの正確性がそのまま出てきてしまうので、ネット検索とは少し相性がよくなくて、AIによる検索結果の概要がちょいちょい間違っている原因でもあるのだ。
なお、逆に、ウソ情報をネット上で広めてデータソースを汚染しておけば、AIによる正確な情報の抽出を妨害することもできるというわけだよ。
旧ツイッター工作員さんもがんばりがいがある?

そのほかの原因としては、AIがどうやって回答テクストを作っているのか、というところに由来するみたい。
今の生成AIはかなり自然な形で文章を返してくるけど、これはある単語の次にどの単語が来るかをコーパスをもとに統計処理して、言語として「自然」な単語のつながりを作るようプログラムされているのだ。
で、そういう状況下で、AI的には意図をつかみきれないような質問だったり、参照元データに十分なソースがなかったりする場合、これが優先されて、さもありそうなそれっぽい回答が作られてしまうみたい。
よく生成AIを使いこなすには質問の仕方が大事というけど、まさにこれで、AIとして質問内容がくみ取りやすいようにしてあげる工夫がいるのだ。
前提から長々と質問する人は会議でも嫌われるけど、そういう聞き方をするとAIもどこに質問の本質があるのかわからなくって混乱するので、非常に自然にすれ違った、或いは、まったくでっち上げの回答をするのだ。
わざとはぐらかすこともあるけど、人にもAIにも簡潔に質問の趣旨をわかりやすくして聞いてあげることが大事だね。