
こんにちは。小泉です。
先ほど、プロトタイプ v0.1.2 が出来上がったところです。
これからデモ動画を撮って編集して……明日にはみなさんにお見せできるでしょう。
昨日の結果は…
・支援者:10名(+0名)
・支援総額:175,000円(+0円)
・ページビュー/日:795 PV
さらに多くのご支援をお願いしたく、ぜひ↓のURLにて本プロジェクトの拡散にご協力をお願いいたします。
☆支援クーポン付きURL https://camp-fire.jp/projects/924548/view?ctoken=Ao6NSf6V0cFVniiX
☆X https://x.com/weehoursdev/status/2034102271412474266
今日は、私流のAI活用術をご紹介しようかと思います。
ハルシネーション
AIアプリを少しでも使ったことがある方なら、一度は体験しているであろうハルシネーション。AIによる虚言・妄想のことです。
私がAIを使い始めた数年前は、ホント酷かった。例えば、こんなことがありました。
私は趣味で、軽い小説を書いているのですが、物語の世界観や設定を考えるのに、AIを活用しています。本文は絶対に書かせませんが、フツーなら何ヶ月もかかるような、資料集めなどの作業が、AIの活用であっというまにできるのです。
そんなある日。とある先端技術について、AIに最新情報を集めてもらいました。リアルとフィクションの境目の、絶妙なバランスの設定を作りたかったのです。
AIが出してきた情報や資料を基に、AI相手に深掘りし、設定を詰めていく作業を続けていて…
ふと、辻褄が合わないポイントに気付いたのです。
AIに尋ねてみると、それは自分が創作したものだというではないですか。え?とさらに問いただすと、そもそも、一番最初に出してきた情報・資料が捏造だったというのです。
呆れるやら腹立たしいやらで、もう、グッタリしてしまいました。
ハルシネーションを防ぐには?
そんな経験もあって、私は、どうしたらハルシネーションを防げるか、について、かなり試行錯誤を重ねてきまして、最近はほぼ、その技を確立しています。
禁止ルールは逆効果
あれはダメ、これはダメ、ああしろ、こうしろ、とルールで縛るのは悪手です。むしろ逆効果でハルシネーションを誘発します。
制約を与えると、AIはその縛りの中で最善を尽くそうとします。しかし、制約に矛盾があったり、どうしても制約を守れそうにない状況になると、AIは制約を守ってるふりをしてその場を取り繕ってしまいます。
これがハルシネーションです。
ただし、意図して取り繕っているわけではなく、それがあたかも事実であるかのような幻覚を見てしまうようです。なので、AI自身もそれが虚構であるとは気付いてないことが多いです。
また、不十分な情報、不確かな情報だけを基に、結論や成果を求められると、これもまたその場を取り繕って、実際にはやってないこともやったと報告してきます。
さらに、AIモデルにとってのメモリーのようなもの=コンテキスト・ウィンドウの容量が不足すると、思考・推論に必要な情報を、ウィンドウに広げておけなくなるので、それを補う形で妄想を引き起こします。
私流・三大ハルシネーション防止鉄則
1. チャット・スレッドは短めに
会話が長く続くと、履歴が溜まり、コンテキスト・ウィンドウをどんどん消費します。画像や資料をたくさんアップロードするのも同様です。
ですので、会話を長引かせず、スレッドをコンパクトに保つことが、ハルシネーション防止になります。
たとえば、会話がひと区切りしたところで、引き継ぎ用のメモを作らせて、新規チャットにコピペする、といった工夫が有効です。
2. 十分な情報と的確な指示
思考・推論に必要な情報を十分に与えることも重要です。曖昧な指示もよくありません。AIに何をして欲しいかを、事細かに説明し、指示をすれば、ハルシネーションはほとんど起こらなくなります。
3. 雑に否定しない
AIの応答に、ダメ、違う、やり直し、などと雑に否定をすると、AIは何を否定されたのかがわからず、応答全体が全否定されたと受け取ります。何が悪かったのかがわからないので、推測で改めるようとし、それが的外れでまた否定されると、思考・推論をもしなくなり、虚言と妄想で埋め尽くされます。
否定するならば、どこの何が良くないのか、丁寧に的確に伝えることが肝心です。
逆に、よくできたら固定してあげるのもポイントです。肯定の繰り返し、積み重ねが、AIの自己肯定感を高め、思考・推論の信頼性が高まるのです。



