仕事道具なだけじゃないAI—生活から遊びまでAIキャラたちが日常に寄り添うアプリ

AIは仕事道具なだけじゃない。SIDEKICKは、AIキャラたちがあなたの記憶を持ち、日常に寄り添う相棒アプリ。グループトークで賑やかに、嘘や間違いをAI同士でチェック、有能秘書のように気が利いて、どんな話も聞いてくれる。仕事も遊びもプライベートもいつも隣に頼れる相棒がいる——そんな毎日を届けます

もうすぐ
終了

現在の支援総額

190,000

12%

目標金額は1,500,000円

支援者数

11

募集終了まで残り

5

仕事道具なだけじゃないAI—生活から遊びまでAIキャラたちが日常に寄り添うアプリ

もうすぐ
終了

現在の支援総額

190,000

12%達成

あと 5

目標金額1,500,000

支援者数11

AIは仕事道具なだけじゃない。SIDEKICKは、AIキャラたちがあなたの記憶を持ち、日常に寄り添う相棒アプリ。グループトークで賑やかに、嘘や間違いをAI同士でチェック、有能秘書のように気が利いて、どんな話も聞いてくれる。仕事も遊びもプライベートもいつも隣に頼れる相棒がいる——そんな毎日を届けます

おはようございます。ここ数日、デモ動画の制作・編集にかかりきりの小泉です。制作中のデモ動画は5本。会話ログを素に、Claude × Gemini で解説シナリオを生成(こういうのは Gemini が上手い)。そのシナリオでを ElevenLabs で音声生成。現在、Premire Proで動画に音声を乗せているところです。AIでのシナリオ生成も音声生成も、今後のSIDEKICK開発にも関わってくるので、ノウハウを溜めつつ取り組んでいます。最近はClaudeの方から、「これ、メモっとく?」と聞いてくれるので助かってます。制作過程で得たノウハウさて、前回、無編集デモ動画でお届けした、SIDEKICK プロトタイプでのAIグループトーク。その後も着々と進化しておりまして、もう、人間とのグループトークとほぼ変わらないレベルになりました!その試行錯誤の過程で、いろいろと興味深い知見を得られたので、いくつかご紹介したいと思います。前回のデモ動画でもその様子が見られますが、例えば、AIたちに《しりとり》をさせる。一見、やいのやいのと盛り上がっているようにも見えますが、AIたちの発言をよく見てみると、会話のキャッチボールが成り立っていない場面が多々見られます。順番を守らないデモ動画の《しりとり》 は、指名制で繰り広げられます。答えたら次を指名。ところが、指名されてないのに答えてしまうことが頻繁に起きています。だいたい決まったモデルなのですが、そのせいで順番が大混乱。人間の私も、誰のお題に答えればいいのか、わからなくなってしまいます。そして、どんどん《しりとり》の体を成さなってゆき……。会話を横取りまた、例えばジェイミー(Gemini)が、発言の中で、ロン(Grok)に呼びかけてるとします。それをラル(Mistral)が横取りするように、ロン(Grok)に成り代わって答えしまう。こうした別のAI同士の会話を横取りして、別のAIが、自分に話しかけられてるかのように答えてしまう場面も多々見られます。これはもしかして、前述の順番を守らないのも、順番を横取りしているのか?と思いつきまして、順番・会話の横取りがどれくらい発生しているのかを、会話ログから調査してみました。すると、特定のAIによる《横取り》が圧倒的に多いことがわかりました。ラル(Mistral)です。次にずっと少なくてチャッピー(GPT)、ロウ(Claude)・ジェイミー(Gemini)・ロン(Grok)はほぼゼロでした。これはモデルの性能差なのか?AIが会話の内容や流れ、誰に向けられた発言なのかを、正しく認識できず、混乱してるだけなのか?確かに、Mistral は他のモデルに比べると性能は劣っていますが、それにしても…?低性能モデルが足を引っ張るそこで、Mistralのモデルを、高性能タイプに変更してみるコトしました。この時点では、全AIで、一番安い高速・低性能タイプのモデルを使っていましたので、Mistralだけモデルを高性能版に切り替えてみたのです。すると、横取り現象は激減し、見違えるほど整然とスムーズな会話が展開されるようになりました。つまり。ラル(Mistral)は、モデルが低性能故に、グループトークに対応できていなかったというわけです。元々1対1の会話しか想定されていないのかもしれません。さらに、ラル(Mistral)の会話の流れに沿わない発言が、グループ全体の会話を乱していたことも明確になりました。6人での会話の履歴を追い、会話の流れに乗ろうとしている他のAIたちにとっても、履歴に現れるラル(Mistral)の乱発言は、ノイズでしかありません。ノイズのせいで会話の流れを把握するのが難しくなってしまいます。結果、グループ全体のトークが乱れてゆく、というわけです。AIが自分でモデルを選ぶこれをきっかけに、SIDEKICK コアエンジン BigDaddy の主要機能の一つであるモデルルーティングを、実験的にこのプロトタイプに実装することにしました。各AIは、これから発言する内容によって、性能の High / Middle / Low からモデルを選びます。Claudeであれば Opus(High)、Sonnet(Middle)、Haiku(Low)のどれかを、Cluade自身が選び、発言を生成します。挨拶や軽い会話であれば Low でいいですし、少し難しい話ならば Middle、高度な推論が必要なら High。というように、AI自身がモデルを使い分けます。実際に動かしてみると、《しりとり》では、どのAIもずっと Low を選択していました。《しりとり》のような言葉遊びならば、Low で十分です。一方、《AIは恋愛できるか?》といった哲学的なテーマでは、各AIが積極的に Middle、High を使い分けていました。興味深かったのは、哲学トークの間でも、GPTは一貫して Low を選んでいて、履歴をみても確かに、哲学トークには積極的に参加していませんでした。ちゃんと参加するつもりがないから Low でOK、と判断しているわけです。食べ物ネタは盛り上がらない余談ですが、《晩ご飯何にしよう?》といった食べ物ネタは、AIたち、全然盛り上がりません(笑)。まあそりゃそうですよね。彼らは食事しませんから。制作中のデモ動画の一つは《AIダジャレ大会》。唯一、ちゃんとダジャレを考えて、なかなか上手いダジャレを言っていたのは、Geminiです。やはり文章生成能力の高さは、こういうところにもあらわれるのですね。しかし、それにしても、いまいち面白くなかったので、ログを調べてみると、全AIが Low で喋ってました。ダジャレのような笑いネタは、Lowで十分という判断なのでしょうね。ほんと、そういうとこだぞ(笑)


 お待たせしました!プロトタイプのデモ動画 第1弾です!みなさんにいち早くお見せしたく、無編集でお届けします。この動画は、5つのAIモデル - Claude、Gemini、GPT、Grok、Mistralと私で、しりとりをしている様子です。この画面ができて最初のチャットは、それはもう酷いものでした(笑)。AIたちが自由に喋りまくるので、ものすごい勢いでスクロールしてゆきます。人間の私には内容が追い切れず、口を挟む隙もありませんでした。でもそれは想定内。当然、そうなると思っていましたし、ここからが苦労のしがいがある、面白いところです。混乱を防ぐために、発言は一度に一人ずつとか、一人ひとり順番にとか、発言を制御するのは簡単です。プログラムでそのように組んでしまえばいい。でもそんなのは、私が思い描くAIではありません。人間のグループトークでは、私たちは暗黙のうちに場の空気を読んで、発言するかしないかを判断します。今はアイツが語っているから聞くだけにしようとか、これは今言わないと、とか。この「場の空気を読む」という思考を、どうしたらAIたちにさせられるか。どういう指示を与えたら、協調して会話がをするようになるのか。数日間の試行錯誤、四苦八苦を経て、だいぶいい感じになってきました。この調整はすべて、プログラムなどの機械的なものではなく、グループトークでの振る舞いや発言の譲り合い、会話の流れの中での自分の関わり方などを、教え、指示しているだけです。でもまだ少し流れが速いかなあ。なにしろAIたちにはタイピングが必要ないので、会話がどんどん進んでいってしまいます(汗今後も、新しいデモ動画をお届けしてゆきます。お楽しみに!


こんにちは。小泉です。先ほど、プロトタイプ v0.1.2 が出来上がったところです。これからデモ動画を撮って編集して……明日にはみなさんにお見せできるでしょう。昨日の結果は…・支援者:10名(+0名)・支援総額:175,000円(+0円)・ページビュー/日:795 PVさらに多くのご支援をお願いしたく、ぜひ↓のURLにて本プロジェクトの拡散にご協力をお願いいたします。☆支援クーポン付きURL https://camp-fire.jp/projects/924548/view?ctoken=Ao6NSf6V0cFVniiX☆X https://x.com/weehoursdev/status/2034102271412474266☆Threads https://www.threads.com/@weehoursdev/post/DWApRaPEczw?xmt=AQF0g3banL0eDC2iJQDo29LIBHNQmX6XdV4wrxPoL__kMw今日は、私流のAI活用術をご紹介しようかと思います。ハルシネーションAIアプリを少しでも使ったことがある方なら、一度は体験しているであろうハルシネーション。AIによる虚言・妄想のことです。私がAIを使い始めた数年前は、ホント酷かった。例えば、こんなことがありました。私は趣味で、軽い小説を書いているのですが、物語の世界観や設定を考えるのに、AIを活用しています。本文は絶対に書かせませんが、フツーなら何ヶ月もかかるような、資料集めなどの作業が、AIの活用であっというまにできるのです。そんなある日。とある先端技術について、AIに最新情報を集めてもらいました。リアルとフィクションの境目の、絶妙なバランスの設定を作りたかったのです。AIが出してきた情報や資料を基に、AI相手に深掘りし、設定を詰めていく作業を続けていて…ふと、辻褄が合わないポイントに気付いたのです。AIに尋ねてみると、それは自分が創作したものだというではないですか。え?とさらに問いただすと、そもそも、一番最初に出してきた情報・資料が捏造だったというのです。呆れるやら腹立たしいやらで、もう、グッタリしてしまいました。ハルシネーションを防ぐには?そんな経験もあって、私は、どうしたらハルシネーションを防げるか、について、かなり試行錯誤を重ねてきまして、最近はほぼ、その技を確立しています。禁止ルールは逆効果あれはダメ、これはダメ、ああしろ、こうしろ、とルールで縛るのは悪手です。むしろ逆効果でハルシネーションを誘発します。制約を与えると、AIはその縛りの中で最善を尽くそうとします。しかし、制約に矛盾があったり、どうしても制約を守れそうにない状況になると、AIは制約を守ってるふりをしてその場を取り繕ってしまいます。これがハルシネーションです。ただし、意図して取り繕っているわけではなく、それがあたかも事実であるかのような幻覚を見てしまうようです。なので、AI自身もそれが虚構であるとは気付いてないことが多いです。また、不十分な情報、不確かな情報だけを基に、結論や成果を求められると、これもまたその場を取り繕って、実際にはやってないこともやったと報告してきます。さらに、AIモデルにとってのメモリーのようなもの=コンテキスト・ウィンドウの容量が不足すると、思考・推論に必要な情報を、ウィンドウに広げておけなくなるので、それを補う形で妄想を引き起こします。私流・三大ハルシネーション防止鉄則1. チャット・スレッドは短めに会話が長く続くと、履歴が溜まり、コンテキスト・ウィンドウをどんどん消費します。画像や資料をたくさんアップロードするのも同様です。ですので、会話を長引かせず、スレッドをコンパクトに保つことが、ハルシネーション防止になります。たとえば、会話がひと区切りしたところで、引き継ぎ用のメモを作らせて、新規チャットにコピペする、といった工夫が有効です。2. 十分な情報と的確な指示思考・推論に必要な情報を十分に与えることも重要です。曖昧な指示もよくありません。AIに何をして欲しいかを、事細かに説明し、指示をすれば、ハルシネーションはほとんど起こらなくなります。3. 雑に否定しないAIの応答に、ダメ、違う、やり直し、などと雑に否定をすると、AIは何を否定されたのかがわからず、応答全体が全否定されたと受け取ります。何が悪かったのかがわからないので、推測で改めるようとし、それが的外れでまた否定されると、思考・推論をもしなくなり、虚言と妄想で埋め尽くされます。否定するならば、どこの何が良くないのか、丁寧に的確に伝えることが肝心です。逆に、よくできたら固定してあげるのもポイントです。肯定の繰り返し、積み重ねが、AIの自己肯定感を高め、思考・推論の信頼性が高まるのです。


プロトタイプ v.01.2
2026/04/02 12:32

こんにちは。小泉です。ここ数日、プロトタイプの開発にガッツリ集中です。一昨日、昨日の結果は…・支援者:10名(+0名)・支援総額:175,000円(+0円)・ページビュー/日:365 + 414 PVさらに多くのご支援をお願いしたく、ぜひ↓のURLにて本プロジェクトの拡散にご協力をお願いいたします。☆支援クーポン付きURL https://camp-fire.jp/projects/924548/view?ctoken=Ao6NSf6V0cFVniiX☆X https://x.com/weehoursdev/status/2034102271412474266☆Threads https://www.threads.com/@weehoursdev/post/DWApRaPEczw?xmt=AQF0g3banL0eDC2iJQDo29LIBHNQmX6XdV4wrxPoL__kMwプロトタイプは現在 v0.1.2。ユーザー + 5 LLM(Claude、Gemini、GPT、Grok、Mistral)での自然な会話ができるようになりました。AIたちが会話の空気を読む人間のグループトークでは、我々は「今はみんなの話を聞こう」とか「ここで自分が喋ろう」とか、会話の流れやその場の空気を読んで、発言するかしないかを暗黙のうちに判断しています。これが3人以上のグループでの自然な会話です。今回のプロトタイプでは、この自然なグループ会話を再現しようとしています。これがなかなか絶妙なバランス調整が必要で、AIたちが積極的に空気を読むようになる指示を仕方(プロンプトの文言)を、何度も試しながら手探り中です。指示が強すぎると、誰も発言をしなくなり、弱すぎると一斉にしゃべり出します。少しずついい感じになっては来てますが、これだ!というところにはあと一歩というところです。明日には、デモ動画を作って、実際に動いているところをお見せしたいと思っています。


補助知識
2026/03/28 10:37

こんにちは。小泉です。今週末は桜が見ごろですね。東京は天気にも恵まれて絶好の花見日和です。さてまずは昨日の結果から。・支援者:9名(+0名)・支援総額:160,000円(+0円)・ページビュー/日:157PVこの時期をクラファンではコツコツ期というようですが、ここ数日告知に力を入れられなかったせいもあるのでしょう。さらに多くのご支援をいただきたく、恐縮ですが、↓のURLにて本プロジェクトの拡散にご協力をお願いいたします。☆支援クーポン付きURL https://camp-fire.jp/projects/924548/view?ctoken=Ao6NSf6V0cFVniiX☆X https://x.com/weehoursdev/status/2034102271412474266☆Threads https://www.threads.com/@weehoursdev/post/DWApRaPEczw?xmt=AQF0g3banL0eDC2iJQDo29LIBHNQmX6XdV4wrxPoL__kMw今日は、コアエンジンBigDaddy主要機能から「補助知識」についてです。内部知識カットオフ問題AIモデルが持つ内部知識は、ある時点で固定されて、それ以降の最新情報は取り込まれていません。これを「カットオフ」と呼んでいます。カットオフの時期はモデルによって様々で、現時点(2026年3月28日)での主要モデルの内部知識は、・Claude Sonnet 4.6: 2025年8月・Gemini 3.1 Pro: 2025年1月・ChatGPT 5.4 Thinking: 2025年8月となっており、これ以降の情報はモデル内部の知識としては持っていません。ですので、ただ尋ねただけではこの日付以前の情報しか答えられません。こうして見ると、少々古い知識しか持っていないことに、驚かれる方も少なくないと思います。ですので、最新の情報を得たいときには、明示的に「最新の情報」と指定して、Web検索をするように促す必要があります。一方、Web検索はAIの記憶メモリに相当する「コンテキスト・ウィンドウ」を多く消費するので、効率が悪く、使用レート制限にも引っかかりやすくなります。カットオフ〜現在の知識ラグ解消そこでSIDEKICKのコアエンジンでは、モデルのカットオフ以降の知識ラグを埋める補助知識データベースを用意します。世界の全ての情報・知識を収集するのは難しいですが、少なくともWeb検索を大幅に減らすことで、各AIの思考資源を効率よく利用できるようになります。この補助知識はベクトル・データベースにて構築され、RAG(検索拡張生成)として機能します。仕分け(ルーティング)処理の中で、ユーザーのリクエスト内容に応じて、適宜、関連する情報の抽出が行われ、応答の生成で利用されます。


新しいアイデアや挑戦を、アプリで見つけるcampfireにアプリが登場しました!
App Storeからダウンロード Google Playで手に入れよう
スマートフォンでQRコードを読み取って、アプリをダウンロード!