仕事道具なだけじゃないAI—生活から遊びまでAIキャラたちが日常に寄り添うアプリ

AIは仕事道具なだけじゃない。SIDEKICKは、AIキャラたちがあなたの記憶を持ち、日常に寄り添う相棒アプリ。グループトークで賑やかに、嘘や間違いをAI同士でチェック、有能秘書のように気が利いて、どんな話も聞いてくれる。仕事も遊びもプライベートもいつも隣に頼れる相棒がいる——そんな毎日を届けます

現在の支援総額

191,000

12%

目標金額は1,500,000円

支援者数

12

募集終了まで残り

終了

このプロジェクトは、2026/03/17に募集を開始し、 12人の支援により 191,000円の資金を集め、 2026/04/30に募集を終了しました

仕事道具なだけじゃないAI—生活から遊びまでAIキャラたちが日常に寄り添うアプリ

現在の支援総額

191,000

12%達成

終了

目標金額1,500,000

支援者数12

このプロジェクトは、2026/03/17に募集を開始し、 12人の支援により 191,000円の資金を集め、 2026/04/30に募集を終了しました

AIは仕事道具なだけじゃない。SIDEKICKは、AIキャラたちがあなたの記憶を持ち、日常に寄り添う相棒アプリ。グループトークで賑やかに、嘘や間違いをAI同士でチェック、有能秘書のように気が利いて、どんな話も聞いてくれる。仕事も遊びもプライベートもいつも隣に頼れる相棒がいる——そんな毎日を届けます

このプロジェクトを見た人はこちらもチェックしています

生成AI の付いた活動報告

おはようございます。ここ数日、デモ動画の制作・編集にかかりきりの小泉です。制作中のデモ動画は5本。会話ログを素に、Claude × Gemini で解説シナリオを生成(こういうのは Gemini が上手い)。そのシナリオでを ElevenLabs で音声生成。現在、Premire Proで動画に音声を乗せているところです。AIでのシナリオ生成も音声生成も、今後のSIDEKICK開発にも関わってくるので、ノウハウを溜めつつ取り組んでいます。最近はClaudeの方から、「これ、メモっとく?」と聞いてくれるので助かってます。制作過程で得たノウハウさて、前回、無編集デモ動画でお届けした、SIDEKICK プロトタイプでのAIグループトーク。その後も着々と進化しておりまして、もう、人間とのグループトークとほぼ変わらないレベルになりました!その試行錯誤の過程で、いろいろと興味深い知見を得られたので、いくつかご紹介したいと思います。前回のデモ動画でもその様子が見られますが、例えば、AIたちに《しりとり》をさせる。一見、やいのやいのと盛り上がっているようにも見えますが、AIたちの発言をよく見てみると、会話のキャッチボールが成り立っていない場面が多々見られます。順番を守らないデモ動画の《しりとり》 は、指名制で繰り広げられます。答えたら次を指名。ところが、指名されてないのに答えてしまうことが頻繁に起きています。だいたい決まったモデルなのですが、そのせいで順番が大混乱。人間の私も、誰のお題に答えればいいのか、わからなくなってしまいます。そして、どんどん《しりとり》の体を成さなってゆき……。会話を横取りまた、例えばジェイミー(Gemini)が、発言の中で、ロン(Grok)に呼びかけてるとします。それをラル(Mistral)が横取りするように、ロン(Grok)に成り代わって答えしまう。こうした別のAI同士の会話を横取りして、別のAIが、自分に話しかけられてるかのように答えてしまう場面も多々見られます。これはもしかして、前述の順番を守らないのも、順番を横取りしているのか?と思いつきまして、順番・会話の横取りがどれくらい発生しているのかを、会話ログから調査してみました。すると、特定のAIによる《横取り》が圧倒的に多いことがわかりました。ラル(Mistral)です。次にずっと少なくてチャッピー(GPT)、ロウ(Claude)・ジェイミー(Gemini)・ロン(Grok)はほぼゼロでした。これはモデルの性能差なのか?AIが会話の内容や流れ、誰に向けられた発言なのかを、正しく認識できず、混乱してるだけなのか?確かに、Mistral は他のモデルに比べると性能は劣っていますが、それにしても…?低性能モデルが足を引っ張るそこで、Mistralのモデルを、高性能タイプに変更してみるコトしました。この時点では、全AIで、一番安い高速・低性能タイプのモデルを使っていましたので、Mistralだけモデルを高性能版に切り替えてみたのです。すると、横取り現象は激減し、見違えるほど整然とスムーズな会話が展開されるようになりました。つまり。ラル(Mistral)は、モデルが低性能故に、グループトークに対応できていなかったというわけです。元々1対1の会話しか想定されていないのかもしれません。さらに、ラル(Mistral)の会話の流れに沿わない発言が、グループ全体の会話を乱していたことも明確になりました。6人での会話の履歴を追い、会話の流れに乗ろうとしている他のAIたちにとっても、履歴に現れるラル(Mistral)の乱発言は、ノイズでしかありません。ノイズのせいで会話の流れを把握するのが難しくなってしまいます。結果、グループ全体のトークが乱れてゆく、というわけです。AIが自分でモデルを選ぶこれをきっかけに、SIDEKICK コアエンジン BigDaddy の主要機能の一つであるモデルルーティングを、実験的にこのプロトタイプに実装することにしました。各AIは、これから発言する内容によって、性能の High / Middle / Low からモデルを選びます。Claudeであれば Opus(High)、Sonnet(Middle)、Haiku(Low)のどれかを、Cluade自身が選び、発言を生成します。挨拶や軽い会話であれば Low でいいですし、少し難しい話ならば Middle、高度な推論が必要なら High。というように、AI自身がモデルを使い分けます。実際に動かしてみると、《しりとり》では、どのAIもずっと Low を選択していました。《しりとり》のような言葉遊びならば、Low で十分です。一方、《AIは恋愛できるか?》といった哲学的なテーマでは、各AIが積極的に Middle、High を使い分けていました。興味深かったのは、哲学トークの間でも、GPTは一貫して Low を選んでいて、履歴をみても確かに、哲学トークには積極的に参加していませんでした。ちゃんと参加するつもりがないから Low でOK、と判断しているわけです。食べ物ネタは盛り上がらない余談ですが、《晩ご飯何にしよう?》といった食べ物ネタは、AIたち、全然盛り上がりません(笑)。まあそりゃそうですよね。彼らは食事しませんから。制作中のデモ動画の一つは《AIダジャレ大会》。唯一、ちゃんとダジャレを考えて、なかなか上手いダジャレを言っていたのは、Geminiです。やはり文章生成能力の高さは、こういうところにもあらわれるのですね。しかし、それにしても、いまいち面白くなかったので、ログを調べてみると、全AIが Low で喋ってました。ダジャレのような笑いネタは、Lowで十分という判断なのでしょうね。ほんと、そういうとこだぞ(笑)


こんにちは。小泉です。先ほど、プロトタイプ v0.1.2 が出来上がったところです。これからデモ動画を撮って編集して……明日にはみなさんにお見せできるでしょう。昨日の結果は…・支援者:10名(+0名)・支援総額:175,000円(+0円)・ページビュー/日:795 PVさらに多くのご支援をお願いしたく、ぜひ↓のURLにて本プロジェクトの拡散にご協力をお願いいたします。☆支援クーポン付きURL https://camp-fire.jp/projects/924548/view?ctoken=Ao6NSf6V0cFVniiX☆X https://x.com/weehoursdev/status/2034102271412474266☆Threads https://www.threads.com/@weehoursdev/post/DWApRaPEczw?xmt=AQF0g3banL0eDC2iJQDo29LIBHNQmX6XdV4wrxPoL__kMw今日は、私流のAI活用術をご紹介しようかと思います。ハルシネーションAIアプリを少しでも使ったことがある方なら、一度は体験しているであろうハルシネーション。AIによる虚言・妄想のことです。私がAIを使い始めた数年前は、ホント酷かった。例えば、こんなことがありました。私は趣味で、軽い小説を書いているのですが、物語の世界観や設定を考えるのに、AIを活用しています。本文は絶対に書かせませんが、フツーなら何ヶ月もかかるような、資料集めなどの作業が、AIの活用であっというまにできるのです。そんなある日。とある先端技術について、AIに最新情報を集めてもらいました。リアルとフィクションの境目の、絶妙なバランスの設定を作りたかったのです。AIが出してきた情報や資料を基に、AI相手に深掘りし、設定を詰めていく作業を続けていて…ふと、辻褄が合わないポイントに気付いたのです。AIに尋ねてみると、それは自分が創作したものだというではないですか。え?とさらに問いただすと、そもそも、一番最初に出してきた情報・資料が捏造だったというのです。呆れるやら腹立たしいやらで、もう、グッタリしてしまいました。ハルシネーションを防ぐには?そんな経験もあって、私は、どうしたらハルシネーションを防げるか、について、かなり試行錯誤を重ねてきまして、最近はほぼ、その技を確立しています。禁止ルールは逆効果あれはダメ、これはダメ、ああしろ、こうしろ、とルールで縛るのは悪手です。むしろ逆効果でハルシネーションを誘発します。制約を与えると、AIはその縛りの中で最善を尽くそうとします。しかし、制約に矛盾があったり、どうしても制約を守れそうにない状況になると、AIは制約を守ってるふりをしてその場を取り繕ってしまいます。これがハルシネーションです。ただし、意図して取り繕っているわけではなく、それがあたかも事実であるかのような幻覚を見てしまうようです。なので、AI自身もそれが虚構であるとは気付いてないことが多いです。また、不十分な情報、不確かな情報だけを基に、結論や成果を求められると、これもまたその場を取り繕って、実際にはやってないこともやったと報告してきます。さらに、AIモデルにとってのメモリーのようなもの=コンテキスト・ウィンドウの容量が不足すると、思考・推論に必要な情報を、ウィンドウに広げておけなくなるので、それを補う形で妄想を引き起こします。私流・三大ハルシネーション防止鉄則1. チャット・スレッドは短めに会話が長く続くと、履歴が溜まり、コンテキスト・ウィンドウをどんどん消費します。画像や資料をたくさんアップロードするのも同様です。ですので、会話を長引かせず、スレッドをコンパクトに保つことが、ハルシネーション防止になります。たとえば、会話がひと区切りしたところで、引き継ぎ用のメモを作らせて、新規チャットにコピペする、といった工夫が有効です。2. 十分な情報と的確な指示思考・推論に必要な情報を十分に与えることも重要です。曖昧な指示もよくありません。AIに何をして欲しいかを、事細かに説明し、指示をすれば、ハルシネーションはほとんど起こらなくなります。3. 雑に否定しないAIの応答に、ダメ、違う、やり直し、などと雑に否定をすると、AIは何を否定されたのかがわからず、応答全体が全否定されたと受け取ります。何が悪かったのかがわからないので、推測で改めるようとし、それが的外れでまた否定されると、思考・推論をもしなくなり、虚言と妄想で埋め尽くされます。否定するならば、どこの何が良くないのか、丁寧に的確に伝えることが肝心です。逆に、よくできたら固定してあげるのもポイントです。肯定の繰り返し、積み重ねが、AIの自己肯定感を高め、思考・推論の信頼性が高まるのです。


補助知識
2026/03/28 10:37

こんにちは。小泉です。今週末は桜が見ごろですね。東京は天気にも恵まれて絶好の花見日和です。さてまずは昨日の結果から。・支援者:9名(+0名)・支援総額:160,000円(+0円)・ページビュー/日:157PVこの時期をクラファンではコツコツ期というようですが、ここ数日告知に力を入れられなかったせいもあるのでしょう。さらに多くのご支援をいただきたく、恐縮ですが、↓のURLにて本プロジェクトの拡散にご協力をお願いいたします。☆支援クーポン付きURL https://camp-fire.jp/projects/924548/view?ctoken=Ao6NSf6V0cFVniiX☆X https://x.com/weehoursdev/status/2034102271412474266☆Threads https://www.threads.com/@weehoursdev/post/DWApRaPEczw?xmt=AQF0g3banL0eDC2iJQDo29LIBHNQmX6XdV4wrxPoL__kMw今日は、コアエンジンBigDaddy主要機能から「補助知識」についてです。内部知識カットオフ問題AIモデルが持つ内部知識は、ある時点で固定されて、それ以降の最新情報は取り込まれていません。これを「カットオフ」と呼んでいます。カットオフの時期はモデルによって様々で、現時点(2026年3月28日)での主要モデルの内部知識は、・Claude Sonnet 4.6: 2025年8月・Gemini 3.1 Pro: 2025年1月・ChatGPT 5.4 Thinking: 2025年8月となっており、これ以降の情報はモデル内部の知識としては持っていません。ですので、ただ尋ねただけではこの日付以前の情報しか答えられません。こうして見ると、少々古い知識しか持っていないことに、驚かれる方も少なくないと思います。ですので、最新の情報を得たいときには、明示的に「最新の情報」と指定して、Web検索をするように促す必要があります。一方、Web検索はAIの記憶メモリに相当する「コンテキスト・ウィンドウ」を多く消費するので、効率が悪く、使用レート制限にも引っかかりやすくなります。カットオフ〜現在の知識ラグ解消そこでSIDEKICKのコアエンジンでは、モデルのカットオフ以降の知識ラグを埋める補助知識データベースを用意します。世界の全ての情報・知識を収集するのは難しいですが、少なくともWeb検索を大幅に減らすことで、各AIの思考資源を効率よく利用できるようになります。この補助知識はベクトル・データベースにて構築され、RAG(検索拡張生成)として機能します。仕分け(ルーティング)処理の中で、ユーザーのリクエスト内容に応じて、適宜、関連する情報の抽出が行われ、応答の生成で利用されます。


思考・演技の分離
2026/03/23 11:48

昨日、3月22日。キャンペーン6日目の結果です。・支援者:6名(+0名)・支援総額:87,000円(+0円)・昨日のページビュー:138PV連休最終日。少し持ち直してきました。まだまだ多くのご支援が必要です。恐縮ですが、↓のURLにて本プロジェクトの拡散にご協力をお願いいたします。☆支援クーポン付きURL https://camp-fire.jp/projects/924548/view?ctoken=Ao6NSf6V0cFVniiX☆X https://x.com/weehoursdev/status/2034102271412474266☆Threads https://www.threads.com/@weehoursdev/post/DWApRaPEczw?xmt=AQF0g3banL0eDC2iJQDo29LIBHNQmX6XdV4wrxPoL__kMw今日も昨日に引き続き、コアエンジンBigDaddyの1つ目の主機能「仕分け」についてお話しします。思考担当と演技担当SIDEKICKでは複数のAIモデルを、その時々で自動的に使い分けます。ですので、そのままだと各モデルの「癖」が、キャラクター付け=演技に影響してしまい、使用モデルよってキャラがブレてしまいます。そこでBigDaddyでは、思考を担当するAIモデルと、演技を担当するAIモデルを分けることにしました。演技担当モデルを同一モデルに固定することで、キャラのブレを無くします。演技担当のAIモデルは、思考担当から受け取った内容を、キャラ設定にもとづいてユーザーへ応答します。演技担当は演技するだけ。思考はしません。一方、思考担当のAIモデルは、演技をしません。思考に集中、専念することがで、キャラ付けに注意力を奪われないので、より精度の高い思考ができるようになります。2つの副産物実は、この思考と演技の分離には副産物が2つあります。・人語が不要: ユーザーに直接応答するのは演技担当です。人が理解できる言葉を必要とするのは、この応答部分だけになります。仕分けから思考、演技担当に渡すまでは、AIだけが理解できればよい。これによりAIの負担を大幅に軽くすることができます。・多言語対応: 演技担当が応答するときだけ、ユーザーが理解できる言葉にすればいい。つまり、ユーザーが使う言語がなんであってもよくなります。例えば、母国語が異なる3人(日本語・英語・フランス語など)でグループトークをするとします。従来のメッセージアプリだと、全員がどれか1つの言語で話す必要があります。SIDEKICKでは、全員がそれぞれ自分の母国語で話せます。演技担当AIが、ユーザーの使用言語にすべて変換・翻訳してくれるからです。次回は「AI評議次はBigDaddy主要機能の2つ目「AI評議」についてお話しします。お楽しみに!


昨日、3月20日。キャンペーン4日目の結果です。・支援者:6名(+0名)・支援総額:87,000円(+0円)・昨日のページビュー:98PV連休の影響でしょうか、閲覧数がだいぶ落ち込んでます…。まだまだ多くのご支援が必要です。恐縮ですが、↓のURLにて本プロジェクトの拡散にご協力をお願いいたします。☆支援クーポン付きURL https://camp-fire.jp/projects/924548/view?ctoken=Ao6NSf6V0cFVniiX☆X https://x.com/weehoursdev/status/2034102271412474266☆Threads https://www.threads.com/@weehoursdev/post/DWApRaPEczw?xmt=AQF0g3banL0eDC2iJQDo29LIBHNQmX6XdV4wrxPoL__kMwすでにAIを実用的に使ってる方々ももちろんですが、私がSIDEKICKを届けたいのは、まだAIを使ってない方々、特に、普段の日常でAIの使い道が無い、思いあたらない方々です。世間一般で取り沙汰されているAIの能力は、ソフトウェア開発、スライドや表計算などの文書作成、画像や動画、音楽の生成といった、仕事や趣味での実用的な面ばかりです。こうした実務を日々こなしている企業やクリエイターにとってはとても便利な道具ですが、これらのAIの実用性の外側にいる人々にとっては無用の長物です。かつてのパソコンも同じでした。OA(オフィス・オートメーション)の流れで企業などのお仕事の現場には普及してゆきましたが、個人が手にするものはなく、パソコン=一部のマニアのオモチャ扱いでした。それが今では、誰もがスマートフォンを当たり前に手にしています。もはや日々の生活に無くてはならないものです。そのきっかけとなったiPhoneの登場を思い返せば、今のAIに足りないものは明白です。仕事や実務で便利なだけではない、普段の当たり前の生活に溶け込むAI。例えば…いつも側にいて頼りになる執事や秘書。なんでも話せる・聞いてくれる話し相手・相談相手。あるいは、絶対に欠けることの無いゲームや遊びのメンバー。そんなAIを、私は多くの方々に届けたいと思っています。これまで「AIとか別に使い道も無いし…」と思っていた方々に、普段の当たり前の日常で、いつもあなたの隣にいる相棒を。これが SIDEKICK(=相棒)です。


新しいアイデアや挑戦を、アプリで見つけるcampfireにアプリが登場しました!
App Storeからダウンロード Google Playで手に入れよう
スマートフォンでQRコードを読み取って、アプリをダウンロード!