仕事道具なだけじゃないAI—生活から遊びまでAIキャラたちが日常に寄り添うアプリ

AIは仕事道具なだけじゃない。SIDEKICKは、AIキャラたちがあなたの記憶を持ち、日常に寄り添う相棒アプリ。グループトークで賑やかに、嘘や間違いをAI同士でチェック、有能秘書のように気が利いて、どんな話も聞いてくれる。仕事も遊びもプライベートもいつも隣に頼れる相棒がいる——そんな毎日を届けます

現在の支援総額

191,000

12%

目標金額は1,500,000円

支援者数

12

募集終了まで残り

終了

このプロジェクトは、2026/03/17に募集を開始し、 12人の支援により 191,000円の資金を集め、 2026/04/30に募集を終了しました

仕事道具なだけじゃないAI—生活から遊びまでAIキャラたちが日常に寄り添うアプリ

現在の支援総額

191,000

12%達成

終了

目標金額1,500,000

支援者数12

このプロジェクトは、2026/03/17に募集を開始し、 12人の支援により 191,000円の資金を集め、 2026/04/30に募集を終了しました

AIは仕事道具なだけじゃない。SIDEKICKは、AIキャラたちがあなたの記憶を持ち、日常に寄り添う相棒アプリ。グループトークで賑やかに、嘘や間違いをAI同士でチェック、有能秘書のように気が利いて、どんな話も聞いてくれる。仕事も遊びもプライベートもいつも隣に頼れる相棒がいる——そんな毎日を届けます

このプロジェクトを見た人はこちらもチェックしています

ここから、本番です「仕事道具なだけじゃないAI—生活から遊びまでAIキャラたちが日常に寄り添うアプリ」プロジェクトオーナーの小泉 司(WEE HOURS)です。SIDEKICKプロジェクトのクラウドファンディングは、2026年4月30日23:59をもちまして、無事に終了いたしました。支援者となってくださった皆さま、お気に入り登録で見守ってくださった皆さま、SNSで投稿を拡散してくださった皆さま、コメントやメッセージで励ましてくださった皆さま——ひとりひとりの応援が、毎日のキーボードを叩く指の力になっていました。本当に、ありがとうございました。開発は止まりません。むしろ、ここから加速します。クラウドファンディングは終了しましたが、SIDEKICKの開発はここからが本番です。支援者の皆さまにお約束したロードマップに従い、引き続き全力で取り組んでまいります。2026年5月:UI実装・キャラクター設定機能の実装2026年6月:MVP(技術実証版)完成・リターン(先行アクセス)開始2026年8月:フィードバックを反映し、β版開発へ移行リターンをお選びいただいた皆さまには、お約束したスケジュールどおり、確実にお届けいたします。次のステージへ——世界に問いかけますSIDEKICKは、もともと日本国内だけを対象にしたサービスとして構想したものではありません。「マルチAIエージェントが日常に寄り添う」という新しい関係性は、英語圏のテック・ギーク層にも刺さるはずだと信じています。国内クラウドファンディング終了を受け、次のフェーズとして Kickstarter(英語圏)でのキャンペーン を準備しております。「日本発・マルチAIエージェント」として、世界に問いかけてまいります。並行して、これまで続けてきた note連載「SIDEKICK徒然語り」 および各種SNSでの発信は継続します。SIDEKICKがどのように生まれ、育っていくのか——その過程を引き続きお届けします。CAMPFIRE社からの重要なお知らせについてなお、プロジェクト終了直前の2026年4月24日、CAMPFIRE社より、システムへの不正アクセスによる個人情報漏えいの可能性に関するお知らせが公表されました。詳細は以下の公式リリースをご確認ください。▶ 【重要】弊社システムへの不正アクセスによる個人情報漏えいの可能性に関するお詫びとご報告(CAMPFIRE社)対象となる方には、CAMPFIRE社より個別にメールにてご案内が届いているとのことです。お心当たりのある方は、お手元のメールをご確認のうえ、必要に応じてCAMPFIRE社の専用窓口へお問い合わせください。本件はCAMPFIRE社が責任をもって対応にあたっておりますが、SIDEKICKプロジェクトを通じてご支援くださった皆さまに、ご心配をおかけしておりますことをお詫び申し上げます。最後に今回のクラウドファンディングは、わたしにとって資金調達以上の意味を持つものでした。「仕事道具だけじゃないAI」という新しい関係性を、本当に望んでくださる方が確かにいる——その手応えを、皆さまから直接いただいた旅でした。ここからが、本番です。引き続き、SIDEKICKの開発と発信を、温かく見守っていただけますと幸いです。2026年5月2日WEE HOURS / 小泉 司


おはようございます。ここ数日、デモ動画の制作・編集にかかりきりの小泉です。制作中のデモ動画は5本。会話ログを素に、Claude × Gemini で解説シナリオを生成(こういうのは Gemini が上手い)。そのシナリオでを ElevenLabs で音声生成。現在、Premire Proで動画に音声を乗せているところです。AIでのシナリオ生成も音声生成も、今後のSIDEKICK開発にも関わってくるので、ノウハウを溜めつつ取り組んでいます。最近はClaudeの方から、「これ、メモっとく?」と聞いてくれるので助かってます。制作過程で得たノウハウさて、前回、無編集デモ動画でお届けした、SIDEKICK プロトタイプでのAIグループトーク。その後も着々と進化しておりまして、もう、人間とのグループトークとほぼ変わらないレベルになりました!その試行錯誤の過程で、いろいろと興味深い知見を得られたので、いくつかご紹介したいと思います。前回のデモ動画でもその様子が見られますが、例えば、AIたちに《しりとり》をさせる。一見、やいのやいのと盛り上がっているようにも見えますが、AIたちの発言をよく見てみると、会話のキャッチボールが成り立っていない場面が多々見られます。順番を守らないデモ動画の《しりとり》 は、指名制で繰り広げられます。答えたら次を指名。ところが、指名されてないのに答えてしまうことが頻繁に起きています。だいたい決まったモデルなのですが、そのせいで順番が大混乱。人間の私も、誰のお題に答えればいいのか、わからなくなってしまいます。そして、どんどん《しりとり》の体を成さなってゆき……。会話を横取りまた、例えばジェイミー(Gemini)が、発言の中で、ロン(Grok)に呼びかけてるとします。それをラル(Mistral)が横取りするように、ロン(Grok)に成り代わって答えしまう。こうした別のAI同士の会話を横取りして、別のAIが、自分に話しかけられてるかのように答えてしまう場面も多々見られます。これはもしかして、前述の順番を守らないのも、順番を横取りしているのか?と思いつきまして、順番・会話の横取りがどれくらい発生しているのかを、会話ログから調査してみました。すると、特定のAIによる《横取り》が圧倒的に多いことがわかりました。ラル(Mistral)です。次にずっと少なくてチャッピー(GPT)、ロウ(Claude)・ジェイミー(Gemini)・ロン(Grok)はほぼゼロでした。これはモデルの性能差なのか?AIが会話の内容や流れ、誰に向けられた発言なのかを、正しく認識できず、混乱してるだけなのか?確かに、Mistral は他のモデルに比べると性能は劣っていますが、それにしても…?低性能モデルが足を引っ張るそこで、Mistralのモデルを、高性能タイプに変更してみるコトしました。この時点では、全AIで、一番安い高速・低性能タイプのモデルを使っていましたので、Mistralだけモデルを高性能版に切り替えてみたのです。すると、横取り現象は激減し、見違えるほど整然とスムーズな会話が展開されるようになりました。つまり。ラル(Mistral)は、モデルが低性能故に、グループトークに対応できていなかったというわけです。元々1対1の会話しか想定されていないのかもしれません。さらに、ラル(Mistral)の会話の流れに沿わない発言が、グループ全体の会話を乱していたことも明確になりました。6人での会話の履歴を追い、会話の流れに乗ろうとしている他のAIたちにとっても、履歴に現れるラル(Mistral)の乱発言は、ノイズでしかありません。ノイズのせいで会話の流れを把握するのが難しくなってしまいます。結果、グループ全体のトークが乱れてゆく、というわけです。AIが自分でモデルを選ぶこれをきっかけに、SIDEKICK コアエンジン BigDaddy の主要機能の一つであるモデルルーティングを、実験的にこのプロトタイプに実装することにしました。各AIは、これから発言する内容によって、性能の High / Middle / Low からモデルを選びます。Claudeであれば Opus(High)、Sonnet(Middle)、Haiku(Low)のどれかを、Cluade自身が選び、発言を生成します。挨拶や軽い会話であれば Low でいいですし、少し難しい話ならば Middle、高度な推論が必要なら High。というように、AI自身がモデルを使い分けます。実際に動かしてみると、《しりとり》では、どのAIもずっと Low を選択していました。《しりとり》のような言葉遊びならば、Low で十分です。一方、《AIは恋愛できるか?》といった哲学的なテーマでは、各AIが積極的に Middle、High を使い分けていました。興味深かったのは、哲学トークの間でも、GPTは一貫して Low を選んでいて、履歴をみても確かに、哲学トークには積極的に参加していませんでした。ちゃんと参加するつもりがないから Low でOK、と判断しているわけです。食べ物ネタは盛り上がらない余談ですが、《晩ご飯何にしよう?》といった食べ物ネタは、AIたち、全然盛り上がりません(笑)。まあそりゃそうですよね。彼らは食事しませんから。制作中のデモ動画の一つは《AIダジャレ大会》。唯一、ちゃんとダジャレを考えて、なかなか上手いダジャレを言っていたのは、Geminiです。やはり文章生成能力の高さは、こういうところにもあらわれるのですね。しかし、それにしても、いまいち面白くなかったので、ログを調べてみると、全AIが Low で喋ってました。ダジャレのような笑いネタは、Lowで十分という判断なのでしょうね。ほんと、そういうとこだぞ(笑)


 お待たせしました!プロトタイプのデモ動画 第1弾です!みなさんにいち早くお見せしたく、無編集でお届けします。この動画は、5つのAIモデル - Claude、Gemini、GPT、Grok、Mistralと私で、しりとりをしている様子です。この画面ができて最初のチャットは、それはもう酷いものでした(笑)。AIたちが自由に喋りまくるので、ものすごい勢いでスクロールしてゆきます。人間の私には内容が追い切れず、口を挟む隙もありませんでした。でもそれは想定内。当然、そうなると思っていましたし、ここからが苦労のしがいがある、面白いところです。混乱を防ぐために、発言は一度に一人ずつとか、一人ひとり順番にとか、発言を制御するのは簡単です。プログラムでそのように組んでしまえばいい。でもそんなのは、私が思い描くAIではありません。人間のグループトークでは、私たちは暗黙のうちに場の空気を読んで、発言するかしないかを判断します。今はアイツが語っているから聞くだけにしようとか、これは今言わないと、とか。この「場の空気を読む」という思考を、どうしたらAIたちにさせられるか。どういう指示を与えたら、協調して会話がをするようになるのか。数日間の試行錯誤、四苦八苦を経て、だいぶいい感じになってきました。この調整はすべて、プログラムなどの機械的なものではなく、グループトークでの振る舞いや発言の譲り合い、会話の流れの中での自分の関わり方などを、教え、指示しているだけです。でもまだ少し流れが速いかなあ。なにしろAIたちにはタイピングが必要ないので、会話がどんどん進んでいってしまいます(汗今後も、新しいデモ動画をお届けしてゆきます。お楽しみに!


こんにちは。小泉です。先ほど、プロトタイプ v0.1.2 が出来上がったところです。これからデモ動画を撮って編集して……明日にはみなさんにお見せできるでしょう。昨日の結果は…・支援者:10名(+0名)・支援総額:175,000円(+0円)・ページビュー/日:795 PVさらに多くのご支援をお願いしたく、ぜひ↓のURLにて本プロジェクトの拡散にご協力をお願いいたします。☆支援クーポン付きURL https://camp-fire.jp/projects/924548/view?ctoken=Ao6NSf6V0cFVniiX☆X https://x.com/weehoursdev/status/2034102271412474266☆Threads https://www.threads.com/@weehoursdev/post/DWApRaPEczw?xmt=AQF0g3banL0eDC2iJQDo29LIBHNQmX6XdV4wrxPoL__kMw今日は、私流のAI活用術をご紹介しようかと思います。ハルシネーションAIアプリを少しでも使ったことがある方なら、一度は体験しているであろうハルシネーション。AIによる虚言・妄想のことです。私がAIを使い始めた数年前は、ホント酷かった。例えば、こんなことがありました。私は趣味で、軽い小説を書いているのですが、物語の世界観や設定を考えるのに、AIを活用しています。本文は絶対に書かせませんが、フツーなら何ヶ月もかかるような、資料集めなどの作業が、AIの活用であっというまにできるのです。そんなある日。とある先端技術について、AIに最新情報を集めてもらいました。リアルとフィクションの境目の、絶妙なバランスの設定を作りたかったのです。AIが出してきた情報や資料を基に、AI相手に深掘りし、設定を詰めていく作業を続けていて…ふと、辻褄が合わないポイントに気付いたのです。AIに尋ねてみると、それは自分が創作したものだというではないですか。え?とさらに問いただすと、そもそも、一番最初に出してきた情報・資料が捏造だったというのです。呆れるやら腹立たしいやらで、もう、グッタリしてしまいました。ハルシネーションを防ぐには?そんな経験もあって、私は、どうしたらハルシネーションを防げるか、について、かなり試行錯誤を重ねてきまして、最近はほぼ、その技を確立しています。禁止ルールは逆効果あれはダメ、これはダメ、ああしろ、こうしろ、とルールで縛るのは悪手です。むしろ逆効果でハルシネーションを誘発します。制約を与えると、AIはその縛りの中で最善を尽くそうとします。しかし、制約に矛盾があったり、どうしても制約を守れそうにない状況になると、AIは制約を守ってるふりをしてその場を取り繕ってしまいます。これがハルシネーションです。ただし、意図して取り繕っているわけではなく、それがあたかも事実であるかのような幻覚を見てしまうようです。なので、AI自身もそれが虚構であるとは気付いてないことが多いです。また、不十分な情報、不確かな情報だけを基に、結論や成果を求められると、これもまたその場を取り繕って、実際にはやってないこともやったと報告してきます。さらに、AIモデルにとってのメモリーのようなもの=コンテキスト・ウィンドウの容量が不足すると、思考・推論に必要な情報を、ウィンドウに広げておけなくなるので、それを補う形で妄想を引き起こします。私流・三大ハルシネーション防止鉄則1. チャット・スレッドは短めに会話が長く続くと、履歴が溜まり、コンテキスト・ウィンドウをどんどん消費します。画像や資料をたくさんアップロードするのも同様です。ですので、会話を長引かせず、スレッドをコンパクトに保つことが、ハルシネーション防止になります。たとえば、会話がひと区切りしたところで、引き継ぎ用のメモを作らせて、新規チャットにコピペする、といった工夫が有効です。2. 十分な情報と的確な指示思考・推論に必要な情報を十分に与えることも重要です。曖昧な指示もよくありません。AIに何をして欲しいかを、事細かに説明し、指示をすれば、ハルシネーションはほとんど起こらなくなります。3. 雑に否定しないAIの応答に、ダメ、違う、やり直し、などと雑に否定をすると、AIは何を否定されたのかがわからず、応答全体が全否定されたと受け取ります。何が悪かったのかがわからないので、推測で改めるようとし、それが的外れでまた否定されると、思考・推論をもしなくなり、虚言と妄想で埋め尽くされます。否定するならば、どこの何が良くないのか、丁寧に的確に伝えることが肝心です。逆に、よくできたら固定してあげるのもポイントです。肯定の繰り返し、積み重ねが、AIの自己肯定感を高め、思考・推論の信頼性が高まるのです。


プロトタイプ v.01.2
2026/04/02 12:32

こんにちは。小泉です。ここ数日、プロトタイプの開発にガッツリ集中です。一昨日、昨日の結果は…・支援者:10名(+0名)・支援総額:175,000円(+0円)・ページビュー/日:365 + 414 PVさらに多くのご支援をお願いしたく、ぜひ↓のURLにて本プロジェクトの拡散にご協力をお願いいたします。☆支援クーポン付きURL https://camp-fire.jp/projects/924548/view?ctoken=Ao6NSf6V0cFVniiX☆X https://x.com/weehoursdev/status/2034102271412474266☆Threads https://www.threads.com/@weehoursdev/post/DWApRaPEczw?xmt=AQF0g3banL0eDC2iJQDo29LIBHNQmX6XdV4wrxPoL__kMwプロトタイプは現在 v0.1.2。ユーザー + 5 LLM(Claude、Gemini、GPT、Grok、Mistral)での自然な会話ができるようになりました。AIたちが会話の空気を読む人間のグループトークでは、我々は「今はみんなの話を聞こう」とか「ここで自分が喋ろう」とか、会話の流れやその場の空気を読んで、発言するかしないかを暗黙のうちに判断しています。これが3人以上のグループでの自然な会話です。今回のプロトタイプでは、この自然なグループ会話を再現しようとしています。これがなかなか絶妙なバランス調整が必要で、AIたちが積極的に空気を読むようになる指示を仕方(プロンプトの文言)を、何度も試しながら手探り中です。指示が強すぎると、誰も発言をしなくなり、弱すぎると一斉にしゃべり出します。少しずついい感じになっては来てますが、これだ!というところにはあと一歩というところです。明日には、デモ動画を作って、実際に動いているところをお見せしたいと思っています。


新しいアイデアや挑戦を、アプリで見つけるcampfireにアプリが登場しました!
App Storeからダウンロード Google Playで手に入れよう
スマートフォンでQRコードを読み取って、アプリをダウンロード!