こんにちは。小泉です。今週末は桜が見ごろですね。東京は天気にも恵まれて絶好の花見日和です。さてまずは昨日の結果から。・支援者:9名(+0名)・支援総額:160,000円(+0円)・ページビュー/日:157PVこの時期をクラファンではコツコツ期というようですが、ここ数日告知に力を入れられなかったせいもあるのでしょう。さらに多くのご支援をいただきたく、恐縮ですが、↓のURLにて本プロジェクトの拡散にご協力をお願いいたします。☆支援クーポン付きURL https://camp-fire.jp/projects/924548/view?ctoken=Ao6NSf6V0cFVniiX☆X https://x.com/weehoursdev/status/2034102271412474266☆Threads https://www.threads.com/@weehoursdev/post/DWApRaPEczw?xmt=AQF0g3banL0eDC2iJQDo29LIBHNQmX6XdV4wrxPoL__kMw今日は、コアエンジンBigDaddy主要機能から「補助知識」についてです。内部知識カットオフ問題AIモデルが持つ内部知識は、ある時点で固定されて、それ以降の最新情報は取り込まれていません。これを「カットオフ」と呼んでいます。カットオフの時期はモデルによって様々で、現時点(2026年3月28日)での主要モデルの内部知識は、・Claude Sonnet 4.6: 2025年8月・Gemini 3.1 Pro: 2025年1月・ChatGPT 5.4 Thinking: 2025年8月となっており、これ以降の情報はモデル内部の知識としては持っていません。ですので、ただ尋ねただけではこの日付以前の情報しか答えられません。こうして見ると、少々古い知識しか持っていないことに、驚かれる方も少なくないと思います。ですので、最新の情報を得たいときには、明示的に「最新の情報」と指定して、Web検索をするように促す必要があります。一方、Web検索はAIの記憶メモリに相当する「コンテキスト・ウィンドウ」を多く消費するので、効率が悪く、使用レート制限にも引っかかりやすくなります。カットオフ〜現在の知識ラグ解消そこでSIDEKICKのコアエンジンでは、モデルのカットオフ以降の知識ラグを埋める補助知識データベースを用意します。世界の全ての情報・知識を収集するのは難しいですが、少なくともWeb検索を大幅に減らすことで、各AIの思考資源を効率よく利用できるようになります。この補助知識はベクトル・データベースにて構築され、RAG(検索拡張生成)として機能します。仕分け(ルーティング)処理の中で、ユーザーのリクエスト内容に応じて、適宜、関連する情報の抽出が行われ、応答の生成で利用されます。




