
本プロジェクトを実現させるにあたって幾つかのプロセスがあります。
使用するローカルLLMモデルを決める。
同時に大体のアプリの要件やサンプル返却のプロトタイプを作る。
↓
追加でモデル学習する場合に、どのような方法で学習するかを決める。
↓
モデル学習を試行する。
↓
モデル学習を試行しながら、外側のロジックを作る。
フロントエンド:Next.js
バックエンド:Python
↓
RAGは実験しながら調整していく。
全文検索、ベクトル検索、キーワード検索など各手法の複合的なRAGとなることが予想される。
↓
ロジックとモデルとRAGを繋げたらアルファ版が完成する。
↓
ブラッシュアップして完成版を作る
↓
デスクトップアプリ化(Windows、Mac、Linuxで動作確認)
↓
公開して完成
まずはその初期段階のローカルLLMモデルの選定から。
嬉しいことに、弊社公式サイトのチャットを通して使えそうな日本語モデルの情報を下さった方がいらっしゃいました。
参考にさせていただきます。
ありがとうございます。



