コンテンツにスキップ

インストール

前提条件

依存 説明
Python 3.10+ ランタイム
PostgreSQL 16+ データ保存
Ollama ローカル LLM 推論(オプション、クラウドのみも可)

クローン & インストール

git clone https://github.com/wangjiake/JKRiver.git
cd JKRiver
python3 -m venv .venv
source .venv/bin/activate        # macOS / Linux
# .venv\Scripts\activate         # Windows

pip install -r requirements.txt

PostgreSQL セットアップ

createdb -h localhost -U your_username Riverse
psql -h localhost -U your_username -d Riverse -f agent/schema.sql

Note

Riverse と River Algorithm — AI会話履歴特別版 は同じデータベースを共有しています。どちらのプロジェクトからテーブルを作成しても、両方に必要な全テーブルが作成されます。もう一方のプロジェクトで既にテーブル作成済みの場合、このステップはスキップできます。

テーブルが作成されたか確認:

psql -h localhost -U your_username -d Riverse -c "\dt"

conversation_turnsuser_profileobservationsfact_edgesmemory_clusters など15前後のテーブルが表示されるはずです。

Tip

スケジュールスキルサポートが必要な場合(Telegram Job Queue):

pip install "python-telegram-bot[job-queue]"

Ollama モデルの取得(オプション)

ローカル LLM を使用する場合:

ollama pull <your-model>         # 例:qwen2.5:14b, llama3, mistral
ollama pull bge-m3              # 埋め込みモデル(オプション)

起動

Web ダッシュボード(推奨) — FastAPI バックエンドと Flask フロントエンドを同時起動:

python scripts/start_local.py

個別に起動する場合:

uvicorn agent.api:app --host 127.0.0.1 --port 8400    # FastAPI バックエンド(Web ダッシュボードに必要)
python web.py                                           # Flask フロントエンド (http://localhost:1234)
python -m agent.main                                    # CLI モード
python -m agent.telegram_bot                            # Telegram Bot
python -m agent.discord_bot                             # Discord Bot

Web ダッシュボードは両方のサービスが必要です。start_local.py が自動で管理します。