インストール
前提条件
| 依存 | 説明 |
|---|---|
| Python 3.10+ | ランタイム |
| PostgreSQL 16+ | データ保存 |
| Ollama | ローカル LLM 推論(オプション、クラウドのみも可) |
クローン & インストール
git clone https://github.com/wangjiake/JKRiver.git
cd JKRiver
python3 -m venv .venv
source .venv/bin/activate # macOS / Linux
# .venv\Scripts\activate # Windows
pip install -r requirements.txt
PostgreSQL セットアップ
createdb -h localhost -U your_username Riverse
psql -h localhost -U your_username -d Riverse -f agent/schema.sql
Note
Riverse と River Algorithm — AI会話履歴特別版 は同じデータベースを共有しています。どちらのプロジェクトからテーブルを作成しても、両方に必要な全テーブルが作成されます。もう一方のプロジェクトで既にテーブル作成済みの場合、このステップはスキップできます。
テーブルが作成されたか確認:
conversation_turns、user_profile、observations、fact_edges、memory_clusters など15前後のテーブルが表示されるはずです。
Ollama モデルの取得(オプション)
ローカル LLM を使用する場合:
起動
Web ダッシュボード(推奨) — FastAPI バックエンドと Flask フロントエンドを同時起動:
個別に起動する場合:
uvicorn agent.api:app --host 127.0.0.1 --port 8400 # FastAPI バックエンド(Web ダッシュボードに必要)
python web.py # Flask フロントエンド (http://localhost:1234)
python -m agent.main # CLI モード
python -m agent.telegram_bot # Telegram Bot
python -m agent.discord_bot # Discord Bot
Web ダッシュボードは両方のサービスが必要です。
start_local.pyが自動で管理します。