プリセット | プラグインモード & ストリーミング出力 | 画像レンダリング |
---|---|---|
- 🚀 高度に拡張可能(LangChain & Koishi API)
- 🎭 カスタム会話プリセット
- 🛡️ レート制限 & ブラックリストシステム
- 🎨 多形式出力(テキスト、音声、画像、混合)
- 🧠 長期記憶によるコンテキスト認識
- 🔀 3つのモード:チャット、ブラウジング、プラグイン
- 🔒 Koishi検閲によるコンテンツモデレーション
- ルームベースの会話システム
- コンテンツモデレーション
- TTSサポート(vitsサービス経由)
- 返信の画像レンダリング
- 複数モデルの統合
- プリセットシステム
-
会話のインポート/エクスポート(廃止) - v1リファクタリング
- ストリーミング応答
- i18nサポート
基本機能を使用するためにKoishiにプラグインをインストールします。詳細なセットアップについては、ドキュメントを参照してください。
モデル/プラットフォーム | 統合 | 特徴 | 備考 |
---|---|---|---|
OpenAI | 公式API | カスタマイズ可能、プラグイン/ブラウジングモード | 有料API |
Azure OpenAI | 公式API | OpenAIに類似 | 有料API |
Google Gemini | 公式API | 高速、GPT-3.5を上回る性能 | アカウントが必要、料金が発生する可能性 |
Claude API | 公式API | 大きなコンテキスト、GPT-3.5を上回ることが多い | 有料、Function Callなし |
Deepseek | 公式API | 国内有名モデル | GPT-4oに近いかそれを超える性能 |
Tongyi Qianwen | 公式API | 無料クォータあり | Zhipuよりやや優れている |
Zhipu | 公式API | 新規ユーザーに無料トークン | Xunfei Sparkより優れている |
Xunfei Spark | 公式API | 新規ユーザーに無料クォータ | GPT-3.5に類似 |
Wenxin Yiyan | 公式API | Baiduのモデル | Xunfei Sparkよりやや劣る |
Hunyuan | 公式API | Tencentのモデル | Wenxin Yiyanより優れている |
Ollama | 自己ホスト | オープンソース、CPU/GPUサポート | バックエンドのセットアップが必要 |
GPT Free | 非公式 | 他のウェブサイトのGPTモデルを使用 | 不安定、失敗する可能性 |
ChatGLM | 自己ホスト | 自己ホスト可能 | バックエンドが必要、性能が最適でない |
RWKV | 自己ホスト | オープンソースモデル | バックエンドのセットアップが必要 |
- Google (API)
- Bing (API & Web)
- DuckDuckGO (Lite)
- Tavily (API)
1.0.0-alpha.10
から、よりカスタマイズ可能なプリセットを使用します。デフォルトのプリセット: catgirl.yml
プリセットフォルダ: <koishi_dir>/data/chathub/presets
詳細については、プリセットシステムドキュメントを参照してください。
リポジトリをクローンします:
# yarn
yarn clone ChatLunaLab/chatluna
# npm
npm run clone ChatLunaLab/chatluna
tsconfig.json
を更新します:
{
"extends": "./tsconfig.base",
"compilerOptions": {
"baseUrl": ".",
"paths": {
"koishi-plugin-chatluna-*": ["external/chatluna/packages/*/src"]
}
}
}
プロジェクトをビルドします:
# yarn
yarn workspace @root/chatluna-koishi build
# npm
npm run build -w @root/chatluna-koishi
yarn dev
またはnpm run dev
で開発を開始します。
注: HMRは完全に互換性がない場合があります。問題が発生した場合は、再ビルドして再起動してください。
以下の分野での支援が必要です:
- Web UI
- HTTPサーバー
- プロジェクトドキュメント
PRやディスカッションを歓迎します!
ChatLunaLabによって開発されました。
ChatLunaはLLMベースのチャットボットフレームワークです。私たちはオープンソースコミュニティと協力してLLM技術を進歩させています。ユーザーはオープンソースの合意を遵守し、このプロジェクトを潜在的に有害な目的や評価されていないサービスに使用しないようにする必要があります。
このプロジェクトはAIサービスを直接提供しません。ユーザーはAIサービスプロバイダーからAPIアクセスを取得する必要があります。
ユーザーは現地の法律を遵守し、現地で利用可能なAIサービスを使用する責任があります。
プロジェクトはアルゴリズム生成結果に対して責任を負いません。すべての結果と操作はユーザーの責任です。
ユーザーは独自のデータストレージを構成します。プロジェクトは直接のデータストレージを提供しません。
プロジェクトは、ユーザーが引き起こしたデータセキュリティ問題、世論リスク、またはモデルの誤用に対して責任を負いません。
以下のプロジェクトに感謝します: