🗣️ Vicuna のような LLM と、WebGPU を使ってブラウザ上で安全に変えるかつプライベートに、そしてサーバを介さずに完全にチャットすることができます。web-llm を搭載。
-
🤖 サーバーサポートなし ですべてがブラウザ内で実行され、WebGPU で加速されます。
-
⚙️ モデルはウェブワーカーで実行されるため、ユーザーインターフェイスをブロックすることなく、シームレスなエクスペリエンスを提供します。
-
🚀 Vercel のワンクリックで1分以内に無料で簡単にデプロイでき、その後、あなた自身の ChatLLM Web を手に入れることができます。
-
💾 モデルのキャッシュがサポートされているので、モデルのダウンロードは一度のみでよい。
-
💬 マルチ会話チャットは、全てのデータがブラウザにローカルに保存され、プライバシーが守られます。
-
📝 Markdown とストリーミングレスポンスのサポート: 数学、コードハイライトなど。
-
🎨 ダークモードを含む、レスポンシブでデザイン性の高い UI。
-
💻 PWA に対応し、ダウンロードして完全にオフラインで実行できます。
-
🌐 このアプリを使用するには、Chrome 113 や Chrome Canary など、WebGPU をサポートするブラウザが必要です。Chrome のバージョン ≦ 112 はサポートされていません。
-
💻 約 6.4GB のメモリを搭載した GPU が必要です。GPU のメモリが少ない場合でも、アプリは実行されますが、応答時間は遅くなります。
-
📥 初めてアプリを使用する際は、モデルのダウンロードが必要です。現在使用している Vicuna-7b モデルの場合、ダウンロードサイズは約 4GB です。初回ダウンロード後は、ブラウザのキャッシュからモデルを読み込むことで、より高速に使用することができます。
-
ℹ️ 詳細は mlc.ai/web-llm をご参照ください
-
[✅] LLM: Web Workerを使用してLLMインスタンスを作成し、回答を生成する。
-
[✅] 会話: Multi-conversation に対応しています
-
[✅] PWA
-
[] Settings:
- ui: ダーク/ライトテーマ
- デバイス:
- gpu デバイスの選択
- キャッシュの使用量と管理
- モデル:
- マルチモデル対応: vicuna-7b✅ RedPajama-INCITE-Chat-3B []
- パラメータ設定: temperature, max-length など。
- モデルのエクスポートとインポート
git clone https://github.com/Ryan-yang125/ChatLLM-Web.git
cd ChatLLM-Web
npm i
npm run dev