LM StudioをWeb UI化して、ローカルLLMをみんなで使おう!
【自作ツール】LM StudioをWeb UI化して、ローカルLLMをみんなで使おう!
最近、手元のPCで大規模言語モデル(LLM)を動かすのが流行っていますね。その中でも「LM Studio」は、直感的なUIで誰でも簡単にローカルLLM環境を構築できる、非常に便利なツールです。
しかし、この便利なLM Studioにも、ちょっとした悩みどころがあります。
- LM Studioが動いているPCでしか使えない
- ファイルアップロード機能をもっと強化したい
LM Studioのチャット機能は非常に優秀ですが、利用するにはアプリケーションがインストールされているPCにログインする必要があります。これでは、家族や同じネットワーク内の同僚に「ちょっとこのAI使ってみて」と気軽に共有することができません。
テキストや画像のアップロードはできますが、「WordやExcelファイルの中身について質問したい」と思っても、一度テキストに手動で変換する必要があり、少し手間がかかります。
そこで、これらの課題を解決するために、ブラウザさえあれば誰でもローカルLLMと対話できる「多機能WebチャットUI」を開発しました。
このツールを使えば、LM StudioをバックエンドのAIサーバーとして活用し、もっと便利で開かれたローカルAI環境を構築できます。
多機能WebチャットUI
「LM Studioで動いているAIを、もっと手軽に、もっと多機能に活用したい!」という思いから、単一のHTMLファイルで動作するWebアプリケーションを開発しました。
特別なサーバー設定は不要で、ブラウザでファイルを開くだけですぐに利用を開始できます。
なお、htmlファイルはGitHubに公開しています。ぜひ参考にしてみてください。 https://github.com/flying-YT/LmstudioWebUI
主な機能
- 多彩なファイルアップロード機能
- マルチモーダル対話
- Markdown & シンタックスハイライト対応
通常のテキストファイル(.txt, .md, .pyなど)や画像ファイルに加え、Word(.docx)やExcel(.xlsx)ファイルを直接アップロードできます。JavaScriptライブラリがファイルの中身を自動でテキストに変換し、LLMにコンテキストとして渡してくれます。
「この画像について、このドキュメントを参考にして説明して」といったように、テキスト、画像、ドキュメントを組み合わせた複雑な質問も可能です。
LLMからの返答はリアルタイムでMarkdownとして描画され、ソースコードが含まれている場合はシンタックスハイライトで見やすく表示されます。
このツールの最大の強み
このツールの最大の強みは、その「手軽さ」と「共有のしやすさ」です。
LM Studio側でサーバーを起動し、このHTMLファイルをネットワーク内の共有フォルダに置くだけで、誰でも自分のPCやスマートフォンのブラウザから、あなたのPC上で動いているパワフルなローカルLLMにアクセスできるようになります。
使い方
セットアップは非常に簡単です。
- LM StudioでAPIサーバーを起動
- HTMLファイルのアドレスを修正
- ブラウザで開く
LM Studioの「Server」タブを開き、モデルを選択して「Start Server」ボタンを押すだけです。サーバーのアドレス(例: `http://xxx.xxx.xxx.xxx:1234`)が表示されるので、これを控えておきます。
ちなみにデフォルトのトークン数は4096くらいなので、ご自身のGPUが許容できる分までトークン数を増やすことをオススメします。
オプションの「コンテキスト長」の値を増やして、再度モデルの読み込みをしてください。(Wordなどのファイルを使う場合は特に)
提供されているindex.htmlファイルをテキストエディタで開き、JavaScriptコード内のfetchアドレスを、先ほど控えたものに書き換えます。
// 418行目あたり
const response = await fetch('http://xxx.xxx.xxx.xxx:1234/v1/chat/completions', {
method: 'POST',
headers: { 'Content-Type': 'application/json' },
body: JSON.stringify({
messages: conversationHistory,
stream: true
}),
});
修正したindex.htmlファイルをブラウザで開けば、すぐにチャットを開始できます!
コードの抜粋 (ファイル処理部分)
このツールの心臓部とも言えるファイルの種類に応じて処理を分岐させるJavaScript関数です。ライブラリを使うことで、本文などの中身のみをLLMに渡すことができるようになります。
async function processFile(file) {
return new Promise((resolve, reject) => {
const reader = new FileReader();
const extension = file.name.split('.').pop().toLowerCase();
reader.onload = async (e) => {
try {
let content;
const fileType = file.type;
// mammoth.js を使用して .docx ファイルを処理します。
if (extension === 'docx') {
const result = await mammoth.extractRawText({ arrayBuffer: e.target.result });
content = result.value;
// xlsx.js (SheetJS) を使用して .xlsx ファイルを処理します。
} else if (extension === 'xlsx') {
const workbook = XLSX.read(e.target.result, { type: 'array' });
let fullText = '';
workbook.SheetNames.forEach(sheetName => {
const worksheet = workbook.Sheets[sheetName];
const sheetText = XLSX.utils.sheet_to_txt(worksheet);
fullText += `--- Sheet: ${sheetName} ---\n${sheetText}\n\n`;
});
content = fullText.trim();
} else if (fileType.startsWith('image/')) {
content = e.target.result; // Base64
} else {
// その他のファイルはテキストとみなします。
content = e.target.result;
}
resolve({
name: file.name,
type: fileType || extension,
content: content
});
} catch (err) {
reject(err);
}
};
// Handle file reading errors.
reader.onerror = (err) => reject(err);
// Word/ExcelファイルはArrayBufferとして読み込む必要があります。
if (extension === 'docx' || extension === 'xlsx') {
reader.readAsArrayBuffer(file);
} else if (file.type.startsWith('image/')) {
reader.readAsDataURL(file);
} else {
reader.readAsText(file);
}
});
}
補足
なお、ブラウザから簡単に利用できる反面、あくまでLM Studioの一部機能を使ったバックエンドになっています。
そのため、複数人同時の処理は想定していません。。
もし同時にアクセスがあると、アクセスが入って来た順番に待ち行列が作成され、1つ1つリクエストに回答していく形式です。
大人数の利用は想定していないのでご容赦ください。
さいごに
LM Studioのおかげで、誰もが手軽に高性能なAIをローカルで実行できるようになりました。今回作成したツールは、その可能性をさらに一歩押し進め、ローカルAIを「個人で楽しむ」ものから「チームや家族で共有する」ものへと変えるきっかけになるかもしれません。
単一のHTMLファイルなので、自由にカスタマイズして「自分だけのAIチャットUI」を作るのも面白いでしょう。ぜひこのツールを試して、あなたのローカルLLM環境をアップグレードしてみてください。
今回はこの辺で、ではまた!



コメント
コメントを投稿