Brand LogoBrand Logo (Dark)
ホームAI エージェントツールキットGitHub 厳選エージェント投稿ブログ

カテゴリ

  • アート生成
  • オーディオ生成
  • 自動化ツール
  • チャットボット
  • コードツール
  • 金融ツール

カテゴリ

  • 大規模言語モデル
  • マーケティングツール
  • ノーコード
  • リサーチ & 検索
  • 動画 & アニメーション
  • 動画編集

GitHub ピック

  • DeerFlow — ByteDanceのオープンソースSuperAgent基盤

最新ブログ

  • OpenClaw対Composer 2 徹底比較!2026年最新AIアシスタントの実力は?
  • GoogleAIStudioとAnthropic Console どちらが最適?
  • スティッチ2.0 vs Lovable どちらが最強AIアプリビルダー?
  • 2026年最新!AIを活用した収益化戦略の実践ガイド
  • OpenClaw対MiniMax 機能・プライバシー・拡張性の違いを比較

最新ブログ

  • オープンクローVSキロクロー初心者におすすめはどれ?
  • オープンクローとキミクローの比較
  • 「GPT-5.4」と「Gemini 3.1 Pro」の比較
  • AIコンピューター革新が金融端末を揺るがす新時代
  • OpenClaw 最佳实践,5 个基本原则
LinkStartAI© 2026 LinkstartAI. 全著作権所有。
お問い合わせについて
  1. ホーム
  2. GitHub 厳選
  3. QMD
QMD logo

QMD

ローカル実行のMarkdown検索エンジン。BM25/ベクター/ローカルLLM重排序に加え、MCPサーバーでエージェント連携。
9.6kTypeScriptMIT
typescriptbunbm25vector-searchhybrid-searchmcp-server
markdown-notes-search
agentic-retrieval
alternative-to-ripgrep
alternative-to-obsidian-search
alternative-to-notion-search
alternative-to-rag

概要

QMD はMarkdownコンテンツを端末内で索引化し、ノートや議事録、社内ドキュメントを“エージェントが呼べる検索レイヤー”に変えるツールです。SQLite のFTS5(BM25)でキーワード検索を回しつつ、ベクター類似で語義検索も行い、node-llama-cpp 上のローカルGGUFモデルでクエリ拡張と重排序をかけて精度を上げます。--json/--files/--csv など自動化向け出力に加え、Model Context Protocol (MCP) サーバーとして search/get/status をツール化でき、読み取り→抽出→要約の流れをローカルに閉じられます。

課題 vs イノベーション

✕従来の課題✓革新的ソリューション
Markdownが増えるとgrep/キーワード検索だけでは言い換えや分散した根拠を拾えず、エージェントに渡す文脈が薄くなる。QMD はFTS5(BM25)+ベクター+ローカルLLM重排序のハイブリッドで、召回と可回答性を段階分離して最適化する。
エージェント連携は全文詰め込みか遠隔ベクタDB依存になりがちで、コストとプライバシー境界が揺れる。内蔵 Model Context Protocol (MCP) サーバーで検索をツール化し、必要部分だけを取り出す運用に寄せられる。

アーキテクチャ深掘り

ハイブリッド検索パイプライン(FTS5+ベクター+重排序)
段階分離で組み立てる。まず SQLite FTS5 のBM25で高速召回、次にベクター類似で語義補完、最後にローカルGGUFモデルをnode-llama-cppで動かし重排序して“答えやすさ”を上げる。
クエリ拡張と融合ランキング
原文クエリから変体を作って並列検索し、融合と位置依存のブレンドで精密一致を守りつつ、候補を絞って重排序コストを制御する。
エージェント向けインターフェース(CLI+MCP)
CLIは構造化出力でスクリプトに接続し、MCPサーバーは検索/取得/状態確認をツールとして提供してワークフローに組み込める。

デプロイガイド

1. 前提を用意(Bun が必要)

bash
1bun --version

2. QMD をグローバルインストール

bash
1bun install -g https://github.com/tobi/qmd

3. コレクション追加と埋め込み生成(初回はローカルモデルをキャッシュ)

bash
1qmd collection add ~/notes --name notes && qmd embed

4. 検索モードを使い分ける

bash
1qmd search "auth"\nqmd vsearch "login flow"\nqmd query "how to deploy"

5. MCPサーバー起動(エージェント用ツールI/F)

bash
1qmd mcp

導入事例

コアシーン対象読者ソリューション成果
Claude Code/デスクトップ向けローカル検索ツールエージェント活用の個人/チームローカルノートとプロジェクト文書を索引化してJSONで返す全文投入を避け、必要断片だけで回答品質を上げる
出社外送信なしの社内ナレッジ検索レイヤー機密性の高い開発/法務/監査端末や内網でハイブリッド検索と重排序を実行外部ベクタDBに載せずに検索性とQAを改善
議事録/運用ログの継続索引と回溯意思決定の追跡が必要な担当者議事録や変更履歴をコレクション化し更新を自動化自然文で“いつ何を決めたか”を引ける

制限事項と注意点

制限事項と注意点
  • 語義検索/重排序の初回はローカルモデルをダウンロードするため、ディスクと時間の見積もりが必要。まず小さなコレクションで検証すると安全。
  • macOSでは拡張対応のために追加のSQLite環境が必要になる場合がある。制限環境では依存とPATHを先に整える。

よくある質問

QMDを“コマンド実行”ではなくツールとして使うには?▾
内蔵の Model Context Protocol (MCP) サーバーを使い、構造化出力で呼び出せる形にする。--json/--filesで返す粒度も制御できる。
search/vsearch/queryで結果が変わるのはなぜ?▾
狙いが違うため。searchはキーワード一致、vsearchは語義近傍、queryは融合と重排序で“答えに使える断片”を上位に寄せる。
機密ノートを外部に出さない運用は?▾
索引と検索を端末内に閉じる。内容は SQLite に保存され、語義/重排序もローカルモデルで動く。加えて、出力がログや履歴に残る経路を定期的に監査する。
GitHubで見る

プロジェクト指標

Star数9.6 k
言語TypeScript
ライセンスMIT
デプロイ難易度普通

Table of Contents

  1. 01概要
  2. 02課題 vs イノベーション
  3. 03アーキテクチャ深掘り
  4. 04デプロイガイド
  5. 05導入事例
  6. 06制限事項と注意点
  7. 07よくある質問

関連プロジェクト

Pi Monorepo
Pi Monorepo
14.1 k·TypeScript
zvec
zvec
8.2 k·C++
ZeroClaw
ZeroClaw
15.6 k·Rust
NanoClaw
NanoClaw
8.6 k·TypeScript