Onyx:RAG・深層調査・エージェント機能をすべて備えたオープンソースAIプラットフォーム
Onyx:RAG・深層調査・エージェント機能をすべて備えたオープンソースAIプラットフォーム
このソフトで何ができる?
Onyx(旧称 Danswer)は、社内の資料やWebの情報をAIと組み合わせて活用できるオープンソースのAIプラットフォームです。Slack・GitHub・Notion・Confluenceなど50以上のサービスと接続でき、「この資料に何が書いてある?」「社内の手続きはどうなっている?」といった質問に、根拠付きで答えてくれます。文書検索・深層調査・カスタムエージェントの作成・コード実行・Web検索・音声モードなど、豊富な機能が1つの画面から使えます。自社のサーバーに置いて使う(セルフホスト)ことも、クラウドサービスとして使うことも選べます。AnthropicやOpenAIなどの有料AIモデルはもちろん、OllamaやLiteLLMのような無料のローカルモデルにも対応しており、予算や環境に合わせて柔軟に運用できます。
こんな人におすすめ
1. 社内の情報をまとめてAIに聞きたいエンジニア・情報システム担当者
Confluence・Slack・GitHub・Notionなど、バラバラに散らばった社内の知識をまとめてインデックス化(検索できる状態に整理すること)できます。「あの仕様書どこだっけ?」という問いに、根拠となる文書を示しながら答えてくれるため、情報を探す時間を大幅に削減できます。新入社員のオンボーディングや社内問い合わせ対応の負荷を減らしたいチームにとって、すぐに価値を感じられる構成です。
2. 最新情報をもとに深い調査をしたいリサーチャー・アナリスト
Deep Research(深層調査)機能は、複数のステップに分けて自動で調査を進め、詳細なレポートを生成します。Web検索とRAGを組み合わせた多段階の調査フローが自動化されるため、手作業では時間がかかる市場調査や競合分析の効率が大きく上がります。2026年2月時点でリーダーボード(性能比較の一覧表)の上位に位置する実力があり、精度面でも信頼できます。
3. AI機能を業務に組み込みたい企業・開発チーム
RBAC(役割ごとのアクセス管理)・SSO(シングルサインオン:1つのIDで複数サービスにログインする仕組み)・SCIM(ユーザー管理の自動化)などエンタープライズ(大企業向け)の要件を満たしています。Community Edition(コミュニティ版)はMITライセンスで無償利用でき、コスト面でも導入しやすい構成です。
インストール・使い方
Onyxには Liteモード と Standardモード の2種類があります。Liteモードは1GB未満のメモリで動くため、まず試してみたい方に最適です。Standardモードはベクターデータベース(意味の近さで文書を探す仕組み)・Redisキャッシュ(よく使うデータを高速に読み出す仕組み)・MinIOストレージ(ファイルを保存する仕組み)なども起動するフル構成です。
ターミナルとは:文字を入力してパソコンに命令を送る画面のことです。Windowsなら「コマンドプロンプト」、Macなら「ターミナル」アプリがこれにあたります。以下のコマンドはすべてコピー&ペーストで実行できます。
Step 1: ワンコマンドインストール(Liteモード・最短手順)
curl -fsSL https://onyx.app/install_onyx.sh | bash
このコマンド1行で、Docker Compose(複数のプログラムをまとめて起動する仕組み)の設定ファイルをダウンロードし、必要なコンテナ(プログラムの実行環境)を自動でセットアップします。Dockerがインストールされていれば、これだけで起動準備が整います。
Step 2: リポジトリを手動で取得する場合
git clone https://github.com/onyx-dot-app/onyx.git
cd onyx/deployment
cp .env.example .env
リポジトリ(ソースコードの置き場)をダウンロードし、設定ファイルのサンプル(.env.example)をコピーして自分用の設定ファイル(.env)を作成します。.env を開いて、使用するLLMプロバイダーのAPIキー(サービスを利用するための認証コード)などを書き込みます。
Step 3: Docker Composeで起動
# Liteモード(まず試したい方向け)
docker compose -f docker-compose.lite.yml up -d
# Standardモード(フル機能を使いたい方向け)
docker compose -f docker-compose.yml up -d
-d オプションはバックグラウンド(画面の裏側)で動かす指定です。初回はDockerイメージ(プログラムの設計図)のダウンロードがあるため、数分かかることがあります。
Step 4: ブラウザでアクセス
http://localhost:3000
起動後にブラウザでこのURLを開くと、セットアップウィザード(設定を案内する画面)が表示されます。LLMプロバイダーのAPIキーを入力し、接続したいデータソース(SlackやNotionなど)のコネクタを設定すれば、すぐに質問応答が使えるようになります。
ブラウザで試す
OnyxはDockerで複数のコンテナ(ベクターデータベース・Redisキャッシュ・MinIOオブジェクトストレージ・AIモデル推論サーバーなど)を協調して動かすフルスタック(フロントエンドからバックエンドまで一式そろった)構成です。そのため、単体の軽量デモアプリとして切り出すことが難しい構造になっています。
実際の機能を手軽に体験したい場合は、公式の Onyx Cloud でアカウントを作成する方法がおすすめです。セルフホストの前にUIや操作感を確かめたい方は、まずこちらで試してみるとイメージがつかみやすくなります。
動かしてみた
実際にリポジトリの構成を確認したところ、プロジェクトは大きく4つのディレクトリに整理されていました。
./widget/ # TypeScript + Vite によるフロントエンドウィジェット
./cli/ # Go製CLIツール(コマンドラインから操作するツール)
./deployment/ # Docker Composeなどのデプロイ設定
./docs/ # ドキュメント類(METRICSなど)
CLIコンポーネントはGo言語で実装されており、cli/pyproject.toml と cli/hatch_build.py が存在することから、PythonパッケージとしてもインストールできるようにPyPI(Pythonのパッケージ配布サービス)向けに整備されていることが確認できました。また ct.yaml および cubic.yaml というYAML(設定ファイルの書き方のひとつ)ファイルが含まれており、CI/CD(コードの自動テスト・デプロイの仕組み)パイプラインの設定が丁寧に整備されていることもわかりました。docker-bake.hcl はHCL形式のファイルで、複数のプラットフォーム(OSやCPUアーキテクチャの組み合わせ)向けにDockerイメージを一括ビルドするために使われます。フロントエンド・CLI・デプロイ設定が明確に分離されており、本番運用を見据えたインフラ構成が整備されている印象を受けました。
実践:はじめの一歩
初めてOnyxを使う場合は、次の順序で進めると最短でRAGを体験できます。
- まずOnyx Cloudの無料アカウントを作成する:インストール不要でUIの雰囲気をつかめます。自社環境へのデプロイを検討する前にここで試してみましょう。
- セルフホストするならLiteモードから始める:リソース(メモリやCPUの使用量)を確認しながら、必要に応じてStandardモードへ移行するのが安全です。
- 最初のコネクタは「ファイルアップロード」か「Webクローラー」がおすすめ:設定がシンプルで、少量のデータでもRAGの動作をすぐ確認できます。手持ちのPDFや社内Wikiのページから始めてみましょう。
- 高度な機能は段階的に有効化する:MCPによる外部アプリ連携・音声モード・Deep Researchは、基本的なRAGが動くことを確認してから有効化するとトラブルが少なくなります。
- LLMはまずOpenAIかAnthropicのAPIキーで試す:安定した動作確認後に、Ollamaなどのローカルモデルへ切り替えると比較しやすくなります。
用語とポイント解説
RAG(Retrieval-Augmented Generation:検索拡張生成) かんたんに言うと「AIが回答する前に関係する文書を探して読んでから答える」仕組みです。LLM単体が持つ知識だけでなく、社内資料や最新Webページの内容を根拠として回答に組み込めます。「どの文書を参照したか」も確認できるため、回答の信頼性が大きく向上します。
LLM(Large Language Model:大規模言語モデル) かんたんに言うと「大量のテキストを学習した、文章を理解・生成できるAI」のことです。ChatGPTやClaude、Geminiなどが代表例です。OnyxはこのLLMに社内知識を組み合わせるための「アプリ層(ユーザーが直接使う部分)」として機能します。
MCP(Model Context Protocol) かんたんに言うと「AIエージェントが外部のツールやAPIを呼び出すときの共通ルール」です。SlackやGitHub・JiraなどのサービスをAIエージェントから操作するために使われます。OnyxはMCPをサポートしており、多様な外部サービスとの連携が可能です。
Docker Compose かんたんに言うと「複数のプログラムをまとめて起動・管理するツール」です。Onyxはデータベース・キャッシュ・ストレージなど複数のコンテナで構成されており、Docker Composeがそれらを一括で立ち上げます。コマンド1行で全体を起動・停止できるため、運用が楽になります。
RBAC(Role-Based Access Control:ロールベースアクセス制御) かんたんに言うと「役職や担当によって見られる情報・使える機能を分ける仕組み」です。管理者だけが設定を変更できるようにしたり、部門ごとに参照できるデータを限定したりするために使います。大人数の組織でのセキュアな運用に欠かせません。
SSO(Single Sign-On:シングルサインオン) かんたんに言うと「1つのIDとパスワードで複数のサービスにログインできる仕組み」です。社員がOnyxにアクセスするとき、会社のGoogleアカウントやMicrosoftアカウントでそのままログインできるようになります。パスワード管理の手間が減り、セキュリティも向上します。
SCIM(System for Cross-domain Identity Management) かんたんに言うと「ユーザーアカウントの作成・削除・変更を自動化する仕組み」です。社員が入退社したとき、人事システムと連携してOnyxのアカウントを自動で追加・削除できます。手作業による管理ミスを防ぎ、運用負荷を大幅に省けます。
ベクターデータベース(Vector Database) かんたんに言うと「文章の”意味の近さ”で検索できるデータベース」です。通常のキーワード検索と違い、言葉が違っても意味が近い文書を見つけられます。RAGの中核を担う仕組みで、OnyxのStandardモードで利用されます。
Deep Research(深層調査) かんたんに言うと「AIが自動で複数のステップに分けて調査し、詳細レポートをまとめる機能」です。1回の質問でWebやRAGを組み合わせた多段階の調査フローが走り、根拠付きのレポートが生成されます。手作業での調査時間を大幅に短縮できる、Onyxの目玉機能のひとつです。
活用アイデア
- 社内ドキュメントQ&A:Confluence・Notion・Google Driveなどの社内Wikiをインデックス化し、新入社員のオンボーディングや社内問い合わせの削減に活用する。「この申請の手順は?」といった問いに資料を示しながら即答してくれます。
- 競合・市場調査の自動化:Deep Research機能でWeb検索とRAGを組み合わせた多段階の調査レポートを自動生成し、週次の市場動向レポート作成を効率化する。担当者の調査時間を大幅に削減できます。
- カスタムエージェントによる業務自動化:MCP経由でSlack・GitHub・Jiraなどと連携したエージェントを構築し、チケット作成・プルリクエストのサマリー生成・アラート通知などを自動化する。繰り返しの定型作業を減らせます。
- エンタープライズAIゲートウェイ:RBAC・SSO・クエリ履歴の監査ログを活用して、組織全体でのAI利用を安全に管理する。どの部門が何を質問したかを記録しつつ、LLMプロバイダーを一元管理できます。
- 学習・研修コンテンツの整備:過去の研修資料やマニュアルをインデックス化し、「この操作の詳細な手順は?」「あの研修で出てきた概念は?」といった問いに即答できる学習支援ツールとして活用する。
- 個人開発・プロトタイプ検証:OllamaなどのローカルLLMと組み合わせることで、クラウドAPIの費用をかけずに自分だけのRAGシステムを構築できる。個人プロジェクトのアイデア検証にも手軽に使えます。
ぜひ社内ナレッジの検索・自動化や、Deep Researchを活用した調査レポートの効率化などに活用してみてはいかがでしょうか。