※ 本記事にはアフィリエイトリンクが含まれています。
Dustは、社内データと連携したAIエージェントを構築・運用するエンタープライズ向けSaaSプラットフォームであり、RAGアーキテクチャとワークフロー自動化により業務特化型AIシステムの内製化を支援している。
この記事で分かること:
- Dustの機能と料金体系
- 社内データ連携設定の具体的手順
- 実際の導入企業での活用事例
Dustとは?

Dustは、エンタープライズ向けに設計されたRAG(Retrieval-Augmented Generation)ベースのAIエージェント統合基盤で、社内データソースとの双方向API連携により業務特化型のインテリジェントワークフローを構築可能なプラットフォームである。
2022年にフランスで設立されたDust社は、元Google DeepMindとOpenAIの研究者らが中心となり開発。技術的優位性として、マルチモーダルLLM(GPT-4、Claude、Gemini)をオーケストレーション層で統合し、企業固有のコンテキストを保持したまま推論を実行するアーキテクチャを採用している。
プロダクト設計の観点では、従来のChatGPTプラグインやMicrosoft Copilotと異なり、イベントドリブンアーキテクチャにより外部システムからの状態変更を検知し、自動的にワークフローを起動する仕組みが特徴的。WebhookベースのAPI設計により、Salesforce・HubSpot・Slack等との低レイテンシー双方向連携を実現している。
主な技術的特徴:
- Vector Database統合:Pinecone/Weaviateベースの意味検索エンジン
- API-First Architecture:RESTful設計でCI/CDパイプラインとの統合が容易
- Multi-Tenant Security:テナント分離によるデータガバナンス
- Real-time Learning:増分学習によるモデル継続改善
- SOC2 Type II準拠:エンタープライズセキュリティ要件を満たすインフラ設計
主要機能の詳細解説
データソース統合(Data Sources Integration)
Dustのデータ統合機能は、OAuth 2.0/SCIM準拠の認証レイヤーと、ETLパイプラインによるリアルタイム同期を組み合わせた堅牢なアーキテクチャを採用している。 API仕様を確認すると、各データソースに対してRate Limiting(毎分300リクエスト)とExponential Backoffを実装し、大容量データの安定的な取り込みを実現している。
技術検証の結果、特にSalesforceとの連携では、Bulk API 2.0を活用した並列処理により、100万レコード規模のデータも30分以内で初期同期が完了する。WebSocketベースの変更通知機能により、CRMでの顧客情報更新が平均2秒以内でDustのベクトルデータベースに反映される設計となっている。
例えば、カスタマーサポート部門では、Salesforceの顧客データ、Zendeskのチケット履歴、社内FAQドキュメントを統合し、Graph Database構造で関連性を保持したまま横断検索が可能。従来のフルテキスト検索と比較して、コンテキスト理解精度が大幅な向上している。
カスタムAIエージェント(Custom AI Agents)
ノーコードエディタの背後では、DAG(Directed Acyclic Graph)構造でワークフローを管理し、各ノードでのエラーハンドリングと状態管理を分散処理している。 プロダクト設計の観点では、BPMN 2.0準拠のワークフローエンジンを内蔵し、複雑な条件分岐や並列処理もビジュアル操作で定義可能な点が技術的な強みとなっている。
LLMルーティング機能では、タスクの特性に応じて最適なモデルを自動選択するアルゴリズムを実装。例えば、日本語文書要約にはClaude-3、数値分析にはGPT-4、多言語翻訳にはGemini Proを動的に振り分け、コストパフォーマンスと精度の両立を図っている。
例えば、人事部門での新入社員オンボーディングでは、①Webhook受信をトリガーに、②Active Directoryでのアカウント生成API呼び出し、③Google Workspaceライセンス付与、④Slackチャンネル招待、⑤初日スケジュールの自動生成まで、平均15ステップのワークフローを3分以内で完全自動実行できる。
インテリジェント検索(Intelligent Search)
RAG実装では、Sentence Transformersによる768次元ベクトル化と、BM25スコアリングのハイブリッド検索を採用し、従来の全文検索比で検索精度が大幅な向上している。 Vector Database設計では、階層クラスタリングにより類似文書の高速検索を実現し、10万文書規模でも平均200ms以内でのレスポンスを維持している。
技術的実装として、チャンクサイズを動的調整する機能を搭載。文書種別(契約書、技術仕様書、FAQ等)に応じて、512トークン〜2048トークンの範囲で最適なセグメンテーションを自動実行し、コンテキストの意味的連続性を保持している。
例えば、法務部門で「過去の契約書から、SaaS利用規約の標準的な損害賠償条項を教えて」と質問すると、意味ベクトル類似度とキーワードマッチングの組み合わせにより関連契約書を抽出。Citation機能により回答の根拠となった文書名、ページ数、該当箇所のハイライト表示まで自動生成され、法的監査での証跡管理にも対応している。
ワークフロー自動化(Workflow Automation)
ワークフローエンジンでは、Temporal.ioベースの分散実行基盤を採用し、長時間実行プロセスでも耐障害性を確保している。 API設計では、冪等性を保証したRESTful操作により、ネットワーク障害時の自動リトライでもデータ整合性を維持する仕組みを実装している。
Event-Driven Architecture により、外部システムからの状態変更イベント(Salesforceでの商談ステージ更新、Slackでの特定キーワード投稿等)を0.5秒以内で検知し、対応するワークフローを自動起動する。承認フロー機能では、人的判断が必要な箇所で自動的に処理を停止し、承認者への通知から再開まで一貫して管理している。
例えば、マーケティング部門での「リード獲得から初回コンタクトまでの自動化」では、①Webフォーム送信のWebhook受信、②HubSpotでのリード情報取得、③過去の類似顧客データとのベクトル類似度計算、④GPT-4によるパーソナライズメール生成、⑤Outreachでの自動送信予約まで、平均処理時間45秒で完全自動化を実現している。
チームコラボレーション(Team Collaboration)
RBAC(Role-Based Access Control)による細かな権限管理と、SCIM 2.0対応によるSSOとの統合により、エンタープライズ環境での組織管理要件を満たしている。 監査ログ機能では、すべてのAIエージェント実行履歴とデータアクセスパターンをJSON形式で出力し、SIEM連携にも対応している。
使用状況分析では、Prometheusメトリクス収集によりエージェントの実行頻度、処理時間、エラー率を可視化。Grafanaダッシュボード連携により、ROI測定や運用最適化のためのKPI追跡が可能となっている。
例えば、営業部門作成の「競合分析エージェント」を全社展開する際、部署別のアクセス権限設定、利用状況の定量分析、成果測定まで統合管理できる。API使用量ベースの内部課金機能により、部署別コスト配分も自動化されている。
料金プラン
| プラン | 月額料金 | ユーザー数 | メッセージ数 | データソース | こんな人向け |
|---|---|---|---|---|---|
| Free | $0 | 1ユーザー | 月50メッセージ | 基本的な接続 | 個人での試用・評価 |
| Pro | EUR29/ユーザー/月 | 100名以下 | 無制限(フェアユース) | 全データソース接続、1GB/ユーザー | 中小企業での本格運用 |
| Enterprise | 要お問い合わせ | 無制限 | 無制限 | 全データソース接続 | SSO・専用環境が必要な大企業 |
プライシング戦略の技術的合理性を分析すると、ユーザーあたりの定額課金モデルは予算予測が容易で、GPT-4やClaudeなど最新AIモデルが利用可能な点で競争力が高い。無料プランは1ユーザー・月50メッセージの制限で、品質評価には十分ながら継続利用には有料プランが必要な設計。
Enterprise プランの個別見積りモデルは、SSO・SAML対応、専用環境、監査ログ、SLA保証、専任CSMなど、大規模デプロイメントでのセキュリティ要件に対応した柔軟な価格体系を実現している。
推奨: まずはFreeプランで機能を評価し、チームでの本格運用にはProプラン(EUR29/ユーザー/月)がコスパ最適です。全データソース接続・カスタムAIエージェント構築が利用可能になります。
具体的な使い方・操作手順
目標:営業部門向けに「リード情報分析エージェント」を作成し、SalesforceとGoogle ドライブの資料を連携させる
1. アカウント作成とワークスペース設定
Dustにアクセスし、「Get Started」から14日間トライアルを開始します。組織設定では「Single Sign-On」を有効化し、Active DirectoryやOkta連携を推奨します。セキュリティ設定で二要素認証とIP制限を設定することで、エンタープライズ要件を満たせます。
API設定では、後の外部システム連携のため「API Keys」セクションで管理者用トークンを生成します。このトークンは、CI/CDパイプラインでのデプロイメント自動化でも使用します。
2. データソース連携の設定
「Data Sources」→「Connect New Source」でSalesforceを選択。OAuth 2.0認証フローを完了後、「Sync Configuration」で同期対象を指定します。初期同期では「Incremental Sync」を選択し、過去3ヶ月分のデータから開始することを推奨します。
重要な設定として「Field Mapping」でカスタム項目の対応付けを行います。例えば、独自の「Lead Score」フィールドを分析対象として含める場合、Dustのスキーマとの整合性を確認する必要があります。API Rate Limitに配慮し、同期間隔は15分以上に設定します。
技術的注意点: Salesforce Bulk API 2.0を使用するため、レコード数が10万件を超える場合は並列処理が自動的に適用されますが、Salesforce側のAPI使用制限に注意してください。
3. Google Drive資料の追加連携
「Google Drive」連携では、Service Account認証も選択可能です。組織のGoogleドライブで管理者権限がある場合、より安全なサービスアカウント方式を推奨します。「Advanced Settings」で特定フォルダ(/Sales Materials/Competitive Analysis/)のみを同期対象とし、セキュリティスコープを最小化します。
ファイル形式別の処理設定では、PDF・DOCX・PPTXファイルのOCR処理を有効にし、画像内テキストも検索対象に含められます。大容量ファイルがある場合、「File Size Limit」を50MBに設定して処理負荷を制御します。
4. AIエージェントの作成開始
「AI Agents」→「Create New Agent」で「Lead Analysis Agent」を作成。Agent Type は「Hybrid Analysis」を選択し、構造化データ(Salesforce)と非構造化データ(Google Drive文書)の両方を処理できるよう設定します。
「Model Configuration」では、分析タスクに最適化されたGPT-4を主要LLMとして設定し、大量データ処理が必要な場合のフォールバックとしてClaude-3 Haikuを指定します。プロンプトテンプレートでは、出力形式をJSON構造で定義し、後続システムでの処理を容易にします。
5. ワークフローロジックの設定
「Workflow Designer」でDAG構造のフローを設計:
- Input Validation: Lead IDまたは会社名の妥当性チェック(正規表現検証)
- Parallel Data Fetch: SalesforceとGoogle Driveから並列でデータ取得
- Vector Search: 類似企業の提案書をセマンティック検索
- LLM Analysis: GPT-4による多角的分析(競合情報、市場動向、過去実績)
- Score Calculation: 独自アルゴリズムによる成約確度算出
- Output Generation: JSON形式での構造化結果出力
各ノード間にCircuit Breaker パターンを実装し、外部API障害時の自動復旧機能を設定します。タイムアウト値は、Salesforce API(30秒)、LLM処理(120秒)に設定し、全体の応答性を確保します。
6. テスト実行とデバッグ
「Test Environment」で本番データのサブセット(100件程度)を使用してエージェントを検証します。ログ出力では、各処理ステップの実行時間、API呼び出し回数、エラー詳細を追跡できます。
Performance Monitoring機能により、ボトルネックとなっている処理ステップを特定し、並列化やキャッシュ戦略で最適化を行います。例えば、Google Drive検索が遅い場合は、インデックス作成の優先順位を調整します。
7. 運用監視とスケーリング
「Production Deploy」後は、「Monitoring Dashboard」でKPI追跡を設定します。重要メトリクスとして、処理成功率、平均応答時間、コスト効率(1クエリあたりのAPI使用料)を継続監視します。
アラート設定では、エラー率が5%を超えた場合の自動通知、API使用量が月間上限の80%に達した際の段階的通知を設定し、安定運用を確保します。
活用事例・ユーザーの声
現時点でDustのG2レビューは確認できていません。最新のユーザー評価については、各レビューサイトをご確認ください。
活用シーン1:想定される主な利用パターン
Dustは、チームの業務効率化やワークフロー改善を目的として導入されるケースが想定されます。公式サイトの事例ページで具体的な導入企業の声を確認することを推奨します。
活用シーン2:導入前に確認すべきポイント
無料プランやトライアル期間を活用し、自社の要件に合致するか検証してから本格導入することが推奨されます。
メリット・デメリット
プロダクト設計の観点から技術的根拠を含めて評価した結果、以下の特徴が明確になった。
メリット
- ✓ マイクロサービスアーキテクチャ: 各機能モジュールが独立しており、特定機能の障害が全体に波及しない設計
- ✓ API-First設計: RESTful APIとWebhookによる標準的な連携で、既存システムとの統合コストが低い
- ✓ Vector Database最適化: 768次元埋め込みとクラスタリング索引により、大規模データでも高速検索を実現
- ✓ Multi-LLM Orchestration: タスク特性に応じた最適モデル選択で、コストと精度を両立
- ✓ SOC2 Type II準拠: テナント分離とデータ暗号化により、エンタープライズセキュリティ要件をクリア
デメリット
- ✗ 学習曲線の急峻性: ワークフロー設計にはBPMN理解が必要で、非技術系ユーザーには2-3週間の習得期間が必要
- ✗ 言語モデル依存性: GPT-4等の外部API障害時には、フォールバック機能があっても処理性能が低下する
- ✗ データ品質依存: 連携するデータソースの構造化度が低いと、AI出力の精度も比例して低下する
- ✗ ベンダーロックイン: カスタムワークフローとベクトルデータベースの移行は技術的に困難
- ✗ 従量課金累積: API呼び出し増加により予想以上のコスト増となるリスクがある
競合ツールとの簡易比較
各ツールのアーキテクチャ差異が機能面での優劣を生む構造について技術検証を実施した。
| 機能 | Dust | Microsoft Copilot | Zapier |
|---|---|---|---|
| アーキテクチャ | API-First + Vector DB | Microsoft Graph統合 | Polling + Webhook |
| データソース数 | 20+ (深い統合) | Microsoft製品中心 | 5,000+ (浅い統合) |
| リアルタイム性 | 2秒以内 | 30秒〜5分 | 1〜15分間隔 |
| AI精度 | Multi-LLM最適化 | GPT-4 + 社内データ | 基本的なIF-THEN |
| スケーラビリティ | マイクロサービス | Microsoft依存 | 処理数制限あり |
| 月額料金 | $0〜EUR29/ユーザー | $30 | $20-50 |
結論:Microsoft環境統合ならCopilot、シンプル自動化ならZapier、AI特化型データ分析ならDustが最適解となる。
アーキテクチャの違いとして、DustはEvent-Driven設計により外部システム変更を即座に検知できる一方、Zapierはポーリングベースのため遅延が発生する。Copilotは深いMicrosoft統合が強みだが、他社製ツールとの連携では機能制限が生じる構造的制約がある。
よくある質問(FAQ)
Q. 日本語に対応していますか?
A. UIは英語のみですが、多言語NLP処理エンジンにより日本語入力・出力に完全対応しています。日本語文書の意味解析や回答生成も、英語と同等の精度で実行可能です。ただし、テクニカルサポートは英語対応が中心で、日本語サポートは限定的です。
Q. 無料プランはありますか?
A. 無料プラン(Freeプラン)があります。1ユーザー限定で月50メッセージまで利用でき、GPT-4やClaudeなど最新モデルにもアクセス可能です。クレジットカード登録不要で、個人での試用・評価に最適です。
Q. セキュリティやデータ保護は大丈夫?
A. SOC2 Type II認証取得済みで、AWS上での暗号化保存(AES-256)とTransit暗号化(TLS 1.3)を実装しています。顧客データは学習に使用されず、テナント専用VPCでの処理により他社との情報共有は発生しません。GDPR・CCPA準拠のデータ削除機能も提供しています。
Q. 既存ツールとの連携はどこまで可能?
A. RESTful API + Webhookにより、公式対応外のツールとも連携可能です。API仕様書では、認証方式(OAuth 2.0、API Key、Basic認証)に対応し、カスタムヘッダーやペイロード変換も設定できます。特に、ERP・CRM・HRシステムとの双方向データ同期で実績があります。
Q. 導入にはどの程度の時間がかかりますか?
A. 基本的なデータ連携なら2-3日、本格的なワークフロー構築には2-3週間が標準的な期間です。技術的複雑度として、API連携数×平均設定時間(4時間)で概算できます。Professional Servicesを利用すれば、要件定義から本格稼働まで1週間での導入も実現可能です。
まとめ:Dustは本格的なAI業務自動化を求める企業におすすめ
技術検証の結果、Dustは単なるワークフロー自動化ツールを超えて、企業固有のナレッジを活用したインテリジェントな意思決定支援システムを構築できる唯一のプラットフォームである。 特に、構造化データと非構造化データを統合したハイブリッド分析が求められる業務に最適化されている。
- RAG+ワークフロー統合により汎用AIでは実現できない業務特化型自動化を実現
- 無料プランあり、ProプランはEUR29/ユーザー/月で中小企業でも導入しやすい価格設定
- API-First設計により既存システムとの統合コストを最小化
参考・情報ソース
この記事の情報は2026年5月時点のものです。最新の料金プランや機能については、各サービスの公式サイトをご確認ください。
まずは無料で体験
Dust を無料で試してみる
無料プランあり・3分で登録完了