AI・自動化·20分で読める

Slackから呼べるAIデータ分析エージェント完全ガイド|Databricks Genie・Snowflake Cortex・ThoughtSpot等11製品比較 + Google ADK実装例【2026年版】

Slackから自然言語でデータ分析できるAIエージェントの2026年版完全ガイド。Databricks Genie・Snowflake Cortex・ThoughtSpot Spotter・Tableau Pulse・Power BI Copilot・Looker+Gemini・Hex・Delphi・Zenlytic・Seek AI・Fabi.aiの11製品を徹底比較。Google ADK + Slack Bolt + BigQueryの自作コード例、Semantic Layerの重要性、Spider 2.0ベンチマーク、ガバナンス設計まで公式ドキュメント出典付きで解説。

AIエージェントSlackデータ分析Google ADKDatabricks GenieSnowflake CortexThoughtSpotTableau PulseHexDelphiZenlyticSeek AIFabi.aiText-to-SQLSemantic LayerConversational AnalyticsBigQuery
シェア
Slackから呼べるAIデータ分析エージェント完全ガイド|Databricks Genie・Snowflake Cortex・ThoughtSpot等11製品比較 + Google ADK実装例【2026年版】

なぜ「Slackでデータ分析」が合理解になったのか

BIツールは普及したのに、経営会議でダッシュボードを開く役員はなぜか少ない ― この既視感のある風景が、2025〜2026年のデータ分析プロダクト設計を大きく方向転換させました。 Tableau・Power BI・Lookerがこれだけ浸透しても、Gartnerが長く指摘してきた「BIの全社浸透率は依然として30〜40%に留まる」という構造問題は解消されていません (ThoughtSpot: Agents for BI)。 ダッシュボードを開く習慣がないユーザーは、何度URLを渡されても自分から開きに行かないからです。

一方で、同じユーザーがSlackは1日に何十回も開きます。ここに目をつけたのがConversational Analytics(対話型分析)の流れで、Databricks・Snowflake・ThoughtSpot・Tableauといった主要ベンダーがここ1〜2年で一斉にSlack対応を実装しました。 Fabi.aiは2026年2月のアップデートで「Slack統合の早期採用者は、1週間あたりのデータリクエスト数が5倍になった」と報告しています (Fabi.ai Product Update)。

本記事では、Slackから呼び出せるAIデータ分析エージェントの主要11プロダクトを比較しつつ、 Google ADK(Agent Development Kit)を使って自作する場合の具体コードまで踏み込みます。 関連する前提知識はデータ分析AIエージェント徹底解説BIツールの構造的限界も参照してください。

Slackから呼べるAIデータ分析エージェントの全体像

Slackから呼べるAIデータ分析エージェントは、見た目こそ「Slackボットに話しかけたら回答が返ってくる」というシンプルなUXですが、 内部はおおむね以下の4レイヤーで構成されます。

レイヤー役割代表的な実装
① Slackインターフェースメンション・スラッシュコマンド受信、スレッド管理、ブロックキット描画Slack Bolt(Python/Node)、Socket Mode、Events API
② オーケストレーション意図分類、Plan→Act→Observeループ、Tool選択、エラーリカバリGoogle ADK、LangGraph、AutoGen、CrewAI、自社オーケストレータ
③ Tool / データアクセスSQL実行、メタデータ取得、可視化生成、ドキュメント検索BigQuery Tools、Cortex Analyst、Genie API、MCP Toolbox、dbt Semantic Layer API
④ ガバナンス行列レベルのアクセス制御、監査ログ、PII保護、レート制限Unity Catalog、Snowflake Horizon、Looker IAM、OpenLineage

Slack側から見ると「Bot app をチャンネルに招待し、メンションされたらイベントを受ける」という Events API / Socket Mode の挙動は共通です。 プロダクトの差は主に②〜④、とりわけ「どのSemantic Layerに紐づいているか」「どのDWHにネイティブ権限で接続しているか」に現れます。

主要11プロダクト徹底比較

まずは比較表で俯瞰します。

プロダクト提供元前提スタックSlack対応特徴
Databricks GenieDatabricksUnity Catalog + Databricks SQLConversation API経由、Databricks Appsで30分構築可Unity Catalogガバナンス統合、ステートフル対話
Snowflake Cortex AgentsSnowflakeSnowflake + Semantic Model公式サンプル提供(Slack Bolt)Analyst(構造化)+ Search(非構造化)を統合呼出
ThoughtSpot SpotterThoughtSpotThoughtSpot ModelsSpotter app for Slack(Early Access)Search SQL、SpotterViz(ビジュアライズ)など専業エージェント構成
Tableau PulseSalesforce / TableauTableau Metrics LayerSlack / Teams / Email にメトリクス通知プッシュ型のKPIアラートに強い
Microsoft Copilot for FabricMicrosoftMicrosoft Fabric(OneLake + Power BI)Teamsが主、Slackはカスタム連携Fabric統合、DAX自動生成、M365エコシステム
Looker Studio Pro + GeminiGoogle CloudLookML(Looker)Workspace通知主、SlackはWebhookLookMLに根ざした会話型分析+Code Interpreter
HexHex TechnologiesSnowflake / BQ / DatabricksSlack通知・スケジュール、Threads(β)ノートブック型、Notebook Agentにclaude-sonnet-4
DelphiDelphi HQ任意DWH + セマンティックレイヤーSlackネイティブ、AIアナリスト特化ORM的アプローチでText-to-SQL回避、埋め込みUIも提供
Zenlytic (Zoë)ZenlyticSnowflake / BQ / Databricks / RedshiftSlack / Teams 公式統合Clarity Engine(独自Semantic Layer)、推論プロセス開示
Seek AISeek AISnowflake / DWH汎用/seekスラッシュコマンドSEEKER-1モデル、Insights Catalog、業務特化
Fabi.aiFabi.aiPython + SQL(ノートブック)@Fabiメンションで即回答ノートブック×Slack、採用者のクエリ数5x増

Databricks Genie ― Unity Catalogネイティブ

Databricks Genieは、Unity Catalog配下のテーブルに対して自然言語で問い合わせできる「AI/BI Genie」を核にしたプロダクトです。 2025年にGenie Conversation API(ステートフル対話API)がPublic Previewになり、外部アプリケーションからSlackやカスタムUIに組み込めるようになりました (Databricks: Genie Conversation APIs Public PreviewDatabricks: Use the Genie API)。

SlackからGenieに接続する最短経路として、コミュニティでは「Databricks Apps + Slack Socket Mode + Conversation API」の構成が推奨されています。Databricks Apps上でSlack Boltアプリを動かし、Genie SpaceのIDとSQL Warehouseを指定するだけで30分程度で起動可能 (databricksters.com: Integrate Slack with Genie natively)。 Genie Spaceにビジネスコンテキスト・例示クエリ・メタデータ注釈を充実させることが精度の鍵です。

強みはUnity Catalogのガバナンスが自動的に効くこと。 行列レベルのアクセス制御・リネージ・監査ログがDWH側で統一され、SaaS側にセキュリティ責務を追加しなくてよい設計になっています。 既にDatabricksが中核の組織であれば、第一候補になります。

Snowflake Cortex Agents ― Analyst × Searchの統合

SnowflakeのCortex Agentsは、構造化データ向けのCortex Analystと、非構造化データ向けのCortex Searchを1つのエージェントから呼び出せる統合レイヤーです。Slack連携の公式チュートリアルが用意されており、Slack Boltアプリから Cortex Agents API を叩く構成になっています (Snowflake: Getting Started with Cortex Agents and SlackSnowflake Docs: Cortex Agents)。

2026年4月の料金改定で、Cortex AgentsはEdition非依存のAIクレジット制($2.00/credit グローバル、$2.20/credit リージョナル)に移行し、以前に比べてVPS/特定リージョンでの分析コストが最大79%下がる形になりました (Towards Data Engineering: Snowflake AI Pricing Overhaul)。 Snowflakeを標準DWHに据えている日本企業にとって、Slack × Cortexは最短の「対話型分析」導入経路の1つになりつつあります。

ThoughtSpot Spotter ― BI特化のマルチエージェント

ThoughtSpotは、Search SQLの流れを引き継いだAgent系プロダクトとしてSpotter(対話分析)、SpotterModel(データモデリング)、SpotterViz(可視化)、SpotterCode(開発者向け)という専業エージェント群を展開しています (ThoughtSpot: Agents for BI)。 Spotter app for SlackはEarly Accessで、/spotter-help /spotter-show-models /spotter-show-columnsといったスラッシュコマンドでModel確認→質問→チャート返却までSlack内で完結できます (ThoughtSpot Docs: Spotter app in Slack)。 利用には「Can download data」「Can use Sage」権限が必要です。

Tableau Pulse ― プッシュ型メトリクスに強い

Tableau Pulseは、いわゆる会話型というより「メトリクス中心 × プッシュ通知」型のアプローチで、Slack / Teams / メールにKPIの変動や閾値超過を自律的に通知するのが特徴です (Tableau Pulse 公式Tableau Docs: About Tableau Pulse)。 Slackのスレッド内で深掘りするスタイルというより、朝のKPIダイジェストをSlackで受けて、詳細はTableauに飛ぶ導線になっています。

Microsoft Copilot for Fabric / Power BI Copilot

Microsoft FabricはOneLake(Delta/Parquetベース)・Power BI・Synapse的機能を統合したプラットフォームで、 上にCopilot for Fabricが乗ります。Power BI Copilotで自然言語→DAX測度自動生成やレポート作成が可能です (Power BI vs Tableau 2026)。 チャットUIは本来Teams中心ですが、Azure Logic Apps / Power Automateを挟めばSlackのインシデント通知・KPI通知チャネルとして機能します。

Google Looker Studio Pro + Gemini

Looker Studio Proでは Gemini in Looker の有効化によってConversational Analyticsが使えるようになり、LookMLのSemantic Modelに根ざした会話型分析が可能です (Google Cloud: Converse with Looker Studio dataGoogle Cloud: Code Interpreter)。 Code InterpreterによるPython実行も可能で、複雑な統計分析にも対応します。Slack連携は標準装備ではなく、 Webhook or 後述のADK連携で補う構成が一般的です。

Hex ― ノートブック+Agent

Hexは分析用ノートブックにNotebook Agent(Claude Sonnet 4)とThreads(非エンジニア向け対話UI)、Modeling Agent(セマンティックモデル生成)を組み合わせたハイブリッド型プロダクトです (Hex: AI and agentsHex Blog: Introducing the Notebook Agent)。 Slackへはレポートのスケジュール配信・アラート中心で、対話UIとしてはHex側のThreads UIを使うのが主流です。

Delphi ― Slackネイティブ × 意味論主導

Delphi (delphihq) は当初から「Slackで使える社内AIアナリスト」として設計されたプロダクトで、Text-to-SQLのハルシネーション課題をSemantic Layer(ORMのような中間層)で回避するアプローチを取っています。汎用DWHに接続し、Slack / Teamsからの質問にSQLではなく意味論レベルで解釈→実行します (Delphi Docs: Messaging & CommunityShow HN: Delphi)。 顧客向け埋め込みコンポーネント(React)も提供しており、SaaSの組み込み分析にも流用できます。

Zenlytic (Zoë) ― Looker系スタックと相性が良い

Zenlyticは、独自のSemantic LayerClarity Engineを持ち、Snowflake / BigQuery / Databricks / Redshiftに接続できるConversational BIです。 SlackおよびMicrosoft Teamsにネイティブ統合を持ち、チャットボックスから質問→チャート・表・レポート返却までをシームレスに行います (Zenlytic ProductZenlytic Docs: Zoë)。 推論過程が可視化される点が買われて、LookMLベースの企業で採用事例が増えています。

Seek AI ― SEEKER-1による高精度Text-to-SQL

Seek AIは独自モデルSEEKER-1(ベンチマーク90%以上の精度を主張)を軸に、Dialogue / Semantic Parsing / Explanation / Exploration の4エージェント構成を採るプロダクトです。 Slackからは/seekコマンドで質問を投げ、データチームのレビュー → 回答者への通知というワークフローがビルトインされています (Seek AI: Updated Slack IntegrationSeek AI: Announcing SEEKER-1)。

Fabi.ai ― ノートブック × Slackの新星

Fabi.aiはノートブック型AI BIに振り切ったプロダクトで、@FabiメンションでSlackから直接クエリを投げ、チャート・テーブル・インサイトを即座に返します。 2026年2月のアップデートでSlack統合を大幅拡張し、Slack起点の質問を自動でフォルダに分類する機能も追加されました (Fabi.ai Docs: Slack AppFabi.ai Product Update)。

Google ADKで自作する ― Slack Bolt × ADK × BigQueryのコード例

既製プロダクトを並べた後は、自作するときの最有力候補であるGoogle ADK(Agent Development Kit)を見ていきます。ADKはGoogleが公開したオープンソースのエージェント開発フレームワークで、Python / TypeScript / Go / Java に対応し、 Gemini以外のモデルも含めて多様なLLMと接続できる設計になっています (Google ADK 公式)。

データ分析エージェントにとって重要なのは、ADKがBigQuery Toolsetをファーストパーティで同梱している点です。list_dataset_ids / get_dataset_info / list_table_ids / get_table_info /execute_sql / forecast / analyze_contribution / detect_anomalies /ask_data_insights / search_catalogが標準Toolとして提供され、Python v1.1.0以降で利用可能です (ADK Docs: BigQuery tool for ADKGoogle Cloud Blog: BigQuery meets Google ADK & MCP)。

Slack Bolt(Socket Mode)とADKを組み合わせる最小構成は、概ね以下のようになります。

1. 依存関係

# requirements.txt
google-adk>=1.1.0
slack-bolt>=1.18
google-cloud-bigquery>=3.20
google-auth>=2.0

2. BigQuery Toolset付きエージェントの定義

# agent.py
import google.auth
from google.adk.agents import Agent
from google.adk.tools.bigquery import (
    BigQueryToolset,
    BigQueryCredentialsConfig,
)
from google.adk.tools.bigquery.config import BigQueryToolConfig, WriteMode

# 書き込み系クエリは禁止(データ破壊を避ける)
tool_config = BigQueryToolConfig(write_mode=WriteMode.BLOCKED)

# ADC認証(Cloud Runに載せる場合はService Accountが自動で使われる)
credentials, _ = google.auth.default()
credentials_config = BigQueryCredentialsConfig(credentials=credentials)

bq_toolset = BigQueryToolset(
    credentials_config=credentials_config,
    bigquery_tool_config=tool_config,
)

analyst_agent = Agent(
    model="gemini-2.5-flash",
    name="slack_analyst",
    description="Slack上からBigQueryを分析するデータアナリストエージェント",
    instruction="""あなたは社内のデータアナリストAIです。以下の原則に従ってください。
- まずメタデータ取得 (get_dataset_info / get_table_info) で対象テーブルを理解する
- その後SELECTのみのSQLを組み立て execute_sql で実行する
- 結果は要点 → 数値 → 次に見るべき軸の順で簡潔に要約する
- わからない場合は推測せず、不足情報を明示して質問する
""",
    tools=[bq_toolset],
)

3. Slack Boltハンドラ(Socket Mode)

# app.py
import asyncio
import os

from slack_bolt import App
from slack_bolt.adapter.socket_mode import SocketModeHandler
from google.adk.runners import Runner
from google.adk.sessions import InMemorySessionService
from google.genai import types

from agent import analyst_agent

APP_NAME = "slack_analyst_app"
session_service = InMemorySessionService()
runner = Runner(
    agent=analyst_agent,
    app_name=APP_NAME,
    session_service=session_service,
)

slack_app = App(token=os.environ["SLACK_BOT_TOKEN"])

def _reply(say, thread_ts, text):
    say(text=text, thread_ts=thread_ts)

@slack_app.event("app_mention")
def on_mention(body, say):
    event = body["event"]
    user_id = event["user"]
    channel = event["channel"]
    thread_ts = event.get("thread_ts") or event["ts"]
    query = event["text"].split(">", 1)[-1].strip()

    # Slackチャンネル+スレッド単位でセッションを紐づける
    session_id = f"{channel}:{thread_ts}"
    asyncio.run(
        session_service.create_session(
            app_name=APP_NAME, user_id=user_id, session_id=session_id
        )
    )

    content = types.Content(role="user", parts=[types.Part(text=query)])
    final_text = None
    for event in runner.run(
        user_id=user_id, session_id=session_id, new_message=content
    ):
        if event.is_final_response():
            final_text = event.content.parts[0].text

    _reply(say, thread_ts, final_text or "回答を生成できませんでした。")

if __name__ == "__main__":
    SocketModeHandler(slack_app, os.environ["SLACK_APP_TOKEN"]).start()

Slackから@analyst 先週の売上が落ちた原因をカテゴリ別に分解してのようにメンションすると、ADKのRunnerがBigQuery Toolsetを使って メタデータ照会 → SQL生成 → 実行 → 要約まで自律ループを回します。 スレッド単位でsession_idを固定しているため、フォロー質問(「じゃあTシャツだけに絞って」等)にも文脈を維持して答えられます。

4. Cloud Runへのデプロイ

# Dockerfile
FROM python:3.12-slim
WORKDIR /app
COPY requirements.txt .
RUN pip install --no-cache-dir -r requirements.txt
COPY . .
CMD ["python", "app.py"]

# build & deploy
gcloud builds submit --tag gcr.io/${PROJECT}/slack-analyst
gcloud run deploy slack-analyst \
  --image gcr.io/${PROJECT}/slack-analyst \
  --region asia-northeast1 \
  --service-account slack-analyst@${PROJECT}.iam.gserviceaccount.com \
  --set-env-vars SLACK_BOT_TOKEN=xoxb-...,SLACK_APP_TOKEN=xapp-...

公開サンプルとしてdanishi/slack-bot-adk-python-cloudrunがメンテナンスされており、マルチモーダル入力・Web検索ツール・スレッドメモリなど実運用に必要な拡張がひと通り揃っています。 Google CloudブログのBigQuery meets Google ADK & MCPもアーキテクチャ理解の参考になります。

アーキテクチャパターン(ReAct / Planner-Executor / Multi-Agent)

Slack発のデータ分析エージェントを設計する際の典型パターンは3つです。 詳細はデータ分析AIエージェント徹底解説でも扱っていますが、Slack文脈で押さえておくべきポイントを整理します。

ReAct ― 最も採用例が多い

Thought → Action → Observationのループを回す最オーソドックスなパターン。 ADKのデフォルトやLangGraphの素朴な構成はこれに近く、Slackの1往復(メンション→返信)と相性が良いです。 ただし長時間の推論だとSlackの応答タイムアウト(3秒)に引っかかるため、 「受信即時ackを返す」「最終回答はchat.postMessageで上書き」という二段構えが必須です。

Planner-Executor ― 複雑質問向け

Plannerが質問を計画(メタデータ確認 → ベースSQL → 分解SQL → 可視化)に分解し、Executorが1ステップずつ実行する設計。 「ここ1ヶ月の売上低下の原因を因果分解して」のような複合タスクで真価を発揮します。 ThoughtSpotのSpotter(Reasoner + Validator)やDatabricks GenieのBenchmark駆動の挙動はこの発想に近い設計です。

Multi-Agent ― 専門家分業

Supervisor + 専門エージェント(SQL Writer、Chart Maker、Insight Generator、Metadata Lookup…)。 ADKはSequentialAgent / ParallelAgent / LoopAgentを標準で持ち、Slackボット側では結果の最終出力1つだけ返す構成が現実的です。 Seek AIのDialogue / Semantic Parsing / Explanation / Explorationの4体構成や、ThoughtSpotのSpotter / SpotterModel / SpotterViz / SpotterCodeの分業構成が先行例です。

Semantic Layerの重要性 ― Text-to-SQL精度の生命線

Slack起点の分析エージェントが失敗する最大の原因は、モデル性能ではなく「意味論(Semantic Layer)の欠如」です。LLMはテーブル名・列名から意味を推測するしかないため、 「Revenue」がorders.totalなのかorder_items.sale_price * quantityなのかを 明示しないと高確率でブレます。

学術ベンチマークでもこの壁は顕在化しています。Spider 1.0(簡易スキーマ)では91.2%を出したモデルが、 Spider 2.0(実企業の1,000列以上のスキーマ、100行超のSQL)ではo1-previewでも21.3%、GPT-4系では2〜6%まで落ちると報告されています (Lei et al., "Spider 2.0: Evaluating Language Models on Real-World Enterprise Text-to-SQL Workflows"Spider 2.0 公式)。 商用プロダクトがこぞってSemantic Layerを強調するのはこのギャップが理由です。

プロダクトSemantic Layer
Databricks GenieUnity Catalog Metric Views / Genie Space の例示クエリ
Snowflake Cortex AnalystSemantic Model (YAML)
Looker + GeminiLookML
ThoughtSpot SpotterThoughtSpot Models(SpotterModelで自動生成可)
Zenlytic ZoëClarity Engine
DelphiORM的メタレイヤー
自作 (ADK / LangGraph)dbt Semantic Layer、Cube、MCP Toolbox経由で接続

自作する場合の実務上の結論は「Semantic Layerを先に作ってからエージェントに繋ぐ」。 これは近刊予定のText-to-SQL精度を上げる7つのアプローチAI Readyデータ基盤の本質でさらに踏み込んで解説しています。

評価指標(精度・レイテンシ・コスト)

プロダクト選定・自作のどちらの場合も、評価軸を単一accuracyで済ませないことが重要です。Slack経由の分析エージェントで最低限追うべき指標は以下。

  • Execution Accuracy ― 生成SQLが実際に正しい結果を返す割合(期待値との数値一致率)
  • Tool Success Rate ― Tool呼び出しが何回目で成功したか。Self-healingループの効果測定
  • Semantic Consistency ― 言い換え質問で同じ結果を返すか。Genie BenchmarksやLangSmith Eval
  • Latency P50 / P95 ― Slack応答として許容されるのはP95で10〜30秒が目安。超える場合は即時ack + 結果を追記投稿
  • 1回答あたりコスト ― 入力/出力トークン、BigQueryスキャン、実行時間
  • Thumbs Up率 / Ask for Review率 ― 実ユーザーの受容度。Slackリアクションで簡易取得できる

ガバナンス ― アクセス制御・監査ログ・ハルシネーション対策

Slackに解放すると閲覧者が一気に広がるため、ガバナンス設計は不可避です。最低限押さえるべきポイントは次の通り。

  • アクセス制御 ― DWH側の行列レベル権限(Unity Catalog、Snowflake Horizon、BigQuery IAM、Looker User Attributes)を必ず経由。Botに万能Service Accountを与えない
  • 監査ログ ― 誰が、いつ、どの質問をし、どのSQLが実行されたかを保存。Databricks GenieやSnowflakeは標準で取得可
  • 書き込み禁止 ― ADKならWriteMode.BLOCKED、それ以外のSaaSでもREAD ONLYロールを必ず使う
  • Validatorエージェント ― 生成SQLを別LLM/別ルールで事前検証(例: EXPLAIN、dry-run、WHERE句必須など)
  • Human-in-the-Loop ― 新規質問はデータチームレビューに流し、承認済みだけ即時回答。Seek AIのReviewワークフローが参考
  • PII / 機密列マスキング ― Dynamic Data Masking、Row Access Policyを活用

選定フローチャート ― 既存スタック別の推奨

既存スタック第一候補代替・自作
Databricks中心Databricks Genie + Slack AppsDelphi / Zenlytic
Snowflake中心Cortex Agents + 公式SlackサンプルZenlytic / Seek AI
BigQuery中心Google ADK + Slack Bolt(自作)Looker + Gemini(Workspace経由)
Microsoft / Fabric中心Power BI Copilot + TeamsPower Automate経由でSlackへ連携
BIとノートブック両用Hex / Fabi.aiMode / Count + 自作Slackボット
まず社内アナリストAIを試したいDelphi / Seek AIZenlytic Zoë
KPIプッシュ通知が最優先Tableau Pulse自作(スケジューラ + LangGraph)

失敗パターン

  • Semantic Layerなしで導入 ― 生テーブルのままText-to-SQLを投げると、数値が微妙に間違う回答が量産され、信頼が一気に失われる
  • 評価スイートがない ― 「感覚で合ってそう」を運用指標にしてしまうと、モデル更新・プロンプト更新のたびに精度劣化を検知できない
  • 全チャンネルに一気に公開 ― 非機密データだけのチャンネルからロールアウトし、利用パターンとガバナンスを見ながら拡張するのが安全
  • Slackの3秒タイムアウトを無視 ― 長い推論で「Botが反応しない」と誤解される。即時ack + 非同期投稿を標準構成にする
  • Read/Write権限を分離しない ― 書き込み事故を完全に防げる設計(WriteMode.BLOCKED、READ ONLYロール)を最初から
  • フォロー質問の文脈共有を忘れる ― SlackスレッドID単位でセッションを固定する。メンション毎に新規セッションにすると使い物にならない

まとめ

  • Slackから呼べるAIデータ分析エージェントは、2025〜2026年にかけて Databricks Genie / Snowflake Cortex Agents / ThoughtSpot Spotter / Tableau Pulse / Power BI Copilot / Looker + Gemini / Hex / Delphi / Zenlytic / Seek AI / Fabi.ai と主要ベンダーが一斉に対応した。
  • プロダクトの違いは「Slack対応の有無」ではなく、どのSemantic LayerとどのDWH権限に紐づいているかに集約される。既存スタックに合わせた選定が最短ルート。
  • 自作するならGoogle ADK + Slack Bolt + BigQuery Toolset がファーストチョイス。 Cloud Runにデプロイする公開サンプルも揃っており、1〜2日で最小構成を立ち上げ可能。
  • 成否を分けるのはモデル性能ではなくSemantic Layer / 評価 / ガバナンスの3点。Spider 2.0で生スキーマのText-to-SQLが20%台しか出ないのがその証左。
  • Slackは「対話UI」「プッシュ通知」「承認ワークフロー」の3役を同時にこなせるため、 単なる回答BotではなくKPI監視 → 問い → 分析 → 意思決定のワークフロー基点として設計すると、BIとの棲み分けが綺麗になる。

関連サービスのご案内

AI Readyデータ基盤の構築から、分析自動化AIエージェントの導入まで一気通貫で

DecisionFlowは、DWH/Semantic Layerの整備と、KPI変動検知 → 問い生成 → 自動分析 → 意思決定までをSlack起点のパイプラインとして実装するAIエージェントを、導入パッケージで提供しています。 Databricks / Snowflake / BigQuery / Lookerいずれの既存スタックにも接続できる設計です。

関連記事:データ分析AIエージェント徹底解説BIツールの構造的限界Text-to-SQL精度を上げるアプローチ無料相談

記事が役に立ったらシェアしてください
シェア