Shopify × BigQuery連携 完全ガイド — データ分析基盤の構築手順
ShopifyのデータをBigQueryに連携する3つの方法(Data Transfer Service・ETLツール・カスタムパイプライン)を比較解説。EC/D2Cのデータ分析基盤を構築する手順を紹介します。
なぜShopifyデータをBigQueryに連携すべきか
Shopifyの管理画面にも分析機能はありますが、以下の限界があります。
- データの横断分析ができない — Shopify単体ではGA4やMeta Adsのデータと結合できない
- カスタム分析が困難 — 定型レポート以外の柔軟な分析にはSQLが必要
- データの保持期間 — 詳細なイベントデータは一定期間で失われる
- AI活用の基盤がない — AIエージェントがShopifyのAPIを直接叩くのは非効率かつ不安全
BigQueryにデータを集約することで、これらの制約を解消し、EC/D2Cの全データを一元管理する分析基盤を構築できます。
連携方法の比較:3つのアプローチ
| 方法 | コスト | 難易度 | リアルタイム性 | おすすめ度 |
|---|---|---|---|---|
| Data Transfer Service | 無料〜低コスト | 低 | 日次バッチ | ◎ |
| ETLツール | 月額$50〜$500 | 低〜中 | 設定次第 | ○ |
| カスタムパイプライン | 開発工数 | 高 | リアルタイム可 | △ |
ほとんどのEC/D2C企業には、BigQuery Data Transfer Serviceが最適です。無料(または低コスト)で利用でき、設定も比較的簡単です。
方法1:BigQuery Data Transfer Service(推奨)
Google Cloud が公式に提供する連携機能で、ShopifyのGraphQL APIを通じて 注文・商品・コレクションなどのリソースを定期的にBigQueryへ転送します。
前提条件
- Shopify側:カスタムアプリの作成と必要なアクセススコープ(
read_orders,read_products等)の設定 - GCP側:BigQuery Admin ロールの付与、転送先データセットの作成
設定手順
- Shopify管理画面でカスタムアプリを作成し、API認証情報(アクセストークン)を取得
- GCPコンソールでBigQueryデータセットを作成
- BigQuery Data Transfersの設定画面で「Shopify」を選択
- Shopifyストア名、アクセストークン、転送スケジュールを入力
- 転送を実行し、データが正しくロードされることを確認
転送されるデータ
- Orders — 注文情報(金額、ステータス、顧客情報)
- Products — 商品情報(名前、カテゴリ、価格、在庫)
- Customers — 顧客情報(メール、注文回数、LTV)
- Collections — コレクション情報
- Inventory — 在庫情報
方法2:サードパーティETLツール
Data Transfer Serviceでカバーされないデータや、 より柔軟な変換処理が必要な場合はETLツールが有効です。
| ツール | 月額目安 | 特徴 |
|---|---|---|
| Fivetran | $300〜 | 高品質なコネクタ、自動スキーマ管理 |
| Airbyte | $0〜(OSS版無料) | オープンソース、カスタマイズ自由 |
| CData Sync | 要問い合わせ | 日本語サポート充実 |
| Stitch | $100〜 | Talend傘下、設定が簡単 |
方法3:カスタムパイプライン
Shopify APIを直接叩いてデータを取得し、BigQueryにロードする自作パイプラインです。 Cloud Functions + Cloud Scheduler、またはCloud Runで構築するのが一般的です。
カスタムパイプラインが必要なケース:
- Shopify Plus固有のデータ(B2B注文、スクリプトエディタのデータ等)が必要
- リアルタイム連携が必要(Webhookベース)
- ETLツールのライセンスコストを避けたい
- 独自の変換ロジックを組み込みたい
ただし、開発・運用コストが高いため、まずはData Transfer Serviceで始めて、不足があればカスタムパイプラインで補完する アプローチを推奨します。
GA4データとの統合
Shopifyデータだけでは「サイト内でのユーザー行動」が見えません。 GA4のデータをBigQueryに統合することで、以下の分析が可能になります。
- 流入チャネル × 購入データ — どのチャネルからの流入が最もLTVが高いか
- ユーザー行動 × コンバージョン — 購入に至るユーザーの行動パターン
- 商品閲覧 × 購入 — 商品ページのビュー数と購入率の関係
GA4 → BigQueryの連携方法
GA4にはBigQueryへの無料エクスポート機能が標準搭載されています。 GA4の管理画面からBigQueryリンクを設定するだけで、 イベントデータが自動的にBigQueryにエクスポートされます。
- GA4 管理画面 → BigQueryリンクを作成
- エクスポート先のGCPプロジェクトとデータセットを指定
- 日次エクスポートとストリーミングエクスポートの選択
- エクスポートが開始されるとBigQueryに
events_YYYYMMDDテーブルが作成される
BigQuery上のデータモデリング
データをBigQueryにロードしたら、そのまま分析に使うのではなく、分析しやすい形にモデリングすることが重要です。
推奨する3層構造
- staging層 — 生データのクレンジング(型変換、NULL処理、重複排除)
- intermediate層 — テーブル結合、ビジネスロジックの適用
- mart層 — 分析用の最終テーブル(
mart_daily_sales,mart_customer_ltv等)
EC/D2C向けの主要martテーブル
| mart名 | 用途 | 主要カラム |
|---|---|---|
mart_daily_sales | 日次売上KPI | date, revenue, orders, aov, sessions, cvr |
mart_product_performance | 商品別実績 | product_id, views, cart_adds, purchases, revenue |
mart_customer_ltv | 顧客LTV分析 | customer_id, first_order, orders_count, total_revenue, ltv |
mart_channel_attribution | チャネル別効果 | channel, sessions, conversions, revenue, cac, roas |
AI分析自動化への発展
Shopify × BigQuery × GA4のデータ基盤がAI Readyな状態に整備されれば、 その上にAI分析自動化レイヤーを構築できます。
例えば以下のようなワークフローが自動化可能です。
- 毎朝のKPIレポート自動配信(売上・CVR・AOVの前日比)
- KPI変動時の自動アラートと原因分析(「昨日のCVRが20%低下。モバイルの決済ページ離脱が増加」)
- 自然言語での分析クエリ(「先週のカテゴリ別売上トップ5を教えて」)
- 分析結果に基づく意思決定の記録と蓄積
DecisionFlowのデモで このワークフローを体験できます。
まとめ
- Shopifyの管理画面だけではデータ活用に限界がある。BigQueryへの連携が不可欠
- 連携方法は3つ:Data Transfer Service(推奨)、ETLツール、カスタムパイプライン
- GA4データとの統合で流入チャネル × 購入データの横断分析が可能になる
- BigQuery上ではstaging → intermediate → martの3層構造でデータモデリング
- AI Ready基盤として整備すれば、KPI監視・分析の自動化に発展可能
データ基盤構築から分析自動化まで、一気通貫で
DecisionFlowは、AI Readyデータ基盤の構築からKPI監視・自動分析・意思決定の仕組み化までワンストップで提供します。
