デジタルマーケティングに関する大規模イベント「アドビ デジタル マーケティング サミット」のレポート第5弾をお届けする(サミット関連の他の記事は「Adobe Digital Marketing Summit 2012」タグでチェック)。
マーケティングは「リアクティブ」から「プロアクティブ」に
これまで紹介したAdobe CQ(レポート第3弾)、Adobe Discover(レポート第2弾)、Adobe Social(レポート第4弾)はいずれもデジタルマーケティングの何らかの側面に対応した製品だが、今回紹介する「予測分析」は特定の製品ではなく、Adobe Digital Marketing Suiteを構成する各製品に追加される機能にあたる。つまり、Adobe SiteCatalyst、Adobe Discover、Adobe Test&Target、Adobe Insight、Adobe Socialといった製品それぞれが、「予測分析」に対応していくということだ。
アドビではEfficient Frontierの買収によりすでに一部製品では予測分析の機能を実装しており、さらにDigital Marketing Suite全体への拡張にむけて開発を進めている。
「予測分析」とは、過去に蓄積されたさまざまなデータを基に将来を予測したうえで、リアクティブに(データに反応して)ではなく、プロアクティブに(先を見越して)行動をとることにより、将来を変えビジネス成果に結びつける能動的な分析を意味する。
データマイニングは、その目的から次の2つに大別できるが、「予測分析」と一般的にいう場合、これらの双方を包含するものになる。
- 予測データマイニング ―― 過去のデータから将来を予測する
- 記述的データマイニング ―― データのパターンを発見する
これまでは、アクセス解析などのWeb行動に関する分析というと、どちらかというと現状把握や要因分析といった「過去に起きた出来事」を対象としたものが中心であり、ともするとデータの測定手法ばかりが取り上げられがちだった。しかし、「データの蓄積」ではなく「データの活用」という本来の目的に立ち返りデータをアクションにつなげていくうえで、予測分析を取り入れていくことは不可避の流れだと考えていいだろう。
予測分析に関しては、すでにIBMやSASなど各社がソリューションを提供しており、実際のところは特段新しい分野ではない。それらの企業との差別化要素や特徴などについて、同社の予測マーケティングソリューションの指揮を執るジョン・ベイツ氏に伺った。
経済学や計量経済学、統計学を学んだベイツ氏は、予測分析を専門とするコンサルティンググループを立ち上げ4年間コンサルタントとしてグループを率いてきた後、現在はプロダクトマネージャーとしてDigital Marketing Suiteへの予測マーケティングソリューションの導入を担当している。
ベイツ氏は、現在のデータ分析業界における課題として、次のように指摘し、製品への意気込みを語った。
統計やモデリングなどに関する高度な知識や経験がないと統計ソフトや分析ツールを使いこなすことが難しい点だ。
私たちは、デジタルマーケターがそのような知識がなくとも、自信を持ってデータに基づいた判断ができるようなソリューションを提供していきたい。
IBMやSASなどの先行企業とのポジショニングの違いについては、他社が「リスク管理」「サプライチェーン」「医療分野」など幅広い領域を対象にしていることを挙げたうえで、次のように語った。
予測分析は、確かにオフラインではすでに利用されてきている分析方法だが、デジタルマーケティングの世界ではまだ一般的ではない。
アドビはコンテンツ制作から配信、データ測定までの一連のプラットフォームを提供するが、このポジションでの競合はいないと考えており、デジタルマーケティング領域におけるマーケターの業務支援にフォーカスしたソリューションを提供することで差別化を行っていく。
また、「データをアクションにつなげていく」という視点から考えるとアルゴリズムによる自動化に注目が集まりがちだが、それだけでなく、もっと大切なものがあるのだという。
自動化も大切だが、それ以上に「ビジュアル化」が大切だと考えている。データをビジュアル化されたストーリーにすることで、データの意味を理解するにとどまらず、アクションにつなげることができるようになるのだ。
予測分析の代表的な手法には「アソシエーションルール」「クラスター分析」「回帰分析」「時系列分析」などさまざまなものがあるが、このうち時系列分析に関するマーケティングダッシュボードのデモ動画が、サミット後に公開されていた。
その様子を解説すると(「ビジュアル化」というトピックを文字で表現するのも無理があるが)、ダッシュボード上には現在までのデータだけでなく、今後の収益予測が示され、画面横には収益に関連する指標とそれらの影響度が棒グラフで表示されているもので、同社がいかにビジュアル化に力を入れているかが一目でわかる動画だった。
また、収益目標に対するシミュレーションの機能も注目に値するものだ(たとえばソーシャルメディア経由での流入数の変動による収益シミュレーションなど)。サイト上での行動データからのシミュレーションだけでなく、株価や天気予報などの外部データも加味したシミュレーションも可能になると思われる。
予測分析では「特異値の検出や関連要素の自動抽出」に注目
ベイツ氏の講演した分科会では、Digital Marketing Suiteに盛り込んでいく予測分析の機能として、次の5つの分野が紹介されていた。
- 特異値の検出や関連要素の自動抽出
- ユーザースコアリング
- ソーシャルパフォーマンス予測
- クラスター分析
- マーケティングミックスモデル
この中でも特に活用シーンが多くなると思われるものが、「特異値の検出や関連要素の自動抽出」だ。これは、さまざまなデータから「他とは異なる特異な変動をしている値」を自動的に検出し、さらにその指標と関連性の高いデータを特定する機能のことだ。
ベイツ氏のチームがコンサルティングを担当していたなかで実際にあったケースとして挙げていたのが、あるECサイトでの収益改善の取り組み事例で、次のようなものだった。
サイトで測定している膨大なデータに対するマイニングの結果、Google Chrome利用者は他のブラウザよりもカート放棄率が高い傾向にあることが判明した。
Google Chromeで表示した際のSSLエラーメッセージが要因のようで、対策を行った結果、1日あたり45万ドルの収益増につながった。
もちろん、こうした改善は予測分析がなくても可能だ。分析担当者がカート放棄率に着目し、さらにブラウザ別にデータを確認しさえすれば、同じような問題点に気づいたことだろう。しかし、データのレポーティングが運用業務として定型化すればするほど、さまざまなデータの中から他とは異なる変動を示す値(しかも主要なKPIに指定していない値)を見つけ出していくというのは、現実的には難しいことだろう。
さらには、数値の変動が統計的に有意な差を示すものなのかは、レポート内のデータを見るだけではわかりにくい。実際に、ベイツ氏も次のように指摘している。
企業内では、たとえばコンバージョン率が減少したというデータが示されても、それが許容範囲のものなのか、それとも何らかの対策を打つべきものなのかを即座に明確に切り分けることは難しい。そのため、原因を探ろうといたずらに時間を費やしてしまうケースは少なくない。
サミットのクロージングセッションではAdobe MAXでおなじみのSneak peeks(公開前のもののチラ見せ)が行われ、特異値検出のプロトタイプ版にあたるものが「Navigator」という名称で披露された。
SiteCatalyst上にある[Navigator]メニューをクリックすると、収集されたデータの中から他とは異なる特異な動きをしている指標を表示し、さらに関連性の高い要因をドリルダウンして把握できるようになっているものだった。
サミットで紹介されたものはあくまでも開発中のプロトタイプであり実際のサービス化が確約されたものではないが、おそらくSiteCatalystに近々実装されるものと思われる。
経験や勘から、その裏付けデータ、そして機会発見のきっかけに
予測分析の重要性を語るうえでベイツ氏は「経験や勘からの脱却」を強調していた。
しかし実際には、単純に経験や勘を否定するのではなく、その裏付けとしてデータを扱うことも多いだろう。たとえば、アルゴリズムによって算出された収益予測や広告予算などの配分変更・追加投下を行うにあたり、それが担当者の従来の「経験や勘」に近しいものであれば自身の判断を裏付けるデータとして積極的に活用するといった具合だ。
問題は、示されたデータが担当者の経験や勘からかけ離れていた場合だ。そうしたときに、判断材料としてデータをどの程度採用していくかは、企業によって変わってくるだろう。
そのような意味からも、「予測分析」のデジタルマーケティング領域への適用の初期段階は、特異値の自動検出結果を基にした「課題や機会発見のきっかけ」としての活用やクラスター分析などの記述的データマイニングの利用を中心に進むのではないかと思われる。
いわゆるアクセス解析ツールは、これまでにも大きく進化してきている。その進化のポイントを整理してみると、大きく次の2点に集約できる。
- 測定可能な対象データの増加
- クロス集計やセグメンテーションなどのクエリー条件の多様化
特に1つ目については、ある意味で大きなシフトが発生している。アクセス解析の初期に対象としていたデータは、あくまでも「サーバー管理の観点からログファイルに記録していた」項目だった。たとえば次のようなものだ。
- IPアドレス
- URLごとの表示回数
- アクセス時刻
- 流入元
- OSやブラウザ
- など
しかし、その後アクセス解析は「マーケティングの観点から必要な情報を取得する」方向に進化し、次のようなデータを扱うようになっている。
- 新規か再訪か(cookieの有無から判別)
- どんな商品を購入したのか
- 客単価
- 購入点数
- 受注実績に対する広告施策の貢献度
- 会員登録時や購入完了などの特定アクション時におけるラベリングによるクラスタリング
- など
下図は、レポーティング→分析→現状モニタリング→予測分析というように、対象データの時間という概念を踏まえた4種類の取り扱い方を図示したものになるが、測定データの増加やクエリー条件の多様化により大きく前進してきているとはいえ、現状はまだまだ下図でいうところのレポーティングの段階にあるのが大半だと思われる。
Web行動データに関する記述データマイニングや予測データマイニングの時代はこれからだといってよく、SiteCatalystやDiscover、Test&Targetなど同社の各製品での機能実装はこのような動きを牽引する上でも大きなターニングポイントになるといえるだろう。
ツールの予測分析を過信するな 人の介在は必須、なくなることはない
マーケティング目的の予測分析はまだまだ発展途上であり、しばらくは、ツールでは限定的なデータしか測定できないケースは多々あるだろう。そのため、ツールで測定できる範囲のデータを基にすべてを判断できるとは思わないほうがいいだろう。
とはいうものの、「測定のためのデータ取得」から「アクションのためのデータ取得」へ移行していくうえで、予測分析へのシフトは必須だといっていいだろう。そして、予測分析は今後マーケティングの重要な要素になり、ツール側の対応は今後さらに進んでいくだろう。
それでも大切なのは「人」であることに変わりはない。
アクセス解析では「データ測定の設計」というフェーズがあるが、そこがまだしっかりと成されていない例が多い。「企画意図があいまいなままデータ測定が設計される」「データ測定が企画段階に含まれていないため後付けとなる」「タグを貼っておけばよいという程度の認識でしかない」などのケースも、実はまだまだ多いのだ。
そもそも、どんなデータをどう測定するのか、測定したデータをどのように見るのかは、企画する側の「人」がしっかりと主導して考える必要がある。
制作の段階で目的が明確になっておらず、そのため目的に対する効果を把握するにはどのようなデータをどのように取得すべきかを検討するフェーズが抜け落ちたままサイトを公開し、その後、蓄積されたデータから何らかの洞察を分析担当が導出してくれる(だろう)という状況は、まだまだ散見されるのではないだろうか。
また、うまく設計して取得したデータを分析チームがどれだけ調べたところで、アクションを実行に移す部隊はまた別のはずだ。
つまり、どのような機能を備えたツールを導入するのかだけでなく、各担当の連携、つまり「チーム連携」も極めて重要なファクターなのである。
企画・制作・データ測定のワークフローが明確に定められていなかったり、それぞれが分断されていたりする組織もあるだろう。そうした状況を改善しないかぎりは、ツールを導入したとしても、データを踏まえたPDCAサイクルの実現は難しいだろう。
- 内容カテゴリ:アクセス解析
- コーナー:イベント・セミナー
- 内容カテゴリ:マーケティング/広告
※このコンテンツはWebサイト「Web担当者Forum - 企業ホームページとネットマーケティングの実践情報サイト - SEO/SEM アクセス解析 CMS ユーザビリティなど」で公開されている記事のフィードに含まれているものです。
オリジナル記事:マーケティングは “過去データ分析” から “予測分析” へ/Adobe Digital Marketing Summitより [イベント・セミナー] | Web担当者Forum
Copyright (C) IMPRESS BUSINESS MEDIA CORPORATION, an Impress Group company. All rights reserved.