ビッグデータと縦と横

ここ2、3日で『ビッグデータに騙されるな』という記事について、RTやいいね!が押されているのを見かけました。
若輩者ながら同意です。


また、大規模データにもとより携わっている人同士の会話ではあまりビッグデータという呼び方で話さないという話題も出ていました。
これも同意です。
人によって様々な背景はあるでしょうが、大規模データ分析の実務家にとっては抽象的な議論や展望よりも、個別具体的な課題解決がトピックとなるからでしょう。


しかし、それにしても、『ビッグデータ』で変わることはいったい何なのでしょうか?
データ分析や、僕の仕事であるマーケティングリサーチにも影響はあるのでしょうか?

こうしたことを各種セミナーが取り上げているわけで、僕なんかが口上垂れる余地もないわけですが、データ解析屋さんのブログのクセに言及しないのもなんだかなぁ、ということで清水の舞台から飛び降りる気持ちでちょこっと触れてみたいと思います。
(理解が間違っている事もあるし、こういう話題って状況が日々変わるので、結果的に書いたことが間違ってたりして後で恥ずかしい思いするのが怖くてなかなか書けないなぁ、と思っていました。)


データを管理するインフラについては僕は疎いのですが、この部分は確実に従来とは変化したでしょう。
SI屋さんのセミナーでこの辺りはたくさん教えてくれるでしょうから、GOGO。
リアルタイムに大量の非定型のデータを「自身の事業規模に合わせて」「効率よく」取り扱うための選択肢も豊富でしょうし、環境も大きく変わっているのは素人目にも感じます。


では、データ分析自体はどうか。


仮説検証型データ分析プロセスの骨子には大きな変化はないように思います。


仮説検証型であれば、当該の課題に対する意思決定基準を設定し、それを判定するための仮説およびデータ検証プロセスを構築し、データによるアウトプットイメージから逆算して、中間のデータテーブルをイメージし、ローデータからそれを導出するプロセスを組み立てていく。
ケースバイケースで、型は変化しますが今僕がやっているのは基本的にはこんな感じです。


このプロセスがさほど大きく変わるようには思えません。


ただし、個別のハンドリングについて利用する技術は変わってくると思います。
インフラが変わればそりゃそうかな、と思います。


こうした場合、データ分析企画者(主管)とデータハンドラーが分業するケースが増えるように思います。
ただ、トータルでやっていることはそうは変わらないと思います。


仮説探索型はどうよ、という話なんですが・・・よくわかんないっす。


大量にデータがあれば、ダイナミクスが頻繁に起これば、アウトプットの質があがる、わけではないでしょう。
(個人的には仮説探索型アプローチは触媒よりも解釈者たちがもともと持つ視座のほうが重要だと思うので。)
マーケティングリサーチとかはこの辺りに期待をもてるのかもしれませんが、既存の手法とのプロセスの差異ではなく、アウトプットや顧客にとっての便益上の知覚差異が出るのかは僕の節穴な目にはまったくわかりません。
門外漢なところがあるので、ここは是非精進して見極めたいと、思ったり思っていなかったりします。



いずれにしても、環境としてワクワクするほどデータの種類が増えたり、個人別のパラメータを時間推移別に推定できるほどのデータ量がガサガサできているのはすごいとは思うけど、そんなに劇的にビジネスチャンスが増えるかなぁと何か疑問があります。
ソーシャルゲームとかEC事業とかは劇的に違うのでしょうが、僕らデータを売っていく<あ、『インサイト』を売らないといけないか>はどうかなぁ、と。)


また、展開しようとするビジネスのもととなる『ビッグデータ』の対象が公共性の高いデータであれば、それだけでお金にはなりにくいです。
データにはお金を払いやすいですが、分析自体にはお金は払いにくい、と僕は感じています。
独自性の高い分析は、奥行きは広いかもしれませんが、間口は狭く、ビジネスボリュームが出にくいです。
それに独自性を示すには、それこそ画期的なレベルの知覚品質差異を築かなくてはならない。
チャレンジングではありますが、ある程度状況を見越して取り組まないとちょっとキツイようにも思います。


こうした公共性の高い縦に長いデータ(例えば、人×時間などで大量になる)を活用したビジネスはまとまったお金になりにくいと思います。
なんとなくですが、話題と個人的な感覚の齟齬はここら辺から生じているのかなぁ、と感じています。
話題ほどカネのにおいがしない。
カネのにおいがしないということは、私たちのお客さんに相当する便益を与え続ける基盤を維持できないのではないかなぁ、とヒラ社員なりに思うわけです。


とはいえ、縦の情報だけでなく、リスクをかけて横に長いデータ(例えば、人×時間に紐づくデータ)をつくることで、分析の知覚品質差異を構築したりすることが可能になるような気がします。
こうしたアプローチは今に始まったことではなく、過去にもここでエクセレント(まぁ、結果的にそうなっただけかもしれませんが)な構築ができた場合にそこそこのビジネスボリュームが出るサービスが提供されているような気がします。



なんかグダグダと書いて纏まりがなくなってしまうわ、途中で書いた内容が消えてしまったわで、相変わらず文才と運がない訳なんですが、『ビッグデータ』が及ぼす影響は各個人の携わる事業や立場によっても大きく違うわけで、そういうことを各種セミナーとかを通じて想像することが大事なんだろうなぁと思います。


大量のデータへのアクセスと分析ツールが使えること自体ではお金にはなっていきにくいですし、それを安定したお金を稼ぐ仕組みにしていくにはもっともっと俯瞰的な視点が必要でしょう。


まぁ、僕自身、そうそうにソーシャルメディアデータとかビッグデータとかに飛びついた人間なので、偉そうなことは言えないんですが・・・。