SEO業界に、ここ最近、大きな傾向が見られます。
それが、ビッグデータの活用です。
これはどういう事かというとまあ文字通りなのですが、
ざっくりいいますと、
とにかく競合も自社も関係なくありとあらゆる検索順位データや、
色々な会社の流入データを保持し解析・活用しよう
とする動きです。
昔のようにGRCで30キーワードを毎週計測する…
みたいな時代ではなく、アパレル業界ならアパレル関連キーワードを万単位で日々クロールし続け、
自社競合関係なくデータをため込んでいくという動きが求められています。
この背景として技術がおいついてきたという事情もあります。
こういったデータの取り方は昔から需要はありましたからね。
私が新卒として入社した○年前でさえ、入社直後に「もっと大量のデータが取れないものか」と思ったほどです。
これまでが牧歌的すぎたのです。
とにかくSEO業界の先端の動きとしては、より多くのデータを取り取りこぼしが無いよう、
多角的に分析すべきだという考え方に変わりつつあります。
なのでその日その日の検索順位上位100位とかを計測できないGRCは正直あまり使えないなぁ…
とさえ思っています。
万が一、関係者が読んでいたらすみません。
というかGRCでしか計測できないのでしぶしぶ使っていますが、
GRCが機能追加をしないならば新たなツールに必ず取って代わられます。
まあウェブ業界で言う所のビッグデータほどではありませんが、
かつてないほどに大量のデータ解析が必要になってくるというお話です。