1998年から2005年までの間、グーグルとウェブマスターたちは、オタクとかわいい女の子たちの関係と同じように、不文律によって互いに距離を 置いていたんだ。時折、GoogleGuyがフォーラムでコメントしたり、マット・カッツ氏が業界イベントで発言するのを除けば、この検索界の巨人と、自 分たちの媒体を通じてサイトやコンテンツを宣伝する人々とは、ほとんどつながりがなかったってわけ。
2005年の夏、グーグルがサイトマッププログラムを開始し、これはやがてWebmaster Centralに 発展した。今やこの仕組みには、ウェブマスターの情報交流、問題解決、ツールなどに携わる人々が世界中から何百人も参加している。Webmaster Centralは、事実上の業界標準モデルとしてマイクロソフトやヤフーもこれに同調しているし、いろんな意味で、ウェブの中の鬼っ子扱いされていた暗黒 の時代から、SEO業界が積み上げてきた叡智が集約されている。
しかし、グーグルの作ったものに激しく反発し、Webmaster Centralプログラムの進歩を何としても止めようとする一派がある。特に、グーグルを使わなければドメイン名の検証ができないっていう部分が気に入らないみたいだね。
そ れはだれかって? グーグルと競合する新顔の検索エンジンたちさ。どこからそういう意見が出ているのか具体的には書かないけど、この一派には、ウェブ検索業界の主な新興企業 や国際的な検索エンジン、秘密裡に検索業界への参加準備を進めている経営者などが少なからず含まれている。何が問題なのか? これから説明しよう。
ウェ ブの草創期から2006年くらいまで、どんな企業でもネット検索エンジンを作ろうと思えば、必要なリソースを何でも自由に利用できた(少なくと も、そのための活動資金がある限りは)。技術的にも資金的にも膨大なリソースが必要だったにもかかわらず、クリエイティブなグループがネットをクロールし てインデックス化し、集まったデータからインデックスや検索結果表示用のアルゴリズムを開発するという道を妨げるものはなかったんだ。必要なデータはすべ てインターネット上にあり、収集されるのを待っていた。ところが、グーグルがサイトマップを導入し、それがやがてWebmaster Centralとして発展するにしたがって、その状況は変化したんだ。
今や、新興の検索エンジンにとって、グーグルのサーバーをハッキングしない限り手に入らないデータが山ほどあるんだ。それは次の通り。
- サイトマップ―― 多くのサイトにとってクローリングやアクセスのしやすさに関わる重要なデータ のほか、URLの正規化やURL除外に関する情報は、今じゃサイトマップを受け取る検索エンジンだけが入手できる。これに関しては、ヤフーとマイクロソフ トでさえも、かなり不利な状況に置かれているんだ。ウェブマスターたちは、この2社にサイトマップを積極的に送信しないからね。
- 地域のターゲット情報―― グーグルのWebmaster Consoleでは、サブドメイン名やサブフォルダ、またはサイト全体の対象地域や言語を設定できる。これはウェブサイトやSEOをやる人間にとってはす ばらしい機能だ。だけど、そのおかげでグーグルは、検索エンジンの領域に入ろうとしているプレーヤーに対して、明らかな優位を保持している。
- クロール頻度の管理――もっと頻繁にクローリングしてもらいたいサイト、あるいは逆に、クローリングによる負担を減らす必要のあるサイトは、ウェブマスターツールでクロール頻度を設定できる。これは一方で、グーグルによるサイトデータ管理に役立つ情報でもある。
- 優先ドメイン名の設定――簡単なことだけど、優先ドメイン名(たとえば、「url.com」と「www.url.com」のうち、どちらを検索結果として表示させるか)を設定できることは、グーグルにとって明らかに有利だ。
ク ローリングによって自由に取得できる情報はともかく、検証手続きに隠れて送信される情報は、競争を阻害し、市場最大手であるグーグルの優位性をさ らに増すことになるんだ。この2年間で、優れたインターネット検索エンジンを作ろうとする参入者にとっては、障壁がいきなり一気に高くなったんだね。
注 意――個人的には、グーグルが競争相手を排除するためにこのツールを作ったわけではないと信じているし、実際私もWebmaster Centralの大ファンです。ウェブマスターのコミュニティで分析や啓発活動に当たっている人たちだってそうでしょう゜。しかし、こうしたサービスが広 範な技 術市場に及ぼす影響を検討したり、開放性と「邪悪でないこと(non-evil)」を誓うグーグルの言葉とどのように調和するかを考えることは、間違いな く価値のあることだと思います。