dorayakiBlog

xmlサイトマップを送ったけどインデックス登録されなかったので

自サイトを安全な通信方式のhttpsにssl化をして結構期間が経ってからhttpsでの自サイトのURLがGoogleの検索結果にどのくらい登録されているかをsite:検索とGoogleサーチコンソールのカバレッジで調べてみると500近くあるページの100近くしか登録されてなかった。

Googleによれば、httpでインデックス登録されたURLの検索結果はssl対応されていれば自動的にhttpsのアドレスに置き変わる様にしたと数年前に声明を出していたし、重複コンテンツや低品質コンテンツは登録されない様であるにしてもこれはおかしいと思い再度登録し直そうと考えた。

Googleサーチコンソールのアイコン
Googleサーチコンソールのアイコン

ただGoogleサーチコンソールのURL検査でひとつずつ登録申請を送信するのはページが少なければまだしも数百ページ数千ページとなった場合は人力ではミスも起きるだろうし労力もさる事ながら先の見えない作業に絶望を覚えたのでまとめて申請する方法であるxmlファイルのサイトマップを1ページでファイルを作り申請する方法を取る事にした。

とはいえサイトマップはxmlでの記述方式で申請する全ページ分のURLやその他の情報を記述しなければならないのでこれも人力ではとても無理だったのでxmlでのサイトマップを自動生成してくれるwebサービスを利用して作る。

そして送信してサーチコンソールのカバレッジに反映されるのを待つもきちんと登録されていれば"有効"というカテゴリーでカウントされ反映するのだけど何日もいくら待てども反映されずカバレッジの反映結果のステータスに"検出-インデックス未登録"が表示されほぼ全てのページが"有効"にカウントされず"除外"という未登録にカウントされてしまった。その"検出-インデックス未登録"での主な詳細理由を読んでみると多過ぎる送信はサーバーに負荷が掛かる為クロールしたけど未登録となりますとありそんな事あるのかとも思いつつこれ以上どうしようも無いのでxmlサイトマップでのインデックス登録は諦めた。

とはいえインデックス登録されないと検索流入が、暗号化されない安全ではない通信方式のhttpのURLからの流入以外はほぼ無い状態で、サイトを公開している意味も無いので、手間ではあるが1ページごとに手入力のURL検査で登録申請を送信してみる事にした。
一日の申請の割当量の限度があり日によってまちまちで平均で一日15回くらい多い日はボットでない証拠を示すパネルのテストを挟みつつ30〜40回くらい申請出来る日もあった。そしてGoogleのクローラーのクロール頻度で(自分の場合は四日毎くらい)登録申請したページがクロールされてその度に10-数十ページが検出されインデックス登録されカバレッジの"有効"のステータスの数が増えていき最近ようやく300/500くらいまで登録された。おかげでアクセスやpvも3〜4倍に増加した。もしかしたらhttp時代にもクロールをスルーされてインデックス登録されてなかった疑惑も浮かぶものの。

なのでどうしようも無い場合は最後の手段としてではあるが小まめに人力の手入力すれば何とかなるという何ともお粗末かとてもアナログな結果となってしまった。登録されたからよかったものの1000ページとか一万ページあったらどうすれば良かったのかは考えたくない… 。xmlをもう少し分割すれば良かったのだろうか… 。