ブログのSSL化はアクセス激減への落とし穴?メリットとデメリット。

この記事は約4分28秒で読めます。
スポンサーリンク

先日、ブログの常時SSL化を行いました。

その結果・・・

アクセスが激減しました。およそではありますが、半減状態です。どうした!?

常時SSL化のメリット。

セキュリティが強化される

そもそもSSLとは何なのでしょうか。

僕なりの解釈で言いますと、ウェブサイトの閲覧というのは、サーバとユーザの情報のやり取りで成り立っています。

その際、やり取りの部分を暗号化することで、セキュリティを暗号化する仕組みがSSLなのです。

暗号化に伴い、セキュリティも強化されます。

よって、閲覧者に安心感を与え、そして実際に閲覧時の危険を取り除いてくれるのがSSLだと言えます。

Googleに評価されやすくなる=SEO的に強い

Googleは、ここ最近SSL化を強く推奨しています。

実際、「SSL化しているかどうかが検索順位に影響する」と↓のページで公言しています。

参考:ウェブマスター向け公式ブログ

https://webmaster-ja.googleblog.com/2014/08/https-as-ranking-signal.html

よって、むしろSSL化は必要なことなのです。ですが、実はひとつ、落とし穴があります・・・。

常時SSL化のデメリット。ここがヘンだよSSL化!

HTTPS

SSL化を適応すると、ブログのアドレスの冒頭、「http://」の部分が「https://」と変わります。

これ、検索エンジンから見ると、ドメインを引っ越したに等しいことなのです。実は。

当然、評価もまっさらな状態になり、一からブログが評価されることになります。下手すると、検索順位がSSL化前より下がる危険性があります。ここはGoogle検索のアルゴリズムのご機嫌・さじ加減次第です。

もうひとつ。検索エンジンには、http://の検索データが残ってしまうのです。どういうことかというと・・・

重複ページとみなされてしまう。結果、SEOに悪影響。

http://ママゾン.comというページをSSL化したとします。

アドレスは当然https://ママゾン.comとなります。

これは、検索エンジン上では、2つのまったく同じ内容のページが、同時にネット上に存在していると見なされてしまうのです。

いわゆる、コピーコンテンツということになってしまい、検索順位が下がってしまうのです。

これがなぜか、SSL化の際にはオリジナルのページにも影響してしまいます。

普通は、パクったと見なされても、パクられ元のサイトには影響しないはずなのですが、なぜかパクられ元のはずのhttp://ママゾン.comの検索順位もダウンします。

301リダイレクトとcanonicalタグの追加やwwwあるなしの対策、という対策を施したが。

これを防ぐために、「301リダイレクト」と「canonicalタグの追加」「wwwあるなしの対策」を行います。

詳しくは、ググってほしいのですが(一応検索キーワードへのリンク貼っておきます)、簡単に説明しますと。

301リダイレクトは新しいURL、ここで言えばhttp://ママゾン.comからhttps://ママゾン.comへの転送を行う機能です。

canonicalタグの追加は、「オリジナルのページはこっち(https://ママゾン.com)ですよ」と示すためのタグです。ヘッダー内に記述します。

wwwあるなしの対策は、wwwあり/なしを統一することです。たとえば、wwwなしに統一したい場合、https://www.ママゾン.comにアクセスするとhttps://ママゾン.comに転送されるようになります。

これは、検索エンジンのキモであるクローラーにも適応されます。どこが正当なURLなのか、検索エンジンのクローラーに示す狙いがあるのです。

対策後。なぜかhttpsとhttpが検索結果に混在する結果に。

site:ドメインで検索すると、そのドメインのどんなページが、どんなURLで検索エンジンに登録されているか知ることが出来ます。

この項の結論から言います。site:https://ママゾン.comで検索すると、たとえばhttps://ママゾン.com/BD/というページはhttps://からはじまるアドレスで登録されているのに、https://ママゾン.com/hobby/というページは、http://からはじまるアドレスで登録されている、そんな状態にいまこのブログが陥っているのです

つまりは、上の3つの対策があまり機能していない。重複ページ扱い(パクリコンテンツ)されているのかなと、試しにsearch consoleを見てみると、バッチリ60以上のページが重複ページに認定されていました。

結局、数カ月待つしか無いらしい。

検索エンジンがどれが大本のURLか学習して、登録されているURLがhttps://に置き換わるまで、数ヶ月待つしか無いらしいです。いろいろなブログを見ていると。いやこれ、ブログで食ってる人からしてみれば切実な問題ですよ・・・。

しかもSSL化しないと、検索順位はいずれ下がっていくという、ジリ貧。

まさしく前後左右が真っ暗闇。

10/6:続報

プラグインW3 Total Cacheが原因だった?

事態が複雑になってきました・・・。

Search Consoleを見てみると、どうもクロールエラーで検索エンジンがクロールできない状態になっていたらしく、重複ページの再クロールができなかったようです。

原因を突き止めるべく、クロールエラー(エラーコード:500 つまりはInternal Server Error、ページが開けませんと)のでたページを開こうとすると、パソコンでは開けますがモバイルでは開けませんでした。

検索をもうちょっと詳しくしてみると、どうやらWordPressのプラグイン「W3 Total Cache」が500エラーの原因になるという記事を発見。ページの内容がおかしくなってクローラーがデータを拾えないのは確かなので、ここらへんに原因があると踏みました。

キャッシュを削除し、W3 Total Cacheの設定から、すべてのチェックマークを外します。こうやって安全性が保たれたと判断したところで、このプラグインを削除しました。

無事にモバイルで表示できるようになり、クローラーがデータを拾えるようになりました。

ここの工程は、ワードプレスのバックアップを取っておいたほうが確実です。万が一おかしくなった時、復旧できます。

まだクロールエラーが出る。Google XML SitemapsをXML Sitemap & Google Newsに入れ替え

ですが、まだクロールエラーが解消されません。

再クロールをうながして重複ページを解消しようと思ったのですが、ページによってはFetch as Googleが効かないことがあったのです。

これはサイトマップがおかしいなと判断。試しに「Google XML Sitemaps 不具合」で検索すると、不具合報告が出るわ出るわ・・・。相当評判悪いんだなと思いました。

Google XML Sitemapsについての記述の中で、XML Sitemap & Google Newsに切り替えたらなおったという報告があったので、前者を削除し後者を導入。Fetch as Googleを試すとうまく行きました。

ここも、前者のプラグインを消すにあたってエラーが出ないように、設定のチェックマークを外したりと気を使いました。

現状は、まだクローラーの訪問待ちなのですが、まだクロールエラーは丸1日近く経っても出ていません。まだ検索結果にはhttps://とhttp://が混在しているので、重複ページの解消待ちです。

以上、続報でした。

スポンサーリンク

シェアする

  • このエントリーをはてなブックマークに追加

フォローする