Hi,
hat vielleicht noch jemand Probleme, dass der Googlebot geblockt wird?
Seit dem 19.12.2019 habe ich das Problem, dass der Googlebot bei uns (eigener Reseller Server) geblockt wird.
Aber nicht auf dem kompletten Server, sondern nur auf einer (leider die wichtigste) Domain.
Die htaccess kann ich als Fehler völlig ausschließen - Der Bot kommt gar nicht erst nicht an.
Ich logge mittlerweile alle 4xx Fehler und kontrolliere seit dem 20.12. täglich (teilweise stündlich) die Logs.
Auch die Belastung des Servers ist (gerade über die Feiertage) absolut in Ordnung.
Da läuft ein Onlineshop drauf - Aber kein PHP System, sondern ein sehr performtes CGI/Perl System mit MySQL und Memcached.
DNS und Nameserver sind alle richtig eingestellt (hab ich gefühlt auch alles schon 100x getestet)
Der hier -> 72.14.199.195|Mozilla/5.0 (compatible; Google-Site-Verification/1.0) kommt an
Der hier -> 62.195.40.19|Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.96 Mobile Safari/537.36 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
kommt nicht an - 62.195. xxx ist in den LOGs von gestern genau 0x vertreten...
im Test-Tool sieht das dann für die Domain so aus https://www.google.com/webmasters/to...s-testing-tool

Laut Google (ich hatte das Problem im Webmaster Forum von Google geschildert) liegt es an Timeouts, bzw. Nichterreichbarkeit.
Antwort von G. auf meine Nachfrage:
Nun, die Sachlage sieht so aus, das der Googlebot fast immer in ein Timeout läuft. Egal ob Desktop oder Smartphonebot und eben auch beim Versuch die robots.txt zu crawlen. Passiert dieses wird der Hinweis zur robots.txt ausgegeben und das Crawling wird unterbrochen.
Es gibt also definitiv eine Sperre, eine Blockade, eine Bremse für den Googlebot auf deiner Webseite, wie auch von uns vermutet.
Und auch wenn du das verneinst und dein Hoster das nicht so sieht, Tatsache ist, der Bot wird, zumindest zeitweise blockiert, so das ein Timeout zustande kommt.
Mehr kann dazu auch von G. nicht gesagt werden, denn die Ursache liegt bei dir und deinem System.
Mit der Technik habe ich seit dem 20.12. Kontakt [#8468998]
Da wurde ich aber erst abgewunken (liegt nicht an uns) und seit gestern (letzte Mail von gestern Morgen 7 Uhr "Wir haben diese an die entsprechende Abteilung weitergeleitet,") hab ich jetzt nix mehr gehört.
Ich hab das Gefühl, dass es irgendwo eine automatische Blockade für 1-3 Tage gibt, die dann erstmal wieder verfällt und dann irgendwann wieder, wenn ein bestimmter Wert überschritten ist, wieder greift.
Das ganze wird gerade richtig ärgerlich, denn ohne Zugriff auf die robots.txt, schaltet Google auch keinerlei Anzeigen wegen "Nicht verfügbarer Landingpage"!
Gruß
Michael
hat vielleicht noch jemand Probleme, dass der Googlebot geblockt wird?
Seit dem 19.12.2019 habe ich das Problem, dass der Googlebot bei uns (eigener Reseller Server) geblockt wird.
Aber nicht auf dem kompletten Server, sondern nur auf einer (leider die wichtigste) Domain.
Die htaccess kann ich als Fehler völlig ausschließen - Der Bot kommt gar nicht erst nicht an.
Ich logge mittlerweile alle 4xx Fehler und kontrolliere seit dem 20.12. täglich (teilweise stündlich) die Logs.
Auch die Belastung des Servers ist (gerade über die Feiertage) absolut in Ordnung.
Da läuft ein Onlineshop drauf - Aber kein PHP System, sondern ein sehr performtes CGI/Perl System mit MySQL und Memcached.
DNS und Nameserver sind alle richtig eingestellt (hab ich gefühlt auch alles schon 100x getestet)
Der hier -> 72.14.199.195|Mozilla/5.0 (compatible; Google-Site-Verification/1.0) kommt an
Der hier -> 62.195.40.19|Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.96 Mobile Safari/537.36 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
kommt nicht an - 62.195. xxx ist in den LOGs von gestern genau 0x vertreten...
im Test-Tool sieht das dann für die Domain so aus https://www.google.com/webmasters/to...s-testing-tool
Laut Google (ich hatte das Problem im Webmaster Forum von Google geschildert) liegt es an Timeouts, bzw. Nichterreichbarkeit.
Antwort von G. auf meine Nachfrage:
Nun, die Sachlage sieht so aus, das der Googlebot fast immer in ein Timeout läuft. Egal ob Desktop oder Smartphonebot und eben auch beim Versuch die robots.txt zu crawlen. Passiert dieses wird der Hinweis zur robots.txt ausgegeben und das Crawling wird unterbrochen.
Es gibt also definitiv eine Sperre, eine Blockade, eine Bremse für den Googlebot auf deiner Webseite, wie auch von uns vermutet.
Und auch wenn du das verneinst und dein Hoster das nicht so sieht, Tatsache ist, der Bot wird, zumindest zeitweise blockiert, so das ein Timeout zustande kommt.
Mehr kann dazu auch von G. nicht gesagt werden, denn die Ursache liegt bei dir und deinem System.
Mit der Technik habe ich seit dem 20.12. Kontakt [#8468998]
Da wurde ich aber erst abgewunken (liegt nicht an uns) und seit gestern (letzte Mail von gestern Morgen 7 Uhr "Wir haben diese an die entsprechende Abteilung weitergeleitet,") hab ich jetzt nix mehr gehört.
Ich hab das Gefühl, dass es irgendwo eine automatische Blockade für 1-3 Tage gibt, die dann erstmal wieder verfällt und dann irgendwann wieder, wenn ein bestimmter Wert überschritten ist, wieder greift.
Das ganze wird gerade richtig ärgerlich, denn ohne Zugriff auf die robots.txt, schaltet Google auch keinerlei Anzeigen wegen "Nicht verfügbarer Landingpage"!
Gruß
Michael
Kommentar