Das Inhouse-SEO Briefing am Morgen

vom 7. November 2019

Kurz zusammengefasst, was für deinen Job relevant ist.

Führt die robots.txt bei WordPress zu Crawling-Problemen? Dauerhafte Probleme beim Abruf der robots.txt-Datei einer Webseite können zu Beeinträchtigungen beim Crawlen der Webseite führen. WordPress generiert automatisch eine Robots.txt sofern sie nicht bereits selbst erstellt und hochgeladen wurde. Doch kann genau das zu einem Problem führen? Dies hatte Joost de Valk, der Entwickler des SEO-Plugins „Yoast“ gefragt. Laut Gary Ilyes würde Google diesen Fall nun prüfen. Es empfiehlt sich aber selbst eine Robots.txt anzulegen, um eventuelle Probleme von Anfang an auszuschließen.

https://twitter.com/methode/status/1192030751329595392

Google erklärt das BERT-Update. Google hat im Hauseigenen Blog das aktuelle BERT-Update erklärt. BERT ist das größte Update seit 5 Jahren und es handelt sich dabei um eine Technologie, die den semantischen Zusammenhang der einzelnen Worte in einer Suchanfrage und den Featured Snippets besser verstehen und somit zielgerichtetere Ergebnisse liefern soll. Laut Google soll das BERT-Update rund 10% aller Suchanfragen in den USA betreffen.

https://www.blog.google/products/search/search-language-understanding-bert

Das war's auch schon wieder für heute, bis morgen!

Dominik Schwarz
Dominik Schwarz
Herausgeber, Vertical Inhouse

Vergangene Inhouse-SEO Briefings am Morgen

vom 27. Mai 2020
Google Alerts für Linkbuilding – ein Guide. Und: 9 SEO Best-Practices für 2020.
vom 28. Mai 2020
Interne Verlinkung: Das komplette Crawlen sollte von jedem Startpunkt sein. Und: SEO mit strukturierten Daten.
vom 29. Mai 2020
GitHub für Enterprise-SEO nutzen. Und: Schwankungen in den Local Search Rankings waren ein Bug.
vom 1. Juni 2020
Guide: Die UTM-Codes für das URL-Tracking. Und: Google: URL-Parameter-Tool ist kein Ersatz für die Robots.txt.

Jetzt anmelden

Hier kannst du deinen Code anfordern.
*Berufliche E-Mail-Adresse
(Freischaltung nur für Inhouse-Angestellte, keine Agenturen)