Das Inhouse-SEO Briefing am Morgen

vom 7. November 2019

Kurz zusammengefasst, was für deinen Job relevant ist.

Führt die robots.txt bei WordPress zu Crawling-Problemen? Dauerhafte Probleme beim Abruf der robots.txt-Datei einer Webseite können zu Beeinträchtigungen beim Crawlen der Webseite führen. WordPress generiert automatisch eine Robots.txt sofern sie nicht bereits selbst erstellt und hochgeladen wurde. Doch kann genau das zu einem Problem führen? Dies hatte Joost de Valk, der Entwickler des SEO-Plugins „Yoast“ gefragt. Laut Gary Ilyes würde Google diesen Fall nun prüfen. Es empfiehlt sich aber selbst eine Robots.txt anzulegen, um eventuelle Probleme von Anfang an auszuschließen.

https://twitter.com/methode/status/1192030751329595392

Google erklärt das BERT-Update. Google hat im Hauseigenen Blog das aktuelle BERT-Update erklärt. BERT ist das größte Update seit 5 Jahren und es handelt sich dabei um eine Technologie, die den semantischen Zusammenhang der einzelnen Worte in einer Suchanfrage und den Featured Snippets besser verstehen und somit zielgerichtetere Ergebnisse liefern soll. Laut Google soll das BERT-Update rund 10% aller Suchanfragen in den USA betreffen.

https://www.blog.google/products/search/search-language-understanding-bert

Das war's auch schon wieder für heute, bis morgen!

Dominik Schwarz
Dominik Schwarz
Herausgeber, Vertical Inhouse

Vergangene Inhouse-SEO Briefings am Morgen

vom 8. November 2019
Wie man Googles neuen Speed-Report effektiv nutzen kann. Und: PageSpeed-Optimierung – Worauf man sich fokussieren sollte.
vom 11. November 2019
Was man von SEO lernen kann. Und: Kurz und gut erklärt: Was ist BERT?
vom 12. November 2019
Expedia macht eine schwache SEO für Umsatzrückgang verantwortlich. Und: DSGVO und Cookies – Der Fall Google Analytics.

Jetzt anmelden

Hier kannst du deinen Code anfordern.
*Berufliche E-Mail-Adresse
(Freischaltung nur für Inhouse-Angestellte, keine Agenturen)