Veröffentlicht am 14 June 2019

Googles John Mueller voraussagt dynamische Rendering nicht in ein paar Jahren benötigt

Googles John Mueller sagt voraus, dass dynamische Rendering nur eine vorübergehende Lösung sein Web-Crawler-Prozess JavaScript für die Unterstützung.

Schließlich werden alle Web-Crawler der Lage sein, JavaScript zu verarbeiten, glaubt Müller. So in einem Zeit auf dynamisches Rendering unter Berufung einige Jahre nicht notwendig sein.

Mueller machte diese Vorhersage kürzlich bei einem Google Webmaster Central Hangout, wenn ein Website-Eigentümer gefragt, ob es ein Grund, warum sie nicht dynamischen Rendering verwenden sollte.

Hier ist die Frage, die gestellt wurde:

„Wir denken an die Möglichkeit starten nur serverseitige Rendering dient für Bots auf einigen unserer Seiten. Ist das ein akzeptiertes Verhalten von Google & Freunden heute? Oder sehen Sie Einwände, warum dies nicht zu tun?“

Als Reaktion darauf sagte Mueller dynamischer Rendering ist definitiv etwas, das Google eine akzeptable Lösung zu hält. In naher Zukunft jedoch Websites müssen nicht so viel auf sie verlassen.

Googlebot kann bereits jede Art von JavaScript-Seite verarbeiten und Mueller vermutet, alle anderen Crawlern folgen werden.

Mueller sagt dynamischer Rendering ist eine vorübergehende Lösung, bis andere Crawler aufholen. Obwohl „vorübergehend“ ein paar Jahre bedeuten könnte, verdeutlicht er.

Was macht diese Vorhersage besonders interessant ist, dass dynamischer Rendering wurde erst im vergangenen Jahr bei Google I / O 2018 eingeführt.

Nun, etwas mehr als ein Jahr später, sagt Mueller diese innovative Lösung JavaScript Bots dienen nur für ein paar Jahre benötigt.

Es wird interessant sein zu diesem Thema zurück zu blicken und sehen, wie Mueller Vorhersage Pfannen.

Hören Mueller vollständige Antwort unten, am 18.38 Markierung beginnen:

„So können Sie dies auf jeden Fall tun, aus unserer Sicht. Dies ist, was wir nennen, glaube ich, dynamischen Rendering, die im Grunde ist, wenn Sie Vorrendern die Seiten für eine bestimmte Gruppe von Benutzern sind. Normalerweise Dazu gehört Crawlern, Social-Media-User-Agents, all diese Dinge, die im Grunde nicht normale Benutzer sind, die nicht in der Lage sein würde, JavaScript zu verarbeiten.

Das ist sicherlich etwas, das man tun könnte. Manchmal macht es auch Sinn, serverseitige Rendering als auch für die Nutzer zu verwenden. Manchmal kann man deutlich die Lieferung von HTML-Seiten, um sie beschleunigen. So ist es nicht etwas, das halte ich würde, dass Sie nur für Bots tun müssen, ist es wahrscheinlich lohnt sich zu überprüfen, um zu sehen, ob es Möglichkeiten gibt, Sie auch, dass die gleiche Setup für Anwender nutzen können. Vielleicht können Sie, das macht vielleicht keinen Sinn in diesem speziellen Fall machen.

In jedem Fall von unserer Seite gesagt, es ist etwas, das Sie tun können. Ich vermute, dass im Laufe der Zeit, auf lange Sicht wird es etwas sein, dass Sie immer weniger zu tun haben. Googlebot in der Lage ist heutzutage ziemlich jede JavaScript-Typ Seite zu kriechen. Ich vermute, dass andere Benutzeragenten werden auch mit, dass im Laufe der Zeit folgen zu lassen.

Also ich würde dies als etwas sehe Art als vorübergehende Lösung - wo temporäre könnte ein paar Jahre bedeuten - aber es ist eher eine zeitlich begrenzte Abhilfe. An einem gewissen Punkt ziemlich jeder irrelevant User-Agent wird in der Lage sein, JavaScript zu verarbeiten.“