Googlebot nie może uzyskać dostępu do plików CSS i JS – co robić?

W ostatnich dniach wielu użytkowników otrzymało powiadomienia z Google, dotyczące problemów, jakie robot wyszukiwawczy napotkał przy dostępie do plików css i js.

1

Ale o co chodzi?

Robot Google aktualnie bardzo dokładnie podchodzi do badania stron internetowych. Potrafi parsować CSS oraz renderować wykonywany kod w plikach JavaScript. Dzięki temu – może podczas przeglądania strony – dokładnie zaindeksować wszystkie znajdujące się na niej treści – włącznie z grafiką oraz z elementami ładowanymi dynamicznie.

Stąd niezbędne jest, by roboty indeksujące miały dostęp do wszystkich plików strony. Zalecamy sprawdzenie swojej strony internetowej – szczególnie pliku robots.txt, w którym znajdują się często jedne ze sformułowań pokazanych obok.

Problem dotyczy przede wszystkim starszych CMS’ów. Wpływ na wyniki wyszukiwania jest trudny do oszacowania, jednak ponieważ we wskazanych plikach rzadko znajdują się informacje związane z treścią na stronie – przede wszystkim może chodzić o wpływ na jakość prezentacji treści.

W przypadku blokowania plików JavaScript, gdyby na stronie występowały jednak istotne treści generowane dynamicznie z użyciem JavaScriptu – może okazać się, że Google nie będzie w stanie poprawnie indeksować takiej strony. Wówczas może to silnie wpływać na wyniki wyszukiwania poprzez podniesienie pozycji stron konkurencyjnych, w których robot nie napotkał takich problemów.

2

Co zalecamy?

Zaloguj się przez FTP na serwer i poszukaj pliku robots.txt. Wewnątrz niego znajdź wpisy podobne do tych:

Disallow: /modules/
Disallow: /scripts/
Disallow: /themes/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /layouts/
Disallow: /images/
Disallow: /components/

Wpisy te blokują one dostęp do wskazanych folderów w strukturze strony na serwerze. Uniemożliwianie indeksowania/przeglądania tych plików może uniemożliwić późniejsze poprawne działanie nowych funkcji w Google – może to być na przykład podgląd strony – jeszcze na wynikach wyszukiwania.

Zalecamy usunięcie tego rodzaju wpisów.

W wypadku Klientów, korzystających z naszych usług SEO, zajęliśmy się tym komunikatem i podjęliśmy już działania, zmierzające do ułatwienia indeksowania treści przez robota Google. Jeśli chcesz wiedzieć więcej – zapraszamy do kontaktu z naszą firmą, chętnie pomożemy w opymalizacji Twojej strony www.

Bezpłatna analiza Twojej strony w 10 sek.

Chcesz się dowiedzieć, co warto poprawić na Twojej stronie, żeby uzyskać lepsze wyniki? Tym narzędziem możesz bezpłatnie sprawdzić swoją stronę www w kilka sekund.

Za treść artykułu odpowiada:

Łukasz Bielawski, kierownik działu pozycjonowania Blink.pl

Łukasz Bielawski

Kierownik działu SEO w Blink.pl, programista PHP, pasjonat systemów CMS Joomla i WordPress.