Jak prawidłowo mierzyć szybkość strony www. Przegląd skutecznych i bezpłatnych narzędzi

Szybkość strony to jeden z najważniejszych czynników wpływających na jej pozycję w wynikach wyszukiwania Google oraz decydujących o jej odbiorze przez użytkownika. Jakich narzędzi użyć, aby prawidłowo zmierzyć szybkość strony internetowej bez konieczności ponoszenia dodatkowych kosztów?

Dlaczego szybkość ładowania strony jest ważna?

Szybkość (zwana też prędkością) witryny, o czym wspomniano już we wstępie, jest jednym z najważniejszych czynników w algorytmie pozycjonowania Google. Szybko ładujące się strony najprawdopodobniej będą znajdować się wyżej w wynikach wyszukiwania, a w konsekwencji przyciągać więcej odwiedzających.

Ważnym aspektem jest również chęć użytkowników Internetu do szybkiego uzyskania poszukiwanych informacji i brak cierpliwości w tej materii. Jeżeli wczytywanie się strony jest szybkie i bezproblemowe to użytkownicy chętniej będą z niej korzystać: przeglądać, czytać, czy kupować oferowane za jej pośrednictwem produkty.

Należy mieć na uwadze, że w obecnych czasach większość użytkowników przegląda strony na urządzeniach mobilnych i to głównie z myślą o nich należy strony optymalizować.

Jak szybko powinna ładować się strona internetowa?

Odpowiedź, może być tylko jedna: jak najszybciej!. Chociaż zalecenia są takie, aby ładowanie strony nie trwało dłużej niż dwie sekundy to w tej kwestii nie sposób przesadzić. W odczuciu użytkownika strona zawsze może ładować się zbyt wolno, ale nigdy zbyt szybko. W ocenie aktualnego czasu ładowania się strony oraz do ustalenia kierunków optymalizacji wykorzystać można liczne, ogólnodostępne i w większości bezpłatne narzędzia. Kilka najpopularniejszych narzędzi omówionych zostało poniżej.

Na co zwrócić uwagę przy wyborze narzędzia do mierzenia szybkości witryny?

Wyniki pomiarów szybkości witryny służą do opracowania działań wpływających na optymalizację jej działania. Wykonując te pomiary warto zwrócić uwagę na następujące, mające wpływ na poprawną realizację pomiaru, aspekty:

  • należy wybrać jedno lub dwa narzędzia pomiarowe – nie powinno się porównywać wyników z kilku różnych narzędzi naraz, ponieważ każde z nich posiada własny zestaw i system zbierania danych. Wyniki testów porównujemy więc tylko w ramach jednego narzędzia.
  • na bieżąco badaj efekty modyfikacji – pomiary należy wykonywać przed każdą optymalizacją i po niej, porównując wyniki.
  • należy wykonać kilka testów pod rząd i uśrednić ich wyniki. Niektóre narzędzia same wykonują takie serie testów uśredniając ich wyniki.
  • pomiaru nie należy ograniczać do strony głównej, testom należy poddać również wszystkie podstrony.
  • warto rozważyć stałe monitorowanie wyników, aby nie przeoczyć potencjalnie negatywnego wpływu wprowadzanych modyfikacji.

Bezpłatne narzędzia do testowania i monitorowania szybkości stron internetowych

W sieci funkcjonuje bardzo dużo darmowych narzędzi, które zmierzą szybkość strony oraz wskażą jakie jej elementy należałoby zoptymalizować, aby wczytywała się ona zdecydowanie szybciej. Poniżej lista kilku najpopularniejszych bezpłatnych narzędzi umożliwiających test szybkości strony.

Google PageSpeed Insights

https://developers.google.com/speed/pagespeed/insights/

Pierwsze spośród dwóch darmowych narzędzi udostępnionych przez Google. Bada ono szybkość zarówno aplikacji mobilnych, jak i desktopowych. Analizuje witryny w celu znalezienia wszystkich błędów, które wpływają na szybkość ładowania strony. Daje sugestie i wskazówki, w jaki sposób optymalizować stronę. Narzędzie prezentuje wyniki przedstawiane w skali 0-100. Im wyższy wynik tym lepiej, a wynik na poziomie 85 punktów oznacza bardzo dobry rezultat.

Mobile Website Speed Testing Tool

https://www.thinkwithgoogle.com/intl/en-cee/feature/testmysite/

Kolejne narzędzie, które zostało udostępnione przez Google do testowania szybkości ładowania strony. Narzędzie łączy funkcje narzędzi: Page Speed Insights oraz Mobile Friendly Test Tool, a z jego pomocą możemy sprawdzić nie tylko jak szybko ładuje się nasza strona, ale również czy nasz serwis jest przystosowany na urządzenia mobilne.

Pingdom Website Speed Test

https://tools.pingdom.com/

Test opracowany przez wiodącą firmę na rynku usług monitorowania stron internetowych – Pingdom. Aplikacja jest nie tylko darmowa, ale również bardzo łatwa w użyciu w porównaniu z innymi narzędziami do testowania prędkości. Oprócz funkcji sprawdzania prędkości ładowania strony, posiada funkcję wyświetlania i zapisywania do pliku wszystkich informacji, które zostały przesłane z serwera strony internetowej jako odpowiedź na zapytanie. W wersji darmowej narzędzia możemy dokonać wyboru jednej z czterech lokalizacji na świecie, z której ma zastać zainicjowany ruch do testowanej strony.

Yahoo’s YSlow

http://yslow.org/

Wtyczka, która skanuje składniki strony i bada na tej podstawie prędkość ładowania strony, prezentując wyniki na grafikach i wykresach. Narzędzie to funkcjonuje w formie wtyczki, której można używać w przeglądarkach Firefox, Chrom, Opera oraz Safari. Wtyczka pokazuje ilość danych jaka pobierana jest podczas ładowania strony, wskazuje problemy oraz podpowiada jak je naprawić.

GTmetrix

https://gtmetrix.com/

Narzędzie, którego cechą charakterystyczną jest łączenie wyników z różnych źródeł – między innymi z Google PageSpeed oraz YSlow (silnik oryginalnie stworzony przez Yahoo). Dzięki temu połączeniu GTmetrix oferuje możliwości badania szybkości strony zarówno z perspektywy Google, jak i Yahoo!. Narzędzie oferuje wersję bezpłatną wystarczającą do przetestowania jednej strony. Dużo bogatsza wersja płatna posiada ciekawe funkcje, np. nagranie video z wczytywania się strony.

DareBoost

https://www.dareboost.com/en

Zaawansowane narzędzie do testowania prędkości strony, ale też monitorowania wydajności sieci oraz pełnej analizy witryny pod względem szybkości, SEO i bezpieczeństwa. Darmowa wersja pozwala na 5 testów w miesiącu, co powinno w zupełności wystarczyć do optymalizacji jednej strony. Ciekawą funkcją narzędzia jest sprawdzanie i wyświetlanie technologii użytych na testowanej stronie.

Chrome DevTools

https://developers.google.com/web/tools/chrome-devtools

Standardowe rozszerzenie w Google Chrome. Jest to narzędzie bardzo łatwo dostępne, w pełni darmowe, szybkie i wydajne. Służy ono do audytowania wydajności strony internetowej. Podaje informacje o elementach strony które wymagają poprawy, jak również wskazuje te linijki kodu CSS, które mają negatywny wpływ na wydajność.

Szybkość ładowania witryny ma duży wpływ na odbiór jej przez użytkownika oraz na pozycje w wynikach wyszukiwania Google. Z tych dwóch powodów warto zadbać o to, by strona była jak najbardziej zoptymalizowana oraz szybka. Narzędzia do mierzenia i monitorowania szybkości stron dostarczają bardzo konkretnych informacji, pozwalających ustalić, co jeszcze i w jaki sposób można poprawić na stronie, żeby wczytywała się szybciej. Narzędzi tych jest bardzo wiele. Jedne z nich są bardziej zaawansowane, inne z kolei mają bardzo prosty i przyjazny interfejs. Każdy użytkownik może dobrać narzędzia do swoich potrzeb i umiejętności. Czas poświęcony na prace nad optymalizacją strony z pewnością przełoży się na wyższe pozycje w wynikach wyszukiwania, wzrost ruchu i w końcu większe zaangażowanie użytkowników i lepszą konwersję.

Agencja SEO pod lupą. Czy warto monitorować zlecone na zewnątrz kampanie SEO?

Czy naprawdę warto zajmować się monitorowaniem pozycji witryny w wyszukiwarce, kiedy kampania SEO zlecona została firmie zewnętrznej? Odpowiedź może być tylko jedna: Warto!

Czym jest monitoring pozycji w wyszukiwarce?

Monitoring pozycji witryny to najprościej mówiąc systematyczna weryfikacja pozycji witryny w wynikach wyszukiwania Google na poszczególne frazy kluczowe. Jako właściciel witryny możesz monitorować, nie tylko jak zmienia się pozycja Twojej witryny, ale także jak ze względu na wybrane frazy kluczowe pozycjonowana jest konkurencja.

Dlaczego warto monitorować pozycję witryny ze względu na wybrane frazy kluczowe?

Monitorowanie pozycji witryny w wynikach Google umożliwia obserwację efektów działań SEO – zarówno własnych, jak i tych zleconych agencjom. Taka weryfikacja umożliwia:

  • Określenie kierunku w jakim zmierza wdrażana kampania.
  • Określenie pozycji witryny w porównaniu z poprzednim miesiącem.
  • Wskazanie sekcji generujących najmniejszy ruch.
  • Ocenę opłacalności działań SEO.
  • Określenie, jak na frazy kluczowe, najważniejsze z punktu widzenia biznesu, pozycjonuje się witryna naszej firmy, a jak witryny konkurencji.

Kto jest odpowiedzialny za monitorowanie pozycji w Google?

Zadanie to należy oczywiście do opłacanych specjalistów/agencji SEO. Nic nie stoi jednak na przeszkodzie, by dodatkowo monitorować to samodzielnie. Specjaliści SEO monitorują wyniki swojej pracy za pomocą narzędzi, które nie zawsze dają możliwość udostępnienia widoku dla klienta. Jeżeli raporty dostarczane nie są wystarczające można pomyśleć o alternatywnej formie weryfikacji wyników kampanii.

„Pańskie oko konia tuczy”

Jakie korzyści może przynieść samodzielne monitorowanie pozycji witryny w wyszukiwarce?

  • Możliwość bieżącego śledzenia pracy specjalisty/agencji SEO.
  • Bieżący nadzór nad wydatkowanymi pieniędzmi.
  • Ocena pozycji witryny na tle witryn konkurencji.
  • Monitorowanie wpływu wzrostu pozycji w Google.

Warto być świadomym klientem i poświęcić kilka chwil tygodniowo na weryfikację działań specjalisty/agencji SEO.

Monitoring ręczny, czy z użyciem narzędzi?

Zdecydowanie warto postawić na wyspecjalizowane narzędzia. Wynika to ze specyfiki algorytmów Google. Wyszukiwarka personalizuje wyniki, więc wyniki wyszukiwania ręcznego, które polega na wpisaniu frazy kluczowej w wyszukiwarce Google, nie są miarodajne. To, jakie wyniki pokaże Google zależy m.in. od:

  • historii wcześniejszych odwiedzanych stron,
  • lokalizacji użytkownika,
  • płci, wieku i zainteresowań użytkownika,
  • wyszukiwanej frazy oraz intencji wyszukiwania,
  • informacji pozyskanych z powiązanych usług, jak Gmail lub GoogleMaps.

Personalizacja ma pomóc użytkownikowi w uzyskaniu jak najlepszej odpowiedzi na jego zapytanie, ale oznacza ona, że każdy użytkownik zadając to samo pytanie uzyska inne wyniki wyszukiwania.

Jakich narzędzi używać do monitorowania pozycji w Google?

Aby monitorowanie wyników było jak najbardziej miarodajne warto korzystać z wyspecjalizowanych narzędzi. Aktualnie zalecana się trzy rodzaje narzędzi do monitorowania fraz kluczowych:

  • narzędzia w modelu SaaS (ang. Software as a Service),
  • oprogramowanie instalowane na komputerze (wersja desktopowa),
  • skrypt instalowany na serwerze.

Wystarczającym rozwiązaniem, nie wymagającym instalowania niczego na komputerze, ani na serwerze są narzędzia w modelu SaaS, czyli takie, do których wystarczy wpisać adres w przeglądarce, a po zalogowaniu się do systemu korzystać z niego on line.

Monitoringi Senuto i SEMSTORM

Senuto i SEMSTORM to narzędzia w modelu SaaS. Oprócz monitorowania pozycji w Google pozwalają one także na monitorowanie witryn konkurencji. Za pomocą tych narzędzi sprawdzimy aktualną widoczność strony oraz liczbę fraz kluczowych na przestrzeni wybranego przez nas okresu czasu.

Obydwa narzędzia są płatne, ale możliwe jest skorzystanie z 14-dniowego, bezpłatnego okresu płatnego.

Podsumowanie

Każda strategia wymaga bieżącej weryfikacji i wdrażania niezbędnych poprawek. Dotyczy to również pozycjonowania. Żeby znaleźć się w TOP 10 wyników Google, trzeba monitorować efekty własnych działań i analizować strategię konkurencji. Zarówno sytuacja rynkowa, jak i jej odzwierciedlenie w wynikach wyszukiwania ulegają ciągłym zmianom. Konkurencja również optymalizuje swoją witrynę i dopracowuje swoją ofertę, warto więc trzymać rękę na pulsie, a decyzje podejmować na podstawie twardych danych.

Aktualizacja BERT i jej wpływ na pozycjonowanie SEO.

Najnowsza aktualizacja Google BERT, która została ogłoszona pod koniec października, uważana jest za największą od momentu wypuszczenia, pięć lat temu, algorytmu RankBrain. Szacuje się, że BERT może wpłynąć na około 10% zapytań. Na początku ma on dotyczyć tylko wyników wyszukiwania w języku angielskim. W dalszej kolejności ma on objąć również inne języki.

Czym jest BERT?

Około rok temu Google stworzyło technologię opartą na sieci neuronowej, której zadaniem jest przetwarzanie języka naturalnego (ang. natural language processing, NLP). Technologia ta została nazwana Bidirectional Encoder Representations from Transformers, czyli w skrócie BERT.

Na czym polega działanie algorytmu BERT?

Google traktowało dotychczas zapytania pojawiające się w wyszukiwarce, jako zbiór oddzielnych słów składających się na wyszukiwane zapytanie. BERT uwzględnia także kontekst wyszukiwania co pozwala na jego szerszą interpretację. Sprawdza, w jaki sposób poszczególne słowa wiążą się znaczeniowo z każdym poprzednim i kolejnym wyrazem. Umożliwia to prezentację bardziej trafnych odpowiedzi na zapytania użytkownika, zwłaszcza w przypadku zapytań o rozbudowanej konstrukcji. BERT bierze również pod uwagę stopwords, które wcześniej były uważane za nieistotne, a także wpływa na wyświetlanie się featured snippets.

W przykładach, które zostały zaprezentowane na blogu Google widzimy, że największy nacisk postawiony został na interpretację:

  • zaprzeczeń ­ przykład z zapytaniem o parkowanie na wzgórzu, gdzie brak jest krawężników ­ fraza „Parking on a hill with no curb” ­ wcześniej angielskie NO, (pl. NIE) pomijane było w wynikach wyszukiwania, co dawało wyniki zupełnie odwrotne do oczekiwanych;

Źródło: https://blog.google/products/search/search-language-understanding-bert

  • zaimków, przyimków, oraz innych słów które wcześniej były pomijane ­ przykładem obrazującym tę zmianę jest fraza „2019 brazil traveler to usa need a visa”. Wyszukiwanie przed wprowadzeniem BERTa pokazywało wynik, który odpowiadał na pytanie czy obywatel USA potrzebuje wizy do Brazylii, a nie zgodnie z potrzebą osoby szukającej odpowiedzi na swoje pytanie, czyli czy Brazylijczyk podróżujący do USA potrzebuje wizy. Działo się tak dlatego, że wyszukiwarka nie brała pod uwagę angielskiego słowa TO (pl. DO), które diametralnie zmienia znaczenie zdania. Po wprowadzeniu BERTA uzyskujemy zdecydowanie bardziej satysfakcjonujący wynik:

Źródło: https://blog.google/products/search/search-language-understanding-bert

  • lepsze zrozumienie samego kontekstu zdania, co obrazuje przykład wyszukiwania frazy „Can you get medicine for someone pharmacy”. Przecież użytkownik chce się dowiedzieć, czy można zrealizować receptę w czyimś imieniu, a nie w jakim przypadku wypisywane są recepty.

Źródło: https://blog.google/products/search/search-language-understanding-bert

Wpływ BERTA na SEO

Czy można lub trzeba przygotowywać się w jakiś szczególny sposób na wprowadzenie BERTA do polskich wyników wyszukiwania? Odpowiedź na oba pytania brzmi: nie. Google deklaruje, że BERT nie wykluczy działania RankBrain, a jedynie go uzupełni, aby dostarczyć użytkownikowi jak najlepszych wyników wyszukiwania dla jego zapytania. Jeżeli teksty na stronie pisane są ludzi, a nie spreparowane pod roboty, a więc z zastosowaniem języka naturalnego to strona nie powinna stracić swej pozycji w rankingach.

Należy monitorować frazy kluczowe i na bieżąco weryfikować, jak reaguje na nie BERT. Warto rozszerzyć je i zamiast pozycjonować się na „fryzjer Wrocław” dobrać bardziej naturalną frazę, np. „fryzjer we Wrocławiu”.

Wystarczy systematyczna praca nad jakością i zawartością strony oraz odpowiednie rozumienie zmian zachodzących we współczesnym SEO, aby nie musieć obawiać się nowych rozwiązań.

W jaki sposób Google ocenia wartość linków

Jednym z najstarszych algorytmów, jaki wykorzystywany jest przez Google do oceny jakości stron internetowych jest PageRank. Jest to wskaźnikopracowany przez założycieli Google, Larry’ego Page’a i Sergeya Brina, jeszcze podczas studiów na Uniwersytecie Stanforda w 1998 roku. Według Wikipedii PageRank to metoda nadawania indeksowanym stronom internetowym określonej wartości liczbowej odzwierciedlającej ich jakość. W dużym uproszczeniu oznaczało to, że algorytm ocenia jakość strony na podstawie liczby prowadzących do niej linków.

W okresie powstania PageRank najwyższe notowania osiągały strony z największą liczbą linków, które kierowały użytkowników do tej strony. Wraz z rozwojem algorytmu ocenie zaczęto poddawać jednak również ich jakość. W praktyce oznaczało to, że jeśli witryna posiadała linki z mocnych stron, czyli z takich, do których prowadziło wcześniej wiele wartościowych linków, otrzymywała wyższy PageRank. Analogicznie – jeśli linki prowadziły głównie z mało popularnych witryn, wartość strony docelowej była niższa.

PageRank znacznie ewoluował i aktualnie jest to narzędzie bardzo skomplikowane i znacznie odbiegające od pierwotnych założeń. Obecnie w procesie tworzenia PageRank kluczowe znaczenie mają następujące czynniki:

  • tekst zakotwiczenia (anchor),
  • jakość treści na podstronie/domenie gdzie został zamieszczony odnośnik,
  • widoczność w wyszukiwarce,
  • wielkość ruchu na stronie, z której pochodzi link,
  • zachowanie użytkowników (ile czasu pozostają na stronie, jaki jest wskaźnik odrzuceń).

Poniżej przedstawiono listę 20 najważniejszych zależności dotyczących przekazywania mocy linków przez algorytm PageRank przygotowane na podstawie artykułu pt. „All Links are Not Created Equal: 20 New Graphics on Google’s Valuation of Links” („Link linkowi nierówny: 20 infografik, jak Google podchodzi do poszczególnych rodzajów linków”).

  1. Linki prowadzące ze stron o bogatym profilu linków mają większą moc – można przyjąć, że strony, do których prowadzi duża liczba linków, mają wysoką wartość PageRank. Strony popularne i chętniej linkowane, a więc o wysokim wskaźniku PageRank mogą przekazywać innym stroną większą moc.
  • Największą moc mają linki pochodzące z unikatowej części podstrony – pomimo, że Google indeksuje wszystkie linki na stronie, to z analiz wynika, że o wiele większą wartość mają linki umieszczone w głównym obszarze strony, niż te zawarte w stałych fragmentach witryny (sidebar, stopka, nagłówek itp.)
  • Linki położone wyżej mają większą wartość od tych zamieszczonych niżej – już w 2010 roku Matt Cutts, szef zespołu Google do walki ze spamem, sugerował, aby ważne linki publikować jak najwyżej. Dzięki temu link będzie bardziej widoczny i statystycznie częściej klikany przez użytkowników, niż linki zamieszczone niżej.
  • Tekst zakotwiczenia (anchor) ma duże znaczenie – większą wartość w kontekście SEO mają linki zawierające tekst zakotwiczenia dopasowany do frazy , na jaką jest pozycjonowana dana strona, czyli tak zwany exact-match, niż linki typu „kliknij tutaj”.
  • Ważna jest różnorodność domen z których pochodzą odnośniki – PageRank woli, kiedy linki do naszej strony pochodzą z wielu różnych witryn. Generalna zasada mówi, że lepiej zdobyć kolejny link z nowej witryny, niż starać się o kolejne z serwisu, na którym są już zamieszczone odnośniki do naszej strony. Zasada ta obowiązuje tylko w sytuacji, kiedy wszystkie witryny cieszą się podobną popularnością i reputacją w sieci. Z odstępstwem od niej mamy do czynienia w sytuacji, gdy witryny mają różną wartość. Lepiej pozyskać kolejny odnośnik z jakiegoś uznanego w sieci serwisu branżowego, niż z dopiero co powstałego bloga.
  • Linki zewnętrzne mają większą wartość niż linki wewnętrzne – algorytmy wyszukiwarek zdają się działać zgodnie z koncepcją, że “to, że inni mówią o tobie, jest cenniejsze od tego, co mówisz sam o sobie”. Z analiz korelacji wynika, że do stron zajmujących czołowe pozycje w wynikach wyszukiwania prowadzi duża liczba linków z serwisów zewnętrznych. Linki wewnętrzne i dobra architektura witryny, choć nie są bez znaczenia, to odgrywają jednak mniejszą rolę w SEO.
  • Największą wartość mają linki pochodzące bezpośrednio z zaufanej witryny (takiej, której TrustRank jest wysoki) lub linki ze strony, z którą powiązana jest ta zaufana witryna, np. witryny, takie jak Wikipedia czy uznane poradniki branżowe, mają wysoki TrustRank.
  • Linki pochodzące z witryn tematycznie związanych z profilem naszej działalności mają większą wartość niż linki ze stron ogólnych lub całkowicie niezgodnych tematycznie z naszą witryną. I tak na przykład najcenniejsze linki dla sklepu internetowego z artykułami dla niemowląt będą pochodziły z serwisów parentingowych czy blogów lifestylowych. Tak samo w przypadku biznesów lokalnych. Wysoką pozycję w rankingu na zapytania lokalne mogą zagwarantować nam linki pochodzące z regionalnych serwisów.
  • Odnośniki z aktualnych artykułów dają większą moc pozycjonowanych stronom niż linki ze starych artykułów, analiz i felietonów. Nowe treści traktowane są przez algorytm priorytetowo, tak aby wyszukiwarki, zgodnie z założeniem Google, dostarczały użytkownikom jak najbardziej aktualnych i wyczerpujących odpowiedzi na ich zapytania.
  1. Znaczenie dla wartości strony ma tempo w jakim rośnie liczba odnośników do niej – Jeśli Google zaobserwuje obniżenie tempa przybywania linków do danej strony, to uzna, że straciła ona swoją świeżość, co odbije się na pozycji w rankingu wyszukiwania.
  1. Linki pochodzące ze stron o niskiej jakości są ignorowane – największe znaczenie dla pozycji strony w rankingu wyszukiwania mają naturalne rekomendacje, czyli odnośniki będące efektem publikacji wartościowych treści na stronie, a nie linki spamerskie, zdobyte najczęściej w sposób niezgodny z wytycznymi wyszukiwarki. Od momentu wypuszczenia przez Google w 2016 roku algorytmu Pingwin 4.0 na bieżąco oceniana jest jakość linków prowadzących do strony i te, które wyglądają na nienaturalne są po prostu pomijane.
  1. Odnośnik może przekazywać swoją moc nawet po usunięciu – wynika to ze zjawiska Link Echos (Link Ghosts) i oznacza, że linki nawet po ich fizycznym usunięciu wciąż są widoczne przez algorytm Google i mają wpływ na ranking (może to trwać nawet do kilku miesięcy). Nie jesteśmy jednak w stanie ustalić jednoznacznie, czy ten efekt dotyczy wszystkich linków.
  1. Publikowanie linków na pozycjonowanej stronie do wiarygodnych źródeł informacji w sieci ma wpływ na ranking – w tej kwestii inżynierowie z Google wypowiadają się niejednoznacznie, raz twierdząc, że linkowanie do witryn z autorytetem nie ma wpływu na pozycję strony, a raz wspominając, że może to przyczynić się do wzrostu pozycji. W wyniku wieloletnich testów można jednak stwierdzić, że ta druga opinia jest bliższa prawdy.
  1. Linki spamerskie mogą obniżyć moc odnośników z zaufanych źródeł – zasada ta może być odzwierciedleniem długoletniej walki Google ze spamem i próbą udaremnienia prób manipulowania wynikami. W sytuacji, gdy na jednej stronie opublikowane są zarówno linki do podejrzanych stron, jak i odnośniki do witryn naukowych czy rządowych, to Google może uznać, że strona ta handluje linkami i nie nada tym linkom żadnej mocy.
  1. Linki nofollow również mają wartość – wprowadzenie tego atrybutu (obecnie rel=”ugc” lub rel=”sponsored”) miało ułatwić administratorom stron walkę z niechcianymi linkami, zamieszczanymi w komentarzach na stronach z wysokim PageRank. Użytkownicy wstawiali linki na potrzeby realizacji swoich celów (zwiększenie popularności i widoczności w wyszukiwarce własnej strony). W wyniku testów wykazano jednak, że linki nofollow mogą przekazywać moc i warto sprawić, aby były integralną częścią naszego profilu linków.
  1. Linki stworzone w JavaScript przekazują PageRank, o ile zostaną poprawnie zrenderowane przez Google – w przeszłości Google miał problemy z poprawną indeksacją stron wykonanych w JavaScript. Aktualnie JavaScript jest zazwyczaj poprawnie renderowany, a linki właściwie indeksowane.
  1. Jeżeli na stronie wystąpi kilka odnośników pochodzących z tego samego adresu URL, uwzględniany jest tekst zakotwiczenia pierwszego z nich – to wynika z zasady First Link Count. W sieci można, co prawda znaleźć sposoby na ominięcie tej zasady, ale nie zawsze są one skuteczne.
  1. Robots txt i Meta Robots mają wpływ na indeksowanie linków – warunkiem oceny linku przez algorytm Google jest konieczność jego zaindeksowania. Bez dostępu do danej podstrony, nie można liczyć na przekazanie mocy. Taka sytuacja może mieć miejsce, gdy:
  2. adres URL został zablokowany w pliku robots.txt,
  3. meta tag „robots” zawiera dyrektywę „nofollow”,
  4. meta tag „robots” zawiera dyrektywę „noindex, follow”.
  1. Linki zgłoszone w disavow tracą swoją wartość – Disavow Tool to narzędzie stworzone przez Google do likwidowania niechcianych linków. Jeśli chcemy oczyścić profil z odnośników pochodzących np. z małowartościowych stron lub w przypadku gdy linki zostały zgłoszone jako spam warto skorzystać z tej opcji. Wszystkie linki wskazane przez administratora w tym procesie nie będą już brane pod uwagę przy wyznaczaniu pozycji strony w rankingu. Po wpisaniu przez pomyłkę wartościowego linku na „czarną listę”, Google odczyta to jako błąd i zignoruje taki wniosek.
  • Niepodlinkowane wzmianki i rekomendacje mogę mieć wpływ na ranking – Google na podstawie analizy treści potrafi połączyć unikatowe dane i powiązać je z konkretną witryną nawet jeżeli nie został wstawiony link. Wynika z tego, że do poprawy pozycji w naszej witryny w rankingu wystarczą same notki i informacje dotyczące naszej firmy opublikowane w serwisie cieszącym się dużym zaufaniem zarówno Google, jak i użytkowników.

Oczywiste jest, że odpowiednio dobrane źródła odnoszące użytkowników do naszej witryny, to skarb, którego wartości nie sposób przecenić. Jednak pozyskanie linków, zwłaszcza tych wartościowych, dla witryny nie jest wcale proste. W 2009 roku usunięto PageRank z Google Webmaster Tools (obecnie Google Search Console), a w 2016 roku usunięto całkowicie Google PageRank. Jak wskazuje większość specjalistów, Google nie zrezygnowało całkowicie z tego wskaźnika. Dalej jest on wykorzystywany i warto troszczyć się o jego wysoką wartość, nawet jeśli nie jest ona podawana obecnie do publicznej wiadomości.

O czym warto pamiętać dodając filmy na YouTubie?

YouTube z roku na rok rośnie w sile. W Polsce miesięcznie ogląda filmy na YouTubie 18,5 mln osób, a sam serwis jest drugą po Google największą wyszukiwarką treści w Internecie. Coraz częściej z serwisu korzystają też przedsiębiorcy, którym zależy na dobrych pozycjach na YouTubie i w wyszukiwarce Google. Na co zatem zwrócić uwagę dodając filmy na YouTubie by osiągały dobre wyniki wyświetleń? Odpowiedź znajdziecie w naszym artykule. Podpowiadamy zarówno rozwiązania stricte związane z pozycjonowaniem, jak również rozwojem całego kanału.

1. Tagi

Dobre otagowanie filmu, to najważniejszy element przy jego pozycjonowaniu. Tagi określają o czym jest wideo i są brane pod uwagę przez wyszukiwarkę do dobierania treści do zapytań. Tagi powinny być naszymi słowami kluczowymi zarówno tymi podstawowymi jak również z długiego ogona. Pole na tagi mieści 500 znaków.   

2. Tytuł filmu

W tytule filmu należy zamieścić słowa kluczowe. Pomocnym narzędziem jest AnswerThePublic. Warto wpisać wybrane słowa kluczowe w wyszukiwarkę YouTube i sprawdzić, jakie materiały wyświetlają się na to hasło oraz ile mają wyświetleń.

3. Opis filmu

Powinien zawierać nie mniej niż 200 słów i być naszpikowany słowami kluczowymi. Warto zwrócić uwagę na pierwsze zdanie, które będzie widoczne pod miniaturką na liście filmów sugerowanych do obejrzenia. W opisie można także zawrzeć przekierowanie do innych filmów z kanału bądź strony internetowej.

4. Karty

Karty odsyłają do innych materiałów na naszym kanale. Warto wstawić je w miejscu, gdzie odwołujemy się do na nagraniu do innych materiałów. Karty wydłużają watch time kanału. 

5. Częstotliwość filmów

Regularne i częste zamieszczanie filmów pozytywnie wpływa na statystyki kanału i może mieć wpływ na  pozycjonowanie treści przez YouTube

6. Komentarze

Podobnie jak komentarze na blogu, tak komentarze pod filmem są sygnałem dla YouTube, że materiał wzbudza zainteresowanie i warto pokazywać film kolejnym użytkownikom. 

7. Subskrypcje

Subskrypcje są ważny sygnałem dla YouTube, że kanał budzi zainteresowanie i warto go pozycjonować. Dlatego przy nagrywaniu filmu dobrą praktyką jest zachęcenie do subskrybowania kanału.  

9 błędów przy budowaniu strony internetowej, które mają wpływ na SEO

Budując stronę deweloperzy powinni zwrócić uwagę na jej optymalizację pod kątem SEO. Dzięki temu unikniemy najprostszych błędów, które mają wpływ na wyniki wyszukiwania. Często są to niedopatrzenia, powielenie pewnych linków, bądź ich pominiecie. Wyeliminowanie tylko tych błędów, pozwoli na oddawanie projektów bardzo dobrze przygotowanych pod ich pozyjonowanie w wyszukiwarkach internetowych, reszta należy już do specjalisty SEO. Potraktujcie naszą listę, jako swoisty audyt Waszej strony i sprawdźcie, czy nie macie u siebie tych błędów.

1. Kopie serwisu pod różnymi adresami

Strona główna może być zduplikowana pod następującymi adresami: http://, http://www., https://, https://www. Wynika to zazwyczaj z błędnie zaimplementowanego certyfikatu SSL lub braku ustawionych przekierowań 301.

2. Indeksowanie wersji deweloperskich

Niezablokowanie kopii serwisów przed robotami wyszukiwarek, powoduje ich odwiedzanie i dodawane do indeksu przez roboty. Powielanie treści to jeden z poważniejszych problemów, który może znacząco wpływać na widoczność serwisu.

3. Linkowanie wewnętrzne

Bardzo często, linkowanie wewnętrzne nie jest w ogóle wykorzystywane, a można wykorzystać je do linkowania do najważniejszych kategorii serwisu, podkategorii lub produktów. Efektem finalnym jest lepsza jakość linków zewnętrznych do tych najważniejszych sekcji serwisu. Przekłada się to również na indeksowanie przez roboty wyszukiwarek internetowych.

4. Prędkość ładowania strony

Prędkość ładowania witryny jest głównym czynnikiem rankingowym, branych pod uwagę przez wyszukiwarkę Google. Problemy z szybkością wynikają zazwyczaj z dodawania zbyt dużych grafik na stronę, braku wykorzystania pamięci podręcznej, braku optymalizacji dla elementów strony. W przypadku witryn opartych na WordPress warto skorzystać z wtyczek do optymalizacji.

5. Optymalizacja Meta

Uruchamiając nowy serwis powinniśmy dokonać podstawowej optymalizacji znaczników Meta. W znaczniku Meta TITLE możemy umieścić nazwę danej kategorii lub produktu. Natomiast nie ma sensu uzupełniać znacznika Meta KEYWORDS,  który od 2009r. nie czynnikiem rankingowym Google.

6. Warstwa tekstowa w serwisie

Tekst to podstawa SEO, tym bardziej warto zadbać o odpowiednie pola przy budowaniu nowego serwisu. W szczególności powinniśmy mieć miejsce na opisy kategorii, produktów, usług. Warto również mieć uzupełnianego o aktualne treści bloga.

7. Optymalizacja adresów url

Adresy powinny być maksysmalnie krótkie oraz zawierać słowa kluczowe oddzielane myślinikami, bez polskich znaków, bez wielkich liter. To podstawa SEO, o której nie można zapomnieć

8. Optymalizacja nagłówków H1/H2

Należy dla każdego typu strony ustalić strukturę nagłówków HTML. Tytuł strony powinien być oznaczony jako nagłówek H1, a kolejne ważne informacje powinny być oznaczone kolejnymi wartościami – H2/H3 i tak dalej.

9. Aktualizacja witryny

Aktualizacja wordpressa, wtyczek lub szablonów strony zapobiega potencjalnym włamaniom do serwisu. Warto robić to na bieżąco

Zaplecze SEO – własne czy zewnętrznej firmy?

Zaplecze SEO to konkretne strony, na których publikowane są artykuły, które pozwalają pozyskać wartościowe linki do naszej strony, co ostatecznie ma na celu podniesienie pozycji strony w wyszukiwarce, a także budowanie autorytetu i wartości strony.

Współpracując z firmą zajmującą się pozycjonowaniem, najczęściej natrafiamy na sytuację, gdy firma ta tworzy własne zaplecze i umieszcza linki do naszej witryny. Zaletą tego rozwiązania jest brak ponoszenia rzeczywistych kosztów tworzenia i utrzymania stron (hostingi, domenty, prace programistyczne). Problem może pojawić się w sytuacji, gdy nie jesteśmy zadowoleni z usług firmy pozycjonującej i chcemy ją zmienić. Wtedy z dnia na dzień możemy utracić wysokie pozycje w wynikach wyszukiwania, gdyż firma z zapleczem nie będzie miała interesu, by utrzymywać na swoich stronach linków do naszego serwisu.

Może warto zatem zastanowić się nad własnym zapleczem? Daje ono nam pełną kontrolę nad stronami zapleczowymi i brak zależności od firmy pozycjonującej. Minusem są jednak koszty utrzymania serwisów. Warto zastanowić się nad tym rozwiązaniem, gdy skala naszego biznesu jest na tyle duża, że w firmie rozważamy zatrudnienie specjalisty od SEO.

Możemy też zlecić tworzenie naszego indywidualnego zaplecza SEO, warto wtedy sprawdzić, czy wycena obejmuje późniejsze zarządzanie stronami oraz ich pozycjonowanie.

Należy również sprawdzić konkurencję w naszej branży. Jeżeli pozycjonujemy się na słowa mało konkurencyjne, to może okazać się, że nie ma w ogóle sensu budować rozbudowanego zaplecza i wystarczy korzystać z ogólnodostępnych źródeł linków.

Przy dużych serwisach komercyjnych sprawa może już nie być taka prosta i wymagane będzie wspieranie się linkami zewnętrznymi pochodzącymi ze zbudowanych zapleczy.

Plusem posiadania własnego zaplecza, jest kontrola treści oraz reklam na stronach. Można także zarabiać na reklamach czy zbierać listy mailingowe dla naszej działalności. To pozwoli na to, żeby zaplecze zarabiało na siebie, a nie było jedynie kosztem.

Jak zatem widać, plusów i minusów każdego rozwiązania jest kilka, a żeby podjąć decyzję, należy wykonać szczegółową analizę kosztów oraz sytuacji rynkowej firmy.