Najczęściej popełniane błędy przy tworzeniu zaplecza i kary z tym związane
Samodzielna budowa zaplecza narażona jest bardzo często na zagrożenia, które przy błędnych zagrożeniach mogą spowodować wykluczenie z indeksacji całej dotychczasowej pracy poświęconej na wspieranie strony docelowej.
1 Nieumiejętne korzystanie z SWL
- wyświetlanie linków z systemu na stronie, która jest pozycjonowana – do takich zadań właśnie tworzy się zaplecze
- Dopisanie do SWL na stronach będących w domenie lub subdomenie strony docelowej – istnieje duże prawdopodobieństwo, iż napotkane przez spidera linki systemowe zostaną skorelowane z linkami trafiającymi do strony docelowej. Takie działanie zostanie uznane za niedozwolone i obie strony zostaną usunięte z SERP.
- Używanie młodych domen do budowy zaplecza, które nie mają jeszcze historii – takie strony są bacznie obserwowane przez indexery, a prawdopodobieństwo padnięcia w filtr jest wysokie.
- Korzystanie z rotacyjnych systemów – częsta zmienność linków na stronie – w szybki sposób eliminuje stronę z SERP
- Korzystanie z tych samych odnośników oraz tytułów
- Duża ilość szybko dodawanych linków
2 Masowa promocja strony docelowej
Korzystanie z oprogramowania masowo dodającego stronę docelową do wielu katalogów, stron, bezużytecznych presli z pewnością spowoduje nałożenie filtra lub całkowite wykluczenie z SERP linkowanej strony. Ta sytuacja tyczy się także płatnych stron i katalogów – wyszukiwarki nie interesuje fakt, iż link do strony docelowej został umieszony za opłatą. Nagły wzrost linków w krótkim czasie do jednej strony powoduje zdecydowane negatywne działanie indexera.
W tej strategii należy także zaliczyć wszelkiego rodzaju:
- kampanie mailingowe, w których albo brak odnośnika, albo jest on nieklikany
- pozostałe kampanie reklamowe, które całkowicie nie trafiają do właściwej grupy docelowej, albo przekaz tych kampanii jest na tyle mało wyróżniający się, że użytkownicy nie zauważają materiałów w niej użytych.
3 Spamowanie forów i blogów
Fora nie są zbyt dobrym miejscem do tworzenia zaplecza. Z pewnością nie jako miejsce do podwyższenia pozycji w SERP. Linki zamieszczane na formach są traktowane po macoszemu przez indexery. Podobnie jak wyżej – masowe dodawanie postów, które analizują wypowiedź główną i dodają rzekomą odpowiedź stworzoną przez automat, zawierającą link do strony docelowej. Osoby dokonujące tego typu działań mają ułatwione działanie. Istnieje 5 głównych skryptów[1] wraz z ich modyfikacjami, na których są oparte fora, więc stworzenie mechanizmu automatycznego dodawania stron jest bardzo proste, a dzięki temu nadużycie może być przeprowadzone na dużej ilości forów. Podobne nadużycie dotyczy dodania linku do strony docelowej w sygnaturze postu w forach. Wynik działania powodującego nagłe pojawienie się linku do strony docelowej przy każdym wpisie użytkownika jest nieco niezależnym mechanizmem od intencji dodającego link, toteż wyszukiwarki zwykły ignorować tego typu odnośniki – zwłaszcza jeśli pojawiają się w forach zmieniający dodawany tekst z konstrukcją http:// na linki. Dodawanie treści typu „ja też” lub „nie masz racji” wraz z podanymi obok linkami jest bardzo szybko usuwane przez administratorów forów, więc jest duża szansa, że nawet spider nie dotrze do tego wpisu. Ewidentnym przykładem błędnego budowania zaplecza linków na forach jest dodawanie tej samej, unikalnej treści na wielu różnych forach.
Najczęstszą metodą prób budowania zaplecza linków na blogach jest podpisywanie wypowiedzi w komentarzach słowem kluczowym. Skrypty blogów najczęściej tworzą linka z pola „imię i nazwisko” i „adres strony www”, więc podmienianie tych danych słowem kluczowym może, w zamyśle autorów takiego działania, przynieść efekty.
4 Wymiana linków z mało znaczącymi serwisami
Często zdarza się sytuacja, iż webmasterzy otrzymują propozycję bezkosztowej wymiany linków od innych webmasterów. Są to zazwyczaj propozycje tworzenia zaplecza w:
- słabo wypozycjonowanych w SERP serwisach
- serwisach o wysokim PageRanku, lecz objętych filtrem lub wykluczonych z SERP (najczęstszy sposób naciągania)
- serwisach o całkowicie innej tematyce
Webmasterzy stron, które zostały usunięte z SERP lub SA objęte filtrem w ten sposób starają się odbudować swoje zaufanie względem Indexera. Najczęściej tego typu propozycje są wysyłane przy użyciu zautomatyzowanych skryptów do dużej grupy osób.
Do tej grupy także należy zapisać serwisy, strony, katalogi, presle, które w zamian za link na odnośnik do ich strony oferują link w postaci nieprzenoszącej parametru PageRank (link w JavaScript, użycie znacznika rel=”nofollow”, czy też wstawienie linka w technologii Adobe Flash).
5 Duplikacja treści, kradzież treści
Treści na stronach internetowych chronione są prawem autorskim – zgodnie z art. 25 us. 1 pkt 1. lit. b ustawy o prawie autorskim i prawach pokrewnych. Do października 2009 kradzież treści była zjawiskiem bardzo powszechnym, a osoby dokonujące kradzieży były praktycznie nietykalne. Ten status rzeczy zmienił (oby skutecznie) to wyrok[2] z 12 października 2009 Sądu Okręgowego w Białymstoku, nakazujący wypłatę przez wydawcę serwisu moje prawo.pl prawie 104.000zł odszkodowania na rzecz INFOR Biznes za bezprawne kopiowanie materiałów wydawcy. Jest precedens, więc jest szansa, że użytkownicy popełniający błąd duplikowania treści ogólnodostępnych i wstawiania tam swoich linków oraz reklam przestaną popełniać ten proceder. Z doskonałego założenia wyszedł Piotr Waglowski pisząc w dziale FAQ[3] o wykorzystaniu treści z jego strony: „Wychodzę z założenia, że internet jest takim medium, w którym wystarczy raz opublikować treści. Będą one dostępne dla zainteresowanych na całym świecie. Jeśli uważasz, że w serwisie VaGla.pl Prawo i Internet znajduje się interesujący artykuł lub opracowanie – zamiast go kopiować (i prawdopodobnie naruszać w ten sposób prawo autorskie) – umieść do niego link na swojej stronie.”
Wiele osób dokonujących kradzieży treści korzysta z kanałów RSS mieszając je w ramach jednego tematu celem stworzenia zupełnie nowego artykułu. Dlatego ważne jest podczas dodawania nowych artykułów aby były one zauważone przez boty wyszukiwarek oraz zaindeksowane. Dopiero w po paru godzinach warto uzupełnić kanały RSS i poinformować sieć o nowych artykułach.
6 Sandbox, Trustbox, filtry i odzyskanie dawnej reputacji strony docelowej
Domeny, które naruszyły Wskazówki dla webmasterów są filtrowane w SERP. Algorytm Google, jak i algorytmy stosowane prez inne wyszukiwarki: Bing, Yahoo, MSN oceniają wartość analizowanej strony uwzględniając jej wiek, historię i linki kierujące do niej. Związane jest to bezpośrednio z poziomem zaufania do witryny docelowej. Każde podejrzenie naruszenia zasad (zwłaszcza dla młodych wiekiem domen) powoduje filtrowanie strony – czyli przesunięcie strony o kilkadziesiąt pozycji w dół w SERP, aż do czasu wyjaśnienia podejrzenia. Jeśli było ono słuszne – strona całkowicie zostaje usunięta z SERP, natomiast w przypadku błędnego podejrzenia – strona zazwyczaj wraca na swoją dawną pozycję. Trzeba zaznaczyć, iż filtr dotyka całe domeny lub subdomeny, zaindeksowane przez indexer po roku 2003[4]. Nałożony filtr nie dotyczy zaawansowanych sposobów wyszukiwania – np. przy użyciu allinanchor, allintitle. Na szczęście można w pewnym stopniu przewidzieć wcześniej takie działanie Algorytmu Google poprzez śledzenie informacji w narzędziu Google Webmaster Tools i jeszcze przed nałożeniem filtra na domenę – usunąć wszystkie problemy powodujące niezgodność ze Wskazówkami dla Webmasterów. Analiza strony przez indexer potrafi trwać wiele tygodni, więc w przypadku spóźnienia się z usunięciem sugestii narzędzi Google Webmaster Tools trzeba liczyć albo na wejścia bezpośrednie na stronę albo też na inne systemy linkujące. Jednak będąc świadomym , iż Google odpowiada za 6% całego ruchu w sieci[5] – takie podejście jest krótkowzroczne.
Dla użytkowników, których strona trafiła do filtra Google – m.in. poprzez używanie SWL zostało wydane przez Google dyplomatyczne wyjaśnienie, mówiące o sposobie powrotu do SERP:
Nieustannie ulepszamy metody wykrywania systemów wymiany linków, które wykraczają poza nasze Porady dla Webmasterów i jest bardzo prawdopodobne, że korzystanie z nich nie opłaci się w dłuższej perspektywie. Webmasterzy, którzy brali udział w SWL-ach i którzy sądzą, że wpłynęło to negatywnie na widoczność ich stron w indeksie Google, mogą po usunięciu wszystkich SWL-ów wystąpić o ponowne rozpatrzenie witryny. Wystarczy w kilku słowach wyjaśnić sytuację. Zapewniam, że zgłoszenia te są traktowane bardzo poważnie. Ci, którzy się spotkają z linkowaniem, które ich zdaniem wychodzi poza wytyczne Google, mogą skorzystać z formularza do zgłaszania płatnych linków w konsoli narzędzi dla webmasterów. Podobnie do podań o ponowne rozpatrzenie, także te zgłoszenia są traktowane bardzo poważnie i przeglądane manualnie.
Aktualizacja: można by pomyśleć, że skoro SWLe przekazujące PageRank wychodzą poza zasady Google, to wykupując na przykład rotacyjne linki i zgłaszając raport spamu można zaszkodzić konkurencji. Ponieważ jednak bierzemy większą ilość sygnałów pod uwagę, takie działanie na niekorzyść innych webmasterów jest skuteczne wyłącznie w teorii.[6]
Aby szybciej zdobyć zaufanie wyszukiwarek dla zaplecza linków, które linkują do strony docelowej uruchamia się zaplecze równolegle na nowej i na starej domenie, która szybka zdobędzie zaufanie wyszukiwarki. Po pewnym czasie kiedy obie domeny zyskają wysoki poziom zaufania ustawiane jest przekierowanie 301 domeny starej na nową. Strony wartościowe, użyteczne, dobrze zaprojektowane, oferujące jakąś korzyść lub wartość dodaną użytkownikom, a także zdobycie linków ze stron tematycznie powiązanych, a notowanych wysoko przez wyszukiwarki w SERP, powodują szybkie zyskanie „sympatii” indexera wyszukiwarki
[1] miniBB, PunBB, MyBB, SMF (Simple Machines Forum) oraz phpBB3
[2] Michał Fura – Za kradzież treści w internecie należy się odszkodowanie- http://wolnemedia.net/?p=17913; 07.11.2009r
[3] http://prawo.vagla.pl/vagla_faq; 06.11.2009r
[4] Mariusz Gąsiewski – Sandbox, Trustbox i filtry- http://www.ittechnology.us/sandbox-trustbox-i-filtry/; 07.11.2009r
[5]Artur Małek – Google odpowiedzialne za 6% ruchu w sieci- http://www.idg.pl/news/351538/Google.odpowiedzialne.za.6.ruchu.w.sieci.html; 06.11.2009r
[6] http://googlepolska.blogspot.com/2008/11/jak-google-postrzega-linkowanie.html; 07.11.2009r
- WordUp Trójmiasto #19 – spotkanie użytkowników WordPressa w Gdyni - 4 grudnia 2023
- Podsumowanie Konferencji WordCamp Gdynia 2023 NextGen - 30 września 2023
- WordCamp Europe 2023: Triumf technologii i społeczności - 12 czerwca 2023
Dodaj komentarz
Chcesz się przyłączyć do dyskusji?Feel free to contribute!