Najpopularniejsze metody ciemnej strony pozycjonowania
Ile razy dostałeś białej gorączki, jak zauważyłeś konkurencję oszukującą w wynikach wyszukiwania? Mnie to spotkało wielokrotnie, dlatego za każdym razem zgłaszałem Spam do Google – efekt był taki, że część z nich otrzymało filtr, a dokładniej mówiąc ok. 70% stron! pozostałej reszcie udało się uniknąć kary i zostać w wynikach.
Stosowanie nieetycznych praktyk na stronie NIE jest dobrym sposobem na osiągnięcie stałych i dobrych wyników, dlatego Nie rób tego! poniżej prezentuję najpopularniejsze metody nieetycznego pozycjonowania :
Ukryty tekst
Najczęściej stosowaną praktyką jest ukrywanie tekstu na stronie, do niedawna było to zagęszczanie słów kluczowych i zdawało to niezły rezultat, aktualnie algorytmy są uczulone na takie praktyki … dlatego właściciele stron internetowych zaczeli ukrywać nagłówki H1 i nadmiernie je nadużywać co też potrafi przynieść ciekawy rezultat, w zależności od objętości treści na stronie. Ukrywanie tekstów nasyconych obficie w słowa kluczowe oraz nagłówków doprowadzi do ukarania strony, dlatego nie stosuj tego na swojej stronie.
Popularne metody ukrywania tekstu :
– stopka, a w niej zagęszczone słowa kluczowe w kolorze ” stopki ” nie widoczne dla oka.
– komentarze, popularna metoda na ukrywanie tekstu w kodzie Html i Xhtml
– znacznik marquee, wykorzystywany jest do przedstawiania przewijanego tekstu wewnątrz pola tekstowego.
– znacznik noscript, przedstawia alternatywna treść przeglądarką nieobsługującym języka tekstowego.
– ukrywanie tekstów, nagłówków pod szatą graficzną, do niedawna standart u wielu spamerów.
Cloaking
Polega na przedstawianiu różnym odwiedzającym różnych wersji strony, w tym również robotą wyszukiwarek, ale cloaking potrafi usprawnić indeksację strony, przyczynia się do polepszenia pozycji w wyszukiwarkach oraz poprawia użyteczność strony. Cloaking może mieć formy :
– różne wersje strony w zależności od rodzaju przeglądarki,
– usunięcie sesji, gdy roboty sieciowe odwiedzają stronę,
– różne wersje strony w zależności od zainstalowanych wtyczek w przeglądarce,
– różne wersje językowe w zależności od ustawień językowych przeglądarki.
Jedną z najprostszych wersji stosowanych na stronach internetowych jest identyfikacja pola User_Agent ( informację przedstawiające odwiedzającego daną stronę, które zapisywane są w logu serwera ). Można w prosty sposób zastosować cloakling na podstawie identyfikacji User_Agent przy użyciu języka PHP, np:
<?php
$user_agent = $_SERVER [ ‚HTTP_USER_AGENT’]:
if (preg_match(‚/googlebot/i’ , $user_agent)) {
echo ‚ Kod strony jaką chcemy przedstawić robotowi Google ‚ ;
}
else {
echo ‚ kod strony dla każdego innego użytkownika ‚ ;
{
?>
Doorway pages
Przekierowania z jednej strony, na stronę docelową są często stosowane, do podniesienia pozycji w wyszukiwarkach. W przekierowaniu jednej strony na drugą nie ma nic złego, ale są sposoby wykorzystywane do celów nieetycznych jak np. przekierowanie w JavaScripcie. Roboty wyszukiwarek mają problem z wykonaniem większości kodu javascript na stronie, a proste funkcję można zapisać w skomplikowany sposób.
Dla przykładu znalazłeś interesujący Cię temat w wyszukiwarce, klikasz w stronę ” która wygląda jak by się zwiesiła ” a w momencie zostajesz przekierowany na strony erotyczne, lub casina, albo PPC pay-per-click.
Przy zastosowaniu przekierowania w JavaSripcie internauta może zobaczyć zupełnie inną witrynę, niż tą, którą widzi robot wyszukiwarki. Wersje stron przygotowane tylko dla robotów są zazwyczaj tekstowe – nasycone słowami kluczowymi, których nie widzi internauta.
Przekierowanie w PHP
Różnica pomiędzy Cloakingiem polega na serwowaniu użytkownikom przekierowania na stronę docelową zamiast specjalnej treści, a robotowi w dalszym ciągu strony dla niego spreparowanej.
Przekierowanie w Meta-refresh
Kiedyś było to nagminne rozwiązanie stosowane przy budowie doorway pages i niestety wyszukiwarki zaczeły źle postrzegać ten rodzaj przekierowania. Obecnie stosując przekierowanie meta-refresh musisz się liczyć z możliwością szybkiego wykluczenia strony z indeksu.
Zabawa z nagłówkami serii H
W dalszym ciągu spotkamy na stronach całe akapity w nagłówkach H1 oraz wiele innych nagłówków H1 na konkretnej stronie, czy to pomaga w uzyskaniu lepszej pozycji? I Tak i Nie, w zależności od rozmieszczenia i długości treści dla każdego z nagłówków. Niemniej jednak często takie strony zajmują wyższe pozycje od innych. Osobiście nie polecam zabawy nagłówkami, jeśli nie wiesz jak je rozmieścić, lub jeśli chcesz upchać słów kluczowe może skończyć się to karą od Google.
Kilka wskazówek dla lepszego wyglądu nagłówka :
Nagłówki maja domyślnie ustawioną wartość atrybutu margin, przez co automatycznie pod nagłówkiem tworzy się puste pole. Zmniejszając czcionkę w nagłówku np. do 1px bez zmiany wartości margin w dalszym ciągu pozostanie puste pole. Zwróć uwagę na wartość font-weight, która jest domyślnie ustawiona na bold, którą warto przy zmniejszeniu czcionki nagłówka zmienić na font-weight:normal. W celu uzyskania nagłówka w jednej linice zastosuj wartość display:inline.
Ukryta warstwa
Ukrywanie tekstów, słów kluczowych czy nagłówków pod warstwą strony jest najtrudniejsze do wykrycia na pierwszy rzut oka. Praktyka ta jest w dalszym ciągu stosowana na wielu stronach, aby zobaczyć co konkurencja ma pod warstwą strony wystarczy wyłączyć obsługę stylów.
W przeglądarce Firefox można zainstalować wtyczkę web Developer, która w prosty sposób umożliwia wyłączenie stylów, wówczas przyglądanie stron będzie tekstowe, bez warstw strony ( szaty graficznej ). Warstwy można ukrywać na wiele sposobów, najczęściej stosowane jest zdefiniowanie stylu dla danej warstwy, tak aby atrybut dispaly miał wartość none lub atrybut visibility wartość hidden.
Niezwiązane z treścią słowa kluczowe
Innym sposobem na zwiększenie odwiedzin strony jest umieszczenie słów kluczowych w meta tagach lub treści strony słów sprzecznych z jej tematyką. Nie polecam, gdyż internauci którzy wejdą z wprowadzających w błąd słów kluczowych nie poprawią wyników sprzedaży, a tym bardziej nie polecą strony dalej. Koncentruj się głównie na dogłębnych słowach kluczowych, które poprawią zyski Twojej strony.
Fałszywy PageRank
PageRank nie ma już znaczenia i nie jest aktualizowany, ale duża część użytkowników w dalszym stopniu sprawdza siłę strony po wskaźniku PageRank. Niestety prawda jest taka, że dużo stron ma sfałszowany pagerank, zazwyczaj są to strony oferujące linki zwrotne lub reklamę w serwisie z doskonałym PageRank. Do sfałszowania PageRank najczęściej wykorzystuje się cloaking i przekierowanie.
Mirrory stron
to nic innego jak lustrzane odbicie stron, często stosowane do pozyskiwania ruchu dzięki treści na obecnej stronie. Stosowanie mirrorów stron jest nie legalne z prawem i tym samym stanowczo nie polecam. Mirrory zazwyczaj tworzą osoby zarabiające na reklamach kontekstowych, którzy nie potrafią stworzyć lub są kompletnymi leniami i wolą skopiować np. Wikipedie.
Masowe zdobywanie linków
Zdobywanie linków na dużą skale z nietematycznych stron do niedawna fajnie podnosiło pozycje, przy obecnych algorytmach Google ten zabieg skazany jest na filtr, wyjątkiem tutaj może być marketing wirusowy, lub promocja dużej firmy, wówczas dla owej firmy nie ważne są pozycje, ale renoma marki i znajomość domeny. Dla ciekawostki Google może porównać Twoją stronę pod ilością zdobytych linków w krótkim czasie, do stron konkurencyjnych o tej samej tematyce. Jeśli konkurencja nie miała momentów zdobywania dużej ilości linków, wówczas Twoja strona może być na celowniku Google.
Jak odnieść Sukces, zdeklasować konkurencję oraz zdobyć 1 pozycję w wyszukiwarce internetowej ? Jeśli jesteś żądny skutecznej i sekretnej wiedzy, zostaw Mi swój e-mail.
Zobacz również :
– Zaplecze SEO czyli jak zwiększyć ruch o 400% i więcej
– Link Building 38 sprawdzonych sposobów
– pozycjonowanie Long Tail daje rewelacyjne Efekty !
– optymalizacja produktów