10 podstawowych zasad SEO

Thursday, December 18th, 2008

Kolejny grudniowy post sponsorowany przez liczbę "10". Tym razem zebrałem garść 10 najważniejszych moim zdaniem zasad, które podniosą pozycję strony w wyszukiwarkach. Tak, cała tajemna wiedza pozycjonerów w krótkim wpisie do bloga. 1. Korzystaj z systemu zarządzania treścią (CMS) wspierającego SEO. 2. Zawsze, absolutnie zawsze nadawaj tytuły swoim stronom. Jeden z największych ...

Usability – czy to się opłaca?

Monday, November 24th, 2008

Często spotykam się z wątpliwościami, czy sensowne jest inwestowanie w poprawę użyteczności serwisu internetowego oraz jakie kwoty powinny być wydawane. Szukałem jakiegoś prostego argumentu, którego mógłbym użyć, aby przekonać właścicieli serwisów do poprawy swoich serwisów. Sądzę, że najprościej jest użyć przykładu z Google AdWords. Wiele firm korzysta z tej formy ...

Tworzenie plików sitemap

Wednesday, August 20th, 2008

Czym są sitemapy? W celu szybkiego przekazania adresów stron do wyszukiwarki warto skorzystać z mechanizmu przesyłania sitemap. Sitemap to po prostu plik - tekstowy lub plik XML zawierający mapę serwisu. W pliku znajdują się wszystkie URLe witryny, które mają zostać zindeksowane przez wyszukiwarkę. Jest to szczególnie przydatne w przypadkach, gdy: zależy nam ...

Obsługa robotów wyszukiwawczych – plik /robots.txt

Tuesday, December 4th, 2007

Czym jest plik robots.txt? Właściciele serwisów internetowych mogą korzystać z pliku /robots.txt w celu kontroli zachowania robotów indeksujących na swojej witrynie. W skrócie mechanizm działania pliku robots.txt wygląda tak: robot indeksujący odwiedza witrynę (lub konkretną stronę), np. http://www.domena.com/strona.html. Zanim jednak robot zacznie ściągać stronę, sprawdza, czy na serwerze istnieje plik http://www.domena.com/robots.txt. ...