Bot co to jest?

Bot – co to jest?

Bot (skrót od ang. robot) to program komputerowy stworzony do wykonywania automatycznych zadań w Internecie lub w systemach informatycznych. W przeciwieństwie do człowieka, bot działa bez przerwy, szybciej, konsekwentnie i w sposób zaprogramowany. Może działać zarówno w tle, jak i wchodzić w interakcje z użytkownikiem.

Rodzaje botów i ich zastosowania

1. Boty indeksujące (np. Googlebot)

Programy używane przez wyszukiwarki internetowe do przeszukiwania i indeksowania stron www. Przykłady:

Zadanie: odwiedzają strony, analizują ich zawartość i przesyłają dane do wyszukiwarki, by mogła wyświetlać je w wynikach wyszukiwania.

2. Chatboty

Boty zaprojektowane do rozmów z użytkownikiem. Często wykorzystywane w:

  • obsłudze klienta (np. na stronach firmowych),
  • aplikacjach do zamawiania jedzenia, biletów,
  • komunikatorach (Messenger, WhatsApp, itp.).

Przykład: chatbot na stronie banku, który odpowiada na pytania o saldo lub godziny otwarcia.

3. Boty SEO i marketingowe

Używane do:

  • monitorowania pozycji strony w Google,
  • analizowania konkurencji,
  • wyszukiwania słów kluczowych,
  • tworzenia i publikowania treści.

Przykład: bot, który automatycznie sprawdza, czy Twoje linki działają (broken link checker).

4. Boty scraperujące (scrapery)

Pobierają dane z innych stron internetowych, często masowo. Mogą być wykorzystywane legalnie (np. do porównywania cen), ale też nieetycznie (np. kopiowanie treści bez zgody).

5. Boty spamujące

Boty tworzące automatyczne komentarze, rejestrujące się na forach lub rozsyłające spam e-mailowy.

Negatywne zastosowanie:

  • spam w komentarzach blogowych,
  • tworzenie fałszywych kont w mediach społecznościowych,
  • rozsyłanie phishingu.

6. Boty w social mediach

Programy publikujące automatycznie posty, lajkujące, komentujące lub śledzące konta w mediach społecznościowych.

Jak rozpoznać aktywność bota?

  • W logach serwera pojawiają się nietypowe adresy IP lub identyfikatory użytkowników (np. „Googlebot”).
  • Na stronie pojawia się wiele żądań w krótkim czasie.
  • Konto social media z botem publikuje posty lub komentarze bez logicznego sensu.

Czy boty są dobre czy złe?

To zależy od intencji twórcy i zastosowania.

Boty pozytywne:

  • Chatboty wspierające obsługę klienta.
  • Boty indeksujące pomagające wyszukiwarkom katalogować treści.
  • Boty monitorujące działanie strony.

Boty szkodliwe:

  • Boty spamujące i hakerskie.
  • Boty tworzące fałszywe kliknięcia w reklamach (tzw. click fraud).
  • Boty kopiujące treść bez zgody autora.

Jak chronić stronę przed niechcianymi botami?

Choć boty mogą być pomocne, wiele z nich działa szkodliwie – generując fałszywy ruch, kopiując treść, spamując formularze kontaktowe czy próbując włamań do panelu administracyjnego. Dlatego warto wdrożyć różne techniki ochrony, które ograniczą dostęp botów nieautoryzowanych, a jednocześnie nie zablokują tych pożytecznych (jak Googlebot).

1. Plik robots.txt – wskazówki dla botów

Plik robots.txt pozwala określić, które katalogi lub pliki nie powinny być indeksowane przez roboty wyszukiwarek.

Przykład:

User-agent: *
Disallow: /admin/
Disallow: /panel-logowania/
  • User-agent: * dotyczy wszystkich botów.
  • Disallow: wskazuje ścieżki, których nie wolno przeszukiwać.

⚠️ Uwaga: robots.txt to tylko „grzeczna prośba”. Złośliwe boty często ignorują jego treść, dlatego nie można polegać na nim jako jedynym zabezpieczeniu.

2. Plik .htaccess – blokowanie botów na poziomie serwera

Dla stron działających na serwerach Apache można użyć pliku .htaccess do blokowania określonych botów lub adresów IP.

Blokowanie konkretnego bota:

RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} ^BadBot [NC]
RewriteRule .* - [F,L]

Blokowanie zakresu IP:

Order Allow,Deny
Deny from 192.168.1.100
Deny from 203.0.113.
Allow from all

To rozwiązanie jest bardziej „siłowe” niż robots.txt – fizycznie uniemożliwia dostęp do strony.

3. CAPTCHA w formularzach (np. rejestracja, kontakt)

Dodanie CAPTCHA (lub reCAPTCHA od Google) do formularzy chroni przed botami, które masowo przesyłają spam lub próbują rejestrować fałszywe konta.

Przykłady:

  • Google reCAPTCHA v2: „Nie jestem robotem”
  • Google reCAPTCHA v3: ocenia ryzyko bez widocznych interakcji
  • hCaptcha: alternatywa dla reCAPTCHA

CAPTCHA skutecznie zatrzymuje większość botów korzystających z automatycznych skryptów do wypełniania formularzy.

Ograniczenie liczby prób logowania (rate limiting)

Boty często próbują włamać się do paneli CMS (WordPress, Joomla itd.) poprzez brute force – czyli setki prób wpisania loginu i hasła.

Jak się bronić:

  • Zainstaluj wtyczkę typu Limit Login Attempts (np. Wordfence, WP Limit Login Attempts).
  • Blokuj adresy IP po określonej liczbie nieudanych prób.
  • Włącz uwierzytelnianie dwuetapowe (2FA).

Firewall aplikacyjny (WAF – Web Application Firewall)

WAF analizuje i filtruje cały ruch przychodzący do strony, zanim dotrze on do Twojej aplikacji. Może blokować boty na podstawie:

  • User-agent,
  • nietypowych nagłówków HTTP,
  • podejrzanych wzorców ruchu,
  • znanych adresów IP z czarnych list.

Przykładowe narzędzia:

  • Cloudflare (w wersji Pro i wyższej) – ochrona przed botami, DDoS, firewallem i regułami niestandardowymi.
  • Sucuri Website Firewall
  • Wordfence (dla WordPress)

Ukrywanie stron administracyjnych

Złośliwe boty często atakują popularne adresy jak /wp-login.php lub /admin. Zmienienie domyślnego adresu logowania utrudni ich pracę.

Przykład:

  • Zmiana /wp-login.php na /zaloguj
  • Ochrona katalogu /admin hasłem HTTP (htpasswd)

Monitorowanie logów serwera

Regularne sprawdzanie logów pozwala wykryć nietypowe działania botów – np. masowe próby odwiedzin z nietypowych krajów lub ciągłe zapytania do nieistniejących zasobów.

Na co zwracać uwagę?

  • Nietypowy User-Agent (np. python-requests, curl, libwww-perl)
  • Setki żądań z jednego IP w krótkim czasie
  • Próby dostępu do plików wp-login.php, xmlrpc.php, admin.php mimo że nie używasz tych systemów

Nie wszystkie boty są szkodliwe, ale zabezpieczenie strony przed niechcianymi i złośliwymi botami to obowiązkowy element bezpieczeństwa i optymalizacji. Im bardziej popularna staje się strona, tym częściej może być celem nieautoryzowanych automatów. Połączenie różnych metod – od CAPTCHA, przez robots.txt, po zaawansowane firewalle – daje najlepsze efekty i realnie chroni Twoją witrynę przed spamem, włamaniami i utratą zasobów.

Robert Górecki
Robert Górecki
www.vipkat.pl

Od 2006 roku z pasją zgłębia tajniki oraz nowe trendy SEO, pozycjonowania i marketingu online. Autor licznych publikacji, w tym poradników, które pomagają zrozumieć złożoność algorytmów wyszukiwarek oraz zwiększać widoczność w sieci. Prywatnie pasjonat szachów, ulubiona gra: Conan Exiles; ulubiona muzyka: lata 80 & 90.

Podobne artykuły
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Pola wymagane są oznaczone *