Products & Services Submit a ticket My Tickets
Selamat datang
Masuk  Mendaftar

Cara Block Bot Search Engine Melalui Robots.txt

Kali ini kami akan membahas tentang Cara Block Bot Search Engine Melalui Robots.txt. Ada beberapa kondisi, dimana bot dari Search engine yang menyebabkan website kita menjadi lambat atau bahkan hingga down. Hal tersebut seringkali disebabkan karena proses crawl yang dilakukan oleh search engine terlalu banyak, sehingga menyebabkan load pada CPU atau resource di hosting. Untuk hal tersebut, salah satu solusi yang bisa kita lakukan adalah melakukan block bot search engine sementara waktu.

Seperti yang kita ketahui bersama, agar situs website kita dapat ditemukan orang lain di mesin pencari, maka website kita harus terindex lebih dulu. Proses indexing dilakukan oleh bot atau crawler mesin pencari pada website kita, untuk mencari teks dan tautan yang diperbarui. Apabila ditemukan, mesin pencari akan memperbarui index pencarian mereka.

Beberapa kasus, bot/spider jahat terlalu banyak merayap situs website, sehingga menghabiskan resource hosting atau server.

Apa itu Robots.txt

Robots.txt adalah file teks biasa yang digunakan untuk berkomunikasi dengan perayap web. File tersebut terletak di direktori root sebuah situs.

Ini bekerja dengan memberi tahu bot pencarian bagian mana dari situs yang harus dan tidak boleh dipindai. Terserah robots.txt apakah bot diizinkan atau tidak untuk merayapi situs web.

Hal ini dapat diatasi dengan memblok atau menghentikan bot search engine dengan file robots.txt, agar tidak merayapi situs website.

User-agents mesin pencari

Aturan paling umum yang digunakan dalam file robots.txt didasarkan pada User-agents dari perayap mesin pencari.

Perayap mesin pencari menggunakan User-agents untuk mengidentifikasi diri mereka saat merayapi website. Berikut beberapa contoh:

Top 3 User-agents mesin pencari US.

  • Googlebot
  • Yahoo!
  • Slurp bingbot

User-agents paling umum diblok:

  • AhrefsBot
  • Baiduspider
  • Ezooms
  • MJ12bot
  • YandexBot

Mengizinkan mesin pencari merayapi website

Berikut cara mengatur file robots.txt dengan dua aturan sederhana.

# Aturan pertama User-agent: Googlebot Disallow: /nogooglebot/
# Aturan kedua User-agent: * Allow: /

Keterangan:

  1. Aturan pertama, User-agents Googlebot (Google) bisa merayapi seluruh direktori, kecuali /nogooglebot/
  2. Atura kedua, semua User-agents (*) bisa merayapi seluruh direktori. Karena diallow (Allow: /)
  3. User-agents dapat Anda isi * (semua bot mesin pencari) atau diisi bot mesin pencari tertentu.

Block bot search engine merayapi website

User-agent: Googlebot
Disallow: /
User-agent: *
Disallow: /

Keterangan:

  1. User-agents: Googlebot tidak diizinkan merayapi seluruh direktori situs website.
  2. Semua User-agents tidak diizinkan merayapi seluruh direktori

Membuat file robots.txt dan memasangnya

  1. Buat file robots.txt didirektori website Anda.
  2. Masukan rule User-agents sesuai yang Anda butuhkan, kemudian simpan
  3. Setelah itu, akses http://namawebsite/robots.txt . Apabila bisa tampi, berarti pemasangannya sudah berhasil.


Apakah jawaban ini bermanfaat? Ya Tidak

Send feedback
Maaf kami tidak bisa membantu. Bantu kami mengembangkan artikel ini dengan umpan balik Anda.