Sebelum kita berbicara tentang robots.txt, yang perlu dan harus sobat tahu adalah tentang Protokol Robots Exclusion. Mungkin istilah ini jarang atau bahkan tumben sobat blogger dengar selama sobat blogger menekuni dunia website atau blog. Oleh karena itu, saya uraikan sedikit tentang Protokol Robots Exclusion.
Pemilik situs Web atau blog menggunakan file / robots.txt untuk memberikan instruksi tentang situs/blog mereka untuk robot web, inilah yang disebut Protokol Robots Exclusion .
Protokol Robots Exclusion bekerja dengan cara seperti ini : Ketika sebuah robot akan mengunjungi URL dari sebuah blog, sebagai contoh http://lenterablogger.blogspot.com/welcome.html. Sebelum melakukan kunjungan tersebut, Robots Exclusion Protocol akan memeriksa terlebih dahulu http://lenterablogger.blogspot.com/robots.txt, dan menemukan
User-agent: *
Disallow: /
Kata "User-agent: *" artinya berlaku untuk semua robot dan kata "Disallow: /" memberi tahu robot untuk tidak mengunjungi beberapa halaman dari blog tersebut.
Ada dua pertimbangan penting yang harus kita pikirkan ketika menggunakan /robots.txt yaitu :
- Robot bisa saja mengabaikan / robots.txt sobat blogger.
- File / robots.txt adalah file yang tersedia untuk umum.
Berikut ini contoh robots.txt beserta fungsinya masing-masing :
Memberikan pengecualian semua robot dari seluruh server
User-agent: *Membiarkan semua robot untuk melakukan Akses di blog tersebut :
Disallow: /
User-agent: *Memberikan pengecualian terhadap semua robot dari bagian Server
Disallow:
User-agent: *Memberikan pengecualian terhadap single robot
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /junk/
User-agent: BadBotMembiarkan single robot
Disallow: /
User-agent: GoogleMemberikan pengecualian terhadap semua file kecuali satu
Disallow:
User-agent: *
Disallow: /
User-agent: *Atau sobat blogger dapat secara eksplisit melarang semua halaman dianulir:
Disallow: /~joe/stuff/
User-agent: *
Disallow: /~joe/junk.html
Disallow: /~joe/foo.html
Disallow: /~joe/bar.html
Apakah sobat blogger sudah bisa memahami penjelasan di atas? Mungkin sobat blogger malah tambah pusing. Jadi, lebih baik saya jelaskan langsung tentang cara menambahkan Custom robots.txt pada blog yang bernaung di bawah Paltform blogger.com
Cara Setting Custom robots.txt di blog :
- Login di http://www.blogger.com
- Pada menu Drop Down, Klik Settings dan Search preferences
- Lihat bagian Crawlers and indexing
- Klik kata Edit pada Custom robots.txt ?
- Di bagian Enable custom robots.txt content?, kasih tanda pada kolom "yes"
- Masukkan kode berikut
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow:
Allow: /
Sitemap: http://iswahyuniiswahyuni.blogspot.com/feeds/posts/default?orderby=updated
- Klik Save Changes
Tambahan :
Jangan lupa ganti http://iswahyuniiswahyuni.blogspot.com dengan URL blog sobat.
Kode yang saya gunakan untuk Custom robots.txt di atas merupakan kode yang biasa di terapkan di blog. Kalau sobat blogger ingin menggunakan kode yang berbeda dengan saya (Lentera Blogger), Sobat bisa gunakan salah satu dari kode yang sudah saya jabarkan sebelumnya.
Itu adalah tutorial singkat tentang cara Setting Custom robots.txt di blogger. Semoga informasi ini berguna buat sobat blogger. Untuk mendapatkan informasi yang lebih banyak tentang robots.txt, sobat blogger bisa mengunjungi halaman berikut : http://www.robotstxt.org/robotstxt.html
By : Cutt Iswahyuni
Tidak ada komentar:
Posting Komentar