Cara Mengatasi URL Dicekal Robots.txt

Cara Mengatasi URL Dicekal Robots.txt - Beberapa hari yang lalu saya mendapati bahwa beberapa postingan saya di google ternyata dicekal Robot.txt. Anda dapat mengetahui URL yang dicekal robost.txt melalui Webmasters Tools. Untuk mengetahui berapa banyak url blog yang dicekal robots.txt silahkan masuk ke webmasters pilih perayapan > URL yang dicekal. Disitu terdapat keterangan berapa banyak url yang dicekal blog anda.

Bagaimana mengatasi url yang dicekal robots.txt

Memperbaiki URL yang dicekal oleh Robots.txt

Kali ini saya punya beberapa cara untuk Memperbaiki URL yang dicekal oleh Robots.txt.
Pertama, Login ke blogger.com.
Kedua, Pergi ke setelan > Prefensi dan penelusuran.
Ketiga, Klik edit di bagian kanan robots.txt khusus.
Keempat, Masukan kode dibawah ini
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow:
Allow: /
Sitemap: http://www.blogdimas.net/feeds/posts/default?orderby=updated
*Ganti website www.blogdimas.net dengan url blog anda.
Kelima, Centang Ya untuk mengaktifkan.
Keenam, Simpan perubahan.

Proses ini paling tidak menunggu waktu hingga 2 sampai 3 hari untuk memulihkan situs anda hingga kembali normal. Semoga bermanfaat gan. SHARE jika anda merasa terbantu dengan artikel ini.

Subscribe to receive free email updates:

2 Responses to "Cara Mengatasi URL Dicekal Robots.txt"