Robots.txt adalah editor visual untuk Robot Pengecualian File dan perangkat lunak log analyzer. Hal ini memungkinkan pengguna untuk dengan cepat dan mudah membuat file robots.txt diperlukan untuk menginstruksikan spider mesin pencari, yang merupakan bagian dari situs Web tidak akan diindeks dan dibuat dicari oleh Web masyarakat umum dan kemudian mengidentifikasi laba-laba, yang tidak menjaga instruksi tersebut. Program ini memberikan pengguna cara untuk masuk ke FTP atau server jaringan lokal dan kemudian pilih dokumen dan direktori yang tidak harus dibuat dicari. Melalui program ini Anda akan dapat secara visual menghasilkan standar industri file robots.txt; mengidentifikasi laba-laba berbahaya dan tidak diinginkan dan melarang mereka dari situs Anda; crawler mesin pencari langsung ke halaman yang tepat untuk situs multibahasa; menjaga laba-laba dari daerah sensitif dan pribadi dari situs Web Anda; melacak kunjungan spider dan banyak lagi. Gratis program`s update dan upgrade tidak dibatasi dalam waktu; . terbatas jumlah situs Web untuk bekerja dengan
Persyaratan :
Windows 98 / Me / NT / 2000 / XP / 2003 Server
Komentar tidak ditemukan