Robots.txt Nedir Nasıl Kullanılır Nasıl Olmalı
Robots.txt Nedir?
Robots.txt, bir web sitesinin kök dizininde bulunan ve arama motoru botlarına (örneğin, Googlebot) hangi sayfaların taranıp hangilerinin taranmayacağını söyleyen bir dosyadır. Bu dosya, arama motoru optimizasyonunda (SEO) önemli bir rol oynar ve sitenizin taranma davranışını kontrol etmenizi sağlar.Örnek Konum:
www.siteniz.com/robots.txt
Robots.txt Nasıl Kullanılır?
Robots.txt dosyası, belirli kurallar içerir ve bu kurallar botların siteyi nasıl tarayacağını belirler.- Temel Komutlar:
- User-agent: Hangi botun bu kuralları uygulayacağını belirtir.
- Disallow: Hangi sayfaların taranmayacağını belirtir.
- Allow: (Opsiyonel) Hangi sayfaların taranmasına izin verildiğini belirtir.
- Örnek Robots.txt:
txt
Kodu kopyala
User-agent: *
Disallow: /admin/
Disallow: /private-data/
Allow: /public/
Sitemap: https://www.siteniz.com/sitemap.xml- User-agent: * → Tüm botlar için geçerlidir.
- Disallow: /admin/ → /admin/ dizini taranmayacak.
- Allow: /public/ → /public/ dizini taranabilir.
- Sitemap: → Site haritasının konumunu belirtir.
Robots.txt Nasıl Olmalı?
İyi yapılandırılmış bir robots.txt dosyası, aşağıdaki unsurları içerir:- Kapsayıcı ve Açık Talimatlar:
- Hangi içeriklerin taranabilir olduğunu ve hangilerinin taranamayacağını açıkça belirtin.
- Siteye Özel Düzenlemeler:
- Sitenizin ihtiyaçlarına uygun kurallar oluşturun. Örneğin, özel bir üye alanınız varsa, bu alanın taranmasını engelleyin:
txt
Kodu kopyala
Disallow: /uye-alani/
- Sitenizin ihtiyaçlarına uygun kurallar oluşturun. Örneğin, özel bir üye alanınız varsa, bu alanın taranmasını engelleyin:
- Site Haritası Linki Ekleyin:
Bu, arama motorlarının sitenizi daha iyi anlamasına yardımcı olur:
txt
Kodu kopyala
Sitemap: https://www.siteniz.com/sitemap.xml - Duyarlı Olun:
Yanlış kurallar, önemli sayfaların indekslenmemesine neden olabilir. Örneğin, yanlış bir disallow kullanımı tüm sitenin indekslenmesini engelleyebilir:
txt
Kodu kopyala
User-agent: *
Disallow: /
Bu, tüm sitenin arama motorları tarafından taranmasını engeller!
Robots.txt Dosyası Hazırlarken Dikkat Edilmesi Gerekenler
- Test Edin:
Google Search Console’daki Robots.txt Test Aracı ile dosyanızın doğruluğunu kontrol edin. - Hassas Verileri Koruyun:
Özel veya hassas bilgileri barındıran sayfaların taranmasını engelleyin:
txt
Kodu kopyala
Disallow: /private/
Disallow: /config/ - Boş Bırakmayın:
Eğer robots.txt kullanmak istemiyorsanız bile, dosyanız boş olmalıdır. Bu, botların her şeyi taramasına izin verir:
txt
Kodu kopyala
User-agent: *
Allow: / - SEO’ya Zarar Vermeyin:
Önemli içeriklerin yanlışlıkla taranmasının engellenmediğinden emin olun.
Robots.txt Kullanımının Pratik Faydaları
- Sunucu Yükünü Azaltır:
Botların gereksiz sayfaları taramasını önleyerek sunucu kaynaklarını korursunuz. - SEO Kontrolü Sağlar:
Sadece istediğiniz sayfaların indekslenmesini sağlar. - Hassas Alanları Korur:
Yönetim paneli ve kullanıcı verilerini içeren alanların taranmasını engeller.
Örnek Robots.txt Senaryoları
- Tamamen Açık Site:
txt
Kodu kopyala
User-agent: *
Allow: / - Sadece Belirli Bir Bot İçin Kural:
txt
Kodu kopyala
User-agent: Googlebot
Disallow: /test-dosyasi/ - Tüm Botlara Özel Alanları Engellemek:
txt
Kodu kopyala
User-agent: *
Disallow: /admin/
Disallow: /login/
Son Söz: Robots.txt ve Sitenizin Yönetimi
Robots.txt dosyası, sitenizi arama motorlarıyla daha verimli bir şekilde entegre etmenizi sağlar. Doğru ayarlandığında, SEO performansınızı artırabilir ve hassas bilgilerin korunmasına yardımcı olabilir.Peki, sizin siteniz için ideal robots.txt nasıl olmalı
Son düzenleme: