Teknik SEO — Taranabilirlik
1. Googlebot ve Tarama Süreci
Googlebot, Google'ın web'i tarayan yazılımıdır. Sayfaları keşfeder, içeriklerini okur ve dizine ekler. Sitenin arama sonuçlarında görünmesi için önce Googlebot'un sayfalarını bulabilmesi ve tarayabilmesi gerekir.
a) Googlebot Nasıl Çalışır?
- Bilinen bir URL'den başlar (önceki taramalar, sitemap, harici bağlantılar).
- Sayfadaki bağlantıları takip ederek yeni URL'leri keşfeder.
- Her sayfayı render eder (JavaScript dahil) ve içeriğini analiz eder.
- İçeriği dizine ekler veya günceller.
b) Crawl Budget (Tarama Bütçesi) — Google'ın Sana Ayırdığı Zaman
Google Bir Kapitalist Şirkettir
Google hayır kurumu değil — her işlemin bir maliyeti var. Google'ın veri merkezleri dünyanın en büyük enerji tüketicilerinden biridir.
- Soğutma stratejisi: Sunucu soğutma maliyetini düşürmek için veri merkezlerini Atlas Okyanusu ve Hint Okyanusu kıyılarına kuruyor — okyanus suyuyla doğal soğutma yapıyor (Hamina/Finlandiya, Taiwan, Singapur gibi)
- Hız için RAM kullanımı: Arama sonuçlarını milisaniyeler içinde sunmak için SSD disk yerine RAM (bellek) kullanıyor — Google'ın veri merkezlerinde tahmini olarak onlarca petabayt (1 petabayt = 1.000 terabayt = 1.000.000 gigabayt) RAM kapasitesi var
- Sonuç: Tüm bu altyapıyı ayakta tutmak muazzam bir maliyet — Google her kaynağı verimli kullanmak zorunda
Crawl Budget Nedir?
Google'ın senin siteni taramak için ayırdığı kaynak miktarı. Sınırsız değil — Google her siteye belirli bir "tarama bütçesi" ayırır.
- Büyük, güvenilir, hızlı siteler → daha fazla bütçe alır
- Küçük, yavaş, hatalı siteler → daha az bütçe alır
Sitenin aldığı tarama miktarı iki faktöre bağlıdır:
- Crawl rate limit: Google sunucuna ne kadar yük bindirebilir? Sunucu yavaşsa Google tarama hızını düşürür.
- Crawl demand: Google sayfalarını ne kadar taramak istiyor? Popüler, sık güncellenen sayfalar daha sık taranır.
Crawl Budget'ı Ne Etkiler?
- Site hızı: Yavaş site = Google'ın tarayıcısı bekler = daha az sayfa taranır
- Sunucu yanıt süresi: Sunucu yavaşsa Google taramayı yavaşlatır
- 404 hataları: Google sitendeki yüzlerce 404 sayfayı taramaya çalışır → boşa kaynak harcar → "bu site beni yoruyor" der → sana verdiği değeri düşürür
- Yinelenen içerik: Aynı içeriği farklı URL'lerden taramak bütçe israfı
- Düşük kaliteli sayfalar: Tag sayfaları, yazar arşivleri, parametre URL'leri
- Redirect zincirleri: A→B→C→D yönlendirmeleri bütçeyi yer
Crawl Budget Nasıl Korunur?
- 404 hataları düzelt veya yönlendir — Screaming Frog ile aylık kontrol yap
- robots.txt ile gereksiz sayfaları taramadan çıkar — admin, sepet, arama sonuçları
- XML sitemap ile önemli sayfaları işaretle
- Düşük değerli sayfaları noindex yap — tag, yazar arşivi
- Redirect zincirlerini kısalt — A→D doğrudan
- Site hızını artır
- Yinelenen içerikleri canonical ile çöz
Crawl Budget Kimler İçin Kritik?
- 10.000+ sayfalık siteler: e-ticaret, haber siteleri, büyük bloglar — crawl budget doğrudan sıralamayı etkiler
- 50 sayfalık kurumsal site: Crawl budget çoğu zaman sorun olmaz — ama yine de temiz tut, iyi alışkanlıklar edin
Siteye gelir"] CB["⏱️ Crawl Budget
Sınırlı süre"] GC --> CB CB --> TEMIZ["✅ Temiz Site"] CB --> KIRLI["❌ Kirli Site"] TEMIZ --> T1["Önemli sayfalar taranır"] TEMIZ --> T2["Yeni içerik hızla dizinlenir"] TEMIZ --> T3["Google siteye güvenir"] KIRLI --> K1["404 hataları bütçeyi yer"] KIRLI --> K2["Redirect zincirleri yavaşlatır"] KIRLI --> K3["Önemli sayfalar atlanır"] KIRLI --> K4["Google bütçeyi düşürür"] style GC fill:#29ABE2,stroke:#1E8EBF,color:#fff,stroke-width:2px style CB fill:#FEF3C7,stroke:#F59E0B,stroke-width:2px style TEMIZ fill:#DCFCE7,stroke:#22C55E,stroke-width:2px style KIRLI fill:#FEE2E2,stroke:#EF4444,stroke-width:2px style T1 fill:#DCFCE7,stroke:#22C55E,stroke-width:1px style T2 fill:#DCFCE7,stroke:#22C55E,stroke-width:1px style T3 fill:#DCFCE7,stroke:#22C55E,stroke-width:1px style K1 fill:#FEE2E2,stroke:#EF4444,stroke-width:1px style K2 fill:#FEE2E2,stroke:#EF4444,stroke-width:1px style K3 fill:#FEE2E2,stroke:#EF4444,stroke-width:1px style K4 fill:#FEE2E2,stroke:#EF4444,stroke-width:1px
URL'leri bul"] T["Tarama
Sayfayı indir"] R["Render
JS çalıştır"] D["Dizinleme
İçeriği kaydet"] GB --> K -->|"Sitemap, bağlantılar"| T -->|"HTML + CSS + JS"| R -->|"İçerik analizi"| D RT["robots.txt
Engelle / İzin ver"] MR["Meta Robots
noindex / nofollow"] CN["Canonical
Tercih edilen URL"] RT -.->|"Tarama öncesi kontrol"| K MR -.->|"Dizinleme kontrolü"| D CN -.->|"Yinelenen içerik çözümü"| D style GB fill:#29ABE2,stroke:#1E8EBF,color:#fff,stroke-width:2px style K fill:#E8F6FC,stroke:#29ABE2,stroke-width:2px style T fill:#E8F6FC,stroke:#29ABE2,stroke-width:2px style R fill:#FEF3C7,stroke:#F59E0B,stroke-width:2px style D fill:#DCFCE7,stroke:#22C55E,stroke-width:2px style RT fill:#FEE2E2,stroke:#EF4444,stroke-width:2px style MR fill:#FEE2E2,stroke:#EF4444,stroke-width:2px style CN fill:#FEF3C7,stroke:#F59E0B,stroke-width:2px
2. robots.txt
robots.txt, sitenin kök dizininde bulunan (ornek.com/robots.txt) ve arama motoru botlarına hangi sayfaları tarayıp hangilerini taramaması gerektiğini söyleyen bir metin dosyasıdır.
a) Temel Söz Dizimi
# Tüm botlara tüm sayfaları aç
User-agent: *
Allow: /
# Admin panelini engelle
User-agent: *
Disallow: /admin/
Disallow: /wp-login.php
# Sadece Googlebot'a özel kural
User-agent: Googlebot
Disallow: /gecici-sayfalar/
# Sitemap konumu
Sitemap: https://www.ornek.com/sitemap.xml
b) Önemli Kurallar
User-agent: *— tüm botlar için geçerli kural.Disallow: /klasor/— bu klasörü tarama.Allow: /klasor/ozel-sayfa.html— bu spesifik sayfayı tara (Disallow ile birlikte kullanılır).Sitemap:— sitemap dosyasının yolunu belirtir.
meta robots noindex kullan. robots.txt'te CSS ve JS dosyalarını engelleme — Googlebot'un sayfayı render etmesini engellersin.
c) Yaygin Disallow Ornekleri
Cogu web sitesinde asagidaki alanlarin taranmasini engellemek mantiklidir:
User-agent: *
Disallow: /wp-admin/ # WordPress admin paneli
Disallow: /cart/ # Sepet sayfalari
Disallow: /checkout/ # Odeme sayfalari
Disallow: /search? # Site ici arama sonuclari
Disallow: /tag/ # Etiket sayfalari (thin content)
Disallow: /author/ # Yazar arsiv sayfalari
Allow: /
Sitemap: https://siteadi.com/sitemap.xml
meta robots noindex kullan. Ayrica robots.txt'in dogru calistigini dogrulamak icin Search Console > URL Inceleme araci ile kontrol edebilirsin.
d) robots.txt Kontrol
- Dosyanin yeri:
siteadi.com/robots.txt— her sitenin kok dizininde olmalidir - Test etme: Search Console > URL Inceleme araci ile herhangi bir URL'nin engelli olup olmadigini kontrol et
- Canli kontrol: Tarayicida
siteadi.com/robots.txtyazarak dosyanin icerigini dogrudan gorebilirsin
3. XML Sitemap
XML sitemap, sitenin tüm önemli sayfalarının listesini içeren ve arama motorlarına sunulan bir dosyadır. Google'a "bu sayfalari tara" diye yol haritasi verir.
a) Dosyanin Yeri ve Amaci
- Dosyanin yeri:
siteadi.com/sitemap.xml - Ne ise yarar: Google'a "bu sayfalari tara" diye yol haritasi verir — ozellikle buyuk ve karmasik sitelerde kritik oneme sahiptir
b) Sitemap Yapısı
<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>https://www.ornek.com/</loc>
<lastmod>2025-03-15</lastmod>
<changefreq>weekly</changefreq>
<priority>1.0</priority>
</url>
<url>
<loc>https://www.ornek.com/hizmetler/dis-implant</loc>
<lastmod>2025-02-20</lastmod>
<changefreq>monthly</changefreq>
<priority>0.8</priority>
</url>
</urlset>
c) Sitemap Icermesi Gerekenler
- Tum onemli sayfalar: urun, hizmet, blog, kategori sayfalari
- Sadece dizinlenmesini istediğin canonical URL'leri ekle
- Her URL icin
lastmodtarihi mumkunse dogru sekilde belirtilmeli
d) Sitemap IcerMEMESI Gerekenler
- noindex etiketli sayfalar
- Yonlendirilmis (301/302) sayfalar
- Parametreli URL'ler (or:
?sort=price&page=3) - Thin content (ince icerik) sayfalari
- 404 veren URL'ler
e) Sitemap Kurallari ve Best Practices
- Maksimum 50.000 URL veya 50MB — daha büyük sitelerde sitemap index dosyasi kullan (birden fazla sitemap dosyasini listeleyen ana dosya)
- Google Search Console'a gönder: SC > Sitemaps > URL yapistir > Gonder
- Duzenlı olarak hata kontrolü yap
- WordPress'te: Yoast SEO veya Rank Math eklentileri sitemap'i otomatik olusturur ve gunceller
- Guncel tutma: Yeni sayfa eklendikce sitemap otomatik guncellenmeli — CMS eklentileri bunu saglar
f) robots.txt ve sitemap.xml Birlikte Nasil Calisir?
Neyi TARAMA
(engelleme listesi)"] SM["sitemap.xml
Neyi TARA
(oncelik listesi)"] G["Googlebot"] RT -->|"Su alanlari tarma"| G SM -->|"Su sayfalari tara"| G G --> V["Verimli Tarama
Onemli sayfalar taranir
Gereksiz sayfalar atlanir"] style RT fill:#FEE2E2,stroke:#EF4444,stroke-width:2px style SM fill:#DCFCE7,stroke:#22C55E,stroke-width:2px style G fill:#E8F6FC,stroke:#29ABE2,stroke-width:2px style V fill:#FEF3C7,stroke:#F59E0B,stroke-width:2px
4. Meta Robots Tag
Sayfanın <head> bölümüne eklenen ve arama motorlarına o sayfa için talimat veren etikettir.
a) Yaygın Direktifler
| Direktif | Anlam | Ne Zaman Kullan? |
|---|---|---|
noindex | Bu sayfayı dizine ekleme | Arama sonuçlarında görünmemesi gereken sayfalar (thank you page, internal search) |
nofollow | Bu sayfadaki bağlantıları takip etme | Güvenilmeyen kullanıcı içerikleri olan sayfalar |
noindex, nofollow | Ne dizine ekle ne bağlantıları takip et | Tamamen gizlenmesi gereken sayfalar |
index, follow | Varsayılan davranış (yazmasına gerek yok) | Normal sayfalar |
Kullanım:
<meta name="robots" content="noindex, nofollow">
5. Canonical Tag
Canonical tag, bir sayfanın "tercih edilen" URL versiyonunu belirtir. Yinelenen (duplicate) içerik sorunlarını çözmek için kullanılır.
a) Neden Gerekli?
Aynı içeriğe birden fazla URL'den ulaşılabiliyor olabilir:
ornek.com/urunveornek.com/urun?ref=kampanyawww.ornek.com/sayfaveornek.com/sayfaornek.com/sayfaveornek.com/sayfa/(sondaki slash)
b) Kullanım
<link rel="canonical" href="https://www.ornek.com/urun">
c) Self-Referencing Canonical
Her sayfaya kendisini gösteren canonical eklemek en iyi pratiktir. Böylece parametre eklenmesi durumunda bile tercih edilen URL belli olur.
- Noindex sayfaya canonical koymak — çelişki yaratır.
- Canonical zinciri oluşturmak — A → B → C yerine A → C olmalı.
- Farklı içerikteki sayfalara canonical vermek — sadece gerçekten aynı/çok benzer içerik için kullan.
- Sitemap'te canonical olmayan URL'leri listelemek.
6. Yönlendirmeler (Redirects)
a) 301 vs 302 Redirect
| Tür | Anlam | Kullanım | Link Equity |
|---|---|---|---|
| 301 | Kalıcı yönlendirme | Sayfa kalıcı olarak taşındığında, URL yapısı değiştiğinde | Aktarır (~%90+) |
| 302 | Geçici yönlendirme | Sayfa geçici olarak başka yerde (bakım, A/B test) | Aktarmaz |
301 yönlendirme yapmadan önce kontrol et:
- Eski URL'in backlink'leri var mı? (301 ile link değerini koru)
- Yeni URL doğru çalışıyor mu? (404'e yönlendirme yapma)
- Redirect zinciri oluşuyor mu? (A→B→C olmasın, A→C olsun)
- Sitemap güncellendi mi? (eski URL'yi kaldır, yeni URL'yi ekle)
- Search Console'da eski URL'yi kaldırma gerekiyor mu?
7. HTTP Durum Kodları
Sunucunun tarayıcıya veya Googlebot'a verdiği yanıt kodları. SEO açısından en önemlileri:
Sayfa başarıyla
yüklendi"] S31["↪️ 301
Kalıcı
yönlendirme"] S32["↪️ 302
Geçici
yönlendirme"] S4["❌ 404
Sayfa
bulunamadı"] S41["🗑️ 410
Sayfa kalıcı
olarak silindi"] S5["💥 500
Sunucu
hatası"] HTTP --> S2 HTTP --> S31 HTTP --> S32 HTTP --> S4 HTTP --> S41 HTTP --> S5 style HTTP fill:#29ABE2,stroke:#1E8EBF,color:#fff,stroke-width:2px style S2 fill:#DCFCE7,stroke:#22C55E,stroke-width:2px style S31 fill:#E8F6FC,stroke:#29ABE2,stroke-width:2px style S32 fill:#FEF3C7,stroke:#F59E0B,stroke-width:2px style S4 fill:#FEE2E2,stroke:#EF4444,stroke-width:2px style S41 fill:#FEE2E2,stroke:#EF4444,stroke-width:2px style S5 fill:#FEE2E2,stroke:#EF4444,stroke-width:2px
| Kod | Anlam | SEO Etkisi |
|---|---|---|
| 200 | Başarılı | Normal — sayfa sorunsuz yüklendi. |
| 301 | Kalıcı yönlendirme | Link equity aktarır. URL değişikliklerinde kullan. |
| 302 | Geçici yönlendirme | Link equity aktarmaz. Geçici durumlarda kullan. |
| 404 | Sayfa bulunamadı | Az sayıda normal ama çok sayıda 404 tarama bütçesini boşa harcar. |
| 410 | Kalıcı olarak silindi | Google'a "bu sayfa asla gelmeyecek" der. 404'ten daha kesin sinyal. |
| 500 | Sunucu hatası | Ciddi sorun — Google sayfayı tarayamaz, sık olursa sıralama düşer. |
8. Site İçi Kırık Link Analizi — Screaming Frog
Kırık linkler (broken links), tıklandığında 404 hatası veren ve var olmayan sayfalara yönlendiren bağlantılardır. Hem kullanıcı deneyimini bozar hem SEO performansını düşürür.
a) Kırık Linkler Neden Önemli?
- Kullanıcı deneyimini bozar: Ziyaretçi bir linke tıklayıp "Sayfa Bulunamadı" hatası görürse güveni kırılır
- Link equity'yi boşa harcar: O linke akan SEO değeri (link equity) hiçbir sayfaya ulaşmadan kaybolur
- Google'a kötü sinyal verir: Çok sayıda kırık link, sitenin bakımsız olduğu izlenimini yaratır
b) Screaming Frog ile Kırık Link Analizi — Adım Adım
- Screaming Frog'u aç ve sitenin URL'sini üst çubuğa gir
- "Start" tıkla — tarama başlar, tüm sayfalar ve bağlantılar incelenir
- Tarama tamamlanınca "Response Codes" sekmesine git
- "Client Error (4xx)" filtrele — bu liste kırık linkleri gösterir
- "Inlinks" sekmesinde hangi sayfadan kırık linke gidildiğini gör — sorunun kaynağını bul
- Export et — Excel'de listele, her kırık link için aksiyon planla
- Her kırık link için karar ver:
- Sayfa taşındıysa → 301 yönlendirme ekle
- Sayfa kaldırıldıysa → Linki kaldır veya alternatif sayfaya yönlendir
- Yazım hatası varsa → Doğru URL ile düzelt
Tarama Başlat"] --> B["4xx Hataları
Filtrele"] B --> C["Inlinks Kontrol
Kaynak Sayfayı Bul"] C --> D{"Karar"} D -->|Sayfa Taşındı| E["301 Yönlendirme"] D -->|Sayfa Kaldırıldı| F["Linki Kaldır /
Alternatife Yönlendir"] D -->|Yazım Hatası| G["Doğru URL ile Düzelt"] E --> H["Sonraki Ay
Tekrar Tara"] F --> H G --> H style A fill:#E8F6FC,stroke:#29ABE2 style D fill:#FEF3C7,stroke:#F59E0B style E fill:#DCFCE7,stroke:#22C55E style F fill:#DCFCE7,stroke:#22C55E style G fill:#DCFCE7,stroke:#22C55E style H fill:#F5F7FA,stroke:#64748B
9. Orphan Pages (Yetim Sayfalar)
a) Orphan Page Nedir?
Orphan page (yetim sayfa), sitedeki hicbir sayfadan ic link almayan, izole kalmis sayfalardir. Bu sayfalar site yapisinda "baglantisiz" kalir ve hem kullanicilar hem de arama motorlari tarafindan bulunmasi cok zordur.
b) Neden Sorunlu?
- Google bu sayfalari bulamayabilir: Sitemap'te olsa bile ic linkle desteklenmezse Google sayfayi dusuk oncelikli gorur veya hic taramayabilir
- Kullanicilar ulasamaz: Site icerisinde navigasyonla bu sayfalara gidilemez
- SEO degeri almaz: Ic link almadigi icin link equity (baglanti degeri) sifirdir — siralama sansi cok dusuk
c) Nasil Tespit Edilir?
Screaming Frog ile orphan page tespiti yapilir:
- Screaming Frog'da siteyi tara
- Ayni zamanda sitemap.xml dosyasini da Screaming Frog'a yukle
- "Orphan Pages" raporuna git — sitemap'te olan ama site ici taramada hicbir sayfadan link almayan sayfalari gosterir
- Bu sayfalar sitemap ile tarama karsilastirmasi yapilarak belirlenir
d) Nasil Kurtarilir?
- Ilgili sayfalardan orphan page'e ic link ver — anlamli anchor text ile (ör: "implant sonrasi bakim rehberimizi okuyun")
- Blog yazilarinin sonuna "Ilgili Yazilar" bolumu ekle — orphan page'leri iliskili iceriklerle bagla
- Kategori/hizmet sayfalarindan alt sayfalara link ver — her alt sayfa ust kategorisinden link almali
- Breadcrumb navigasyonu ekle — sayfa hiyerarsisini hem kullaniciya hem Google'a gosterir
- Sayfa gercekten gereksizse: sil veya noindex yap — her sayfanin varligi hakliysa linkle, degilse kaldir
e) Periyodik Kontrol
Aylik kontrol: Screaming Frog ile orphan page taramasi yapilmalidir. Notion takvimine tekrarlayan gorev olarak ekle: "Orphan page kontrolu — Screaming Frog". Yeni icerik eklendikce orphan sayfa olusma riski artar — duzenlı kontrol sart.
