Teknik SEO İleri
1. Site Mimarisi: Flat vs. Deep ve Silo Yapısı
Site mimarisi, arama motorlarının sitenizi ne kadar verimli tarayabildiğini ve kullanıcıların içeriğe ne kadar kolay ulaştığını doğrudan belirler. İleri düzey SEO'da mimari seçimi stratejik bir karardır.
a) Flat (Yatay) Mimari
- Tüm sayfalar ana sayfadan maksimum 2-3 tıklama uzaklığında
- Avantaj: Crawl efficiency yüksek, PageRank dağılımı daha homojen
- Dezavantaj: Büyük sitelerde navigasyon karmaşıklığı
- Uygun: Küçük-orta ölçekli siteler, blog'lar
b) Deep (Dikey) Mimari
- Hiyerarşik kategori yapısı: Ana Sayfa → Kategori → Alt Kategori → Ürün
- Avantaj: Net tematik organizasyon, büyük siteler için ölçeklenebilir
- Dezavantaj: Derin sayfalara crawl budget ulaşmayabilir
- Uygun: E-ticaret siteleri, büyük portallar
c) Silo Yapısı
Silo, ilgili içerikleri tematik gruplar halinde izole eder. Her silo kendi içinde güçlü internal link ağı oluşturur, silolar arası geçişler ise kontrollü tutulur.
2. Faceted Navigation (E-ticaret)
E-ticaret sitelerinde filtreler (renk, beden, fiyat, marka) binlerce URL kombinasyonu oluşturabilir. Bu durum crawl budget israfına, duplicate content'e ve index bloat'a yol açar.
a) Faceted Navigation Sorunları
- URL patlaması: 100 ürün x 5 renk x 4 beden = 2.000 URL
- Duplicate content: Farklı filtre sıraları aynı sonucu gösterir
- Crawl budget israfı: Googlebot değersiz filtre sayfalarını tarar
- Link equity dağılması: PageRank binlerce filtre sayfasına dağılır
b) Çözüm Stratejileri
| Strateji | Uygulama | Ne Zaman? |
|---|---|---|
| Canonical tag | Filtre sayfalarını ana kategori sayfasına canonical yapın | Arama değeri olmayan filtreler |
| Robots.txt / Noindex | Değersiz kombinasyonları engelleyin | Çok az sonuç gösteren filtreler |
| AJAX / JavaScript filtering | URL değiştirmeden filtreleme | Tüm filtrelerin indexlenmesi istenmeyen durumlar |
| Seçici indexleme | Yüksek arama hacimli filtreleri indexleyin | "Nike ayakkabı" gibi marka+kategori |
Faceted navigation yönetiminde robots.txt ile engelleme tek başına yeterli değildir. Googlebot robots.txt ile engellenmiş URL'leri taramaz ama dış linkler varsa indexleyebilir. Noindex + robots.txt kombinasyonu veya canonical tag kullanımı daha güvenlidir.
3. JavaScript SEO
Modern web uygulamaları (React, Angular, Vue) JavaScript ile render ediliyor. Ancak Googlebot'un JavaScript'i işlemesi ek zaman ve kaynak gerektirir.
a) Google'ın JavaScript Rendering Süreci
- Crawl: Googlebot ham HTML'i indirir
- Kuyruk: JavaScript rendering sıraya alınır (gecikmeli)
- Render: WRS (Web Rendering Service) JavaScript'i çalıştırır
- Index: Render edilmiş içerik indexlenir
b) Pre-rendering Çözümleri
- SSR (Server-Side Rendering): HTML sunucuda oluşturulur → Next.js, Nuxt.js
- SSG (Static Site Generation): Build time'da HTML üretilir → Gatsby, Next.js static export
- Dynamic Rendering: Bot'lara SSR, kullanıcılara CSR sunulur (Google artık önermiyor)
- Hybrid Rendering: Kritik sayfalar SSR, dinamik sayfalar CSR
İstek Gönderir"] --> B{"Sayfa Tipi?"} B -->|SSR / SSG| C["Sunucu HTML
Döndürür"] B -->|CSR| D["Boş HTML +
JavaScript"] C --> E["Hemen
İndexlenir"] D --> F["WRS Kuyruğu
Bekleme"] F --> G["JavaScript
Render Edilir"] G --> H["Gecikmeli
İndeksleme"] style E fill:#DCFCE7 style H fill:#FEF3C7
4. Hreflang ve Uluslararası SEO
Çok dilli veya çok bölgeli sitelerde hreflang tag'ları, Google'a hangi sayfanın hangi dil/bölge için olduğunu bildirir.
a) Hreflang Kuralları
- Her sayfa kendi hreflang'ini de dahil etmelidir (self-referencing)
- Hreflang ilişkiler karşılıklı olmalıdır (reciprocal): A → B ise B → A da olmalı
- x-default ile varsayılan dil/bölge belirtilmeli
- ISO 639-1 dil kodu + ISO 3166-1 Alpha 2 ülke kodu kullanılmalı
b) Uygulama Yöntemleri
- HTML head:
<link rel="alternate" hreflang="tr" href="..."> - HTTP header: PDF gibi HTML olmayan dosyalar için
- Sitemap: Büyük siteler için en ölçeklenebilir yöntem
5. Site Migration Planlaması
Domain değişikliği, HTTPS geçişi, CMS değişikliği veya URL yapısı değişikliği sırasında SEO değerini korumak kritiktir.
a) Migration Kontrol Listesi
- Tüm mevcut URL'lerin envanterini çıkarın
- 301 redirect haritası oluşturun (eski URL → yeni URL)
- Migration öncesi benchmark metrikleri kaydedin
- Staging ortamında test edin
- Migration sonrası GSC'de her iki property'yi izleyin
- Crawl hatalarını günlük kontrol edin (ilk 2-4 hafta)
6. Log File Analizi ve Orphan Sayfalar
a) Log File Analizi
Sunucu log dosyaları, Googlebot'un sitenizi gerçekte nasıl taradığını gösterir. GSC verileri örneklenmiş olabilir; log analizi kesin veri sunar.
- Hangi sayfalar en sık/en az taranıyor?
- Crawl budget hangi sayfalara harcanıyor?
- 4xx/5xx hataları hangi sayfalarda oluşuyor?
- Googlebot hangi bot varyantıyla (mobile/desktop) geliyor?
b) Orphan Sayfalar
Orphan (yetim) sayfalar, sitenizdeki hiçbir sayfadan internal link almayan sayfalardır. Googlebot bu sayfalara sadece sitemap üzerinden ulaşabilir.
Orphan sayfa tespiti için Screaming Frog'un crawl verilerini sitemap verileriyle karşılaştırın. Sitemap'te olup crawl'da bulunamayan sayfalar orphan sayfa adayıdır. Bu sayfaları ya ilgili kategorilere internal linkleyin ya da gereksizse kaldırın.
7. AI Crawler Yönetimi
ChatGPT (GPTBot), Claude (ClaudeBot), Perplexity ve diğer AI sistemleri içerik taramak için botlar kullanır. Bu botların yönetimi yeni bir teknik SEO konusudur.
a) Robots.txt ile AI Bot Kontrolü
# GPTBot (OpenAI/ChatGPT)
User-agent: GPTBot
Disallow: /ozel-icerik/
# ClaudeBot (Anthropic)
User-agent: ClaudeBot
Disallow: /ozel-icerik/
# Google AI (Gemini)
User-agent: Google-Extended
Disallow: /
b) Stratejik Karar
- İzin ver: AI yanıtlarında referans olarak görünme şansı (GEO)
- Engelle: İçerik hırsızlığı endişesi, premium içerik koruması
- Kısmi izin: Blog/public içerikler açık, premium/gated içerikler kapalı
GPTBot / ClaudeBot"] --> B{"robots.txt
Kontrol"} B -->|İzin Var| C["İçerik Taranır"] B -->|Engel Var| D["İstek Reddedilir"] C --> E{"İçerik Tipi?"} E -->|Public Blog| F["AI Modelinde
Referans Olabilir"] E -->|Premium İçerik| G["Gated Content
Korunmalı"] style F fill:#DCFCE7 style D fill:#FEE2E2 style G fill:#FEF3C7
