Ana Sayfa / Seviye 3 / SEO / Teknik SEO İleri

Teknik SEO İleri

📚 Seviye 3 — Uzmanlaşma ⏱ ~15 dakika

1. Site Mimarisi: Flat vs. Deep ve Silo Yapısı

Site mimarisi, arama motorlarının sitenizi ne kadar verimli tarayabildiğini ve kullanıcıların içeriğe ne kadar kolay ulaştığını doğrudan belirler. İleri düzey SEO'da mimari seçimi stratejik bir karardır.

a) Flat (Yatay) Mimari

b) Deep (Dikey) Mimari

c) Silo Yapısı

Silo, ilgili içerikleri tematik gruplar halinde izole eder. Her silo kendi içinde güçlü internal link ağı oluşturur, silolar arası geçişler ise kontrollü tutulur.

graph TD A["Ana Sayfa"] --> B["Silo 1: SEO"] A --> C["Silo 2: Google Ads"] A --> D["Silo 3: Sosyal Medya"] B --> B1["Teknik SEO"] B --> B2["İçerik SEO"] B --> B3["Link Building"] B1 --> B2 B2 --> B3 B3 --> B1 C --> C1["Arama Ağı"] C --> C2["Display"] C --> C3["Shopping"] C1 --> C2 C2 --> C3 D --> D1["Instagram"] D --> D2["LinkedIn"] style A fill:#29ABE2,color:#fff style B fill:#E8F6FC style C fill:#E8F6FC style D fill:#E8F6FC

2. Faceted Navigation (E-ticaret)

E-ticaret sitelerinde filtreler (renk, beden, fiyat, marka) binlerce URL kombinasyonu oluşturabilir. Bu durum crawl budget israfına, duplicate content'e ve index bloat'a yol açar.

a) Faceted Navigation Sorunları

b) Çözüm Stratejileri

StratejiUygulamaNe Zaman?
Canonical tagFiltre sayfalarını ana kategori sayfasına canonical yapınArama değeri olmayan filtreler
Robots.txt / NoindexDeğersiz kombinasyonları engelleyinÇok az sonuç gösteren filtreler
AJAX / JavaScript filteringURL değiştirmeden filtrelemeTüm filtrelerin indexlenmesi istenmeyen durumlar
Seçici indexlemeYüksek arama hacimli filtreleri indexleyin"Nike ayakkabı" gibi marka+kategori
⚠️ Uyarı

Faceted navigation yönetiminde robots.txt ile engelleme tek başına yeterli değildir. Googlebot robots.txt ile engellenmiş URL'leri taramaz ama dış linkler varsa indexleyebilir. Noindex + robots.txt kombinasyonu veya canonical tag kullanımı daha güvenlidir.

3. JavaScript SEO

Modern web uygulamaları (React, Angular, Vue) JavaScript ile render ediliyor. Ancak Googlebot'un JavaScript'i işlemesi ek zaman ve kaynak gerektirir.

a) Google'ın JavaScript Rendering Süreci

  1. Crawl: Googlebot ham HTML'i indirir
  2. Kuyruk: JavaScript rendering sıraya alınır (gecikmeli)
  3. Render: WRS (Web Rendering Service) JavaScript'i çalıştırır
  4. Index: Render edilmiş içerik indexlenir

b) Pre-rendering Çözümleri

flowchart LR A["Googlebot
İstek Gönderir"] --> B{"Sayfa Tipi?"} B -->|SSR / SSG| C["Sunucu HTML
Döndürür"] B -->|CSR| D["Boş HTML +
JavaScript"] C --> E["Hemen
İndexlenir"] D --> F["WRS Kuyruğu
Bekleme"] F --> G["JavaScript
Render Edilir"] G --> H["Gecikmeli
İndeksleme"] style E fill:#DCFCE7 style H fill:#FEF3C7

4. Hreflang ve Uluslararası SEO

Çok dilli veya çok bölgeli sitelerde hreflang tag'ları, Google'a hangi sayfanın hangi dil/bölge için olduğunu bildirir.

a) Hreflang Kuralları

b) Uygulama Yöntemleri

5. Site Migration Planlaması

Domain değişikliği, HTTPS geçişi, CMS değişikliği veya URL yapısı değişikliği sırasında SEO değerini korumak kritiktir.

a) Migration Kontrol Listesi

  1. Tüm mevcut URL'lerin envanterini çıkarın
  2. 301 redirect haritası oluşturun (eski URL → yeni URL)
  3. Migration öncesi benchmark metrikleri kaydedin
  4. Staging ortamında test edin
  5. Migration sonrası GSC'de her iki property'yi izleyin
  6. Crawl hatalarını günlük kontrol edin (ilk 2-4 hafta)

6. Log File Analizi ve Orphan Sayfalar

a) Log File Analizi

Sunucu log dosyaları, Googlebot'un sitenizi gerçekte nasıl taradığını gösterir. GSC verileri örneklenmiş olabilir; log analizi kesin veri sunar.

b) Orphan Sayfalar

Orphan (yetim) sayfalar, sitenizdeki hiçbir sayfadan internal link almayan sayfalardır. Googlebot bu sayfalara sadece sitemap üzerinden ulaşabilir.

💡 İpucu

Orphan sayfa tespiti için Screaming Frog'un crawl verilerini sitemap verileriyle karşılaştırın. Sitemap'te olup crawl'da bulunamayan sayfalar orphan sayfa adayıdır. Bu sayfaları ya ilgili kategorilere internal linkleyin ya da gereksizse kaldırın.

7. AI Crawler Yönetimi

ChatGPT (GPTBot), Claude (ClaudeBot), Perplexity ve diğer AI sistemleri içerik taramak için botlar kullanır. Bu botların yönetimi yeni bir teknik SEO konusudur.

a) Robots.txt ile AI Bot Kontrolü

# GPTBot (OpenAI/ChatGPT)
User-agent: GPTBot
Disallow: /ozel-icerik/

# ClaudeBot (Anthropic)
User-agent: ClaudeBot
Disallow: /ozel-icerik/

# Google AI (Gemini)
User-agent: Google-Extended
Disallow: /

b) Stratejik Karar

flowchart TD A["AI Bot İsteği
GPTBot / ClaudeBot"] --> B{"robots.txt
Kontrol"} B -->|İzin Var| C["İçerik Taranır"] B -->|Engel Var| D["İstek Reddedilir"] C --> E{"İçerik Tipi?"} E -->|Public Blog| F["AI Modelinde
Referans Olabilir"] E -->|Premium İçerik| G["Gated Content
Korunmalı"] style F fill:#DCFCE7 style D fill:#FEE2E2 style G fill:#FEF3C7

📝 Quiz — Bilgini Test Et

← Önceki Ders Sonraki Ders →