
SERP API (Semust) ile Google Sonuçlarını Nasıl Çekersiniz?
SEO’da manuel takiplerin ve basit sıralama kontrollerinin çok ötesine geçildi. Artık tamamen veriye dayalı, analitik ve otomasyonla çalışan bir mühendislik işinden bahsediyoruz. Google’ın yeni arama algoritmaları, sürekli değişen sonuç sayfaları ve yapay zeka özetleri, alıştığımız SEO yöntemlerini baştan aşağı değiştirdi. Eğer bu yeni yapıda ayakta kalmak istiyorsak ileri düzey teknolojilerden faydalanmamız gerekiyor.
Büyük markalar, veri bilimciler ve büyüme odaklı pazarlamacılar için Python ile Google arama sonuçları elde etmek, artık sıradan bir site içi araçla yapılacak basit bir iş değil. Bunun yerine çok katmanlı ve 7/24 çalışan bir operasyona dönüştü.
Bu yazımızda; önce arama alışkanlıklarında nelerin değiştiği, manuel Google scraping yaparken başımızı ağrıtan engeller gibi konulara yakından bakacağız. Ardından, veriye ulaşma çilesini bitiren Semust SERP API’ı inceleyeceğiz. Temiz ve yapılandırılmış veri elde etmek için Semust SERP API kullanımı ile nasıl yüksek performanslı bir veri çekme otomasyonu kurabileceğinizi adım adım anlatacağız.

SERP Dinamiklerindeki Dönüşüm ve Veri Çekme Engelleri
Arama motorları, yapay zekanın hayatımıza dahil olmasıyla son birkaç yılda büyük değişimler yaşadı. Çok değil, birkaç yıl önce temel HTML kodlarını okuyarak kolayca çektiğimiz sıralama ve rakip verileri, bugün yapay zeka destekli, son derece agresif anti-bot sistemleri tarafından sıkıca korunuyor. Bu değişimle birlikte veri mühendisleri için API kullanımı bir lüks olmaktan çıktı ve işin devamlılığı için gerekli hale geldi.
1. Algoritmik Güvenlik Duvarları ve CAPTCHA Mücadelesi
2025 yılının Ocak ayında Google, bot trafiklerine karşı bir güvenlik güncellemesi yaptı. Pazar araştırması yapanlar ve Python SEO otomasyonu kuran sistemler için aşılması çok zor yeni duvarlar, bu yeni güncellemeyle birlikte örülmüş oldu. Artık sistem, karşısındakinin bot mu yoksa gerçek bir insan mı olduğunu anlamak için daha zekice yollar kullanıyor.
Standart proxy kullanan veri mühendisleri, aniden artan CAPTCHA testleriyle karşılaşınca suçu hemen proxy servislerinde aradı. Oysa asıl sorun proxy kalitesi değildi. Google; artık IP geçmişinizi, trafik hareketlerinizi, sayfa üzerindeki fare kaydırmalarınızı ve tıklama alışkanlıklarınızı analiz etme yeteneğini yüksek seviyelere ulaştırdı.
Düşünün ki statik bir IP havuzundan sürekli aynı hedefe istek atıyorsunuz. Google bunu hemen bir veri saldırısı olarak algılıyor ve anında engeli basıyor. Günümüzde ayakta kalabilen nadir manuel veri kazıma yöntemleri ise oldukça zahmetli:
Cihazınızı ve tarayıcınızı farklı gösteren (device spoofing) tarayıcılar (örn. Playwright)
Gerçek bir insanın fare hareketlerini taklit eden oturum çoğaltma teknikleri
Sürekli değişen konut tipi (residential) proxy havuzları ve kaçınılmaz anlarda devreye giren insan destekli CAPTCHA çözme servisleri

Ancak dürüst olalım, bu tekniklerle uğraşmak inanılmaz maliyetli, yorucu ve yavaş. Tüm bu altyapı yönetimiyle saatler harcamak yerine, engelleri sizin yerinize aşan ve veriyi tertemiz bir JSON formatında sunan bir API kullanmak en mantıklı ve stratejik çıkış yolu.
2. num=100" Parametresinin Sonu ve Veri Krizi
Bot engelleri yetmezmiş gibi, Eylül 2025’te arama endüstrisinde bir sarsıntı daha yaşandı. Google, yıllardır SEO uzmanlarının ve botların tek seferde 100 sonuç çekmesini sağlayan &num=100 parametresini değiştirdi. Google’ın amacı oldukça basitti, yani devasa veri kazıma operasyonlarının sunucularında yarattığı aşırı yükü hafifletmekti isteği.
Peki bu teknik değişikliğin sektördeki yansımaları nasıl oldu? Tam anlamıyla yıkıcı!
Web sitelerinin %77’sinden fazlası, sıralama veri havuzlarında ve görünürlük raporlarında kayıplar yaşadı.
Google Search Console gösterim sayılarında ani düşüşler görüldü. Çünkü eskiden 100 sonuçluk sayfalardan veri çeken botlar, aslında sitelere yapay bir görünürlük sağlıyordu. Bu durum ortadan kalkınca raporlar bir anda zayıfladı.
SEO uzmanları için işler değişti. Artık yüzlerce kelimenin pozisyonunu manuel veya basit scriptlerle takip etmek operasyonel olarak imkansız hale geldi. Çoklu sayfaları otomatik yöneten akıllı otomasyon sistemlerine geçiş hızlandı.
Gelin, num=100 parametresinin kaldırılmasından önceki dönem ile bugünü (2026) basitçe karşılaştıralım:
Özellik | Eskiden (num=100 Aktifken) | Artık (2026) |
Sayfa Başına Veri | Tek seferde 100 organik sonuç alıyorduk. | Artık tek seferde maksimum 10 sonuç alabiliyoruz. |
Sunucu Yükü | Az istek atıp çok veri çekiyorduk. | Çoklu sayfa istekleri atmak zorundayız. |
Ölçekleme Maliyeti | Basit donanımlar ve ucuz proxy’ler iş görüyordu. | Sürekli proxy rotasyonu ve kredi maliyetleri gerekiyor. |
İşte bu yüzden basit kazıma kodlarının devri kapandı. Çoklu sayfa desteği sağlayan, veriyi stabilize edebilen bir API arayüzüne geçiş yapmak artık bir nevi ihtiyaç.
SERP Yapısına Yapay Zeka Özetleri (AI Overview)
Arama sonuç sayfalarının görünümü, yapay zeka özetleri (AI Overviews, eski adıyla SGE) ile yine bir değişime uğradı. Mayıs 2024’teki küresel lansmandan bu yana çok değer verdiğimiz 1. sıra hegemonyası darbe aldı. Artık arama sonuçlarının en üstünde, sıfırıncı pozisyon dediğimiz, tamamen yapay zeka tarafından hazırlanan dinamik bir alan var.
1. Sektörel Etki: Korkulan Oldu Mu?
İlk başlarda herkes “Yapay zeka organik trafiğimizi tamamen bitirecek!” diye paniğe kapılmıştı. Ancak 2025 ve 2026 yıllarına ait detaylı analizler bize başka bir tablo çiziyor. Yapay zeka özetleri her kelimede sabit durmuyor, aksine kullanıcının niyetine göre sürekli şekil değiştiriyor.
Verilere yakından bakalım:
Ocak 2025’te kelimelerin sadece %6.49’unda çıkan yapay zeka özetleri, Temmuz’da %25’e kadar fırladı, ardından Kasım ayında %15 seviyelerinde dengelendi. ABD pazarında ise bu oran %19 civarında seyrediyor. Yani Google, kaliteyi ölçerek bu özelliği dikkatlice yayıyor.
En dikkat çekici değişim ise sorgu tiplerinde yaşandı. Eskiden yapay zeka sadece “Nedir, nasıl yapılır?” gibi bilgi arayanlara cevap veriyordu. Ancak bugün ticari ve satın alma odaklı aramalarda yapay zekayı çok daha sık görüyoruz.
İlişkiler, iş dünyası, eğitim ve gıda sektörleri yapay zekanın en çok boy gösterdiği alanlar. Bilim ve elektronik kategorileri de keza öyle.
Peki ya trafiğimiz? Şaşırtıcı ama gerçek, yapay zeka özetinin bulunduğu sayfalarda, kullanıcılar eskiye kıyasla dış bağlantılara biraz daha fazla tıklıyor. Satın alma odaklı aramalar hala web sitelerine bolca ziyaretçi gönderiyor. Yani yapay zeka trafiği yutan bir kara delik değil, doğru konumlanırsanız size nitelikli trafik getirecek bir fırsat aslında.
2. Genişletilmiş SERP Özelliklerinin Marka Otoritesine Katkısı
Bilgi panelleri, yorumlar veya kullanıcıların yaptığı diğer aramalar kutuları, arama sayfasını bir vitrine çevirdi. Arama sonuçlarında bir bilgi paneliniz olduğunu varsayın. Kullanıcı daha sitenize girmeden markanızın ne kadar güvenilir olduğunu anlayabiliyor. Kullanıcıların yaptığı diğer aramalar kutuları sayesinde ise hedeflemediğiniz konularda bile insanların karşısına çıkıyorsunuz.
Eğer içerikleriniz bu özellikleri yakalayacak şekilde yapılandırılmamışsa görünmez olursunuz. Rakipleriniz ve yapay zeka vitrini saniyeler içinde işgal eder. Tüm bu elementleri eş zamanlı ve sorunsuz takip etmek ise ancak bu verileri sağlayabilen API altyapılarıyla mümkün.
Semust SERP API Nedir?
Pazar koşulları zorlaştıkça ve veri toplamak karmaşıklaştıkça, Semust SERP API imdınıza yetişecek. Semust SERP API; size Google’ın o anki canlı sonuçlarını saniyeler içinde sağlayan bir köprüdür. Geliştiriciler bu servisi kullanarak kendi SEO araçlarını yapabilir, rakip verilerini toplayabilir ve sıralamaları anlık olarak izleyebilir.
Python ile Entegrasyon
Peki kurulumları nasıl yapacağız?

Adım 1- Semust API Bilgilerinizi Alın: Semust API Platformu üzerinden bir hesap oluşturun. Panonuzdan kullanıcı adı ve şifre bilgilerinizi kopyalayın.
Adım 2 - Gerekli Python Kütüphanesini Kurun: Terminal veya komut satırınıza şu kodu yazarak requests kütüphanesini kurun:
Bash
pip install requests
Adım 3 - İlk Masaüstü Sorgumuzu Atalım (Temel Kullanım): Kod editörünüzü açın ve aşağıdaki kodları yapıştırın. “your_username” ve “your_password” alanlarına kendi bilgilerinizi girmeyi unutmayın.
Python
import requests
response = requests.post(
"https://data.semust.com/v1/serp",
headers={
"SEMUST-API-USER": "your_username",
"SEMUST-API-PASSWORD": "your_password",
},
json={
"keyword": "best seo tools",
"language": "en",
"country": "US",
"format": "json",
},
)
if response.status_code == 200:
data = response.json()
for result in data.get("organic", []):
print(f"{result['rank']}. {result['title']}")
print(f" URL: {result['link']}\n")
else:
print(f"Hata [{response.status_code}]: {response.text}")
Açıklama: Bu kod, Amerika lokasyonunda “best seo tools” kelimesini aratır ve 1. sayfadaki masaüstü organik sonuçları ekrana yazdırır.
Adım 4 - Gelişmiş Sorgular (Mobil Sonuçlar ve Çoklu Sayfa Çekme): Peki ya 1. sayfa yetmezse? Ya da Google’ın mobil sonuçlarını görmek istersek? Semust API’ın “mobile”, “start_page” ve “end_page” parametreleri ile mobil SERP sonuçları çekme işlemi de oldukça kolay:
Python
import requests
response = requests.post(
"https://data.semust.com/v1/serp",
headers={
"SEMUST-API-USER": "your_username",
"SEMUST-API-PASSWORD": "your_password",
},
json={
"keyword": "best seo tools",
"format": "json",
"mobile": True, # Arama sonuçlarını mobil cihaz (telefon) görünümüyle çeker
"start_page": 1, # Sonuçları 1. sayfadan çekmeye başla
"end_page": 3, # 3. sayfaya kadar (3. sayfa dahil) çek
},
)
if response.status_code == 200:
pages = response.json()
# Gelen veri bir liste olduğu için her sayfayı ayrı ayrı döngüye alıyoruz
for i, page in enumerate(pages, start=1):
print(f"\n--- Sayfa {i} Mobil Sonuçları ---")
for result in page.get("organic", []):
print(f" {result['rank']}. {result['title']}")
else:
print(f"Hata [{response.status_code}]: {response.text}")
Açıklama: Bu örnekte "mobile": True diyerek sonuçları sanki bir akıllı telefondan arama yapıyormuşuz gibi alıyoruz. Çünkü biliyoruz ki masaüstü ve mobil sıralamalar Google’da tamamen farklı olabilir. Ayrıca “start_page” ve “end_page” sayesinde tek bir istekle ilk 3 sayfanın verisini birden çektik. (Ufak bir not: Çoklu sayfa çekerken eklediğiniz her sayfanın bakiyenizden ayrı bir kredi harcadığını unutmayın).
Bu Verilerle Neler Yapabilirsiniz?
Bunca veriyi saniyeler içinde çektik. Peki bunlarla ne yapabiliriz?
Sıra Takip (Rank Tracker): Çoklu sayfa çekme özelliği ile sitenizin 2. veya 3. sayfalardaki (ilk 30 sonuç) konumunu kolayca takip edin. Hedef kelimelerde neredesiniz, anında görün.
Mobil vs. Masaüstü Karşılaştırması: Aynı kelimeyi hem “mobile: true” hem de “false” ile çekerek sitenizin cihazlara göre sıralama farkını analiz edin. Hangi cihazda güçlüyüz, hangisinde zayıfız?
PAA Verisi ile İçerik Fırsatları: Eğer insanlar sıkça bir soru soruyor ve sizin sitenizde bunun cevabı yoksa rakibiniz trafiği çoktan kapmıştır. Çektiğimiz verileri, içerik ekibinize yeni makale konusu olarak atayabilirsiniz.
Rakip Reklam Analizi: API’nin döndürdüğü “top_ads” verileri ile rakiplerinizin hangi kelimelerde reklam verdiğini tespit edin ve stratejinizi ona göre şekillendirin.

Türkiye Arama Pazarına Yönelik Projeksiyon
Türkiye pazarında işler biraz daha farklı dinamiklere sahip:
SGE ve Türkçe İçerik Hakimiyeti: Yapay zeka özetlerinin Türkçe aramalarda gösterim sıklığı artıyor. Artık kullanıcılar uzun makaleler okumak istemiyor. Cevabı arama sayfasında görmek istiyorlar. Bu yüzden içeriğiniz net, uzmanlığınızı gösteren ve arama niyetini karşılayan bir yapıda olmalı.
Maliyet Optimizasyonu: Kendi veri kazıma sunucularınızı kurmak, sürekli engellenen proxy havuzlarına devasa paralar ödemek çok masraflı. Bunun yerine, birim başı ödeme yapan şeffaf API servisleri kullanmak bütçeniz için çok daha sağlıklı.
Mobil SERP Dominasyonu: Türkiye’de arama trafiğinin ezici çoğunluğu mobilden geliyor. Mobil ekranlarda zengin sonuçlar linkleri çok aşağılara itiyor. Bu yüzden analizlerinizi kesinlikle mobil cihaz kırılımına göre yapmalısınız.
Sürdürülebilirlik: Etik Kurallar ve API Kredisi Yönetimi
Veriye erişmek çok güzel, ama işin bir de kural boyutu var. “Nasılsa API kullanıyorum” diyerek her şeyi çılgınlar gibi kazımak pek iyi bir fikir değil.
İstek hızlarına (rate limits) uyun. Karşı sunucuları istek bombardımanına tutarsanız sistem bunu anlar ve sizi engeller, bütün bu detaylar dökümantasyonda mevcut.
Kredilerinizi akıllıca kullanın. Semust veya diğer platformlarda her bir veri çağrısı belirli bir kredi tüketir. num=100 parametresinin kaldırılmasıyla zorunlu hale gelen çoklu sayfa aramalarını, her kelime için her gün yapmak zorunda değilsiniz. Detaylı derin analizleri sadece çok rekabetçi kelimelerinize saklayın. Gün içinde aynı veriyi tekrar tekrar çekmek yerine, kendi veritabanınızda akıllı bir önbellek sistemi kurgulayarak kredilerinizi koruyun.
Eskiden olduğu gibi tek sorguda 100 sonuç çekme devri bitti. Üstelik Google’ın bot kalkanları her zamankinden çok daha güçlü. Artık kendi başımıza manuel kodlar yazarak veri toplamaya çalışmak, akıntıya karşı kürek çekmekten farksız.
Bu daralan alanda Semust SERP API, tüm SERP özelliklerini tek seferde sağlayan yapısı sayesinde işinizi kolaylaştıracak. Google arama verilerinin gücünü projelerinizde kullanmak, mobil sıralamaları ve çoklu sayfaları proxy derdi olmadan tek satır kodla çekmek için hemen Semust API Platformu’nu ziyaret edin ve hesabınızı oluşturun!

