BoostAcademy
Yaygın SEO Hataları ve Çözüm Önerileri

En Kritik SEO Hataları ve Pratik Çözümleri

Son 3-4 yılda SEO gitgide çok daha zorlu bir süreç olduğunu, daha stratejik düşünce ve daha iyi kullanıcı deneyimi gerektirdiğini fark ettiniz mi?

Burada olmanızın en büyük sebebi, Google organik aramalardan daha fazla trafik çekebilmek olduğunu söylesem, muhtemelen yanılmam. Hepimiz uzun vadede daha fazla organik trafik elde etmek istiyoruz ve bunun için çeşitli yollara başvuruyoruz. Peki bu yolculukta sizi ne gibi zorluklar beklediğini farkında mısınız?

  • Google arama sonuçlarında 2008 yılında birbirinden 1 trilyon benzersiz sayfa bulunduğunu,
  • Sadece 2012 yılında Google’da 1.2 trilyon arama yapıldığını,
  • 2016 yılında arama uzmanı ve canlı kullanıcı testleri sonucunda arama işlevinde 1,600 üzerinde iyileştirme gerçekleştiğini, böylelikle kullanıcı deneyiminin çok daha önemli bir hal aldığını,
  • Google aramalarda 2017 yılında 2,453 değişiklik ve 2018 yılında ise 3,243 iyileştirme yaptığını,
  • Web üzerindeki deneyimin %93’ü önce arama motoru ile başladığını,
  • Önceki 2 yıl kıyasla Zero-Click eylemi %30 kadar artış gösterdiğini.
  • SEO, ancak Google yeni algoritma değişiklikleri yapmayı bıraktığında ve rekabet düştüğünde ölecektir.

Herhangi bir şeyi saklamanın en organik yöntemi Google’ın 2. sayfası olduğunu biliyor muydunuz?

How to Hide an Website on Google Search Results
Image credit: HuffPost

Yepyeni bir SEO serisi ile karşınızdayım. Burada yer alan kritik SEO maddeleri devamlı olarak güncelleyerek, en azından ayda bir kez yeni detaylar aktarmaya devam edeceğim. Google’daki SEO sıralamalarınızı yükseltmek, bizzat kendim çeşitli markalarda deneyimleyip daha iyi bir performans elde ettiğim, sizin de karşınıza çıkabilecek yaygın SEO hataları ve kökten çözümü serüveni hemen aşağıda başlıyor!

Müşterilerimiz için de kullanmakta olduğumuz DeepCrawl, aşağıda yer alan teknik ve içeriksel SEO problemlerinin büyük bir kısmını bizlere kapsamlı raporlar halinde sunuyor. Daha net raporlar elde etmek için şimdiden ipucuyu vereyim: Web sitenizin Google Search Console ve Google Analytics mülklerini bağlamayı unutmayın.

Indekslenme

Robots.txt Kuralları Kullanılmıyor

Robots.txt dosyası, web sitenizin ana dizininde olması gereken en temel ve en önemli dosyalardan birisidir. Txt formatında olması ve en fazla 500 KiB boyutuna sahip olması, desteklenebilir ve okunabilir anlamına gelir.

Robots.txt dosyası bulunması yetmiyor, başta Google’ın olmak üzere, belirleyeceğiniz botların arama sonuçlarında, web sitenizin nasıl taranması gerektiğini belirli kurallarla belirtilmelidir.

Googlebot-Smartphone web sitenizi taradığında A’dan Z’ye tüm sayfalarınızı mı taramasını istersiniz, yoksa günlük taranan milyarlarca web sitelerin arasında server kapasitesini daha iyi yöneterek, crawl bütçenizi daha verimli mi kullanmayı tercih edersiniz? Elbette tarama bütçemizi daha iyi yönetip, daha verimli ve kaliteli sonuçları bulundurmak isteriz.

Bu aşamada, Google web sitenize tekrar girdiğinde hangi URL kırılımlarını taramaması gerektiğini belirlemelisiniz. Örneğin;

User-agent: Googlebot
Disallow: /arama
Allow: /arama?q=parmesan
Disallow: /yeni-uye
Disallow: /giris

Yukarıdaki kural örneği, Googlebot için oluşturuldu. Googlebot ve/-ya Googlebot-Smartphone web sitemizi taramaya başladığında, yapılan ve yapılacak tüm site içi aramalarını biri dışında (“parmesan”) taranabilir olmasına kapatıyoruz. Aynı şekilde üyelik sayfalarını da taramaya kapatarak, katma değeri düşük sayfalarına ulaşmasını bloke ediyoruz.

Website with & without Robots.txt File
Robots.txt Çalışma Mantığı

XML Sitemap İç Linkleri Geçersiz

Sitemap dosyası, web sitenizde bulunan bütün aktif sayfalarınızı içeren bir veya birden fazla dosya olabilir. 50 binden fazla sayfaya sahipseniz, bunları kategorize ederek XML dosyalarına ayırmalısınız. Basit bir dosya olduğundan ötürü, 50 MB üzerinde olması taranabilir olmasına engel olabilirsiniz.

Robots.txt dosyasından sonra gelen en önemli dosyalardan biri de Sitemap. Googlebot web sitenizi daha kolay ve daha hızlı tarayabilmesi için bu dosyayı kullanır. İşinizi kolaylaştıracağınız bir dosya olacağından ötürü, burada yer alacak URL’ler, kaliteli ve aktif olmasında fayda var. Örneğin;

<?xml version="1.0" encoding="UTF-8"?>

<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">

   <url>
      <loc>https://www.domainismi.com/404-sayfasi</loc>
      <lastmod>2019-10-01</lastmod>
      <changefreq>daily</changefreq>
      <priority>0.9</priority>
   </url>
   <url>
      <loc>https://www.domainismi.com/yeni-uye</loc>
      <lastmod>2019-01-10</lastmod>
      <changefreq>weekly</changefreq>
      <priority>0.8</priority>
   </url>

</urlset> 

Sitemap dosyanızın birinde yukarıdaki 2 URL lokasyonu bulunuyor. Biri 404’e düşen sayfa, diğeri ise hali hazırda Robots.txt üzerinden kuralla engellemek istediğimiz, katma değeri düşük bir sayfa. Bu aşamada sitemap dosyasında yer alması, hem Googlebot her defa taramak için girdiğinde indekslemeye çalışır, hem de crawl bütçenizi verimli kullanmıyor olursunuz.

Sitemap dosyasında yer alan protokolleri de öğrenmemizde fayda var. Sitemap.org üzerinden bu protokollerin isimlerini, detaylarını ve çalışma mantığını öğrenebilirsiniz.

Meta Robots “Noindex” Etiketi Yerleştirilmedi

Belirli web sayfaları tamamen indekselebilir olmasını engellemek istiyorsanız, <head> bölümü içerisinde <meta name="robots" content="noindex"> kod parçacığını eklemeniz yeterlidir.

Robots.txt’den taramaya kapattım diyebilirsiniz. Ancak, John Mueller’den aldığımız bilgiye göre bu dosya indekslenmeyi yönetmiyor. Indekslenme aşamasından önce, Crawl ve Analyze geliyor. Robots.txt ise crawl kısmında destek olan bir dosyadır. Dolayısıyla indekslenmeyi garanti altına alabilmek için Meta Robots etiketini kullanmayı ihmal etmeyin.

Eğer belirli bir sayfayı bir süreliğine indekse kapatmak istiyor, ancak Googlebot’unun takip etmesini istiyorsanız aşağıdaki kod parçacığını kullanabilirsiniz.

<meta name="robots" content="noindex,follow">

Noindex ve follow birlikteliği genellikle ilgili sayfanın ilerleyen zamanlarda tekrar indekse açılacağını anlamında kullanılır.

404 Hataları Es Geçiliyor

Web site sahiplerinin çoğu zaman atladığı ben büyük zaaflardan birisi, 404’e düşen hata sayfalarıyla ilgilenmemek. Sayfalar yayındayken, Google tarafından indekslendi ve arama sonuçlarında belirli bir konumda değerlendirildi. Bir süre boyunca trafik getirdi, belki de pek çok dış kaynaklarda paylaşıldı. Bu aşamaya kadar gelen linkler eğer birden 404 hatası veriyorsa, orada büyük bir kayıptasınız demektir.

404 hata sayfaları, ne kullanıcılar tarafından ne de arama motorları tarafından ulaşılabilecek. İlgili hatalı sayfalar bir zaman belirli bir otoriteye sahipti, kullanıcılar tarafından ziyaret ediliyordu. Tüm bu değerleri geri toplayabilmek gerekiyor, aksi durumda potansiyel müşterileri bile kaybediyor olabilirsiniz!

Broken 404 Pages with Traffic
Report source: DeepCrawl

Hem kullanıcılarınızı kaybetmemek hem de crawl bütçenizi daha sağlıklı kullanabilmek için 404’e düşen sayfaları mutlaka ilgisi en yakın olan sayfaya 301 yönlendirmelisiniz.

Geçersiz Sayfaya 301 Yönlendirilen Linkler

Önceden bir sayfaya bir başka sayfaya 301 veya 302 yönlendirdiniz, ancak şu an yönlendirme sonucunda gelen sayfa 404’e düşüyor olması aynı kategorideki bir hatadır. Bu tür yönlendirmeleri ve hataları periyodik olarak takip edilmesi gerekiyor.

Takibini yapabilmek için Google Analytics hesabınızı Google Data Studio’ya bağlayabilir veya DeepCrawl gibi araçlar üzerinden belirli aralıklarla kontrolleri yapabilirsiniz.

Redirects to 404 Pages - DeepCrawl Filtered Report
Filtered report source: DeepCrawl

Sayfalar Özelinde Periyodik Server 5XX Yanıtları Takip Edilmiyor

Size ait olmayan ve oluşabilecek herhangi bir server sıkıntısı olduğunda kontrolleri yapmanız kaçınılmaz. Belirli önemli sayfalar sizin fark etmeden server tarafından yanıt vermiyor veya çok geç yanıt veriyor olabilir. Bu tür sayfalara ne kullanıcılar ulaşabilir ne de Google veya bir başka arama motoru tarafından taranabilir. Dolayısıyla önemli sayfaların indeksten kaldırılmasına neden olabilecek en büyük sorunlardan birisine sahip olabilirsiniz.

5xx Server Errors Report by Google Search Console
Report source: Google Search Console

5XX sorunlarına sahip sayfaların takibini yapmak için Google Search Console mülkünüzden kolayca erişebilirsiniz.

Sayfa Başı Birden Fazla 3XX Yönlendirme İsteği

301 ve 302 yönlendirmeleri başarılı bir şekilde gerçekleştirdik. Ancak öncesinden yönlendirme isteği gönderdiğiniz bir URL’e tekrar 301 yönlendirmesi isteği tanımlıyor olabilirsiniz. Bu durumda birden fazla 301 yönlendirme isteği olacağından dolayı, ilgili sayfanın 200-OK hali açılış süresi de uzun olacak. 301 yönlendirme sonucundaki 200-OK sayfanın Google tarafından ulaşılabilir ve indekslenebilir olmasını zorlaşacaktır. Örneğin;

Redirect 301 /eski-sayfa
Redirect 301 /eski-sayfa-2
200-OK /yeni-sayfa

301 yönlendirmesi tek istek sonucunda ulaşılmalıdır. Aksi durumda müşterilerinize kapatılan bir mağazanızda yeni adres gösterip, yanlış mağazaya yönlendirmek istemezsiniz.

What is redirect loops?
Report source: DeepCrawl

Yukarıdaki örnekte 1 URL’in toplamda 6 kez yönlendirme döngüsüne girdiğini ve sonucundaki URL hatalı olduğunu gösteriyor.

Teknik Problemler

Mobil Sayfalar Masaüstü Sayfalara Göre Daha Yavaş Açılıyor

Sayfalarınızın açılış süresindeki her ekstra 1 saniye, potansiyel müşterilerinizi kaybetmenize neden olabilir. Google’ın yılda yaptığı 1000 üzerinde algoritma güncellemeleri genellikle kullanıcılara daha faydalı sonuçlar gösterebilmeye yöneliktir. Kullanıcıya fayda diyince genele inmiş oluyoruz, ancak buradaki en temel spoiler: Algoritmalara adapte olup, hızlı ve kaliteli bir deneyim sağlamaktır.

Haziran ayında yaptığımız Boost Academy & Digital Pazarlama Eğitiminde, “SEO’nun Geleceği” konulu sunumumda Page Speed’ten bahsetmiştim. Türkiye’deki web sitelerinin ortalama açılış hızı 10 saniyeyi aşıyor. Bu ne demek? Google şöyle açıklar;

If your site takes longer than two seconds to load, 53% of your customers lose interest.

Kaynak: Think with Google #1, #2

Buna göre, her cihazda hızlı bir deneyim sağlamanız, hem satışlarınıza hem de SEO görünürlüğünüze katkı sağlayacaktır. 2 gerçek örneğini paylaşmak isterim;

Google aramalarında domine eden 2 büyük marka Amazon ve Walmart, site hızı açısından yaptıkları küçük bir geliştirme bile onların satışlarını büyük ölçüde etkileyebilir. Amazon 2012 yılında yaşadığı 1 saniye kadar yükselişi, 1.6 milyar dolar kaybetmesine neden oldu. Walmart ise yaptığı her 1 saniye açılış hızı geliştirmesinde %2 kadar dönüşüm oranında artış yakalıyordu.

Mobilin birkaç yıldır domine etmesi Google’ın dikkatinden çıkmadı ve tüm değerlendirmelerini önce mobile göre yapmaya başladı. Günlük bazda edinilen organik trafiğin %50’sini kaybeden DailyMail vakası gibi olmamak için, Google’ın algoritmalarına uygun şekilde uzun vadeli planlamaları yapmanız gerekmektedir.

Sayfalarınızın yüklenme hızını ve belirli kriterler özelindeki skorlarınızı test etmek için aşağıdaki araçları kullanabilirsiniz.

Burada çıkan sonuçlara göre, yapılması gereken işleri anlamlandırarak yazılım ekibinizle birlikte optimizasyonları yapabilirsiniz.

Masaüstü Sayfalarda Olup Mobil Sayfalarda Bulunmayan Ögeler

Web tasarımınız tüm cihazlara göre uygun (responsive) veya mobil için ayrıca bir tasarımınız olabilir. Her iki durumda da masaüstünde bulunan ancak mobil cihazlarda bulunmayan ögeler olabilir. Sayfalarınızın türüne göre birer URL path’i seçerek, Chrome DevTools üzerinden kontrolleri yapabilirsiniz. Örneğin;

  1. Ana Sayfa
  2. Kategori
  3. Hizmet
  4. Ürün
  5. İletişim

gibi kategorize ederek, kontrolleri yapmanız ve ardından tasarım yönünden bir eksiklik var mı değerlendirmeniz gerekiyor. Tasarımsal olarak bir sorun gözlemlemediyseniz, seçtiğiniz sayfaları Google Search Console üzerinden URL Inspect’i kullanarak, Googlebot sayfalarınızı nasıl taradığını ve neleri okuduğunu görebilirsiniz.

Google Search Console URL Inspection
Report source: Google Search Console

Peki bu durum nasıl olur da SEO’yu etkiliyor? Güzel sorunun her zaman bir o kadar güzel cevabı vardır: SEO anlamında yaptığınız bir geliştirmenin, Googlebot-Smartphone görmüyorsa, muhtemelen o geliştirmenin SEO görünürlüğünüze herhangi bir etkisi olmayacaktır.

Domain Öncesi Açılış Varyasyonlarda Yönlendirme Yapılmadı

HTTP, HTTPs, WWW ve non-WWW gibi domain ismi öncesi gelen varyasyonları eğer belli 1 varyasona ulaşmıyorsa, en önemli sorunlardan birisini yaşıyorsunuz demektir. Hem kullanıcıları hem de arama motorlarını doğru ve tek domain varyasyonuna yönlendirmeniz gerekiyor. Örneğin;

/// 301 redirect to main domain 
No redirect / http://domainismi.com/
No redirect / http://www.domainismi.com/
No redirect / http://domainismi.com/
200-OK Page / https://www.domainismi.com/

Yukarıdaki durumda bir sorun yaşıyorsanız, büyük ihtimalle Direct gelecek trafiği kaybediyorsunuz. Aynı zamanda Google da bütün varyasyondaki sayfalarınızı indeksleyecek ve arama sonuçlarında açılmayan sayfalarınız bulunduracaktır. Bu sorunu aşağıdaki kodlarla .htaccess dosyanız üzerinden kökten çözebilirsiniz.

RewriteEngine On

### WWW & HTTPS

# ensure www.
RewriteCond %{HTTP_HOST} !^www\. [NC]
RewriteRule ^ https://www.%{HTTP_HOST}%{REQUEST_URI} [L,R=301]

# ensure https
RewriteCond %{HTTP:X-Forwarded-Proto} !https
RewriteCond %{HTTPS} off
RewriteRule ^ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301]

### WWW & HTTPS

Google’dan John Mueller bu konuda ne der?

Multiple Versions of Domain (And How to Avoid Them)

Canonical Tag Kullanımında Eksikler ve Yanlış Uygulamalar

Canonical etiketi, bir sayfanın tek ve orijinal versiyonu olduğunu göstermeye olanak sağlar. Rel=”canonical” etiketi sayesinde, Google’ı hangi sayfayı indekslemesi gerektiğini gösterebilir, arama motoru sonuçlarını yönetmemize yardımcı olur.

<link rel="canonical" href="https://domainismi.com/sayfa" />

Eğer yukarıdaki kodu, ilgili sayfanın kaynak kodlarına göstermezsek, Google kendi başına seçim yaparak en uygun gördüğü sayfayı arama sonuçlarında gösterir.

Canonical Tag Issues
Report source: DeepCrawl

Canonical tag özelinde ne gibi yanlış uygulamalar olabilir?

  • Aynı içeriklere sahip URL’leri barındırıyor,
  • Etiket ve URL boş bırakılıyor,
  • Başka ilgisiz sayfanın URL’i veriliyor,
  • Domain varyasyonun tamamı eklenmiyor (http, https ve/-ya www olmadan)
  • URL yapısının tamamı yer almıyor (indekslenen URL sonundaki “/” etikette yer almadan),
  • Etiketinin tırnak işaretleri yanlış eklendi,
  • Indekslenmeyen bir sayfaya etiketi URL’i verildi (301, 404 vb. olan URL barındıran).

gibi senaryolar olabiliyor. Bunların hepsini tespit ederek, mutlaka düzeltilmesi gerekir. Aksi durumda Google’da indekslenme konusunda web siteniz sorunlar yaşayabilir, önemli sayfalarınız dahil organik görünürlüğünü kaybedebilir. Canonicalization çalışma mantığını daha detaylı öğrenmek isterseniz bu bağlantıyı tıklayabilirsiniz.

İçeriği Zengin Sayfalarda Schema Yapısal Veri İşaretleme Türleri Kullanılmıyor

Google aramalarda 2017 yılında 200 bin üzerinde test gerçekleştirildi, testler sonucunda kullanıcılar ve geliştiriciler tarafından faydalı görünen 2,400 üzerinde değişiklik canlıya alındı. Google arama ve sonuçları devamlı olarak kalitesi yönünden geliştiriliyor, yenileniyor. Google’ın ana hedeflerinden biri ise kullanıcılara daha alakalı sonuçlar verebilmektir.

Bu aşamada, Google tarafından desteklenen schema.org web sitesi üzerinde bulunan yapısal veri işaretlemeleri, web sitemizdeki sayfalara göre uyarlayarak, ilgili JSON-LD (Google tarafından önerilen) veya başka türdeki kodların entegrasyonunu gerçekleştirmemiz öneriliyor. Bu sayede Googlebot’unun sayfalarınızın yapısını tanıma ve indeksleme konusunda kolaylık sağlayabilirsiniz.

Structured Data vs. Unstructured Data

Kullanılması gereken en yaygın yapısal veri işaretleme türleri nelerdir?

  • BreadcrumbList: Site içi kategorizasyonun Google’da isim olarak görünmesi için kullanılır.
  • Product: Ürün sayfalarının özellikleri (yorum sayısı, ortalama oylama, fiyat, stok durumu vb.) Google’da gösterilir.
  • FAQPage: Sayfalarda bulunan sıkça sorular sorular bölümdeki başlıklar Google’da gösterilir.

Yukarıdaki linklere tıklayarak, ilgili JSON-LD veri işaretlemeleri web sitenizin <body> bölümünde entegre edebilirsiniz. Alternatif olarak Structured Data Markup Helper kullanarak, veri işaretlemeleri web sitenize göre hazırlayabilirsiniz. Ardından mutlaka Structured Data Testing Tool ile test etmeyi ihmal etmeyin.

İçeriksel Sorunlar

Piksel Genişlik Limitini Aşan Başlıklar

Başlıklar, sayfadaki içeriği en anlamlı şekilde özetleyen bir kısımdır. Bu anlamda oluşturacağımız başlıklar, aynı zamanda belirli bir limiti aşarsa Google arama sonuçlarında tamamıyla gözükmez.

Şimdiye kadar belki de sıkça duymuşsunuzdur, 60-65-70 karakter limiti olduğuna dair. Ancak Google’ın belirlediği net bir karakter yok. Maksimum 60 ila 70 karakter arasında olabiliyor, net olarak ise 600 piksel civarında limitlendiriliyor.

Başlıklar için 600 piksel limiti ne anlama geliyor?

1 harf, bir diğerine göre daha uzun olabilir. Örneğin, M de bir harftir, N de. Ancak her ikisinin arasında piksel farkı var. Daha net bir örneği olması açısından aşağıdaki gibi bir görsel hazırladım.

Characters vs. Pixel Difference Specific to Google Search

Göreceğiniz için, aynı karakter sayısına sahip her iki başlık da farklı gösteriliyor. Biri Google’da üç nokta “…” ile sınırlandırırken, diğerinin tamamı gözüküyor. Buradan anlamamız gereken de şu; piksel limitini aşmadığımız sürede Google’da arama yapan kullanıcılar tarafından okunabilir başlıklar gösterebiliriz.

Sayfalarınızın ilgili anahtar kelimesini başlıklarınızda olabildiğince öne çıkarmaya çalışarak, arama sorguları yapan kullanıcıların ilgisini çekerek tıklama oranınızı (CTR) arttırabilirsiniz.

Indekslenebilir Filtre Kategorilerinin Duplike Oluşumu

Ürün satışı yaptığınız e-ticaret web siteye sahipseniz, muhtemelen filtreleme sistemi de kullanıyorsunuz. Filtre yapıldığında URL yapısı değişiyor, bununla beraber yukarıda bahsi geçen canonical tag kısmı da filtreli URL içeriyorsa, indekslenebilir olmaması için bir nedeni yok.

Filtreli URL için özel bir uygulama yapılmadığı sürece nasıl görünür?

Kategori sayfası          /:/ https://www.domainismi.com/kategori
Filtre uyguladıktan sonra /:/ https://www.domainismi.com/kategori?filtre=001

Yukarıdaki her iki URL de indeksleniyorsa, tüm kategori sayfalarınızla beraber filtreden dolayı duplike oluşumuna neden olacaktır. Hem Google’da katma değeri düşük indeksleriniz olacak, hem de devamlı olarak sıralamalarda dalgalanma yaşayan sayfalarınız dönecektir.

Filtre sistemi için özel bir SEO geliştirmesi yapmadığınız sürece, aşağıdaki 2 uygulamadan birini gerçekleştirerek duplike sorununu çözebilirsiniz.

1-) Rel=Canonical tag uygulaması

Indexable Canonical URL to Filtered URLs - DeepCrawl Report
Report source: DeepCrawl
Filtreli URL /:/ https://www.domainismi.com/kategori?filtre=001
Filtreli URL'in Canonical etiketini bu şekilde giriniz /:/ https://www.domainismi.com/kategori

2-) Content=Noindex uygulaması

<meta name="robots" content="noindex,follow">

Aynı zamanda her ikisini bir arada kullanmanızda bir sakıncası olmaz.

Sayfanın İçeriğini Özetleyen Meta Açıklama Girilmemiş Olması

Meta açıklama, <head> bölümü içerisinde yer alan, Google ve diğer arama motorları tarafından okunan bir HTML etiketidir. Sayfalarınızın meta açıklama bölümüne içerik eklemeniz ardından, Google arama sonuçlarınızın hemen altında gözükür.

Meta açıklama etiketi nasıl gözükür, ne içermeli?

<meta name="description" content="Bu alana sayfanızdaki içeriği özetleyen maksimum 920 piksel (160 karaktere kadar) içeren bir açıklama giriniz. Sonunda nokta işareti koymayı unutmayınız!">

Meta açıklamanın girilmemiş olması, Googlebot sayfalarınızı taradığında istediği bir alandan cümle çekip, arama sonuçlarında “…” işaretli olarak gösterir. Oysa ki bu alanı doğru bir şekilde kullanabilirsek, hem yapılan arama sorgularda öne çıkma olasılığınız yükselir hem de daha iyi bir deneyim sağlayabiliriz.

Meta açıklamanın doğru kullanımı nedir?

  • Maksimum uzunluğu 920 piksel / 160-170 karakter,
  • Anlaşılabilir, kullanıcıya doğrudan sayfadaki içeriğin özetini gösteren,
  • Sayfaya ulaşılmasını istediğiniz jenerik ve spesifik anahtar kelimeyi içeriyor olması,
  • Kullanıcıyı arama sonuçları gezinirken ilgisini çekebilecek şekilde kurgulanması.

Trafik Oranı Düşük Ancak Potansiyeli Yüksek Eski İçeriklere Odaklanılmaması

Devamlı olarak içerik paylaştığınız bir blogunuz var, ancak paylaştığınız içeriklerin performansını ölçmüyorsanız potansiyel trafiği kaybediyor olabilirsiniz.

Yeni içerikler paylaşmadan önce mutlaka sorulması gereken sorular:

  • Eski içeriklerinizin sayfa başına ortalama sıralamaları nedir?
  • Eskiden yayına aldığınız içeriklerden beklediğiniz trafik performansı elde ediyor musunuz?
  • İçeriklerin ortalama okunma süresi ve çıkış oranı nedir?
  • İçeriğin baz anahtar kelimelerinden aranma hacmine göre ay bazında trafiğin % kaçına sahipsiniz?
  • Baz anahtar kelimeler özelindeki CTR’ınız % kaç?
  • İçeriklerinizi belirli bir kapsamlı brief’e göre hazırlıyor musunuz?
  • Sıralama açısından sizden daha başarılı rakiplerle içeriklerinizi karşılaştırıyor musunuz?

Bu tür sorulara bir cevabınız olmasından ziyade, raporlardaki verilere göre hareket etmenizde fayda var. Aksi durumda, siz her ne kadar sıklıkla içerik girerseniz girin, SEO performansı ölçülmediği sürece hep geri planda kalan kriterler olacaktır.

İçeriklerinizi periyodik olarak güncellemeniz, uzun yıllar güncel kalacak kapsamlı içerikler hazırlamanız, konunun içeriğini kurgulamadan önce başarılı birkaç rakibin içerik yapısı incelemeniz ardından karar vermeniz, içeriği hazırlarken tek bir anahtar kelimeye odaklanmaktansa türevlerine ve ilgili (familiar keywords) olanlarına da yer vermeniz, kelime sayısını önemsemek yerine kullanıcının ihtiyacını giderecek (user intent-based) kadar içerikler üretmeniz sizi başarıya götürecektir. But first brief-writing!

Burada Bitmedi – Takipte Kalın!

Kapanışı burada yapmayacağım, içeriğin daha kapsamlı ve güncel kalması için devamlı olarak üzerinde çalışıyor olacağım. Takipte kalmanızı ve sizin de bu tür sıkça karşılanan major SEO hatalarından uzakta kalmanızı çok isteriz.

Bu arada size küçük bir sürprizimiz var! DeepCrawl, yıllık alınan paketlerde bizlere %10 indirim içeren bir kupon verdi. BoostRoas10 kuponu kullanarak faydalanabilirsiniz.

Roman Adamita

Dijital'de kariyer yolculuğu henüz küçük yaşta başlamış, 6 yıldır SEO ile uğraşması yanında UX alanına da ilgi gösteren, araştırmaya ve yeni bilgiler öğrenmeye aç, arada maceraperest remote çalışan bir dünya vatandaşıyım.

Kısaca, BoostROAS'ta SEO takım liderliğini yapabilmem için hızlı çalışan bir Wi-Fi bulunması yeterli.