istanbulun gozbebegi nisantasi escort

sirinevler escort

olgun porno

ataköy escort nisantasi escort

Web sitesinin arama dizinini temizleme | SEO Paketler | SEO | Kurumsal SEO Danışmanlığı 
izmir escort
eskisehir escort istanbul escort

ataköy escort nisantasi escort

0850.304.7.532
0850.304.7.532
info@seopaketler.com
destek@seopaketler.com

Web sitesinin arama dizinini temizleme

by

Arama motorları web sitesinde, bakış açıları bakımından yararlı bilgiler taşımayan çok sayıda sayfayı dizine eklerken pek çok durum vardır: net veya belirsiz çoğaltılmış sayfalar, teknik çöp, resmi sayfalar vb. Bu sayfalar zamanında yeniden endeksleme ve web sitesinin sıralamasının doğru yapılması için bir engel olabilir, bu nedenle endekste sayılarının en aza indirilmesi önerilir. Bunu, iki büyük gruba ayrılabilir çeşitli şekillerde yapabilirsiniz: dizine ekleme yasağı ve web sitesinin diğer sayfalarını birleştirmek. Her bir yöntemin özelliklerini ve uygulamanın tercih edilen değişkenlerini göz önüne alalım.
Yasaklama ve yapıştırma arasındaki temel farklılık, yapıştırmanın yapıştırılacak sayfanın metin dışı özelliklerine (referans olarak, davranışsal ve zamansal faktörlerin değerleri gibi) uygunluğuna (kanonik olmayalım) ihtiyacı olmasıdır. açılış sayfasındaki ilgili faktörlerin değerleri ile toplandı (bunu kanonik olarak adlandıralım). Endeksleme yasağı durumunda, tüm bu bilgiler basitçe kaybolacaktır. Bu nedenle, metin dışı özelliklere sahip olmayan sayfalar ilk davada yasaklanır; örneğin, kendilerine yol açan hiçbir bağlantı yoktur ve bu sayfalardaki trafik miktarı tamamen önemsizdir. Kural olarak, bunlar resmi sayfalardır, örneğin rss-bandı, kişisel kullanıcılar dolapları veya web sitesinde arama sonuçları.

Sayfa indeksleme yasağı aşağıdaki şekillerde yapılabilir:
1) robots.txt dosya arama motorunun ilgili kullanıcı aracısı için Disallow yönergesini
kullanma 2) robots meta etiketinin noindex içerik yönergelerini kullanma
İlk durumda, sitenin sayfalarını yeniden dizine ekleme işlemi için ayrılan tarama bütçesi İndeksleme robotu, robots.txt dosyasında yasak olan sayfalara erişemeyeceğinden 200 OK yanıtı almak tüketilmeyecektir. Dolayısıyla bu yöntem daha da tercih edilir. İkinci durumda, robot sayfaları indirecek ve yalnızca indükledikten sonra indeksleme direktifi tarafından tespit edilecek ve yasaklanacak. Böylece, sitenin tarama bütçesi kısmen bu tür sayfaların sürekli yeniden endekslenmesi üzerinde harcanacaktır.
Kişi, If-Modified-Since istek işlemesinin doğru konfigürasyonunun yardımıyla bu sorunu kısmen çözebilir (daha fazla bilgi için, makalem “Last-Modified and If-Modified-Since başlıkları” na bakın). Dahası, ikinci durumda, endeksleme yasak olan sayfalar bir süre endekste düşebilir. Bu zaman alabilir, bazen aylar sürebilir. Bu nedenle, ikinci yöntemi yalnızca aşağıdaki durumlarda kullanmanız önerilir:
Sayfa sayısı yeterince büyükse ve URL’lerinin özellikleri, bunları, robotlar ve uzantıları tarafından desteklenen arama motorları için hariç tutma kurallarını kullanan robots.txt yönergelerinde etkili bir şekilde listeleyemiyorsa (ör. Yandex ve Google için belgeler). Yandex, robots.txt dosyasının boyutunu 32 KB olarak kısıtlarken, Google ise 500 KB’ye kadar kısıtlama getiriyor.
Yasaklanmış dizin oluşturma sayfaları, herhangi bir nedenden dolayı web sitesinin bu sayfalarına yapılan iç bağlantıların tek kaynağı ise, arama dizininde bulunması gerekir. Bu durumda, robots meta etiketinin içerik yönergesinin yanı sıra noindex değeri de, arama robotunun sayfadaki bağlantıları izlemesini sağlayan bir takip değeri olmalıdır.
Yukarıda belirtildiği gibi, dizine ekleme yasağının aksine sayfaları yapıştırmanız, yapıştırılan (kanonik olmayan) sayfanın metin dışı faktörlerinin değerlerini hedef (kanonik) sayfanın karşılık gelen değerleri ile özetlemenizi sağlar. Tutkallama şu şekillerde gerçekleştirilebilir:
1) 301 yönlendirme kullanarak kalıcı olarak hareket ettirildi
2) robots.txt dosyasında Clean-param yönergesinin kullanılması (yalnızca dinamik parametreler içeren özel URL’ler için)
3) rel = “canonical ” etiketi özelliği

301 yönlendirme, kanonik olmayan sayfanın içeriğinin kanonik içerikle tamamen aynı olduğu durumlarda geçerli; bu durumda kullanıcı bir URL’den başka bir URL’ye yönlendirilebilir. Bu nedenle, kanonik olmayan URL’ye eriştiğinizde, tarama bütçesi, 200’den farklı bir yanıt içerdiğinden tüketilmez. 302 yanıtıyla yönlendirme kullanırsanız yapıştırmanın gerçekleşmeyeceğini unutmayın.
Bu yöntem, örneğin, web sitesinin URL’sinin yapısını değiştirirken veya yinelenen URL’lerin sonunda eğik çizgi ile yapıştırılması için önerilir. Kanonik olmayan URL durumunda kullanıcıya içerik vermek gerekir, yani, 200’üncüsü olması gerekir, bu durumda iki başka yapıştırma yöntemi kullanılmalıdır.
Robots.txt dosyasında Clean-param yönergesini kullanmak, URL’de dinamik parametreler içeren sayfalarla sınırlıdır. İçeriği etkileyen parametreler (örneğin, oturum kimlikleri veya yönlendirenleri) ve bunları etkileyen parametreler (örneğin, sıralama modları) olabilir. Kanonik olmayan URL, direktifte belirtilen parametrelerin kaldırılmasıyla oluşan kanonik URL’ye yapıştırılır. Doğal olarak, böyle bir kanonik URL, 200 yanıt vermelidir; aksi takdirde yapıştırma yapılmaz.
Ne bu yöntem, bütçe tüketiminin taranmasına yol açar. Bu durumda, arama robotu kanonik olmayan URL’yi indirmez. Bununla birlikte, aynı nedenle arama motorunun kanonik olmayan URL’ye yerleştirilen bağlantıları bilmeyeceğini unutmamalısınız. Bu nedenle, “kesme” parametreleri sayfanın içeriğini etkilemediğinde veya bu parametrelerin değerlerinin, tarama bütçesinin tüketimi üzerinde önemli bir etkiye sahip olabilmesi için bu yöntemi kullanması önerilir (örneğin, web sitesinde arama sonuçları).
Ve nihayet, benim düşünceme göre en çok tercih edilen üçüncü seçenek, kuralın kanonik niteliğini kullanıyor.etiket. Bu yöntemin avantajları, herhangi bir tutkallama işleminde olduğu gibi, (Yandex çalışanı Alexander Smirnov tarafından Altıncı Webmaster’da onaylanan) kanunsuz ve kanonik sayfaların metin dışı faktörlerinin toplamının yanı sıra üzerinde bulunan bağlantıları içermektedir Yandex destek servisi Platon Shchukin’in genelleştirilmiş karakter blogunda kanonik olmayan sayfa da doğrulandı.
Bu yöntemin tek dezavantajı, kanonik olmayan sayfaların, robots meta etiketinde noindex durumunda olduğu gibi 200 yanıtı olduğu için tarama bütçesi seçeceğidir. Ayrıca kanonik olmayan sayfa, kurallı biriyle yapıştırılana kadar uzun bir süre boyunca dizinde asılabilir.
Bununla birlikte, bu yöntem pagination sayfalarını yapıştırırken, farklı sıralama seçeneklerinde, listelere filtreler uygulamanın sonuçları vs. için ve ayrıca dinamik URL parametrelerini de “kes “irken çok uygundur. Bu arada, sayfalandırmada olduğu gibi, Google çalışanları etiketi rel = “next” ve rel = “prev” özelliklerini kullanmanızı önerir . Özel dikkat gösterin Yandex bu direktifleri desteklemez. Bu nedenle, hala her iki arama motoru için rel = “canonical” kullanmanızı tavsiye ediyorum, bu yönerge Google için iyi çalışıyor. Yandex ve rel = “kanonik” direktifin ele alınması arasında bir fark var – Yandex, Google’ın aksine bu yönergenin alan adını desteklemez, yani farklı alt alanlardaki sayfaları tutkal edemezsiniz. .
Sonuç olarak, yapıştırma direktiflerinin ardışık birden fazla uygulamasından kaçınılması gerektiğini belirtmek isterim. Örneğin, yönlendirme zincirlerini veya yönergeleri, kendisinin üçüncü bir sayfaya sahip bir rel = “canonical” yönergesi içeren kanonik bir sayfa olarak kullanılmasını sağlar. Farklı yapıştırma yöntemlerini tutarlı bir şekilde birleştirirken de uygulanır. Örneğin, URL, Clean-param yönergesini kullanarak “kesme” parametreleri vasıtasıyla oluşturulduğunda otomatik olarak kanonik olmayan hale geçer. Bu gibi durumlarda, arama motoru direktifleri yok sayabilir.

Share

On yıldan fazla farklı türde markalar için uzun ömürlü organik SEO sonuçlar üreten, şirketimizin benzersiz olduğunu anlıyoruz

Recommended Posts