internet pencereler Android
Genişletmek

Sayfa sayfalarının çıkarılması için doğru yöntemler. Yinelenen sayfalarla doğru işin sayfalarından kurtulmak için nasıl

Bu makaleyi yazmanın nedeni, KDV'teki raporları teslim etmeden önce paniğe sahip bir muhasebecinin bir sonraki çağrısıydı. Son çeyrek, çift kıyıları temizlemek için çok zaman harcadı. Ve yine onlar, aynı ve yenileri. Nerede?

Zaman geçirmeye karar verdim ve bunun nedeni, bir sonucu değil. Durum, temel olarak, şirketin muhasebe departmanındaki kontrol programından (UT 10.3 durumumda) değişim planları aracılığıyla özelleştirilmiş otomatik boşaltma ile ilgilidir (örneğin 2.0'ımda).

Birkaç yıl önce, bu konfigürasyonlar kuruldu ve aralarındaki otomatik değişim yapılandırıldı. Karşı tarafın referans kitabının özkaynağının, bir veya başka bir nedenden ötürü (aynı hanın / kedi / isimle) başa çıkmaya başlayan satış departmanının eşyası ile karşılaştı (farklı gruplara yayıldıkları aynı karşı taraf) . Muhasebe "fi" ifadesini dile getirdi ve karar verdi - bunların sahip oldukları için, birine yüklerken kartları birleştirmemiz önemli değil. Nesneleri değişim kurallarına göre aktarma sürecine müdahale etmek zorunda kaldım. Karşı taraf için kaldırıldı Dahili tanımlayıcıyla arama yapın ve Inn + GPP + adına göre bir arama bırakın. Bununla birlikte, ve daha sonra karşı tarafların isimlerini yeniden adlandırmak için fanlar şeklinde tuzaklar vardı (sonuç olarak, BP'deki DUPIL'ler zaten kurallar tarafından yaratılmıştır). Hepsi bir araya geldi, tartışıldı, karar verdi, Urti'de çoğalttığımıza ikna oldum, onları çıkardılar, standart kurallara geri döndü.

Bu, UT ve BP'de "tarak" ikiye katlandıktan hemen sonra - birçok katedeki iç tanımlayıcılar farklıydı. Dan beri tipik kurallar Değişim, yalnızca dahili tanımlayıcıyla, daha sonra BP'deki belgelerin bir sonraki bölümüyle, yeni karşı taraf çift (bu tanımlayıcıların farklılaştırılması durumunda). Fakat evrensel değişim xML verileri Bu sorunu dolaşmak imkansız olsaydı evrensel olmazdı. Çünkü Mevcut nesnenin tanımlayıcısını standart yollarla değiştirmek imkansızdır, daha sonra 1C'den tüm standart konfigürasyonlarda mevcut olan tüm standart konfigürasyonlarda mevcut olan "Değişim için Nesnelerin Uygunluğu" özel bir uyumluluk kaydı kullanarak bu durumu atlayabilirsiniz.

Yeni çiftlere sahip olmamak için, çiftlerin temizleme algoritması aşağıdaki gibi oldu:

1. "Yinelenen öğeleri arayın ve değiştirme" işlemini kullanarak BP'de (tipik olarak, yapılandırmadan alınabilir. ) Bir çift buldum, sadık kalemi tanımlıyorum, Yürütme Değiştirme'yi tıklatın.

2. Dahili tanımlayıcısını, çiftimizin nesnesinin (yedek işleminden sonra) alıyorum (bunun için özel olarak basit bir işlem yapıştırılmış, böylece dahili tanımlayıcının panoya otomatik olarak kopyalanır).

3. "Exchange için Nesnelerin Uygunluğunu" açıyorum, kendi bağlantılarımla bir seçim yapıyorum.


Çift Sayfaya Dövüş

Sahibi, web sitesinde bazı sayfaların kopya olduğu şüpheli olmayabilir - çoğu zaman olur. Sayfalar açıktır, içeriğin hepsi sırayla, ancak sadece dikkat etmek için, aynı zamanda adresin aynı içeriğinde farklı olduğu belirtilebilir. Bu ne anlama geliyor? Canlı kullanıcılar için, sayfalarla ilgili bilgilerle ilgilendikleri gibi, ancak ruhsuz arama motorları böyle bir fenomeni tamamen farklı olarak algılar - onlar için tamamen farklı sayfalar aynı içeriğe sahip.

Çift sayfa zararlıdır mı? Bu nedenle, sıradan kullanıcı sitenizdeki bir çiftin varlığını bile fark edemezse, arama motorları derhal belirler. Bekler için ne tepki? Bu nedenle, aslında, kopyalar farklı sayfalar olarak görülür, daha sonra onlardaki içerik benzersiz olmaktan vazgeçer. Ve bu zaten olumsuz bir şekilde sıralamayı etkiler.

Ayrıca, bir DUB'nin varlığı, optimize edici hedef sayfaya odaklanmaya çalıştığı engellenmiştir. İkili yüzünden, o sayfada taşımak istediği zaman olmayabilir. Yani, iç transfinin etkisi ve dış referanslar Tekrar tekrar azaltılabilir.

Çiftin görünümünde olguların ezici çoğunluğunda - doğru ayarlar Ve optimize edici dikkatli dikkat eksikliği, net kopyalar üretilir. Bununla, örneğin Joomla'nın birçok CMS günah işliyor. Sorunu çözmek için, evrensel bir tarif seçmek zordur, ancak kopyaları silmek için eklentilerden birini kullanmayı deneyebilirsiniz.

İçeriğin tam olarak aynı olmadığı bulanık çiftlerin ortaya çıkması, genellikle web yöneticisinin arızası nedeniyle oluşur. Bu tür sayfalar genellikle çevrimiçi mağaza web sitelerinde bulunur, burada mallar olan sayfaların sadece birkaç cümle ile tanımlandığı ve bloklardan ve diğer elemanlardan oluşan içeriğin geri kalanının aynıdır.

Birçok uzman, az miktarda iki katının bir siteye zarar vermeyeceğini, ancak% 40-50'den fazla% 40-50'den fazla ise, kaynak ciddi zorluklar için bekleyebilir. Her durumda, kopyalar çok fazla olmasa bile, eliminasyonlarıyla yapılması faydalı olur, bu nedenle DUB'lerle sorunlardan kurtulmanın garantisi vardır.

Arama sayfası kopyaları Yinelenen sayfaları aramanın birkaç yolu vardır, ancak önce birkaç arama motoruyla iletişim kurmalı ve sitenizi nasıl gördüklerini görmelisiniz - yalnızca her birinin dizinindeki sayfa sayısını karşılaştırmanız gerekir. Bu oldukça basittir, herhangi bir ilave yol açmadan: Yandex'te veya Google'da Arama Dizesinde Yeterince, Host: YourSite.ru ve sonuç sayısına bakın.




Böyle basit bir kontrolden sonra, miktarı 10-20 kez çok farklı olacaktır, o zaman bu, Bunlardan birinde DUB'in içeriği hakkında konuşması daha olasıdır. Sayfa kopyaları böyle bir fark için suçlanmayabilir, ancak yine de daha ayrıntılı bir araştırma için bir sebep verir. Site küçükse, gerçek sayfaların sayısını manuel olarak hesaplayabilir ve ardından göstergelerle karşılaştırabilirsiniz. arama motorları.

Yinelenen sayfaları ara Arama motorunun çıkarılmasında bir URL'yi arayabilirsiniz. CNC olmaları gerekirse, "index.php? S \u003d 0F6B2903D" gibi anlaşılmaz karakterlerin URL'sine sahip sayfalar derhal genel listeden utanır.

Arama motorları aracılığıyla bir kopyanın varlığını belirlemenin bir başka yolu, metin parçaları hakkında bir arama. Böyle bir muayene için prosedür basittir: Arama dizesindeki her sayfadan 10-15 kelimeden bir metin parçası girmeniz ve ardından sonucu analiz etmeniz gerekir. İade edemekte iki veya daha fazla sayfa olacaksa, sonuç sadece biriyse, bu sayfadan ikiye katlanamazsa kopyalar vardır ve endişelenemezsiniz.

Siteden oluşursa, mantıklıdır. Çok sayıda Sayfalar, böyle bir kontrol, bir iyileştirici için pratik olmayan bir rutin haline getirebilir. Zaman maliyetlerini en aza indirmek için özel programlar kullanabilirsiniz. Muhtemelen deneyimli uzmanların bir işareti olan bu araçlardan biri, Xenu'nun Link Sleuth'dur.


Siteyi kontrol etmek için, "Dosya" menüsünü "Kontrol Et" seçeneğini seçerek yeni bir proje açmanız gerekir, adrese girin ve "Tamam" ı tıklayın. Bundan sonra, program sitenin tüm URL'sini işleme koymaya başlayacaktır. Çek sonunda, alınan verileri uygun herhangi bir editöre dışa aktarmanız ve bir çift aramaya başlamanız gerekir.

Yukarıdaki yöntemlere ek olarak, Yandex.VEBMaster panellerinin ve Google Webmaster araçlarının araçlarında, bir çift aramak için kullanılabilecek indeksleme sayfalarını kontrol etmek için araçlar vardır.

Sorunu çözme yöntemleri Tüm Duplicas bulunduktan sonra, eliminasyonları gerekli olacaktır. Bu, birkaç şekilde de yapılabilir, ancak kendi yönteminize ihtiyacınız olan her bir vaka için, herkesin kullanmak zorunda kalması mümkündür.

  • Kopyalama sayfaları manuel olarak silinebilir, ancak bu yöntem yalnızca web yöneticisinin tutarsızlığına göre manuel olarak oluşturulan iki katlar için uygundur.
  • REGECT 301, URL'sini WWW'nin varlığı ve yokluğu ile ayırt edilen yapıştırma sayfaları-kopyalar için mükemmeldir.
  • Kanonik etiketi kullanarak iki katlı sorunları çözme bulanık kopyalar için kullanılabilir. Örneğin, çevrimiçi mağazadaki mal kategorileri için, çeşitli parametrelerde sıralayarak ayırt ederek bir kopyaya sahip olan bir yinelenendir. Kanonik, baskı için ve diğer benzer durumlarda sayfaların versiyonları için de uygundur. Oldukça basitçe kullanılır - tüm kopyalar için REL \u003d "Canonical" özniteliği belirtilir ve en alakalı olan ana sayfa için - hayır. Kod böyle bir şeye benzemelidir: link rel \u003d "canonical" href \u003d "http://yoursite.ru/stranica-kopiya" / ve baş etiketi içinde durun.
  • Çiftlere karşı mücadelede Robots.txt dosyasını yapılandırmanıza yardımcı olabilir. İzin verme yönergesi, arama robotları için DUB'lere erişimi kapatmanıza izin verecektir. Postalarımızda bu dosyanın sözdizimi hakkında daha fazla bilgi edinebilirsiniz.

Duplicas, aynı alanda aynı veya çok benzer içerikli sayfalardır. En sık CMS çalışmalarının özellikleri, Robots.txt direktiflerinde hatalar veya 301 yönlendirme ayarlarında görünür.

Çiftlerin tehlikesi nedir

1. İlgili sayfanın yanlış tanımlanması arama robotu. İki URL'de bulunan bir ve aynı sayfanız olduğunu varsayalım:

Https://site.ru/kepki/

Https://site.ru/catalog/kepki/

HTTPS://site.ru/kepki/ sayfasının tanıtımına parayla yatırım yaptınız. Şimdi tematik kaynakları ifade eder ve ilk 10'daki yerleri sıraladı. Ancak bir noktada, robot onu endeksden ortadan kaldırır ve karşılığında https://site.ru/catalog/kepki/ ekler. Doğal olarak, bu sayfa daha kötü sıralanır ve daha az trafik çeker.

2. Siteyi robotlarla geçmek için gereken sürenin arttırılması. Her site taramasında robotlar sınırlı bir süre tahsis edilmiştir. Çok fazla ikiye katlanırsa, indekslemenin gecikmesi nedeniyle, robot ana içeriğe ulaşamayabilir. Bu sorun, binlerce sayfaya sahip siteler için özellikle ilgilidir.

3. Arama motorları bölümündeki yaptırımların uygulanması. Kendileri tarafından, Duplicas, sitenin karnamemizasyonu için bir sebep değildir - arama algoritmaları, ihraç etmeyi manipüle etmek için kasıtlı olarak bir perişan oluşturduğunuzu sayarken sayılmaz.

4. Webmaster için problemler. Uzun bir kutuda ertelemeye iki katı yok etme konusundaki çalışma, web yöneticisinin tamamen fiziksel olarak olduğu gibi biriktirilebilirler. Raporları işleme koymak, DUB'lerin nedenlerini sistematikleştirin ve ayarlamalar yapmak zor olacaktır. Büyük iş, hata riskini arttırır.

Dupils geleneksel olarak iki gruba ayrılır: açık ve örtük.

Açık Duplicas (iki veya daha fazla URL'de sayfa mevcut)

Böyle iki katına kadar birçok seçenek var, ancak hepsi onların özü gibi. İşte en yaygın olanı.

1. Sonunda ve onsuz bir eğik çizgi ile URL

Https://site.ru/list/

Https://site.ru/list.

Ne Yapmalı: Sunucu Yanıtını Yapılandırma "HTTP 301 kalıcı olarak taşındı" (301 Yönlendirme).

Nasıl yapılır:

    • site dosyasının kök klasöründe bulun. HTAccess ve açık (eğer yoksa, txt formatında oluşturun, call.htaccess ve site kökünü koyun);
    • uRL ile URL'de bir eğik çizgi olmadan bir eğik çizgi ile bir eğik çizgi ile yönlendirmek için Dosya dosyasında belirtin:

RewriteCond% (Request_FileName)! -D
Rewritecond% (Request_uri) ^ (. +) / $
Rewriterle ^ (. +) / $ / $ 1

    • ters Çalışma:

RewriteCond% (Request_FileName)! -F
Rewritecond% (Request_uri)! (. *) / $
Rewriterule ^ (. * [^ /]) $ 1 /

    • dosya sıfırdan oluşturulursa, tüm yönlendirmeler bu tür hatlarda öngörülmelidir:



YAPILANDIRMA 301 .HTACCESS ile yönlendirme yalnızca Apache siteleri için uygundur. Nginx ve diğer sunucular için yönlendirme başka şekillerde yapılandırılmıştır.

Hangi URL tercih edilir: Slam ile veya olmadan? Teknik olarak saf - fark yok. Duruma bakın: eğer daha fazla sayfa bir eğik çizgi ile dizine eklenirse, bu seçeneği bırakın ve bunun tersi de geçerlidir.

2. www ile URL ve www olmadan

Https://www.site.ru/1.

Https://site.ru/1.

Ne Yapmalısınız: Sitenin ana aynasını Web Yöneticisi panelinde belirtin.

Bunu Yandex'te Nasıl Yapılır:

    • yandex.Vebmaster şehrine git
    • yönlendirmenin gideceği paneldeki siteyi seçin (en çok www olmadan URL'ye yönlendirilir);
    • "Dizinleme / Site Hareketli" bölümüne gidin, "WWW Ekle" öğesinin önündeki onay kutusunu kaldırın ve değişiklikleri kaydedin.

Yandex'in 1.5-2 haftasında, aynalar sayfaları geri kazanacak ve yalnızca www olmayan URL'si aramada görünecektir.

Önemli! Önceden, Robots.txt dosyasındaki ana aynayı belirtmek için, bir konakçı yönergeyi reçete etmek gerekiyordu. Ancak artık desteklenmiyor. Bazı Webmasterlar "Güvenlik için" hala bu Direktifi gösterir ve daha da büyük güven Seti 301 yönlendirmesi için - bu gerekli değil, Webmaster'daki yapışmayı ayarlamak yeterlidir.

Google'da aynaları nasıl yapıştırılır:

    • yönlendirmenin arama konsolundan çıkacağı siteyi seçin;
    • sağ üst köşedeki vites simgesine tıklayın, "Site Ayarları" öğesini seçin ve ana etki alanını seçin.

Yandex durumunda olduğu gibi, 301 yönlendiriciye sahip ek manipülasyonlara ihtiyaç duyulmaz, ancak bununla yapıştırılmasını sağlamak mümkündür.

Ne yapılmalı:

    • yANDEX.WEBMASTER'DAN Dizinlenmiş URL'lerin bir listesini boşaltın;
    • bu listeyi SEOPULT liste aracına indirin veya XLS dosyasını kullanarak (aleti kullanmak için ayrıntılı talimatlar);

    • analizi çalıştırın ve sonucu indirin.

Bu örnekte, Fajlaşma sayfası Yandex tarafından endekslenir ve Google değil. Bunun nedeni, sadece bot yandex için Robots.txt'teki indekslemeden kapatılmalarıdır. Çözüm - PaGination sayfaları için kanonizasyon ayarlayın.

Ayrıştırıcıyı Seopult'tan kullanarak, hem arama motorlarında hem de yalnızca birteki sayfaları yinelenecek. Bu, en uygun problem çözme araçlarını seçmenize izin verir.

Çiftler ile başa çıkmak için zamanınız veya deneyiminiz yoksa, bir denetim sipariş edin - bir çift olmasının yanı sıra çok şey elde edersiniz. kullanışlı bilgi Kaynağınız Hakkında: HTML kodunda, başlıklar, meta etiketleri, yapı, iç geçiş, kullanılabilirlik, içerik optimizasyonu vb. Hatalarının varlığı, sonuç olarak, siteyi daha fazla yapacak olan ellerinizde hazır tavsiyelerine sahip olacaksınız. Ziyaretçiler için çekici ve aramadaki konumunu arttırın.

Sayfaları sitelerde veya bloglarda bırakırNerelerden geldikleri ve hangi sorunların yaratabileceği.
Bu yazı hakkında konuşacağımız hakkında, bu fenomenle başa çıkmaya çalışacağız ve bize siteye yinelenen sayfaları getirebilecek potansiyel sorunları en aza indirgemenin yollarını bulacağız.

Yani devam edecek.

Yinelenen sayfalar nedir?

Herhangi bir web kaynağındaki Hollanda sayfaları farklı adreslerde aynı bilgiye erişim anlamına gelir. Bu sayfalar ayrıca sitenin iç dübeleri de denir.

Sayfadaki metin tamamen aynı ise, böylece böyle bir kopya tam olarak adlandırılır veya temizlenir. Kısmi tesadüf ile Çoğaltma eksik veya bulanık denir.

Eksik çoğaltma - Bunlar, site malzemelerinin duyurularını içeren kategorilerin, sayfa malların sayfa listesi ve benzeri sayfalardır.

Tam yinelenen sayfalar- Bunlar, yazdırma sürümleri, farklı uzantılara sahip sayfalar, arşivler sayfaları, siteyi arama, yorumları olan sayfaları arayın.

Çift sayfaların kaynakları.

Şu anda, çoğu yinelenen sayfalar ne zaman üretilir modern CMS kullanarak. - İçerik Yönetim Sistemleri, ayrıca sitelerin motorları da denir.

Bu benim. WordPress ve Joomla ve Dle Ve diğer popüler CMS. Bu fenomen, sitelerin ve web yöneticilerinin optimize ettiklerini ciddi şekilde değiştirir ve ek sıkıntılar sunar.

Çevrimiçi mağazalarda Mallar, çeşitli detaylar (mal üreticisi, malların atanması, üretim tarihi, fiyat vb.) Sıralama ile görüntülendiğinde görünebilir.

Ayrıca ünlü hatırlamanız gerekir konsolu www.ve siteyi oluştururken, geliştirmek, tanıtmak ve tanıtmak için etki alanı adında olup olmadığını belirlemek.

Gördüğünüz gibi, bir çiftin görünümünün kaynakları farklı olabilir, sadece ana listeledik, ancak hepsi teknikte uzman kişilerce iyi bilinmektedir.

Hollanda sayfaları, negatif.

Çiftlerin görünümünde birçok kişinin özel dikkat göstermediğine rağmen, bu fenomen ciddi yaratabilir siteleri teşvik ederken sorunlar.

Arama Motoru saygı gösterebilir spam gibi çürürve bunun sonucunda, hem bu sayfaların hem de sitenin bir bütün olarak konumunu azaltmak ciddidir.

Site tanıtımı yaparken bağlantılar aşağıdaki gibi oluşabilir. Bir noktada, arama motoru en çok kabul edilir. İlgili sayfa ÇiftBağlantıları teşvik ettiğiniz ve tüm çabalarınızı ve maliyetlerinizi neler değil.

Ama deneyen insanlar var yinelenen ağırlık kullanın İstenilen sayfalarda, en önemli, örneğin veya başka biri.

Dubs sayfalarıyla başa çıkma yöntemleri

Bir çift veya göründüğü zaman negatif anları nasıl azaltabilirsiniz?
Ve genel olarak, bir şekilde bununla ya da herkese merhamet etmek için arama motorlarına verecek şekilde uğraşmaya değer. Onlar çok akıllı oldukları için sökülmelerine izin verin.

Robots.txt kullanarak

Robots.txt- Bu, sitemizin kök dizinine yerleştirilmiş ve arama robotları için direktifleri içeren bir dosya.

Bu direktiflerde, sitemizde hangi sayfaların indeksinde olduğunu ve hangi sayfaların olmadığını gösteriyor. Ayrıca sitenin ana alanının adını ve site haritasını içeren dosyanın adını da belirleyebiliriz.

İndeksleme sayfalarını yasaklamak İkinci el direktif reddetme. Web yöneticilerinin, yinelenen sayfaların endekslenmesini, yalnızca çoğaltılmasından, ancak doğrudan sayfaların içeriği ile ilgili olmayan diğer bilgileri kullanmak için kullandığıdır. Örneğin:

Disallow: / Ara / - Site Arama sayfalarını kapatın
İzin verilmemesi: / *? - "?" Soru işaretini içeren sayfaları kapatın.
İzin Verilmedi: / 20 * - Arşiv sayfasını kapatın

Dosya.htaccess kullanarak

Dosya.htaccess.(genişleme olmadan) ayrıca sitenin kök dizinine de yerleştirilir. Bu dosyadaki kopyaları mücadele etmek için, kullanımı özelleştirin 301 yönlendirme.
Bu yöntem, site göstergelerini ne zaman tutmaya yardımcı olur cMS sitesi yapısını değiştirir veya değiştirir. Sonuç, referans ağırlığı kaybı olmadan doğru yönlendiricidir. Aynı zamanda, eski adresdeki sayfanın ağırlığı sayfaya yeni bir adreste iletilecektir.
301 Yönlendirme, sitenin ana alanını belirlerken - www veya www olmadan.

REL \u003d "Cannonical" etiketini kullanma

Bu etiketle, Webmaster, orijinal kaynağın arama motorunu, yani, indekslenmesi gereken sayfa ve arama motorlarının sıralamasına katılın. Sayfa Canonical denir. HTML kodundaki giriş şöyle görünecektir:

CMS WordPress kullanırken, bu, bu kullanışlı ayarlarda yapılabilir. tek bir seo paketinde olan eklenti.

CMS WordPress için çiftleriyle mücadele için ek önlemler

Yukarıdaki tüm yöntemleri blogunuzdaki yinelenen sayfalarla uygulayarak, her şeyin yapmadığı her zaman bir his verdim. Bu nedenle, internette mücadele etmek, profesyonellere danışmanlık, başka bir şey yapmaya karar verdim. Şimdi onu tarif edeceğim.

Blogda oluşturulan dupilleri ortadan kaldırmaya karar verdim. Çapaları kullanın Onlara "HTML çapaları" maddesi hakkında söyledim. Bloglarda Çalışan CMS WordPress Ankrajlar, etiketlendiğinde oluşturulur. "#More" ve yorumlar yaparken. Uygulamalarının fizibilitesi oldukça tartışmalıdır, ama ördek açıkça meyvedir.
Şimdi bu sorunu nasıl ortadan kaldırdım.

İlk önce, #more etiketini alacağız.

Oluştuğu bir dosya buldum. Aksine, önerdim.
Bu ../ wp-dahil / şablon-şablon.php
Sonra programın bir parçası buldum:

İd) \\ "Sınıf \u003d \\" daha fazla bağlantı \\ "\u003e $ daha fazla_link_text", $ Daha fazla_link_text);

Kırmızı ile işaretlenmiş fragman kaldırıldı

#more - ($ Post-\u003e ID) \\ "Sınıfı \u003d

Ve sonunda bu tür dizeyi aldı.

$ Çıktı. \u003d Apple_Filters ('the_content_more_link', ' $ daha fazla_link_text", $ Daha fazla_link_text);

Çapa Yorumlarını Kaldır #

Şimdi yorumlara dönük. Bu zaten kendisini sıkıştırdı.
Ayrıca dosyayla da belirlenir ../wp-includes/comment-template.php.
Program kodunun istediğiniz parçasını bulun

İade Apple_Filters ('get_comment_link', $ link . '# YORUM YAP-'. $ Yorum-\u003e Yorum_ID, $ yorum, $ args);)

Benzer şekilde, kırmızı işaretlenmiş bir parça çıkarıldı. Çok özenle, dikkatlice, her noktaya kadar.

. '# YORUM YAP-'. $ Yorum-\u003e Yorum_ID

Program kodunun aşağıdaki satırının bir sonucu olarak.

İade Apple_Filters ('get_comment_link', $ link, $ Yorum, $ args);
}

Doğal olarak, tüm bunlar, belirtilen program dosyalarını bilgisayarınıza kopyaladıktan sonra, başarısızlık durumunda, durumu değişikliklere geri yüklemek kolaydır.

Bu değişikliklerin bir sonucu olarak, "Kayıtın geri kalanını okuyun ..." metnine tıkladığınızda, kanonik adrese sahip bir sayfam var ve "# daha fazlası" şeklinde kuyruğun adresini eklemeden bir sayfam var. .. ". Ayrıca yorumlara tıklandığında, "# Yorum- ..." şeklinde önek olmadan normal bir kanonik adresim var.

Böylece, sitedeki çift sayfaların sayısı hafifçe azaldı. Fakat şimdi WordPress'imizi başka ne oluşturacaksa, söyleyemem. Sorunu daha da takip edeceğiz.

Ve sonuç olarak, dikkatinizi bu konuda çok iyi ve bilgilendirici bir video getirdim. Görmeyi şiddetle tavsiye ederim.

Tüm sağlık ve başarı. Aşağıdaki toplantılara kadar.

Faydalı malzemeler:

Yinelenen sayfalar, arama sonuçlarında pozisyonları düşürme ve hatta filtreye girme nedenlerinden biridir. Bunu önlemek için, onları arama motoru endeksinine uyarmanız gerekir.

Sitede bir çiftin varlığını belirleyin ve onlardan kurtulun farklı yollarAncak sorunun ciddiyeti, çoğaltmanın her zaman işe yaramaz sayfalar olmamasıdır, sadece endeksde olmamalıdır.

Bu sorunu şimdi çözeceğiz, sadece bir kopyanın ne olduğunu ve nasıl ortaya çıktığını öğrenmeye başlamak için.

Yinelenen Sayfalar Nedir?

Öğrenci sayfaları, kanonik (ana) sayfanın içeriğinin bir kopyasıdır, ancak başka bir URL'dir. Burada hem tam hem de kısmi olabileceklerini not etmek önemlidir.

Tam çoğaltma Doğru bir kopyasıdır, ancak adresi ile, farklılıkla eğik çizgide kendini gösterir, www kısaltması, parametrelerin ikame edilmesini, sayfa / 1, sayfa \u003d 1, sayfa / 1 vb.

Kısmi çoğaltma İçeriğin eksik kopyalanmasıyla ve site yapısıyla ilişkilendirilir, makalelerin dizininin duyuruları, arşivlerin, kenar çubuğundan, sayfa sayfasından içeriğin, sayfa sayfasının ve diğer kaynakların öngördüğü kaynakların ilan edilmesinde, Canonical sayfasında bulunan kaynakların elemanları indekslendiler. Bu, kataloğunun yapının ayrılmaz bir parçası olduğu çoğu CMS ve çevrimiçi mağazalarda doğaldır.

Meşe oluşumunun sonuçları hakkında zaten konuştuk ve bu, kopyalar arasındaki referans kütlesinin dağılımı, indeksdeki sayfaları, içeriğin benzersizliğinin kaybı, vb.

Sitede Ducky Sayfaları Nasıl Bulunur?

Bir çift aramak için aşağıdaki yöntemler kullanılabilir:

  • google Arama Dizesi. Sitenin tasarımı ile: myblog.ru, burada myblog.ru, URL'niz, ana dizinden gelen sayfalar tespit edilir. Dupils'i görmek için gitmelisin son Sayfa arama Sonuçları ve "Gizli Sonuçları Göster" çizgisine tıklayın;
  • yandex'te "Gelişmiş Arama" Takımı. Sitenizin özel bir penceresi adresine ve giriliyor ve indekslenmiş bir makalenin tekliflerinden birini işaretlemek, kontrol etmek için gösterilen dizine alınmış bir makalenin tekliflerinden biri, sadece bir sonuç almalıyız. Eğer daha fazlası bir kopya ise;
  • araç çubuğu PS'deki Webmasterlar için;
  • manuel olarak, Adres çubuğunda, slash, www, html, asp, php, üst ve alt kayıtların harflerini değiştirme. Tüm durumlarda, ana adres ile sayfada yeniden yönlendirme gerçekleşmesi gerekir;
  • Özel Programlar ve Hizmetler: Xenu, megaindex, vb.

Sayfa sayfalarını kaldır

Çiftlerin çıkarılması da birkaç tane var. Her birinin var etkisi ve sonuçlarıBu nedenle, en etkili hakkında konuşmak gerekli değildir. Endekslenmiş bir kopyanın fiziksel imhasının bir çıkış yolu olmadığı unutulmamalıdır: Arama motorları hala hatırlayacaktır. Bu nedenle, DUB'lerle başa çıkmanın en iyi yöntemi - görünümlerini önlemek Sitenin doğru ayarlarını kullanarak.

İşte çiftleri ortadan kaldırmanın yollarından bazıları:

  • Robots.txt ayarlamak. Bu, belirli sayfaların indekslemeden izin verecek. Ancak Yandex robotları duyarlı ise bu dosya, Google, özellikle önerileri dikkate almayan sayfaları kapalılar. Buna ek olarak, Robots.txt'in yardımıyla, dizinlenmiş Duplicas'u kaldırın çok zordur;
  • 301 yönlendirme. Bir kanonik sayfa ile bir çift yapıştırmaya katkıda bulunur. Yöntem geçerlidir, ancak her zaman faydalı değildir. Kopyaların bağımsız sayfalarda kalması gereken durumlarda kullanılamaz, ancak endekslenmemelidir;
  • Atama 404 Hatalar Enfekte DUB'ler. Yöntem, kaldırılmaları için çok iyidir, ancak etkisi kendini göstermeden önce biraz zaman gerektirecektir.

Hiçbir şey yapamayacağı ve hiçbir şey yok, ama sayfanın ağırlığını kaybetmek ve arama motorlarından bir ceza almak istemiyorum, kullanılır. rel canonical href özniteliği.

Çiftlere karşı mücadeleye rel canikal özniteliği

Örneğe başlayacağım. Çevrimiçi mağazada, aynı içerik kartlarına sahip iki sayfa vardır, ancak aynı mallarda alfabetik olarak ve diğer tarafta maliyettedir. Her ikisi de gerekli ve yönlendirilmesine izin verilmez. Aynı zamanda, arama motorları için açık bir çift.

Bu durumda, etiketin rasyonel kullanımı link rel canonicalEndekslenmiş olan kanonik sayfayı belirten, ancak ana sayfa kullanıcılar tarafından kullanılabilir.

Bu, aşağıdaki gibi yapılır: Sayfa kopyasının baş bloğunda referans belirtilir. "Link rel \u003d" canonical "href \u003d" http://site.ru/osnovnaya stralanitsa "/"Stranitsa'nın kanonik sayfanın adresi olduğu yer.

Bu yaklaşımla, kullanıcı sitenin herhangi bir sayfasını serbestçe ziyaret edebilir, ancak REL CANOnical öznitelik kodunu okuyan bir robot, yalnızca bağlantıda listelenen adresi dizine ekleyecektir.

Bu özellik yararlı olabilir ve pagation sayfaları için. Bu durumda, bir sayfa "her şeyi gösterin" (bu "PortyLight") (Böyle "PortyLight") ve Canonical'a girin ve PaGination sayfaları rel canonical yoluyla bir robot gönderin.

Böylece, sayfalar çoğaltma ile mücadele yönteminin seçimi, niteliklerine bağlıdır. ortaya çıkma ve gereklilik Sitede varlığı.