اینترنت پنجره ها اندروید

روش های صحیح برای از بین بردن ورق صفحات. نحوه خلاص شدن از صفحات کار درست با صفحات تکراری

دلیل نوشتن این مقاله، تماس بعدی یک حسابدار با یک وحشت قبل از تسلیم گزارش ها در مورد مالیات بر ارزش افزوده بود. سه ماهه آخر، زمان زیادی را صرف تمیز کردن دو طرفه کرد. و دوباره آنها، همان ها و موارد جدید. جایی که؟

من تصمیم گرفتم وقت خود را صرف کنم، و با علت، نه یک نتیجه. این وضعیت عمدتا مربوط به تخلیه خودکار سفارشی از طریق برنامه های مبادله از برنامه کنترل (در مورد من از UT 10.3) در بخش حسابداری شرکت (در مورد من 2.0) است.

چند سال پیش، این تنظیمات نصب شد، و تبادل خودکار بین آنها پیکربندی شده است. با توجه به مشکل خاص کتاب مرجع کتاب مرجع بخش فروش، که شروع به شروع قطب های همتایان (با همان Inn / CPP / نام) برای یک دلیل یا دیگری (همان طرف مقابل آنها پراکنده شده است گروه های مختلف) حسابداری "FI" خود را بیان کرد و تصمیم گرفت - برای ما مهم نیست که آنها را ترک کنند، کارت ها را هنگام بارگیری به یک ترکیب می کنند. من مجبور شدم در روند انتقال اشیاء توسط قوانین مبادله دخالت کنم. برای جستجوی متقابل توسط شناسه داخلی حذف شده است و جستجو را توسط Inn + GPP + نام برد. با این حال، و پس از آن، مشکلات خود را در قالب طرفداران برای تغییر نام نام های همتایان (به عنوان یک نتیجه، Dupils در BP در حال حاضر توسط قوانین خود ایجاد شده است) وجود دارد. همه آنها با هم جمع شده بودند، مورد بحث قرار گرفتند، تصمیم گرفتند که در URTI ما تکراری داشته باشیم، آنها را حذف کردیم، به قوانین استاندارد بازگردیم.

این فقط پس از اینکه "Combing" دو برابر شدن در UT و در BP - شناسه های داخلی از بسیاری از متفکران متفاوت بود. و از قوانین معمولی Exchange در حال جستجو برای اشیاء به طور انحصاری توسط شناسه داخلی، سپس با بخش بعدی اسناد در BP، دو برابر جدید Counterparty (در صورتی که این شناسه ها متفاوت بود). ولی تبادل جهانی داده های XML اگر این مشکل غیرممکن باشد، جهانی نخواهد بود. زیرا شناسه موجود موجود کارشناس این وضعیت غیرممکن است که این وضعیت را تغییر دهید، می توانید این وضعیت را با استفاده از یک رعایت انطباق ویژه "انطباق اشیاء برای مبادله"، که در تمام تنظیمات استاندارد از 1C موجود است، دریافت کنید.

به منظور عدم دوتای جدید، الگوریتم تمیز کردن دوتایی به شرح زیر است:

1. در BP با استفاده از پردازش "جستجو و جایگزینی عناصر تکراری" (معمول است، می توان آن را از پیکربندی گرفته شده است. کنترل تجارت یا روی دیسک آن، یا مناسب ترین مجموعه ای از تغییرات در خود را انتخاب کنید ) من دو برابر می بینم، من مورد وفادار را تعریف می کنم، روی اجرای مجدد کلیک کنید.

2. من شناسه داخلی تنها (پس از جایگزینی) از هدف دو برابر ما (پردازش به طور خاص ساده برای این به طوری که شناسه داخلی به طور خودکار به کلیپ بورد کپی شده است) دریافت کنید.

3. من "انطباق اشیاء برای تبادل" را در UT باز می کنم، من یک لینک خودم را انتخاب می کنم.


مبارزه با دو صفحه

صاحب ممکن است مشکوک نشود که در وب سایت خود برخی از صفحات کپی کرده اند - اغلب این اتفاق می افتد. صفحات باز هستند، با محتوای آنها همه به ترتیب هستند، اما اگر فقط به توجه توجه شود، می توان اشاره کرد که با همان محتوای آدرس متفاوت است. چه مفهومی داره؟ برای کاربران زنده، هیچ چیز، به عنوان آنها علاقه مند به اطلاعات در صفحات، اما موتورهای جستجو بی روح این پدیده را کاملا متفاوت درک می کنند - برای آنها کاملا صفحات مختلف با محتوای مشابه

صفحات دوگانه مضر هستند؟ بنابراین، اگر کاربر عادی حتی نمیتواند حضور دوگانه را در سایت خود متوجه شود، موتورهای جستجو بلافاصله تعیین خواهند کرد. چه واکنش از آنها برای صبر کردن؟ بنابراین، در واقع، نسخه ها به عنوان صفحات مختلف دیده می شود، سپس محتوای آنها متوقف می شود منحصر به فرد است. و این در حال حاضر منفی بر رتبه بندی تاثیر می گذارد.

همچنین، حضور دوبله مسدود شده است، که بهینه ساز سعی کرد روی صفحه هدف تمرکز کند. به دلیل دو برابر، او ممکن است در آن صفحه باشد که می خواست حرکت کند. این، اثر انتقال داخلی و منابع خارجی این را می توان بارها کاهش داد.

در اکثریت قریب به اتفاق موارد در ظاهر دو برابر - به دلیل نه تنظیمات درست و عدم توجه مناسب بهینه ساز نسخه های روشن تولید می شود. با این کار، بسیاری از CM ها گناهکار هستند، به عنوان مثال، جوملا. برای حل مشکل، انتخاب یک دستور جهانی دشوار است، اما شما می توانید سعی کنید از یکی از پلاگین ها برای حذف کپی استفاده کنید.

ظهور دو برابر فازی، که در آن محتوا به طور کامل یکسان نیست، معمولا به دلیل خطا از وب مستر اتفاق می افتد. چنین صفحاتی اغلب در وب سایت های فروشگاه آنلاین یافت می شوند، جایی که صفحات با کالاها تنها چند جمله با توضیحات مشخص می شوند و بقیه محتوای متشکل از بلوک ها و سایر عناصر یکسان است.

بسیاری از متخصصان استدلال می کنند که مقدار کمی از دو برابر به یک سایت آسیب نمی رساند، اما اگر بیش از 40-50٪ بیش از 40-50٪ باشد، منبع می تواند برای مشکلات جدی صبر کند. در هر صورت، حتی اگر نسخه ها خیلی زیاد نباشد، ارزشمند است با حذف آنها ارزشمند باشد، بنابراین شما تضمین می کنید که از مشکلات DUBS خلاص شوید.

کپی صفحه جستجو راه های متعددی برای جستجو برای صفحات تکراری وجود دارد، اما ابتدا باید با چندین موتورهای جستجو تماس بگیرید و ببینید که چگونه سایت شما را می بینید - فقط باید تعداد صفحات را در فهرست هر کدام مقایسه کنید. این کاملا ساده است، بدون توسل به هر وسیله اضافی: در Yandex یا Google به اندازه کافی در رشته جستجو، میزبان را وارد کنید: YourSite.ru و به تعداد نتایج نگاه کنید.




اگر پس از چنین چک ساده، مقدار بسیار متفاوت خواهد بود، 10-20 بار، پس از آن این است که به احتمال زیاد در مورد محتویات DUB در یکی از آنها صحبت کنید. نسخه های صفحه را می توان برای چنین تفاوت هایی نپذیرفت، اما با این وجود، دلیل آن را برای جستجوی بیشتر بیشتر می دهد. اگر سایت کوچک باشد، می توانید تعداد صفحات واقعی را به صورت دستی محاسبه کنید و سپس با شاخص ها مقایسه کنید موتورهای جستجو.

جستجو صفحات تکراری شما می توانید یک URL را در صدور موتور جستجو جستجو کنید. اگر آنها باید CNC باشند، سپس صفحات با URL شخصیت های غیر قابل درک مانند "index.php؟ s \u003d 0F6B2903D"، بلافاصله از لیست کلی خجالت می کشند.

راه دیگری برای تعیین حضور تکراری توسط ابزار موتورهای جستجو، جستجو در بخش های متن است. روش برای چنین بازرسی ساده است: شما باید یک قطعه متن را از 10 تا 15 کلمه از هر صفحه در رشته جستجو وارد کنید و سپس نتیجه را تجزیه و تحلیل کنید. اگر دو یا چند صفحه در استرداد وجود داشته باشد، کپی ها وجود دارد، اگر نتیجه تنها یک باشد، پس از آن هیچ دو برابر از این صفحه وجود ندارد، و شما نمی توانید نگران باشید.

منطقی است که اگر سایت شامل شود تعداد زیادی صفحات، چنین چک می تواند به یک روال غیر قابل اجرا برای بهینه ساز تبدیل شود. برای به حداقل رساندن هزینه های زمان، شما می توانید استفاده کنید برنامه های ویژه. یکی از این ابزارها، که احتمالا نشانه ای از متخصصان با تجربه است، Sleuth لینک Xenu است.


برای بررسی سایت، شما باید یک پروژه جدید را با انتخاب «فایل« فایل »« بررسی URL »باز کنید، آدرس را وارد کنید و روی« OK »کلیک کنید. پس از آن، برنامه شروع به پردازش تمام URL سایت خواهد شد. در پایان چک، شما نیاز به صادرات داده های دریافت شده به هر ویرایشگر مناسب و شروع به دنبال دو برابر.

علاوه بر روش های بالا در ابزار پانل های Yandex.UBMaster و ابزار Google Webmaster، وسیله ای برای بررسی صفحات نمایه سازی وجود دارد که می توانند برای جستجوی دوگانه استفاده شوند.

روش های حل مشکل پس از آنکه تمام duplicas یافت می شود، حذف آنها مورد نیاز است. این نیز می تواند به روش های مختلف انجام شود، اما برای هر مورد خاص شما به روش خود نیاز دارید، ممکن است که هر کس باید استفاده کند.

  • کپی صفحات را می توان به صورت دستی حذف کرد، اما این روش فقط برای کسانی که دو برابر شده است، مناسب است که توسط راه دستی به ناسازگاری وب مستر ایجاد شده است.
  • Redirect 301 عالی برای چسباندن صفحات صفحات است که URL آنها توسط حضور و عدم وجود WWW متمایز است.
  • حل مشکلات با دو برابر با استفاده از برچسب های کانونی می تواند برای نسخه های فازی استفاده شود. به عنوان مثال، برای دسته بندی کالاها در فروشگاه آنلاین، که دارای تکراری هستند، با مرتب سازی در پارامترهای مختلف متمایز می شوند. Canonical نیز برای نسخه های صفحات چاپ و در موارد مشابه مشابه مناسب است. این به سادگی استفاده می شود - برای تمام نسخه ها، ویژگی Rel \u003d "Canonical" نشان داده شده است، و برای صفحه اصلی که بیشتر مرتبط است - نه. کد باید چیزی شبیه به این باشد: لینک rel \u003d "canonical" href \u003d "http://yoursite.ru/stranica-kopiya" /، و ایستاده در داخل برچسب سر.
  • در مبارزه با دو برابر می تواند فایل robots.txt را پیکربندی کند. دستورالعمل غیرقانونی به شما امکان دسترسی به DUBS را برای ربات های جستجو می دهد. شما می توانید اطلاعات بیشتر در مورد نحو این فایل را در پست الکترونیکی ما بخوانید.

Duplicas صفحات در همان دامنه با محتوای یکسان یا بسیار مشابه هستند. اغلب به دلیل ویژگی های کار CMS، خطاهای در دستورالعمل های robots.txt یا در تنظیم 301 تغییر مسیر ظاهر می شود.

خطر دو برابر شدن چیست؟

1. شناسایی نادرست صفحه مربوطه ربات جستجو. فرض کنید شما یک صفحه و همان صفحه موجود در دو URLS:

https://site.ru/kepki/

https://site.ru/catalog/kepki/

شما پول را در ارتقاء صفحه https://site.ru/kepki/ سرمایه گذاری کرده اید. در حال حاضر آن را به منابع موضوعی اشاره می کند، و موقعیت آن در بالای 10 قرار دارد. اما در برخی موارد، ربات آن را از شاخص حذف می کند و در عوض، https://site.ru/catalog/kepki/ را اضافه می کند. به طور طبیعی، این صفحه بدتر شده و ترافیک کمتری را جذب می کند.

2. افزایش زمان لازم برای عبور از سایت توسط روبات ها. در اسکن هر ربات های سایت اختصاص داده شده زمان محدود. اگر تعداد زیادی از دو برابر شود، ربات ممکن است به محتوای اصلی برسد، زیرا نمایه سازی به تأخیر افتاده است. این مشکل به ویژه برای سایت های هزاران صفحه مرتبط است.

3. اعمال تحریم ها در بخشی از موتورهای جستجو. توسط خود، Duplicas دلیل برای بدرفتاری از سایت نیست - تا زمانی که الگوریتم های جستجو حساب نمی کنند که شما به طور عمدی به منظور دستکاری صدور به طور عمدی ایجاد می کنید.

4. مشکلات برای مدیران وب. اگر کار بر روی حذف دو برابر شدن در یک جعبه طولانی، آنها را می توان با چنین مقدار انباشت انباشته شده است که وب مستر صرفا فیزیکی است، برای پردازش گزارش ها دشوار خواهد بود، دلایل دوبله ها را مدیریت می کند و تنظیمات را تنظیم می کند. کار بزرگ خطر خطاهای را افزایش می دهد.

Dupils به طور معمول به دو گروه تقسیم می شوند: صریح و ضمنی.

صریح Duplicas (صفحه موجود در دو یا چند URL)

گزینه های زیادی برای چنین دوگانه وجود دارد، اما همه آنها مانند ذات خود هستند. در اینجا شایع ترین هستند.

1. URL با یک اسلش در پایان و بدون آن

https://site.ru/List/

https://site.ru/List.

چه باید بکنید: پیکربندی پاسخ سرور "HTTP 301 به طور دائم نقل مکان کرد" (301 تغییر مسیر).

چگونه انجامش بدهیم:

    • پیدا کردن در پوشه ریشه فایل site.htaccess و باز کردن (اگر وجود ندارد - ایجاد در فرمت TXT، call.htaccess و قرار دادن در ریشه سایت)؛
    • تجویز شده در فایل فایل برای تغییر مسیر با URL با یک برش بر روی URL بدون اسلش:

rewritecond٪ (request_filename)! -D
rewritecond٪ (request_uri) ^ (. +) / $
rewriterule ^ (. +) / $ / $ 1

    • عملیات معکوس:

rewritecond٪ (request_filename)! -f
rewritecond٪ (request_uri)! (. *) / $
rewriterule ^ (. * [^ /]) $ 1 /

    • اگر فایل از ابتدا ایجاد شود، تمام تغییرات باید در داخل چنین خطوط تجویز شوند:



پیکربندی 301 تغییر مسیر با .htaccess فقط برای سایت های آپاچی مناسب است. برای nginx و سرورهای دیگر، تغییر مسیر به روش های دیگر پیکربندی شده است.

چه URL ترجیح داده می شود: با یا بدون اسلم؟ خالص از لحاظ فنی - هیچ تفاوتی وجود ندارد. نگاهی به وضعیت: اگر صفحات بیشتر با یک اسلش فهرست شوند، این گزینه را ترک کنید، و بالعکس.

2. URL با www و بدون www

https://www.site.ru/1.

https://site.ru/1.

چه کاری باید انجام دهید: آینه اصلی سایت را در پانل وب مستر مشخص کنید.

چگونه این کار را در Yandex انجام دهیم:

    • به Yandex.vebmaster بروید
    • سایت را در پانل انتخاب کنید که از آن هدایت می شود (اغلب به آدرس URL بدون WWW هدایت می شود)؛
    • به بخش "نمایه سازی / سایت در حال حرکت" بروید، کادر را در قسمت مورد "افزودن WWW" حذف کنید و تغییرات را ذخیره کنید.

در عرض 1.5-2 هفته یاندکس، آینه ها صفحات را دوباره تنظیم می کنند و تنها URL بدون WWW در جستجوی ظاهر می شود.

مهم! قبلا، برای مشخص کردن آینه اصلی در فایل robots.txt، لازم بود دستورالعمل میزبان را تجویز کنیم. اما دیگر پشتیبانی نمی شود. برخی از مدیران وب "برای ایمنی" هنوز این دستورالعمل را نشان می دهند و برای اعتماد به نفس حتی بیشتر، 301 تغییر مسیر را نشان می دهند - این لازم نیست، به اندازه کافی برای تنظیم چسباندن در وب مستر کافی است.

چگونه آینه های چسب در گوگل:

    • سایت را انتخاب کنید که از آن تغییر مسیر از کنسول جستجو خواهد شد؛
    • روی نماد چرخ دنده در گوشه سمت راست بالا کلیک کنید، "تنظیمات سایت" را انتخاب کنید و دامنه اصلی را انتخاب کنید.

همانطور که در مورد Yandex، دستکاری های اضافی با 301 تغییر مسیر مورد نیاز نیست، اگر چه ممکن است برای پیاده سازی چسباندن با آن.

آنچه باید انجام شود:

    • یک لیست از URL های نمایه شده از Yandex.webmaster را تخلیه کنید؛
    • این لیست را به ابزار Seopult لیست یا با استفاده از فایل XLS (دستورالعمل های دقیق برای استفاده از ابزار) دانلود کنید.

    • تجزیه و تحلیل را اجرا کنید و نتیجه را دانلود کنید.

در این مثال، صفحه فاژنتیک توسط Yandex نشان داده شده است، و گوگل نیست. دلیل این است که آنها از نمایه سازی در robots.txt فقط برای Bot Yandex بسته شده اند. راه حل - تنظیم کانونیزاسیون برای صفحات صفحه بندی.

با استفاده از تجزیه کننده از Seopult، شما می توانید صفحات تکراری را در هر دو موتورهای جستجو یا تنها در یکی از آنها درک کنید. این به شما این امکان را می دهد که ابزارهای حل مسئله مطلوب را انتخاب کنید.

اگر وقت یا تجربه ندارید برای مقابله با دو برابر، یک حسابرسی را سفارش دهید - علاوه بر داشتن دو برابر شما مقدار زیادی دریافت کنید اطلاعات مفید در مورد منابع شما: حضور خطاهای در کد HTML، سرفصل ها، متا تگ ها، ساختار، عبور داخلی، قابلیت استفاده، بهینه سازی محتوا، و غیره به عنوان یک نتیجه، شما توصیه های آماده در دست خود را، که سایت را بیشتر می کند جذاب برای بازدید کنندگان و موقعیت خود را در جستجو افزایش دهید.

صفحات را در سایت ها یا وبلاگ ها رها می کنداز کجا آمده و چه مشکلی می تواند ایجاد کند.
این در مورد این است که ما در مورد این پست صحبت خواهیم کرد، ما سعی خواهیم کرد با این پدیده مقابله کنیم و راه هایی را برای به حداقل رساندن این مشکلات بالقوه ای که می تواند صفحات تکراری را در سایت به دست آورد، پیدا کند.

بنابراین، ادامه خواهد داد.

صفحات تکراری چیست؟

صفحات هلندی در هر منبع وب به معنای دسترسی به اطلاعات مشابه در آدرس های مختلف است. چنین صفحات نیز دوبله داخلی سایت نامیده می شود.

اگر متن در صفحه کاملا یکسان باشد، چنین تکراری کامل یا روشن است. با تصادف جزئی تکراری نامیده می شود ناقص یا فازی است.

تکثیر ناقص - اینها صفحات دسته بندی ها، فهرست صفحات کالاها و صفحات مشابه شامل اطلاعیه های مواد سایت هستند.

صفحات تکراری کامل- این نسخه ها برای چاپ، صفحات با افزونه های مختلف، صفحه آرشیو، جستجو در سایت، صفحات با نظرات.

منابع دو صفحه

در حال حاضر، اغلب صفحات تکراری زمانی تولید می شوند با استفاده از CMS مدرن - سیستم های مدیریت محتوا، آنها نیز موتورهای سایت نامیده می شوند.

این من هستم وردپرس و جوملا و جوملا و دیگر CMS محبوب. این پدیده به طور جدی بهینه سازان سایت ها و وبسایت ها را به صورت جدی اعلام می کند و مشکلات بیشتری را ارائه می دهد.

در فروشگاه های آنلاین Dupils ممکن است زمانی ظاهر شود که کالا با مرتب سازی بر اساس جزئیات مختلف (تولید کننده کالا، انتصاب کالا، تاریخ تولید، قیمت، و غیره) نمایش داده شود.

همچنین باید بدنام را به یاد داشته باشید کنسول wwwو تعیین اینکه آیا آن را به نام دامنه در هنگام ایجاد، توسعه، ترویج و ترویج سایت است.

همانطور که می بینید، منابع ظاهر دوگانه می توانند متفاوت باشند، من فقط اصلی را ذکر کردم، اما همه آنها به کسانی که ماهر در هنر شناخته شده اند شناخته شده اند.

صفحات هلندی، منفی.

علیرغم این واقعیت است که بسیاری از آنها در ظاهر دو برابر توجه خاصی را پرداخت نمی کنند، این پدیده می تواند جدی ایجاد کند مشکلات در هنگام ترویج سایت ها.

موتور جستجو ممکن است در نظر بگیرد دزدان دریایی مانند هرزنامهو در نتیجه، جدی است که موقعیت هر دو صفحات و سایت را به طور کلی کاهش دهیم.

هنگام ترویج لینک های سایت ممکن است به شرح زیر رخ دهد. در برخی موارد، موتور جستجو به عنوان بیشترین در نظر گرفته شده است صفحه مربوطه دو برابر شده استو نه یکی که شما پیوندها را ارتقا می دهید و تمام تلاش ها و هزینه های شما بیهوده خواهد بود.

اما افرادی هستند که سعی می کنند از وزن تکراری استفاده کنید در صفحه مورد نیاز است، اصلی، به عنوان مثال، یا هر گونه دیگر.

روش های برخورد با صفحات DUBS

چگونه برای جلوگیری از دو یا چگونگی کاهش لحظات منفی زمانی که آنها ظاهر می شوند؟
و به طور کلی ارزش آن را به نحوی به نحوی با این یا همه به ارمغان می آورد به رحمت به موتورهای جستجو. بگذارید آنها را از بین ببریم، زیرا آنها خیلی هوشمند هستند.

با استفاده از robots.txt

robots.txt- این یک فایل است که در دایرکتوری ریشه سایت ما قرار دارد و شامل دستورالعمل های ربات های جستجو است.

در این دستورالعمل ها، ما نشان می دهیم کدام صفحات در فهرست سایت ما، و نه. ما همچنین می توانیم نام دامنه اصلی سایت و فایل حاوی نقشه سایت را مشخص کنیم.

ممنوعیت صفحات نمایه سازی دستورالعمل استفاده می شود. این است که مدیران وب از آن استفاده می کنند، به منظور از بین بردن صفحات تکراری، و نه تنها تکراری، بلکه هر گونه اطلاعات دیگری که به طور مستقیم به محتوای صفحات مربوط نیست، استفاده می شود. مثلا:

غیرفعال کردن: / جستجو / - بستن صفحات جستجو سایت
غیرفعال کردن: / *؟ - صفحات حاوی علامت سوال را ببندید "؟"
غیرفعال کردن: / 20 * - صفحه بایگانی را ببندید

با استفاده از file.htaccess

file.htaccess(بدون گسترش) نیز در دایرکتوری ریشه سایت قرار می گیرد. برای مبارزه با تکراری در این فایل، استفاده را سفارشی کنید 301 تغییر مسیر.
این روش به حفظ شاخص های سایت کمک می کند سایت CMS تغییر می کند یا ساختار آن را تغییر می دهد. نتیجه تغییر مسیر صحیح بدون از دست دادن وزن مرجع است. در عین حال، وزن صفحه در آدرس قدیمی به صفحه در یک آدرس جدید منتقل می شود.
301 تغییر مسیر اعمال می شود و هنگام تعیین دامنه اصلی سایت - با WWW یا بدون www.

با استفاده از برچسب rel \u003d "cannonical"

با استفاده از این برچسب، وب مستر موتور جستجوی اصلی منبع اصلی را نشان می دهد، یعنی صفحه ای که باید نمایه و شرکت در رتبه بندی موتورهای جستجو باشد. صفحه کانونی نامیده می شود. ورود به کد HTML به نظر می رسد:

هنگام استفاده از CMS وردپرس، این را می توان در تنظیمات چنین مفید انجام داد. پلاگین به عنوان همه در یک بسته SEO.

اقدامات اضافی برای مبارزه با دو برابر برای CMS وردپرس

با استفاده از تمام روش های فوق از برخورد با صفحات تکراری در وبلاگ خود، من همیشه احساس کردم که همه چیز را که نمی توانم انجام دهم. بنابراین، مبارزه با اینترنت، مشاوره با حرفه ای ها، تصمیم گرفتم کاری انجام دهم. حالا من آن را توصیف خواهم کرد.

من تصمیم گرفتم که Dupils را که در وبلاگ ایجاد شده اند، حذف کنم استفاده از لنگر من به آنها درباره مقاله "Anchors HTML" گفتم. در وبلاگ هایی که در حال اجرا CMS هستند، لنگرهای وردپرس در هنگام برچسب تشکیل می شوند "#more" و هنگام استفاده از نظرات. امکان سنجی کاربرد آنها نسبتا بحث برانگیز است، اما Ducky آنها به وضوح میوه هستند.
حالا چطور این مشکل را از بین بردم.

اول، ما برچسب #more را می گیریم.

یک فایل را که در آن شکل گرفته است پیدا کرد. در عوض، من پیشنهاد کردم
این ../ WP شامل / post-template.php
سپس یک قطعه از برنامه پیدا کردم:

شناسه) \\ "class \u003d \\" بیشتر لینک \\ "\u003e $ more_link_text"، $ more_link_text)؛

قطعه مشخص شده در قرمز حذف شده است

#more - ($ post-\u003e id) \\ "class \u003d

و در پایان رشته این نوع دریافت شد.

$ خروجی \u003d apply_filters ('the_content_more_link'، ' $ more_link_text"، $ more_link_text)؛

حذف لنگر نظرات #Comment

اکنون به نظرات می رویم این در حال حاضر خود را dodumal است.
همچنین با فایل تعیین شده است ../wp-includes/comment-template.php.
قطعه مورد نظر کد برنامه را پیدا کنید

بازگشت apply_filters ('get_comment_link'، $ لینک . '# اظهار نظر-'. $ comment-\u003e comment_id، $ comment، $ args)؛)

به طور مشابه، یک قطعه مشخص شده قرمز حذف شده است. بسیار منظمی، با دقت، درست به هر نقطه.

. '# اظهار نظر-'. $ comment-\u003e comment_id

ما به عنوان یک نتیجه از ردیف زیر از کد برنامه.

بازگشت apply_filters ('get_comment_link'، $ لینک، $ comment، $ args)؛
}

به طور طبیعی، همه اینها پس از کپی کردن فایل های برنامه مشخص شده به کامپیوتر شما انجام شده است، به طوری که در صورت شکست، آسان است که وضعیت را به تغییرات بازگردانید.

به عنوان یک نتیجه از این تغییرات، هنگامی که شما بر روی متن کلیک کنید "خواندن بقیه رکورد ..." من یک صفحه با یک آدرس کانونیک و بدون اضافه کردن به آدرس دم در فرم "# more- .. .. ". همچنین هنگام کلیک کردن بر روی نظرات، من یک آدرس معمولی canonical بدون پیشوند در قالب "# comment- ..." دارم.

بنابراین، تعداد صفحات دوگانه در سایت کمی کاهش یافت. اما آنچه که دیگر وردپرس ما را تشکیل می دهند، نمی توانم بگویم. ما مشکل را ادامه خواهیم داد.

و در نتیجه، من به شما توجه شما را به یک ویدیو بسیار خوب و آموزنده در این موضوع. من به شدت توصیه می کنم.

تمام سلامت و موفقیت. تا جلسات بعدی.

مواد مفید:

صفحات تکراری یکی از دلایل بسیاری برای کاهش موقعیت ها در نتایج جستجو و حتی ورود به فیلتر است. برای جلوگیری از این، شما باید آنها را به شاخص موتور جستجو هشدار دهید.

تعیین حضور دوگانه در سایت و خلاص شدن از شر آنها روش های مختلفاما جدی بودن مشکل این است که تکراری همیشه صفحات بی فایده نیست، آنها به سادگی نباید در فهرست باشند.

ما اکنون این مشکل را حل خواهیم کرد، فقط برای شروع به پیدا کردن آنچه که تکراری است و چگونه آنها بوجود می آیند.

صفحات تکراری چیست؟

صفحات دانش آموز یک کپی از محتوای صفحه کانونیک (اصلی) است، اما با URL دیگر. در اینجا مهم است که توجه داشته باشید که آنها می توانند هر دو کامل و جزئی باشند.

تکثیر کامل این یک کپی دقیق است، اما با آدرس آن، تفاوت آن می تواند خود را در اسلش، اختصار WWW، جایگزینی پارامترهای پارامترها، Page \u003d 1، صفحه / 1 و غیره

تکثیر جزئی این در کپی ناقص محتوا و مرتبط با ساختار سایت ظاهر می شود، زمانی که اطلاعیه های دایرکتوری مقالات، آرشیو ها، محتوا از نوار کناری، صفحه صفحه و دیگر از طریق عناصر منبع موجود در صفحه کانونی نشان داده شده است. این در اکثر CMS و فروشگاه های آنلاین ذاتی است که در آن کاتالوگ بخشی جدایی ناپذیر از ساختار است.

ما در حال حاضر در مورد عواقب وقوع بلوط صحبت کرده ایم، و این به دلیل توزیع توده مرجع بین تکراری، زیرمجموعه صفحات در شاخص، از دست دادن منحصر به فرد بودن محتوای و غیره است.

چگونه برای پیدا کردن صفحات ducky در سایت

روش های زیر را می توان برای جستجو برای دو برابر استفاده کرد:

  • رشته جستجوی گوگل با طراحی سایت: MyBlog.ru، جایی که MyBlog.ru URL شما است، صفحات از شاخص اصلی شناسایی می شوند. برای دیدن Dupils، شما باید بروید آخرین صفحه نتایج جستجو و بر روی "نمایش نتایج پنهان" کلیک کنید؛
  • تیم "جستجوی پیشرفته" در Yandex. اشاره به یک آدرس ویژه پنجره سایت شما و ورود به نقل قول یکی از پیشنهادات یک مقاله نمایه شده در معرض بررسی، ما باید تنها یک نتیجه را دریافت کنیم. اگر بیشتر آنها یک تکراری باشد؛
  • نوار ابزار برای Webmasters در PS؛
  • به صورت دستی، جایگزینی در نوار آدرس، اسلش، WWW، HTML، ASP، PHP، حروف ثبت نام بالا و پایین. در همه موارد، تغییر مسیر باید بر روی صفحه با آدرس اصلی رخ دهد؛
  • برنامه های ویژه و خدمات: Xenu، Megaindex، و غیره

برگه صفحات را حذف کنید

حذف دو برابر نیز چندین را دارد. هر یک از آنها دارای تاثیر آن و پیامدهای آنبنابراین، لازم نیست که در مورد موثرتر صحبت کنید. باید به یاد داشته باشید که تخریب فیزیکی یک تکراری نمایه شده راهی نیست: موتورهای جستجو همچنان به یاد می آورند. بنابراین، بهترین روش برخورد با DUBS - جلوگیری از ظاهر آنها با استفاده از تنظیمات مناسب سایت.

در اینجا برخی از راه های حذف دو برابر شده است:

  • تنظیم robots.txt. این به صفحات خاص از نمایه سازی اجازه می دهد. اما اگر روبات Yandex حساس به آن باشد این فایل، Google حتی صفحات را بسته می کند، نه به ویژه توصیه های او. علاوه بر این، با کمک robots.txt، حذف Duplicas Indexed بسیار دشوار است؛
  • 301 تغییر مسیر. این کمک به چسباندن دو برابر با یک صفحه کانونیکال است. این روش معتبر است، اما همیشه مفید نیست. این نمی تواند مورد استفاده قرار گیرد در مورد زمانی که تکراری باید صفحات مستقل باقی بماند، اما نباید نمایه شود؛
  • تخصیص 404 خطا دبک های آلوده این روش برای حذف آنها بسیار مفید است، اما قبل از اینکه اثر خود را نشان دهد، نیاز به زمان دارد.

هنگامی که هیچ چیز به چسب و نه چیزی را حذف، اما من نمی خواهم از دست دادن وزن صفحه و مجازات از موتورهای جستجو، استفاده می شود ویژگی Canonical Href ویژگی.

ویژگی Canonical Rel در مبارزه با دو برابر

من با مثال شروع خواهم کرد. در فروشگاه آنلاین دو صفحه با کارت های محتوای یکسان وجود دارد، اما در همان کالای به ترتیب حروف الفبا، و در هزینه دیگر است. هر دو مورد نیاز و هدایت نمی شوند. در همان زمان، برای موتورهای جستجو، دو برابر روشن است.

در این مورد، استفاده منطقی از برچسب لینک Rel Canonicalنشان می دهد صفحه کانونیک که نمایه شده است، اما صفحه اصلی برای کاربران قابل دسترسی است.

این به شرح زیر انجام می شود: در بلوک سر صفحات تکراری، مرجع مشخص شده است. "link rel \u003d" canonical "href \u003d" http://site.ru/osnovnaya stranitsa "/"جایی که Stranitsa آدرس صفحه کانونی است.

با استفاده از این رویکرد، کاربر می تواند آزادانه از هر صفحه ای از سایت بازدید کند، اما یک ربات، خواندن کد ویژگی کانونی کانونی REL، تنها آدرس که در لینک ذکر شده است، فهرست می شود.

این ویژگی ممکن است مفید باشد و برای صفحات بازسازی. در این مورد، یک صفحه ایجاد کنید "نمایش همه چیز" (مانند "پورتال") و برای صفحات Canonical، و صفحات صفحه بندی، یک ربات را از طریق Canonical Rel ارسال کنید.

بنابراین، انتخاب روش مبارزه با صفحات تکثیر بستگی به ماهیت آنها دارد ظهور و ضرورت حضور در سایت