هدیه رایگان

معرفی 9 تا از مهم ترین الگوریتم های اصلی گوگل (آپدیت 2019) | بخش اول

تعداد آراء (0)

0 از 5
پنج شنبه ۳۱ مرداد ۹۸
|    |   
به اشتراک بگذارید:
معرفی 9 تا از مهم ترین الگوریتم های اصلی گوگل (آپدیت 2019) | بخش اول

با توجه به انتشار و آپدیت الگوریتم های گوگل، سایت های زیادی هستند که به دلیل آشنا نبودن با این الگوریتم ها جریمه های سنگین و یا حتی پنالتی شده اند. بنابراین تصمیم گرفتم مقاله ای را در دو بخش برای شما بنویسم تا با این الگوریتم ها آشنا شوید و با رعایت قوانین آن ها از جریمه آن ها در امان بمانید و به خوبی رشد کنید.

بطور مرتب گوگل الگوریتم های جدیدی را منتشر می کند که وظیفه ی آنها بهبود بخشیدن به موضوعات و مبارزه با منابعی با کیفیت پایین است.

اگر در گذشته کاربر صفحات بیشماری را برای درخواستش دریافت می کرد و همیشه بی نتیجه بود، حالا به لطف الگوریتم های جستجو او می تواند در عرض چند ثانیه یک راه حل جالب برای سوالش پیدا کند.

 

الگوریتم گوگل چیست؟

در واقع،الگوریتم جستجو اجازه می دهد تا موتور های جستجو در پاسخ به درخواست های کاربر نتایج مرتبط نشان دهند.

بروزرسانی گوگل بصورت ماهانه صورت می گیرد(و این بروزرسانی هایی هستند که رسما تایید شده اند)

تا کنون،نه تنها تاثیر قابل توجهی بر نتایج جستجو داشته است بلکه ما به شما نشان خواهیم داد که چطور الگوریتم گوگل تغییرات قابل توجهی در رتبه بندی نتایج سالهای اخیر کمک کرده است.

ممکن است اتفاق بیفتد که یکی از الگوریتم ها در ترافیک وب سایت شما تاثیر گذاشته باشد. پس از خواندن این مقاله، می دانید به چه ویژگی هایی از بهینه سازی محتوای داخلی و خارجی باید توجه بیشتری شود و چگونه وبسایت خود را با نیاز های جدید برای رتبه بندی موفقیت آمیز در گوگل هماهنگ کنید.

اصول رایج کار الگوریتم های موتور جستجو

مجموعه داده ها: به محض اینکه یه منبع جدید به نظر برسد ، الگوریتم گوگل بلافاصله از صفحه بازدید میکند و از محتوای متنی و تصویری اطلاعات جمع آوری میکند.

ایندکس کردن: این سایت در صفحه نتایج جستجو ظاهر نخواهد شد تا زمانی که فایل صفحه به طور کامل ایندکس شود. این برنامه به منظور جستجوی سریع آن طراحی شده است و از لیستی از کلمات متن تشکیل شده است. پس از آن وب سایت را می توان با کلمات کلیدی پیدا کرد.

بیشتر بدونید: موتورهای جستجو چگونه صفحات شما را ایندکس و ذخیره می کنند؟

جستجوی اطلاعات: پس از درخواست یک کاربر، برای مثال خرید یک کتاب، رباتها تمام صفحاتی که مناسب این درخواست هستند را پیدا می کنند. اسنادی که در آن‌ها کلمات کلیدی مناسب برای درخواست کاربران هست، وارد SERP می‌شوند.

دامنه: هدف هرگونه بهینه سازی جستجو گرها این است که برترین ها در اولین صفحه نتایج گوگل قرار گیرند.عوامل متعددی وجود دارد که مهم است، به عنوان مثال: حجم صفحه، مجوز دامنه، ارتباط متن درخواستی و محتوا، الگوریتم های جستجو موضوع استفاده شده و مکان را در متن درخواست کلمات کلیدی در یک صفحه جداگانه از سایت را تجریه تحلیل می کنند، به عنوان بر چسبها دقت کنید.

1.الگوریتم پاندا

الگوریتم پاندا

  1. شروع به کار: 24 فوریه 2011
  2. به روزرسانی: ماهانه
  3. هدف: رتبه سایت های بی کیفیت را کاهش می دهد.

الگوریتم گوگل پاندا برای تشخیص صفحات با محتوای غیرواقعی و محتوایی که با کلمات کلیدی یا هرزنامه یا محتوای خودکار پر شده است، استفاده می شود. این الگوریتم همچنین می تواند بر روی منابعی که اطلاعات را از روی سایت های دیگر و سایت هایی با محتوای ناکافی کپی می کنند تاثیر بگذارد. رتبه این نوع صفحات و این سایت ها معمولا توسط سیستم رتبه بندی گوگل کاهش می یابد.

در ابتدا "پاندا" بخشی از الگوریتم رتبه صفحه ی اصلی نبود ،اما به عنوان یک فیلتر گوگل کار می کرد،به این معنی که آنرا با قرار دادن در یک دسته ی خاص از سایت ها با هر بروزرسانی جدیدی تحت تاثیر قرار می داد، اما در ژانویه 2016، "پاندا" به طور رسمی در الگوریتم رتبه بندی اولیه قرار گرفت. با این حال، پاندا به این معنا نیست که این تنها الگوریتمی است درحال حاضر عمل می کند-هنوز هم بروزرسانی هایی وجود دارند که بخش خاصی از نتایج جستجو را تحت تاثیر قرار می دهند. این فقط در مورد این واقعیت است که آنها بسیار متداول شده اند و گوگل آنها را تبلیغ نکرده است.

از طرفی، این الگوریتم پاندا باعث افزایش احتمال آسیب پذیری سریع سایت های خطرناک می شود. از سوی دیگر، این امکان را به صاحبان سایت هایی که قبلا از الگوریتم گوگل رنج می بردند داد که حالا موقعیت خود را خیلی سریعتر بهبود بخشند.

الگوریتم پاندا چه افرادی را مجازات میکند؟

  • محتوای دزدیده شده از دیگر سایت ها
  • محتوای تکراری و مشابه در صفحات مختلف سایت
  • محتوای خودکار
  • محتوا با کلمات کلیدی پر شده باشد
  • محتوای هرزنامه تولید شده توسط کاربران(به عنوان مثال نظرات)
  • مقدار ناکافی از محتوا در صفحه(به عنوان مثال در ارتباط با واحد های تبلیغاتی)
  • تجربه بدون هیجان و ضعیف کاربر در سایت و به سرعت خارج شدن

چگونه وبسایت خود را ایمن کنید؟

سایت را برای منحصر به فرد بودن محتوا بررسی کنید، حتی اگر شخصا تمام مطالب سایت را بنویسید، از محتوای تکرای استفاده نکنید.

duplicate content checker به شما کمک خواهد کرد که این کار را سریع انجام دهید.

فروشگاه های آنلاین باید از اطلاعات خود در صفحات مراقبت کنند. تا کسی نتواند مشخصات فنی کالا را تغییر دهد، می توان عکس و ویدیو های منحصر به فردی را از محصولات ایجاد کرد، تا باعث شود کاربران نظرات واقعی بدهند.

 اطلاعات تکراریه سایت را بررسی کنید. این یک از دلایلی است که اغلب به کاهش رتبه سایت منجر می شود. با توجه به ویژگی های مختلف سیستم های CMS محتوای مشابه می تواند توسط موتور های جستجو از طریق URL های مختلف قابل شناسایی باشد، که منجر به صفحات تکراری در شاخص می شود. متاسفانه صاحب سایت حتی ممکن است از چنین مشکلاتی در سایت خود آگاهی نداشته باشد.

نرم افزار تخصصی مانند خزنده وب سایت ما ممکن است در تشخیص چنین صفحاتی کمک کند، سایت خود را اسکن کنید و به صفحات با عنوان برچسب متا تکراری و برچسب H1 توجه کنید اینها معمولا حامل های اضافه کپی شده هستند.اقدامات لازم برای از بین بردن آنها یا نزدیک شدن به ربات های موتور جستجو را فراهم کنید، شما می توانید از تگ کانونی redirects 301 یا noindex meta tag استفاه کنید.

نسبت محتوای صفحه و لینک های خروجی را بررسی کنید، صفحات خود را در زمینه لینک خروجی ارزیابی کنید. شاید سایت شما دارای صفحاتی با تعداد زیادی لینک های خروجی باشد. در این مورد، اضافه کردن مطالب منحصر به فرد به آنها دارای اهمیت فوق العاده ای است، که از دقت الگوریتم پاندا جلوگیری می کند.

2.گوگل پنگوئن

الگوریتم پنگوئن

  1. شروع به کار:24 آوریل 2012
  2. بروزرسانی ها: 8بار تا الان
  3. هدف: رتبه بندی سایت هایی که دارای محتوایی با لینک اسپم هستند و سایت هایی که کلمات کلیدی بیش از حد دارند(keyword stuffing (را کاهش می دهد.

لینک ها زمان زیادی است که یک عامل تعیین کننده در سیستم رتبه بندی Google هستند، و الگوریتم پنگوئن در درجه اول برای شناسایی و اعمال تحریم ها به سایت هایی با keyword stuffing است. این الگوریتم، درک ارتقاء سایت با توجه به استاندارد های گوگل را تغییر داد و برای بسیاری از بهینه سازان Seo به یک کابوس تبدیل شد.

بیشتر بدونید: آموزش سئو 2019 - بررسی استراتژی لینک سازی (داخلی و خارجی) در سایت

پنگوئن به دوران لینک های اجاره ای پایان داد و به عنوان بخش اصلی ارتقا، از پاییز سال 2016 به الگوریتم اصلی تبدیل شد، این الگوریتم به طور مساوی شانس روبرو شدن با تحریم ها را بهبود بخشید و امکان حذف آن ها را برای سایت هایی که قبلا تحت تاثیر قرار گرفته اند، فراهم کرد.

دلایل کلیدی برای سقوط سایت ها تحت مجوز"پنگوئن"

  • لینک های خریداری شده
  • لینک های هدایت شده از سایت های اسپم با کیفیت پایین
  • صفحه هایی دارای لینک های شکسته
  • انکر تکست های غیر طبیعی
  • لینک های هدایت شده از صفحات با محتوای کاملا نامناسب

چگونه وبسایت خود را ایمن کنید؟

نظارت بر تغییرات لینک پروفایل، یک نفر نیاز است تا به صورت دوره ای بر استفاده از خدمات لینک پروفایل برای آنالیز بک لینک ها نظارت کند. همچنین، می دانید که شانس گرفتن تحریم های پنگوئن برای چندین لینک اسپم کم است. در حالی که دریافت فوری صدها لینک از سایتهای بی ربط بسیار مشکوک به نظر می رسد و می تواند توجه الگوریتم را جلب کند. سعی کنید برنامه لینک های سایت خود را مرتب بررسی کنید-هر جهش ناگهانی در تعداد لینک باید مورد بررسی قرار گیرد.

از لینک های مخرب خلاص شوید، آیا شما پروفایل لینک را تجزیه تحلیل کرده و لینک هرزنامه را پیدا کرده اید؟

اکنون وقت آن است که به خلاص شدن از آنها فکر کنید. در حالت ایده آل، شما موفق به برقراری ارتباط با مالک و مدیر وبسایت شده اید و یا آن را حذف می کنید. اگر این امکان پذیر نیست، باید از ابزار Disavow در کنسول جستجوی گوگل استفاده کنید. به این ترتیب شما از گوگل می خواهید هنگام ارزیابی لینک های اسپم و مخرب لینک پروفایل شما را نادیده بگیرد.

3.الگوریتم دزدان دریایی گوگل

الگوریتم دزدان دریایی

  1. شروع به کار: اوت 2012
  2. به روزرسانی: اکتبر 2014
  3. هدف: کاهش رتبه سایت هایی که از آن ها شکایات زیادی در مورد محتوای کپی شده است.

این الگوریتم عمدتا برای سایت هایی با شکایات های چندگانه درباره محتویات ساخته شده است که قادر به رتبه بندی بالاتر در صفحه نتایج گوگل نیست. اکثر سایت های تحت تاثیر این الگوریتم، حاوی فیلم، موسیقی یا کتاب های موجود برای دانلود یا مشاهده هستند. گوگل همچنین شامل ردیاب های تورنت و جمع آوری لینک های سرویس مشترک به این دسته از سایت ها بوده. اگر چه آنها فایل های ممنوعه را بطور رسمی ذخیره نمی کنند ولی اطلاعاتی در مورد نحوه دانلود آنها را ارائه می دهند.

موتور جستجو تعداد دقیقی از شکایات مربوط به یک سایت را که برای فیلتر کردن آن مورد نیاز است را بیان نمی کند.اما کاملا واضح است که کار این الگوریتم زیاد ایده آل نیست. بسیاری از سایت های با صد ها شکایت  DMCA در رتبه بندی بالای 3 قرار دارند و موفق هم هستند.

تحریم و جریمه خود را به چه چیزی وارد می کند؟

طبیعتا جریمه خود را به سایتی که شامل محتوای دزدی و کپی یا اطلاعاتی در مورد چگونگی به دست آوردن این محتوا بدون اجازه نویسنده آن باشد، وارد می کند.

چگونه وبسایت خود را ایمن کنید؟

به سادگی هر محتوایی را در وبسایت خود آپلود نکنید، زیرا هیچ راه دیگری وجود ندارد. اگر مدام از شما شکایت شود، الگوریتم دیر یا زود سایت شما را بررسی خواهد کرد و در صورت لزوم شما را جریمه می کند.

 نتیجه: تا اینجا سه الگوریتم مهم گوگل را بررسی کردیم، شما میتوانید با رعایت نکات بالا از جریمه آن ها در امان بمانید و سایت خود را به خوبی رشد دهید. در مقاله دوم از این سری مقالات یعنی (معرفی 9 تا از مهم ترین الگوریتم های اصلی گوگل (آپدیت 2019) | بخش دوم) شش الگوریتم بعدی گوگل (الگوریتم های مرغ مگس خوار، کبوتر، موبایل فرندلی، رنک برین، موش کور و فرد) را به طور کامل بررسی کرده ام.

 

مقاله بعدی از سلسله مقالات آموزش سئو 2019: سئو و انواع تکنیک های سئو 2019 بخش اول

برچسب ها
# آموزش سئو 2019 # سئو ارگانیک # الگوریتم گوگل # تولید محتوا # لینک سازی خارجی

دانشجو مهندسی صنایع دانشگاه فردوسی هستم. فعال در حوزه های دیجیتال مارکتینگ، سئو و تولید محتوا

هیچ دیدگاهی ثبت نشده

شما چه امتیازی به این مقاله میدهید؟

ثبت امتیاز