در سال 2012 ،گوگل پرده از الگوریتم ضد اسپم جدید خود برداشت. هدف اصلی این الگوریتم مبارزه با لینک‌سازی‌های غیرطبیعی یا اسپم بود. بعد از مدتی این الگوریتم جدید به واسطه توئیتی که توسط مت کاتس منتشر شد، با عنوان الگوریتم پنگوئن شناخته شد.

الگوریتم پنگوئن گوگل چگونه کار میکند؟

الگوریتم پنگوئن راهی برای مبارزه با سایت‌هایی بود که قصد داشتند با استفاده از روش‌های غیرطبیعی مانند لینک‌سازی اسپم رتبه بالایی به دست بیاورند. الگوریتم پنگوئن هنوز هم در حال فعالیت است و جزئی از هسته اصلی الگوریتم‌های گوگل است.

این الگوریتم در فاصله‌های زمانی مختلف به وبسایت‌ها مراجعه می‌کند و در صورتی که نشانه‌هایی از لینک‌سازی اسپم یا روش‌های غیرطبیعیِ دیگر به دست بیاورد، ممکن است سایت خاطی را جریمه کند.

پیش از معرفی الگوریتم پنگوئن، تعداد لینک‌ها نقش مهم‌تری را در امتیازدهی به وبسایت‌ها در هنگام بررسی گوگل ایفا می‌کردند. به عبارت دیگر پیش از معرفی این الگوریتم، ربات‌های گوگل در هنگام رتبه‌بندی نتایج، به وبسایت‌هایی که تعداد لینک بیشتری داشتند توجه بیشتری می‌کردند و بدون توجه به کیفیت محتوای وبسایت آن را در بهترین رتبه های صفحه نتایج جستجو قرار می‌دادند.

نقش اصلی الگوریتم پنگوئن چیست؟

الگوریتم پنگوئن پاسخ گوگل برای افزایش استفاده از روش‌های سئو کلاه سیاه و لینک‌سازی‌های غیرطبیعی است.Matt Cutts  در جریان کنفرانس SMX  سال 2012 در این مورد گفته بود:

“ما به این فکر کردیم که چطور با محتوای بی کیفیت مبارزه کنیم و برای حل این موضوع الگوریتم پاندا را معرفی کردیم. اما بعد از معرفی این الگوریتم متوجه شدیم که این شروع کار است و هنوز وبسایت های اسپم زیادی وجود دارند. سپس برای حل این مشکل الگوریتم پنگوئن را طراحی کردیم.”

هدف این الگوریتم به طور دقیق، کاهش تاثیرگذاری روش‌های کلاه سیاه و به دست گرفتن کنترل اوضاع توسط گوگل بود. با درک بهترِ فرآیند دریافت لینک، پنگوئن توانست وبسایت‌هایی که اقدام به دریافت لینک‌های طبیعی و معتبر کرده بودند را ارتقاء دهد و وبسایت‌هایی که لینک‌های اسپم و ساختگی دریافت کرده بودند را  از رتبه‌های بالا به قعر نتایج بکشاند.

در ابتدای کار، گوگل در این الگوریتم برای جریمه کردن سایت‌های خاطی، تمرکز خود را تنها بر لینک‌های دریافتی قرار داده بود و به هیچ وجه توجهی به لینک‌های خروجی وبسایت‌ها نداشت.

هدف اصلی الگوریتم پنگوئن بررسی سلامت لینک‌سازی سایت‌ها بوده است ولی یکی از وظایف جانبی آن مبارزه با keyword stuffing یا تکرار کلمات کلیدی است. در گذشته برای آن‌که جایگاه مناسبی در نتایج گوگل کسب کنیم کافی بود تا عبارت مورد نظر خود را با درصد مشخصی در محتوا تکرار کنیم.

توجه بیش از ‌اندازه متخصصینِ سئو به این مورد موجب شد تا گوگل راه‌کارهای دیگری برای تعیین موضوع و کلمه کلیدی صفحه در نظر بگیرد و عملا تکرار یا بمباران کلمه کلیدی به عنوان یکی از تکنیک‌های سئو کلاه سیاه شناخته شد. الگوریتم پنگوئن صفحاتی که از این تکنیک استفاده کرده‌اند را شناسایی کرده و موجب می‌شود جایگاه مناسبی در نتایج جستجو کسب نکنند.