همه ی الگوریتم های گوگل : حتی اگر اطلاعات کمی از دنیای دیجیتال مارکتینگ داشته و دانش مختصری درباره سئو و بهینه سازی وبسایت داشته باشید، حتما میدانید که همه هر روز در سعی هستند تا رتبه وبسایت خود را در میان سایر وبسایت هایی که اصطلاحا در گوگل ایندکس شده اند بهبود ببخشند. بهبود در این بخش به معنای نمایش سریع تر و حضور در صفحات بالایی موتور جستجوی قدرتمند گوگل میباشد.
ولی شاید پرسش این وجود داشته باشد که گوگل چگونه و به چه روش هایی ارزش یک وبسایت را برای نمایش دادن در صفحات ابتدا خودش ارزیابی و رتبه بندی میکند. به طور خلاصه اگر بخواهیم بگوییم، بخش اصلی و امتیاز آور در این رقابت، رعایت قوانین و نکته هایی میباشد که خود گوگل بصورت مقطعی در الگوریتم هایش تعریف میکند.
بمنظور این که با الگوریتم های گوگل و این که کلا چه بوده و چه حدفی را از معرفی نمودن آنان دنبال میکند آشنا بشویم، اول از تعریف واژه الگوریتم آغاز میکنیم.
الگوریتم چیست ؟
ساده ترین راه برای درک مفهوم الگوریتم این میباشد که آن را به فهرستی از یک دستور العمل ها برای صحیح انجام دادن کاری تشبیه کنیم.
الگوریتم فهرستی کامل از دستور العمل هایی میباشد که ما را در حل مشکلات و کارهای بزرگی که قبل رو داریم یاری میکند. الگوریتم ها در تمامی بخش های زندگی ما حضور دارند و از ساده ترین کارها مثل آشپزی نمودن نمودن از روی کتاب آشپزی گرفته تا تعمیر یک دستگاه الکترونیکی یا خودرو، همواره یک دستورالعملی وجود دارد که نحوه انجام صحیح کار را به ما آموزش میدهد.
ولی در دنیای مجازی و برنامه نویسی، الگوریتم حضور پر رنگ تری داشته و بمنظور پیشبرد برنامه ها و ساخت محصول های کامپیوتری به آنان نیاز داریم. از برنامه نویسی در زبان های مختلف از جمله زبان پایتون گرفته تا برنامه نویسی های فوق پیشرفته که با چندین زبان و تکنولوژی مختلف اجرا میشوند، همگی براساس الگوریتم های مشخص و از قبل تعیین شده انجام پذیر هستند.
در حقیقت الگوریتم به همچون یک روش حل مسئله میباشد که یک مسئله بزرگ را به چندین قسمت کوچکتر تقسیم بندی کرده و با تقسیم کار و مشکلات مختلف به بخش های کوچک، حل نمودن آن را برای ساده تر میکند.
در دنیای امروز و شبکه اینترنت هم با توجه به حجم بالای پیچیدگی ها و نیاز به یک دستورالعمل یکپارچه برای رسیدن به هدف ها و انجام درست کارها، به الگوریتم ها نیازمند هستیم. الگوریتم ها را میتوان در تمامی بخش های اینترنت به وفور دید.
از الگوریتم های اعلام شده برای انجام خرید و فروش سهام در تالار بورس گرفته تا الگوریتم هایی که در خودروهای برقی تسلا وجود دارند. در واقع رفته رفته با هوشمندتر شدن ابزارها و وسایل های دور و اطرافمان، بیش از پیش به الگوریتم ها و روش راه و اندازی و استفاده از وسایل وابسته به هوش مصنوعی نیاز بیشتری پیدا میکنیم.
الگوریتم های گوگل چه هستند ؟ (بررسی همه ی الگوریتم های گوگل)
همین حال کلمه یا جمله ای که بیش از سایر موارد ذهنتان را درگیر کرده میباشد را در گوگل جستجو نمایید. حتما میدانید که گوگل با این کار احتمالا چند صد یا حتی هزاران وبسایت و نتیجه دارای ارتباط به واژه یا جمله جستجو شده تان را به شما نشان دهد. ولی هیچ فکر کرده اید که گوگل روی چه حساب و ترتیبی این وبسایت ها را به نوبت میزان دارای ارتباط بودن به شما نشان میدهد. اینجاست که صحبت نیاز ما و گوگل به الگوریتم به میان آورده میشود.
در واقع گوگل برحسب الگوریتم ها و فهرست دستورالعمل هایی که خودش تعیین کرده دست به چنین کاری میزند. پس الگوریتم های گوگل با روشهای منحصر به فردی، هر بار نتایج جستجوی شما را نمایش می بدهند. ولی قسمت مرموز و جذاب این الگوریتم ها، عدم معرفی شدن یا اصطلاحا رسانه ای شدن جزییات دقیق آنان از سوی گوگل میباشد.
شرکت گوگل هیچ موقع مشخصات این الگوریتم ها را منتشر نمی کند و احتمالا این جا از خودتان می پرسید پس چگونه درباره چیزی که وجود ندارد میبایست اطلاعات داشته باشیم؟
با وجود عدم انتشار جزییات الگوریتم های گوگل، کارشناسان مختلفی هستند که از راه تحلیل تازه ترین بیانیه های این شرکت و تحقیقات بی شماری که بر روی تغییرات رفتار موتور جستجوی انجام می بدهند، به مجموعه قوانینی که به احتمال فراوان به الگوریتم های معرفی نشده گوگل نزدیک هستند دست یافته و آن را در اختیار دیجیتال مارکترها و افراد فعال در این زمینه قرار می بدهند.
الگوریتم های گوگل چه میزان در نتایج جستجوی ما تاثیر دارد ؟
گوگل با در اختیار داشتن یک سهم حداقل 80 درصدی از جستجوی های جهانی، در صدر لیست موتور های جستجوی پرطرفدار مردم دنیا قرار دارد و در تسلط بی چون و چرای او شکی نیست. این مسئولیت سنگین، چنین شرکتی بزرگی را به ساخت و استفاده از الگوریتم های منحصر به فردی مجبور کرده و هر کدامشان، در نمایش جستجوها اثر گذاری مستقیم و غیر مستقیم دارند.
گوگل متوجه است که صحت اطلاعاتی که به عنوان نتیجه به کاربرها نشان میدهد، در نگرش کاربر به او اهمیت بالایی داشته و می داند که کاربر از او انتظار دارد که صحیح ترین و مفید ترین نتایج را نمایش دهد. برای همین میباشد که تا سوالی را از کسی که جوابش را نمی داند می پرسیم، احتمالا به شما می گوید که “گوگل کن” یا “یک سرچی در گوگل بزن!”
شرکت گوگل بصورت مرتب مشغول بروزرسانی و بهینه سازی الگوریتم هایی میباشد که دستپخت خودش بوده.
این بروزرسانی ها شامل بهینه سازی و اضافه نمودن امکانات تازه تری هستند که به نفع کاربرانی باشد که با گوشی هوشند، تبلت و یا کامپیوترهای رومیزی به سراغ جستجو نمودن می روند. یکی از دلایل اصلی محبوبیت بالای گوگل در این زمینه، سعی زیاد این شرکت در زمینه بهینه سازی موتور جستجوی خود و نمایش جذاب ترین و برترین جواب ها به کاربرانش میباشد.
الگوریتم های گوگل به عنوان دستورالعمل های فوق پیچیده، به برترین شکل به بازاریابی داده ها پرداخته و در کسری از ثانیه برترین نتایج را به کاربر نشان می بدهند. اگر قصد داشته باشید که در این میان رتبه بهتری از دیگران پیدا نمایید، میبایست اطلاعات عمومی خود را از الگوریتم هایی که از میان صحبت های گوگل رمز گشایی شده اند بالا ببرید. (همه ی الگوریتم های گوگل)
اگر به الگوریتم های بدست آمده توجه نکرده و اصطلاحا به چهارچوب هایی که میبایست رعایت شوند پایبند نباشید، از سوی گوگل جریمه شده یا اصطلاحا پنالتی می خورید.
این جریمه شدن برای متخصصان سئو می تواند گران پایان شده و به کاهش رتبه وبسایت و یا رفتن به صفحات پایین تر جستجوها متجر شود. شرکت طراحی وبسایتک با در اختیار داشتن تیمی از مجرب ترین کارشناسان در جهت طراحی وبسایت، بهینه سازی وبسایت و سئو وبسایت، رتبه شما را در زمینه بازاریابی اینترنت به برترین شکل ممکن ارتقا خواهد بخشید.
نکته زیاد مهمی که متخصصان دیجیتال مارکتیگ و کسانی که وظیفه نگهداری از وبسایت ها را بر عهده دارند میبایست بدانند، این میباشد که کلمات کلیدی عنصر اصلی و مهمترین بخش از اثر گذاری الگوریتم های گوگل هستند. موتور جستجوی گوگل در اصل اول به دنبال کلمات کلیدی صفحات می رود. استفاده از کلمات کلیدی در عنوان صفحه، استفاده از آنان در هدینگ ها و همینطور پراکندگی کلمات کلیدی در بخش های مختلف محتوا، نکته هایی هستند که گوگل مایل میباشد شما حتما رعایت کرده باشید.
البته نبایستی فراموش نمود که نزدیک به 10 سال میباشد که از وقت ترفند پر نمودن صفحه با کلمات کلیدی گذشته و اجرای این ترفند، چیزی جز امتیاز منفی برای وبسایت شما نخواهد داشت.
شروع استفاده گوگل از الگوریتم های دست ساز خود
گوگل از سال 2003 به فکر طراحی الگوریتم ها و دستورالعمل های جستجو افتاد و اواخر همان سال دست به استفاده از آنان زد. این الگوریتم ها که از همان اول بر پایه کلمات کلیدی درست کردن شده بودند، نتایج این موتور جستجو را دگرگون کردند. وینسنت Vincent نخستین الگوریتم طراحی شده بوسیله کارمندان گوگل بود که به هدف جلب اعتماد کاربران جستجو کننده طراحی شده بود. وینست بر روی کلمات کلیدی تاکید و نظارت داشت و به دنبال معتبر ترین وبسایت ها برای نمایش داده شدن می رفت. در ادامه بصورت موردی به معرفی و توضیح درباره الگوریتم های گوگل خواهیم پرداخت.
الگوریتم پنگوئن Penguin
الگوریتم پنگوئن نخستین بار در سال 2012 بوسیله گوگل ساخته و اجرا شد. شرکت گوگل بعد از معرفی الگوریتم پاندا، متوجه شد که این الگوریتم به تنهایی نمی تواند جلوی تقلب ها و تکنیک هایی که به عنوان سئوی کلاه سیاه رواج داشتند را گیرد.
پس از این که وبسایت ها متوجه ارزش بالای محتوای با کیفیت شدند، عده ای تلاش کردند تا برای ارتقاء رتبه وب سایتشان، اقدام به لینک دهی و استفاده از کلمات کلیدی نا دارای ارتباط با وبسایت خود کرده و رتبه بالاتری در گوگل بیابند. برای همین به تولید بک لینک های نا دارای ارتباط و یا استفاده از کلمات کلیدی پر بازدید ولی نا دارای ارتباط با فعالیت خود روی آوردند. نتیجه این کار چنین شد که کاربری که به دنبال یک لپ تاپ بود، ممکن بود از وبسایت های دارای ارتباط با علوم تجربی و علوم پزشکی سر در بیاورد.
پنگوئن گوگل بصورت مداوم در سعی میباشد تا محتواهایی که حاوی لینک های نا دارای ارتباط و کلمات کلیدی دستکاری شده هستند را پیدا کرده و آنان را از جلوی چشم کاربرها دور بکند. خلاصه این که پنگوئن به هیچ عنوان از اسپم نمودن و کلمات کلیدی بیشتر از حد خوشش نمی آید و بلافاصله شما را جریمه خواهد نمود.
الگوریتم پاندا گوگل Panda
الگوریتم پاندا به عنوان یکی از شناخته شده ترین الگوریتم های گوگل، بررسی میکند که محتواهای صفحات از لحاظ کیفیت در چه حدی قرار دارند. تا قبل از انتشار این الگوریتم، محتواهای تکراری و بیهوده که به عنوان اسپم شناخته می شدند، سراسر اینترنت پخش شده بودند. این محتواهای کوتاه دارای کم ترین میزان ارزش بوده و فقط برای نمایش داده شدن حداکثر یک صفحه مشخص درست کردن می شدند.
شرکت گوگل با معرفی این الگوریتم سعی نمود تا براساس میزان رضایت کاربرها، فرآیند رتبه بندی صفحات را راه بیندازد. بعد از اجرای الگوریتم پاندا چنین وبسایت های بی کیفیت متوجه شدند که راهی جز حذف صفحات و محتواهای اسپم ندارند. برای همین آغاز به طراحی وبسایت های تازه و تولید محتواهای با کیفیت تر کردند و در نتیجه در کل همه چیز به نفع کاربرها پایان شد. (همه ی الگوریتم های گوگل)
نخستین الگوریتم پاندا از سال 2011 معرفی شد و از آن وقت آغاز به دادن نمره کیفیت به صفحات وبسایت ها نمود. الگوریتم گوگل یک محتوا خوان با دقت میباشد که تمامی محتواهای وبسایت ها را بررسی کرده و به ارزیابی آنان می پردازد. اگر محتوا بی کیفیت یا کپی شده باشد آن را علامت گذاری کرده و بدون شک برای تنبیه نمودن و عدم تکرار چنین ترفند مضری، سعی میکند تا آن را به صفحات پایین تر خود هدایت بکند.
الگوریتم جعبه ماسه Sand Box
الگوریتم سند باکس یکی از دستورالعمل های نسبتا قدیمی گوگل میباشد که قدمت آن به سال 2004 باز میگردد. سند باکس یک الگوریتم فیلتر کننده میباشد و به زبان ساده، اجازه نمی دهد که تازه کارها به راحتی در کنار کهنه کارها و با سابقه ها قرار بگیرند.
تصور نمایید که وبسایت جدیدی را درباره فناوری و گجت های نوین راه اندازی کرده اید، کلی صفحه و محتوا ساخته ای و کلمات کلید را هم به درستی بکار برده اید، ولی با یک جستجوی ساده متوجه میشود که وبسایت شما حتی جزو 5 صفحه ابتدا SERP یا نتایج جستجوی گوگل نیست و خیلی پایین تر از جایگاهی که فکرش را می کردید شما را درنظر گرفته میباشد. احتمالا در خوشبینانه ترین حالت فقط بتوانید لینک صفحه اصلی وبسایتتان را در صفحات پایینی گوگل پیدا نمایید.
این وقت میباشد که وبسایت شما از دید گوگل در وضعیت جعبه ماسه یا سند باکس قرار داده شده و تحتنظر میباشد.
طراحان وبسایت و متخصصان سئو از همان سال 2004 متوجه شدند که وبسایت های تازه وارد، حداقل تا چند ماه رتبه خوبی در گوگل پیدا نمی کنند. نکته جالب این بود که بینگ و یاهو بر تصویر اینکار می کردند و تاریخ درست کردن وبسایت و صفحات آنان برایشان نادیده گرفته می شد و بلافاصله نشان داده می شدند.
الگوریتم فیلتر کننده سند باکس به طور رسمی از سوی گوگل معرفی و یا مطرح نشده ولی تجربه اثبات کرده که این موتور جستجو از همین روش برای ارزش دادن به وبسایت های با سابقه تر استفاده میکند. همین موضوع باعث میشود که سعی وبسایت های تازه تاسیس برای جلبنظر گوگل و از همه مهم تر، خود کاربرها بیش از پیش بشود.
الگوریتم کافئین Caffeine
در سال های گذشته و به خصوص قبل از سال 2010 که الگوریتم کافئین هنوز طراحی و اجرایی نشده بود، کاربران وقت جستجوی موضوعی خاص، شانس این که با وبسایت های قدیمی و رها شده که معمولا اطلاعات تاریخ گذشته و نه چندان مفیدی را نشان می دادند زیاد بالا بود.
علت بروز چنین رفتاری به نحوه ایندکس شدن وبسایت ها و سرعت بروزرسانی و خواندن مطلب ها تازه منتشر شده بوسیله ربات های خزنده گوگل بر می گشت و توجه چندانی به قدمت مطلب ها نمی شد. گوگل در الگوریتم کافئین با باز طراحی روند کارکرد ربات های خود، نه تنها سرعت خواندن اطلاعات، بلکه حجم اطلاعاتی که ربات ها قادر بودن در طول یک بازه زمانی مشخص مرور کنند را متحول کرد.
نتیجه اینکار چنین شد که تغییرات درست کردن شده روی وبسایت ها با سرعت بیشتری در دسترس کاربران قرار می گرفت و این یعنی اطلاعات قدیمی به صفحات پایین تر و وبسایت های حاوی اطلاعات تازه، شانس بیشتری را برای نمایش داده شدن بوسیله گوگل پیدا کردند.
الگوریتم مرغ مگس خوار Hummingbird
مرغ مگس خوار یکی دیگر از حیوانات راه یافته به باغ وحش گوگل میباشد که فعالیتش را از حدود سال 2013 شروع نمود و سعی نمود تا کیفیت جستجوهای کاربرها را ارتقا دهد. الگوریتم مرغ مگس خوار قادر میباشد تا با پردازش زبان طبیعی، کلمات و محتواهای مشابه را تشخیص دهد.
قبل از مرغ مگس خوار، گوگل از الگوریتم کافئین برای نمایش آنی و سریع متون و کلمات تایپ شده در نوار جستجوی کاربر استفاده می نمود. ولی کافئین جای بهبودی زیادی داشت و برای همین گوگل الگوریتم مرغ مگس خوار که مثل خود پرنده اش، ریز نقش و سریع میباشد را طراحی نمود.
پرنده مرغ مگس خوار می تواند در کم ترین وقت، سریع ترین هدف را پیدا کرده و به سمت آن حرکت بکند.
گوگل هم صحیح همین رفتار را برای این الگوریتم پیاده سازی کرده و بعد از بررسی معنای کلمات کلیدی، محتوای صفحات را بررسی میکند تا با زبان طبیعی انسان همخوانی داشته و اصطلاحا بصورت روان نوشته شده باشند. (همه ی الگوریتم های گوگل)
در حقیقت گوگل به یاری این الگوریتم بصورت مفهومی از متون و محتواهای تولید شده در وبسایت ها با خبر میباشد و کاربری که پرسش خود را غیر مستقیم از او بپرسد، به نزدیکترین و برترین وب سایتی که مرغ مکس خوار آن را درک کرده هدایت میشود. مثلا اگر به دنبال نام کتابی که ماجرای سه یار را در کشور خاصی بیان میکند بوده اما اسم آن را به خاطر ندارید بگردید، گوگل می تواند به خوبی کتاب ها یا رمان های مشابه را برایتان نظر بکند.
برخلاف دو الگوریتم پاندا و پنگوئن گوگل که اجازه جریمه نمودن وبسایت ها را دارند، الگوریتم مرغ مگس خوار به هیچ عنوان در صدد رتبه بندی نبوده و وبسایت شما را جریمه نمی کند.
الگوریتم کبوتر گوگل Pigeon
برای توضیح الگوریتم کبوتر زیبا گوگل، از یک مثال ساده که احتمالا بارها خودمان هم به آن نیاز پیدا کرده ایم آغاز میکنیم. تصور نمایید که برای سفر به یک شهر دیگر رفته اید و سر ظهر قصد دارید به دنبال برترین و نزدیکترین رستوران برای صرف ناهار بگردید. بعید میباشد که جمله “بهترین رستوران یا فست فود در فلان شهر ” را جستجو نکرده باشید.
الگوریتم کبوتر گوگل دقیقا کارش این میباشد که براساس موقعیت مکانی کاربر، کسب و کارهایی که خودشان را برای او تعریف کرده اند را به کاربر جستجو کننده معرفی بکند.
این الگوریتم قدم بزرگی در راستای پیشرفت سئوی محلی صاحبان کسب و کارها برداشت.
شاید در گذشته اگر به دنبال یافتن یک آموزشگاه زبان و یا نزدیکترین فروشگاه مبلمان در محله خود بودید، میبایست خودتان دست بکار می شدید و خیابان به خیابان دنبال نیازتان می گشتید یا این که همواره مجله های تبلیغاتی محلی را دم دست نگه می داشتید تا در وقت نیاز، شماره تلفن یا نشانی کسب و کار نزدیک محل زندگی خود را با دشواری کم تری پیدا نمایید.
الگوریتم کبوتر با در اختیار داشتن موقعیت مکانی کاربر جستجو کننده و هم چنین کسب و کارها که خودشان را در گوگل ایندکس کرده اند، به راحتی این معضل چند سال گذشته را حل کرده میباشد.
الگوریتم تازگی Freshness (همه ی الگوریتم های گوگل)
تصور نمایید که در گوگل به دنبال نام مدیر عامل نو شرکت اپل هستید، اگر گوگل به همچون 20 سال پیشش کار می نمود و الگوریتم های تازه را برای بهینه سازی نتایج جستجو بکار نبسته بود، احتمالا فقط با نام استیو جابز آشنا می شدید و خبری از تیم کوک که جای او را گرفته به چشمتان نمی خورد.
الگوریتم تازگی محتوا در گوگل از سال 2005 به فهرست دستورالعمل های این شرکت اضافه شده و صحیح بر روی رفع چنین نقصی تمرکز کرده میباشد. ربات های خزنده گوگل به طور مداوم محتواهای وبسایت شما را ذیل و رو می کنند. اگر محتوایی از لحاظ تازگی و بروز بودن، تا سال ها همان وضع اولیه خودش را حفظ بکند، قطعا ارزش یک مطلب دائما بروز شونده مثل جستجو در بحث هزینه گوشی همراه را نخواهد داشت.
از همین رو توصیه میشود که محتواهای وبسایت خود هر چند زمان یک بار بروزرسانی نمایید تا گوگل هم از اهمیت دادن شما به تازگی اطلاعات وبسایتتان با خبر شده و شما را بیش به کاربرانش توصیه بکند.
الگوریتم چیدمان صفحه گوگل Page layout
هدف گوگل از درست کردن الگوریتم چیدمان صفحه در اوایل سال 2012 این بود که وبسایت های حاوی تبلیغات زیاد و بیشتر از حد را هدف قرار داده و آنان را به حذف چنین تبلیغات مزاحمی مجاب بکند.
با وجود این که درصد کمی از وبسایت ها هستند که حاوی تعداد بی شمار و بیشتر از حد بنرهای تبلیغاتی بوده و اصطلاحا روی اعصاب بازدیده کننده و کاربرها راه می روند، ولی الگوریتم چیدمان صفحه همه را هم وادار نمود که در طراحی قالب وبسایت خود بازنگری کرده و ترتیب چینش صفحه و گنجاندن آگهی ها و تبلیغات را بهینه سازی کنند.
الگوریتم چیدمان صفحه بعد از چهار مرتبه به روزرسانی از سوی گوگل، بصورت خودکار از سوی گوگل فعال شد و وبسایت هایی که معمولا تبلیغات را در تب های نو و کوچک که مزاحمت بسیاری برای کاربران درست کردن می کنند را حساب تنبیه خواهد نمود. این که وب سایتی کاربر را به خواندن محتوای تبلیغات وادار کرده و اجازه استفاده از محتوایی که به خاطر آن وارد سایت شده را نمی بدهند، از سوی گوگل اصلا پذیرفتنی نبوده و به سرعت بوسیله الگوریتم چیدمان صفحه پیدا و نمره منفی خواهد گرفت.
الگوریتم EMD – Exact Domain Match
پس از اجرای موفق الگوریتم های پنگوئن و پاندا، شرکت گوگل در اواخر سال 2012 یک الگوریتم ارزشمند و موثر دیگر به نام EMD که روی بر روی سئو اثر مستقیم دارد را راه اندازی نمود.
الگوریتم EMD به این جهت معرفی و اجرایی شده تا ترفندی که بسیاری از دیجیتال مارکترها و وب مسترها در طول سال ها به گوگل می زدند و در وقت کوتاه تری به هدف و رشد مناسبی می رسیدند را بی اثر بکند. (همه ی الگوریتم های گوگل)
در حقیقت این الگوریتم که مخفف “همخوانی دقیق نشانی دامنه” میباشد، وبسایت هایی را هدف گرفت که از لحاظ محتوایی ارزش آفرینی چندانی نداشته و در عوض، در نام دامنه خود از کلمات کلیدی پر طرفدار آن حیطه کاری انتخاب می کردند. به عنوان مثال یک وبسایت نه چندان قوی در زمینه فروش محصول های بهینه سازی سئو، صرفا با گنجاندن اصطلاح SEO در نشانی وبسایت، رتبه خوبی در میان سایر وبسایت ها پیدا می نمود.
حتی ممکن بود این وبسایت به لطف انتخاب چنین نشانی دامنه ای، از وبسایت هایی که سعی زیاد بیشتری در زمینه تولید محتوا به خرج می دادند هم فراتر رفته و در صفحات ابتدایی گوگل به نمایش در می آمد. البته تمامی این اتفاق ها در انتها سال 2012 ختم به خیر شد و امروز دیگر خبری از رتبه های بالا و حضور چنین وبسایت های نه چندان با کیفیتی در صفحات ابتدا گوگل نیست.
الگوریتم PayDay Loan
الگوریتم PayDay Loan یکی دیگر از الگوریتم های مبارزه با سوء استفاده از کلید واژه های مهم و حساس است که گوگل از سال 2013 بصورت مستقل و در کنار الگوریتم پاندا و پنگوئن آن را مورد استفاده قرار داد.
در آن وقت استفاده از کلمات کلیدی مستهجن، کلمات دارای ارتباط به اسامی داروها، شرایط آسان برای گرفتن وام و تعدادی دیگر از موارد مشابه بصورت گسترده بوسیله کلاه برداران سئو و وبسایت های اسپم مورد استفاده قرار می گرفت. (همه ی الگوریتم های گوگل)
الگوریتم PayDay Loan در حقیقت نوعی فیلترینگ محتواهای مجرمانه و مستجهن از سوی گوگل بود و به نوعی فضای این موتور جستجو را برای کاربران کم سن و سال تر بهینه سازی نمود.
الگوریتم گورخر Zebra
الگوریتم گورخر از مارس سال 2013 به عنوان یکی دیگر از حیوانات باغ وحش گوگل روانه بازار این موتور جستجو شد. گورخر شرکت گوگل بمنظور ارزیابی و هدفمند سازی فروش محصول های اینترنتی و به ویژه محصولاتی که در آن وقت در شبکه اجتماعی گوگل پلاس عرضه می شدند طراحی شد.
گوگل قصد داشت تا با ساخت این الگوریتم، نظارت بیشتری بر روی کیفیت اجناسی که احتمالا بوسیله کلاه برداران بصورت آنلاین فروخته می شد داشته باشد. الگوریتم زبرا یا گورخر امروزه به شکل کلی بصورت یک الگو و قائده برای بخش گسترده ای از فروشگاه های اینترنتی مکان افتاده و آنان را وادار کرده تا چهارچوب مشتری مداری را رعایت کنند.
برای این که از الگوریتم گورخر امتیاز منفی نگیرید می بایست بخش های مفید ذیل را در فروشگاه اینترنتی خود بگنجانید:
ساخت بستر متناسب و امن برای پرداخت وجه از سوی کاربر
درست کردن سبد خرید
امکان درج نام با استفاده از ایمیل و به راه انداختن ایمیل مارکتینگ
ساخت صفحه سوالات متداول یا سوالات پر تکرار
بخش نظرات و تجربه کاربران از خریدهای خود
الگوریتم رقص گوگل Google Dance
تجسم نمایید که در یک مسابقه بزرگ رقص شرکت کرده اید. هر کدام از شرکتها در این مسابقه فرصت دارند تا به روی سن آمده و با چالش هایی که تیم داوری مسابقه برای آنان آماده کرده رو به رو شوند. شما در زمانیکه مشغول اجرای خودتان هستید، میبایست برترین عملکرد را به نمایش گذاشته و بالاترین امتیاز را از دید داوران و بینندگان کسب نمایید. اگر عملکرد شما خود باشد، روی سن باقی می مانید و اگر غیر از این باشد، نفرات بعدی جای شما را می گیرند. (همه ی الگوریتم های گوگل)
این دقیقا همان فرصتی میباشد که گوگل به وبسایت ها برای دیده شدن میدهد.
اگر محتوای یکی از صفحات وبسایت شما یا مقاله ای که به تازگی آماده کرده اید، به ناگهان در صفحات بالا دیده شده و یا برعکس، جایگاه پایینی را از گوگل کسب کرد، بدانید که گرفتار الگوریتم رقص گوگل شده اید و باز هم میبایست بر روی صفحه مورد پیشنهاد کار نمایید.
گوگل امکان دارد بصورت مقطعی لینک صفحه ای از وبسایت شما که با کلمه کلیدی جستجو شده دارای ارتباط میباشد را به صفحه ابتدا یا دیگر صفحه های بالا هدایت بکند تا پیشنهاد کاربران را در موردش بداند. اگر نرخ CTR یا کلیک خوردن خوبی پیدا نمود و مدت زمانیکه کاربر در وبسایت شما حضور دارد هم بالا باشد، بدانید که از این فرصت به برترین شکل ممکن استفاده کرده اید.
الگوریتم گوگل برت BERT
الگوریتم برت گوگل در حقیقت یک نسخه هوشمند تر و کامل تر از الگوریتم مرغ مگس خوار است که بر طبق هوش مصنوعی و یادگیری زبان انسان کار میکند.
گوگل به یاری الگوریتم برت سعی میکند تا ساختار معنایی کلمات بکار رفته در یک جمله را درک کرده و براساس آن به جستجو و یافتن نتایج برای کاربر بپردازد. تجربه ثابت کرده که کاربرها با همان زبان خودشان یعنی زبان محاوره به جستجوی در گوگل می پردازند. موتور جستجوی گوگل برای همین تلاش نمود تا با به راه انداختن برت که وقت آن به سال 2018 بر میگردد، نتایج جستجو را مطابق با آنچه که بصورت محاوره سرچ میشود طبقه بندی کرده و برترین وبسایت ها را برای یافتن سوالش به او نشان دهد.
در حقیقت برت بیش بر روی رشته کلمات و جملاتی که کاربر جستجو میکند تمرکز دارد و اهمیت کم تری به کلمات کلیدی تکی و کوتاه میدهد. کافیست جمله “چگونه همسر بهتری باشم” را در گوگل سرچ نمایید، گوگل همچون یک یار نتایجی را به شما نشان میدهد که حس می نمایید انگار به خوبی منظور شما را فهمیده و به دنبال جواب سوالتان گشته میباشد.
الگوریتم تخصص . اقدار و اعتماد E-A-T – Expertise – Authority – Trust
الگوریتم EAT نخستین بار در اگوست سال 2018 شناسایی شده و حدودا یک سال بعد اثر خود را بر روی رتبه بندی وبسایت ها به خوبی نشان داد. شرکت گوگل بعد از این که از بابت بررسی مفهوم سمانتیکی وبسایت ها بر آمد، ربات های این شرکت قادر به بررسی محتواهای مختلف شدند و نوبت آن بود که وبسایت ها هم از لحاظ کیفیت محتوا و میزان اعتبار و تخصص مورد ارزیابی و مقایسه قرار بگیرند.
این الگوریتم مخفف سه کلمه تخصص، اقتدار و تجربه میباشد و می تواند تعیین بکند که محتوای شما از لحاظ کیفی در چه جایگاهی قرار دارد. در این الگوریتم توجهی به کلید واژه ها و مواردی از این قبیل نمی شود و فقط هدف ارزیابی محتوای با کیفیت و کارآمد میباشد. این محتوا می بایست توانایی جواب دادن به سوالات کاربر را داشته و از لحاظ علمی هم اعتبار قابل قبولی داشته باشد.
Expertise
در قسمت تخصص این الگوریتم، توجه گوگل به دانش و سطح تجربه نویسنده مطلب درباره آنچه که اطلاع رسانی کرده معطوف میشود. (همه ی الگوریتم های گوگل)
Autority
بخش اقتدار نسبت به اطمینان نویسنده از محتوای اصلی تولید شده اش حساسیت دارد. در حقیقت نویسنده میبایست نسبت به آن محتوایی که تولید کرده میباشد، به لحاظ کیفیت و اعتبار بالاترین اطمینان را داشته باشد.
Trust
در این بخش به قابل اطمینان بودن اطلاعات موجود در وبسایت شما برای کاربران و مفید بودن برای آنان رسیدگی میشود. هر چه مطلب ها را به زبان آسان تر و با همخوانی بیش با واقعیت و علم مربوط به آن نوشته باشید، اطمینان کاربران از اعتبار بالای مطلب ها شما بیش میشود.
گوگل با بررسی نحوه برخورد کاربر با مطلب ها وبسایت ها، به خوبی می تواند سطح مبتنی بودن بر اطلاعات واقعی و بروز بودن نوشته های موجود در آنان را ارزیابی بکند. هر چه از لینک های با کیفیت تر، جزیبات دقیق مثل نشانی و اطلاعات تماس و بک لینک های با کیفیت تری استفاده شده باشد، امتیاز وبسایت بوسیله این الگوریتم زیاد شدن پیدا خواهد نمود.
الگوریتم قدرت صفحه Page authority
الگوریتم قدرت صفحه همانطور که از نامش پیداست، میزان قدرت صفحه وبسایت را از لحاظ فاکتورهایی مانند میزان لینک های ورودی از سایتهای دیگر، کیفیت محتوای تولید شده، تعداد بازدید کنندگان وبسایت و مدت زمانیکه روی وبسایت شما سپری می کنند ارزیابی و امتیاز دهی میکند. هر چه قدرت صفحه بیش باشد، امتیاز و رتبه گوگل بهینه تر و تک رقمی تر میشود.
پس از این که گوگل معیار رتبه صفحه یا رنک پیج را کنار گذاشت، وبسایت معتبر Moz که یکی از وبسایت های شناخته شده در زمینه سئو میباشد، دو مفهوم پیج آتوریتی و دامین آتوریتی Page Authority را معرفی نمود.
این دو الگوریتم نسبتا غیر رسمی، فعلا تنها مواردی هستند که سایتها براساس آنان رتبه بندی میشوند.
در کلام ساده میبایست گفت که دامین آتوریتی به ارزیابی اعتبار دامنه وبسایت و پیج آتوریتی هم به ارزیابی صفحات و امتیاز دهی به آنان می پردازد. مثلا یک وبسایت از لحاظ دامنه امتیاز بالایی داشته ولی صفحات آن امتیاز مناسبی ندارند.
معمولا صفحه اصلی وبسایت ها از امتیاز پیج آتوریتی بالاتری برخوردار بوده و این که امتیاز صفحات یک وبسایت اگر بالا باشد، می تواند روی امتیاز دامنه هم اثر منفی بگذارد. (همه ی الگوریتم های گوگل)
برای ارتقا قدرت صفحه و قدرت دامنه میتوانید از بک لینک های با کیفیت استفاده نمایید. علاوه بر آن مبحث لینک دهی داخلی را فراموش نکرده و تا ممکن است از لینک های دارای ارتباط در داخل دیگر لینک ها و مطلب ها وبسایت استفاده نمایید تا ربات های گوگل وقت بیشتری را در داخل وبسایت شما سپری کنند. در مجموع عدد 70 یک رتبه زیاد ایده آل برای تمامی سایتها، رتبه 60 یک رتبه پسندیده برای وبسایت های ایرانی، رتبه 40 تا 50 یک رتبه متناسب و رتبه های 30 و 20 مربوط به وبسایت های رو به رشد و نسبتا تازه تاسیس میباشد.
الگوریتم بالای تپه Hilltop
الگوریتم بالای تپه یا هیل تاپ از جمله دستورالعمل های زیاد تاثیر گذار گوگل بود که پیدایش آن به سال 2003 باز میگردد، اما همچنان اثر خود را بر روی سئو وبسایت ها نشان میدهد.
این الگوریتم به هدف شناسایی وبسایت هایی که از لحاظ محتوای تخصصی و زیاد مفید، اصطلاحا در بالای تپه قرار دارند راه افتاد. هیل تاپ اول صفحاتی که از لحاظ موضوع و عنوان خاص تر بوده و از لحاظ محتوای تخصصی بالاترین ارزش را دارند و تعداد زیادی وبسایت به آن لینک دهی کرده اند را شناسایی میکند. بعدا تمامی این وبسایت های شناسایی شده به مرحله بعدی راه پیدا کرده و در نهایت از میان آنان، برترین ها به رتبه های بالا فرستاده میشوند.
خلاصه گوگل از آن سال تا به امروز در سعی بوده تا وبسایت های مرجع و پر از اطلاعات تخصصی که دیگران از آنان برای استناد به اطلاعات و داده های خود بهره می برند را پیدا می گند. به عنوان مثال وبسایت هایی مثل ویکی پدیا و eHow و یاهو از جمله نمونه های مشهور در الگوریتم هیل تاپ گوگل به شمار می روند.
الگوریتم موبایل فرندلی Mobile Friendly
با پر رنگ تر شدن بازار گجت ها و گوشی های هوشمند که نمایشگرهایی به مراتب کوچکتر از رایانه های رومیزی داشتند، بهینه بودن وبسایت ها برای نمایش صحیح در چنین دستگاه هایی به یک مسئله مهم و لازم تبدیل شد. اوایل سال 2015 بود که گوگل الگوریتم موبایل فرندلی را برای سازگاری هر چه بیش تجربه استفاده از اینترنت روی گوشی ها و تبلت ها طراحی نمود.
الگوریتم رنک برین RankBrain
الگوریتم رنک برین از لحاظ کارکرد شباهت بسیاری به الگوریتم مرغ مگس خوار دارد. این الگوریتم هم در ماه اکتبر سال 2015 تولید شد و به عنوان الگوریتم کمکی برای مرغ مگس خوار، سعی نمود تا هوش مصنوعی و یادگیری ماشین را در اختیار بهبود کارکرد موتور جستجوی گوگل قرار دهد. (همه ی الگوریتم های گوگل)
رنک برین می تواند منظور کاربر و معنای چیزی که به دنبال آن میگردد را درک کرده و سعی بکند تا دقیق ترین جواب را به او نمایش دهد. الگوریتم رنک برین که از نگاه گوگل به عنوان سومین الگوریتم تاثیر گذار در رتبه بندی وبسایت ها معرفی شده، هم تجربه کاربر وبسایت و هم کیفیت محتوایی که در آن منتشر شده میباشد را ارزیابی میکند. خلاصه این که الگوریتم رنک برین به عنوان یک یار دلسوز، حرف ها و سوالات کاربران را درک کرده و می کوشد تا مشکلات آنان را حل بکند.
به عنوان مثال شما به دنبال یک جراح مغز گشته و ترجیح می بدهید که نزدیکترین پزشک مجرب را به محل سکونت خود پیدا نمایید، کافیست جمله “بهترین جراح مغز و اعصاب” را جستجو نمایید. رنک برین سعی میکند که هم برترین و هم نزدیکترین پزشک را به شما معرفی بکند.
الگوریتم موش کور Possum
الگوریتم موش کور گوگل در نخستین روز از سپتامبر سال 2016 رونمایی شد تا کیفیت جستجوهای محلی و نزدیک به کاربر را بهینه سازی بکند. از برخی از جهات الگوریتم موش کور شباهت بسیاری به الگوریتم کبوتر گوگل دارد و سعی میکند تا کسب و کارهای هم محل با جستجو کننده در گوگل را به یکدیگر نزدیک تر بکند.
برای این که موش کور به عنوان یار شما در موتور جستجوی گوگل، یاری بکند تا در جستجوهای بچه محل های خود نمایش داده بشوید، حتما میبایست نشانی دقیق کسب و کارتان را طوری که گوگل درک بکند معرفی نمایید.
الگوریتم فرد FERD
الگوریتم فرد گوگل شاید جزو انگشت شمار الگوریتم هایی باشد که غیر رسمی بوده و بیش به جای این که شبیه یک دستورالعمل پیچیده و ناشناخته باشد شبیه به یک بروزرسانی میباشد. با توجه به این که الگوریتم هایی مثل الگوریتم پنگوئن قادر هستند تا کیفیت محتواهای وبسایت ها را ارزیابی کرده و آنان را از لحاظ مفید بودن رتبه بندی کنند، ولی باز هم کسانی پیدا میشوند که در میان محتواهای خود، به مقدار زیادی تبلیغات مزاحم و خسته کننده را بگنجانند که موجب کلافگی کاربرها بشود.
از آنجایی که گوگل در سئو به دنبال محتوا میگردد و کلا مبحث ارزیابی وبسایت ها در موتور جستجوی این شرکت، مقایسه و بررسی کیفیت محتوا میباشد، از همین رو اجازه سوء استفاده و به کاربردن تکنیک های سئو کلاه سیاه به سودجویان داده نخواهد شد.
برای همین الگوریتم فرد در مارس سال 2017 بصورت غیر رسمی به هسته گوگل اضافه شد تا با محتواهای بی هدف که فقط قصد سرکار گذاشتن و ارائه تبلیغ های مزاحم را دارند مبارزه بکند.
الگوریتم YMYL
الگوریتم YMYL که مخفف جمله Your Money or Your Life به معنای پول شما یا زندگی شما است، گوگل را در نقش یک حامی دلسوز برای حفاظت از کاربران قرار میدهد. (همه ی الگوریتم های گوگل)
این الگوریتم که در کنار الگوریتم EAT فعالیت کرده و مکمل آن میباشد، از سال 2020 کار خودش را آغاز نمود و باعث شد تا وب مسترها و مدیران وبسایت ها، ناگهان متوجه اختلال ها و مکان به جایی های حساب نشده ای در رتبه وبسایت های خود و دیگران بشوند.
گوگل می داند وبسایت های بسیاری هستند که خدماتی را ارائه کرده و احتمالا این خدمات با پول کاربران سر و کار دارد.
مثلا وبسایت هایی که به کاربران توصیه میکند تا پول ها و پس اندازهایشا را در پروژه ای نو سرمایه گذاری کنند. علاوه بر وبسایت هایی که با جنبه مالی کاربران کار دارند، وبسایت هایی هم هستند که خدمات دارای ارتباط با سلامت آنان را ارائه می کنند و خلاصه نبایستی هیچکدام از این دو با سوء استفاده و کلاه برداری، پول و جان آنان را در معرض خطر قرار دهند.
به همین دلیل گوگل سعی نمود تا از ماه مه سال2020 و به ویژه با گسترش ویروس کشنده کووید 19، اطلاعات دقیق، به روز و کارآمدی را در اختیار کاربرانی که به دنبال مراکز درمانی معتبر بودند قرار بدهد. آنان را از جا های آلوده دور بکند و در مجموع نقش مفیدی را برای بهبود آنهایی که دچار این بیماری شده بودند ایفا بکند.
الگوریتم Page Experience
الگوریتم Page Experience به غیر از محتوای موجود در صفحه یک وبسایت، با سایر جوانب آن سرکار دارد. گوگل در این الگوریتم روی نوع تعامل کاربر با صفحه تمرکز کرده و مواردی مثل سرعت بارگذاری، میزان آسان بودن در پیمایش و هدایت صفحه و هم چنین میزان خوانا بودن نوشته ها و فونت ها را به طور دقیق بررسی میکند. در حقیقت Page Experience از سال ها پیش یکی از قواعد مهم در سئو و بهبود رتبه وبسایت ها بوده و فقط اکنون قرار میباشد با جدیت بیشتری موردنظر قرار گیرد.
این الگوریتم اول در سال 2019 معرفی شد و بعد از یک وقفه طولانی، از اوایل سال 2021 اجرایی شد.
صفحه ای که به درستی و ظرافت طراحی نشده باشد، باعث دور نمودن کاربر از یک وبسایت میشود. برای همین به شما توصیه میکنیم تا در زمینه بهینه سازی Page Experience . ایمن سازی وبسایت و بهینه سازی سرعت وبسایت، پروسه طراحی وبسایت خود را به برنامه نویسان ما در شرکت طراحی وبسایتک بسپارید.
کلام پایانی (همه ی الگوریتم های گوگل)
گوگل تمامی الگوریتم ها یا بهتر بگوییم حیوانات باغ وحش خودش را بصورت مستمر مورد بررسی قرار میدهد و بروز رسانی میکند. هر بار که چنین اتفاقی می افتد، رتبه وبسایت ها هم دچار نوسان و تغییرات میشود و در این میان، وب مسترها و صاحبان وبسایت هایی که طبق چهارچوب گوگل رو به جلو حرکت کرده اند، از تغییرات بوجود آمده نهایت استفاده را می برند.
چالش اصلی یک سئو کار در این دنیا مسئله غیر قابل پیشبینی بودن و تغییرات ناگهانی رفتار الگوریتم های گوگل است. امکان دارد یک الگوریتم برای شما مفید واقع شده و یا با ظهور یک الگوریتم نو دیگر به شدت جریمه بشوید.
خدمات مربوط به طراحی سایت ، سئو سایت و پشتیبانی سایت با بهترین نتایج و کیفیت در وبسایتک ارائه میشود.
مطالب مرتبط :
- گوگل و طراحی هاب ویژه ویروس کرونا برای دسترسی راحتتر
- منابع درآمد پیام رسان های بزرگ
- زمان ضروری برای سئو وبسایت و بهبود رتبه آن در گوگل
- افزایش 900 درصدی دانلود اپلیکیشن گوگل از ماه مارس
- همه چیز در مورد عکاسی پرتره
- قابلیت برقراری ویدیوکنفرانس به زودی در خودروهای تسلا
- حذف پشتیبانی واتساپ از گوشی های قدیمی
- کنفرانس توسعهدهندگان گوگل I/O حتی آنلاین هم برگزار نمیشود
- اضافه شدن افکتهای جدید به بومرنگ اینستاگرام
- هشدار گوگل درباره هوش مصنوعی
- حذف قیمت مسکن در سایتهای اینترنتی
- تازهترین آمار از دامنههای فعال فارسی
- ارائه نکته هایی در جستجوی گوگل برای مقابله و پیشگیری از ویروس کرونا