رازهای پشت پرده موتور جستجو و نحوه کار موتورهای جستجوگر
باور کنید یا نه، هر روز در حالی که اینترنت را مرور میکنید، در واقع از موتور جستجو استفاده میکنید. موتور جستجوگر مانند جادوگر ماهری است که با کمک الگوریتمها و تکنولوژی پیشرفته، به ما کمک میکند تا در دنیای وسیع اطلاعات وب، گم نشویم.
اما راز موفقیت موتورهای جستجو چیست؟ چگونه موتورهای جستجو میتوانند به این سرعت اطلاعات را پردازش کنند و چنین نتایح دقیقی را به ما ارائه دهند؟ در این محتوا قصد داریم به دنیای جذاب و پیچیدۀ موتورهای جستجو بپردازیم. پس اگر شما هم مشتاق دانستن ساز و کار موتورهای جستجو هستید، تا پایان مقاله همراه ما باشید.
موتور جستجو دقیقا چیست؟
تا به حال به این فکر کردهاید که موتور جستجو چیست و چگونه کار می کند؟ باید بگوییم موتورهای جستجو برنامههایی هستند برای جستجوی وبسایتهایی که با کلمات کلیدی وارد شده در نوار جستجو مطابقت دارند.
موتورهای جستجو با فهرستبندی تمامی وبسایتهای موجود در اینترنت کار میکنند. هنگامی که کاربر یک کلمه کلیدی را در نوار جستجو وارد میکند، Search Engines از فهرست خود برای یافتن وب سایتهایی که حاوی آن کلمه کلیدی هستند استفاده میکند.
اما موتورهای جستجو از زمان پیدایش خود تا به حال، چه تغییراتی داشتهاند و چه مسیری را پیمودهاند تا به این نقطه برسند؟ اجازه بدهید نگاهی گذرا به تاریخچه موتورهای جستجو هم داشته باشیم.
تاریخچه موتورهای جستجو همگی از سال 1990 با Archie آغاز شد. در ابتدا موتورهای جستجو همچنان فهرستهای دایرکتوری ابتدایی بودند تا اینکه موتورهای جستجو برای خزیدن و نمایهسازی وبسایتها توسعه یافتند و در نهایت الگوریتمهایی را برای بهینهسازی ارتباط ایجاد کردند.
یاهو کار خود را فقط به عنوان لیستی از وب سایتهای مورد علاقه آغاز کرد و در نهایت به اندازهای بزرگ شد که به فهرستی قابل جستجو تبدیل شد. آنها در واقع خدمات جستجوی خود را تا سال 2002 برون سپاری کردند، این زمانی بود که شروع به کار بر روی موتور جستجوی خود کردند!
موتورهای جستجو از یادگیری ماشینی برای کمک به پردازش و رتبهبندی اطلاعات استفاده میکنند و میتوانند گفتار انسان را درک کنند. اما همیشه جستجو در اینترنت به همین سادگی نبود! زمانی بود که برای یافتن عنوان یک وب سایت باید عبارت دقیق آن را میدانستید، نتایج جستجو مملو از هرزنامه بود و ایندکس شدن محتوای جدید ممکن بود هفتهها طول بکشد!
پس حالا مطمئن شدیم که موتورهای جستجو از نمونههای اولیه خود تا به حال راه درازی را پیمودهاند! از پیشرفت در خزندههای وب و دستهبندی و فهرستبندی وب گرفته تا معرفی پروتکلهای جدید مانند robots.txt به طوری که مدیران وبسایتها بر روی صفحاتی که خزیده میشوند کنترل داشته باشند. در نهایت هم معرفی جستجوی صوتی، توسعه موتورهای جستجو نقطه اوج ماجرا بوده است! این فرآیند حاصل چندین فناوری جستجو است که از موتورهای جستجوی مختلف توسعه یافته است.
آلتا ویستا اولین موتور جستجویی بود که پرسوجوهای زبان طبیعی را پردازش کرد. Lycos با یک سیستم دستهبندی سیگنالهای مرتبط، تطبیق کلمات کلیدی با پیشوندها و مجاورت کلمه، قوی شروع کرد. و Ask Jeeves استفاده از ویرایشگرهای انسانی را برای مطابقت با جستارهای جستجوی واقعی کاربر معرفی کردند.
اما چرا وجود موتورهای جستجوگر برای ما ضروری است؟
چون در صورت نبود آنها، مجبور بودیم میلیونها سایت را زیر و رو کنیم تا مطلب مورد نظرمان را پیدا کنیم؛ تازه اگر اصلا موفق به پیدا کردن آن شویم!
به جز گوگل، سایر موتورهای جستجوی محبوب شامل بینگ و یاهو هستند. موتورهای جستجو به طور مداوم در حال تکامل هستند و اغلب ویژگیهای جدیدی به آنها اضافه میشوند. به عنوان مثال، گوگل اکنون نتایج حاصل از مقالات خبری و نقشهها را هم در نتایج جستجوی خود دارد.
پس تا این جا متوجه شدیم که موتورهای جستجو بر اساس الگوریتمهای خاصی، نتایج را رتبهبندی میکنند و در اختیار ما قرار میدهند. اما آیا این الگوریتمها در طول زمان ثابت میمانند؟ طبیعتا نه! اگر موتورهای جستجو بخواهند در هر زمانی بهترین کارکرد خودشان را داشته باشند، باید همیشه در حال بهبود باشند.
بنابراین، موتورهای جستجو اغلب الگوریتمهای خود را تغییر می دهند تا تجربه کاربر را بهبود بخشند. هدف آنها درک نحوه جستجوی کاربران و دادن بهترین پاسخ به درخواست آنهاست. این به این معنی است که اگر صفحۀ شما بالاترین کیفیت و مرتبط ترین محتوا را داشته باشد، در اولویت قرار میگیرد.
الگوریتمهای موتورهای جستجو و اهداف آنها چیست؟
الگوریتمهای موتور جستجو قوانین و فرآیندهای پیچیدهای هستند که تعیین میکنند چگونه صفحات وب را در نتایج جستجوی خود رتبهبندی و نمایش میدهند. این الگوریتمها برای کمک به کاربران در یافتن مرتبطترین و باکیفیتترین اطلاعات در پاسخ به پرسشهای خود طراحی شدهاند.
اهداف اصلی الگوریتمهای موتور جستجوگر بهشرح زیر است:
- ارتباط: هدف موتور جستجوگر ارائه نتایج جستجوی مرتبط با درخواست کاربر است. الگوریتمها صفحات وب را بر اساس استفاده از کلمه کلیدی، کیفیت محتوا و تعامل کاربر ارزیابی میکنند تا مشخص کنند کدام صفحات به احتمال زیاد به سوالات کاربر پاسخ میدهند یا نیازهای او را برآورده میکنند.
- کیفیت: موتورهای جستجوگر به شدت بر کیفیت محتوایی که در نتایج جستجو نمایش میدهند تاکید میکند. محتوای با کیفیت بالا احتمالاً در نتایج جستجو رتبه خوبی خواهد داشت، در حالی که محتوای بیکیفیت یا هرزنامه جریمه خواهد شد.
- اعتبار: موتور جستجوگر برای وبسایتهایی که معتبر و قابل اعتماد هستند ارزش قائل است. وبسایتهایی با برندینگ خوب، بک لینک از منابع معتبر و محتوای باکیفیت بیشتر احتمال دارد رتبه خوبی کسب کنند. در واقع الگوریتمهای گوگل، اعتبار یک وب سایت را ارزیابی میکنند تا مطمئن شوند که کاربران به منابع اطلاعاتی قابل اعتمادی هدایت میشوند.
- تجربه کاربری: موتور جستجو یک تجربه کاربری مثبت میخواهد، بنابراین الگوریتمهایش سرعت بارگذاری صفحه و سازگاری با موبایل را در نظر میگیرند. وبسایتهایی که تجربه کاربری بهتری را ارائه میدهند به احتمال زیاد در نتایج جستجو رتبه بالاتری دارند.
- تازگی: هدف موتورهای جستجو ارائه اطلاعات به روز به کاربران است. برخی از عبارتهای جستجو به جدیدترین اطلاعات نیاز دارند، بنابراین گوگل از الگوریتمهایی مانند QDF (Query Deserves Freshness) برای اولویتبندی محتوای تازه برای درخواستهای خاص استفاده میکند.
- شخصی سازی: موتور جستجوگر همچنین تاریخچه جستجو و تنظیمات برگزیده کاربر را برای شخصی سازی نتایج جستجو در نظر میگیرد. این کمک میکند تا اطمینان حاصل شود که کاربران نتایج مرتبط با علایق و نیازهای خود را دریافت میکنند.
- تنوع: الگوریتمها در تلاش هستند تا طیف متنوعی از نتایج را ارائه دهند. هدف آنها اجتناب از نمایش چندین صفحه از یک وب سایت یا محتوای مشابه در نتایج جستجوی برتر برای ارائه دیدگاهها و منابع مختلف به کاربران است.
بخشهای اصلی یک موتور جستجوگر
موتورهای جستجو یکی از رایج ترین ابزارهای مورد استفاده در اینترنت هستند، اما سوال اصلی این جاست که چگونه کار میکنند؟ بخش های اصلی یک Search Engines عبارتند از:
کراولر یا خزنده وب:
این سرگردانان خستگیناپذیر وب که به عنکبوتها نیز معروف هستند، وظیفه خزیدن سیستماتیک وب و نمایه سازی صفحات وب را بر عهده دارند. کراولرها با دقت در اینترنت میگردند، لینکها را از یک وبسایت به وبسایت دیگر دنبال میکنند، صفحات جدید وب را کشف میکنند و اطلاعات مربوط به هر سایت مانند عنوان، محتوا و پیوندها را ذخیره میکنند.
خزندههای وب مانند پیشاهنگانی هستند که به مناطق ناشناخته می روند، اطلاعات را جمعآوری و چشم اندازی دیجیتال را ترسیم میکنند. آنها همچنین محتوای صفحات وب را بازیابی و در یک پایگاه داده برای پردازش بعدی ذخیره میکنند.
هنگامی که خزندهها انبوهی از صفحات وب را جمعآوری کردند، ایندکسر وارد عمل میشود و این مجموعه عظیم را با دقت سازماندهی و فهرست بندی میکند. ایندکسینگ یا فهرست بندی یک پایگاه داده است که اطلاعات جمع آوری شده توسط خزنده وب را ذخیره میکند.
ایندکسکننده این امکان را برای موتور جستجوگر فراهم میکند تا وبسایتهایی را که با درخواست کاربر مطابقت دارند به سرعت پیدا کند. آنها مانند کتابداران دنیای دیجیتال هستند و شبکه پیچیده ای از کلمات کلیدی، عبارات و محتوا را ایجاد میکنند که موتورهای جستجو میتوانند به راحتی در آن حرکت کنند.
الگوریتم رتبه بندی:
در قلب هر موتور جستجو، یک الگوریتم رتبهبندی نهفته است، این الگوریتمها هستند که تعیین میکنند کدام نتایج اول ظاهر شوند و کدام یک به اعماق صفحه دهم منتقل شوند. الگوریتم درست مانند یک قاضی ماهر است که هر صفحه وب را بر اساس ارتباط، اعتبار و کیفیت کلی آن ارزیابی میکند. الگوریتم رتبه بندی فاکتورهای مختلفی مانند ارتباط وب سایت با درخواست کاربر، کیفیت وب سایت و تعداد بکلینکها به وبسایت را در نظر میگیرد.
موتورهای جستجو، به ویژه گوگل، برای رتبهبندی نتایج جستجوی خود به الگوریتمهای رتبهبندی بسیار پیچیدهای متکی هستند. متغیرهایی مانند دادههای نرخ کلیک، مکان کاربر، پروفایل بکلینک و بسیاری دیگر، در تعیین موقعیت هر یک از نتایج موثر هستند.
رابط جستجو:
رابط جستجو پنجرۀ شما به دنیای موتورهای جستجو است، رابطی که در آن سوالات خود را تایپ میکنید و مجموعه ای از نتایج را دریافت میکنید. نقش این رابط مانند یک دربان است که سؤالات شما را به سیگنالهای معناداری تبدیل میکند تا موتور جستجو بتواند آنها را درک کند. با بهینهسازی رابطهای جستجو، موتورهای جستجو می توانند نتایج جستجوی بهتری ارائه دهند.
صفحه نتایج جستجو (SERP):
این صفحه، نقطه اوج تلاشهای موتور جستجو است. صفحهای که مجموعهای از پیوندهای وبسایتهای مرتبط را به شما ارائه میدهد. در نتیجه، صفحۀ نتایج مانند یک نمایشگاه مدیریت شده است که مرتبطترین و با ارزشترین اطلاعات مطابق با درخواست شما را به نمایش میگذارد.
هدف بسیاری از سایتها این است که در اولین SERP برای محبوبترین کلمات کلیدی مرتبط با تجارت خود ظاهر شوند. رتبهبندی کلمات کلیدی یک سایت بسیار مهم است زیرا هرچه رتبه سایت در SERP بالاتر باشد، افراد بیشتری آن را مشاهده خواهند کرد.
سئو یا بهینه سازی برای موتورهای جستجو، روشی است که برای افزایش احتمال به دست آوردن رتبهبندی صفحه اول استفاده میشود و از تکنیکهایی مانند لینک سازی، برچسب های عنوان SEO، بهینه سازی محتوا، توضیحات متا و تحقیق کلمات کلیدی استفاده میکند.
علاوه بر این چهار مؤلفۀ اصلی، تعدادی مؤلفه دیگر نیز در عملکرد یک موتور جستجوگر نقش دارند، مانند:
- کشینگ: کشینگ تکنیکی است که کپیهایی از وبسایتهای پربازدید را در حافظه ذخیره میکند. این میتواند عملکرد Search Engines را با کاهش تعداد دفعات دسترسی به وبسایتها از طریق اینترنت بهبود بخشد.
- پردازش پرس و جو: پردازش پرس و جو فرآیند تفسیر پرس و جوی کاربر و ایجاد لیستی از نتایج جستجو است.
- شخصیسازی: شخصیسازی فرآیندی است که نتایج جستجو را بر اساس علایق فردی کاربر تنظیم میکند.
اینها تنها بخشی از اجزایی هستند که در عملکرد یک موتور جستجوگر نقش دارند. اجزای خاصی که ممکن است استفاده شوند، بسته به طراحی موتور جستجو متفاوت هستند.
موتورهای جستجو چگونه کار میکنند؟
آخرین باری که موضوعی را در اینترنت سرچ کردید به یاد بیاورید، چهقدر طول کشید تا صفحۀ مرورگر پر از نتایج مرتبط با درخواست شما شود؟ این فرآیند آنقدر سریع انجام میشود که حتی نمیتوانید زمان آن را بگویید! اما واقعا از زمانی که موضوعی را سرچ میکنیم تا زمانی که نتایج برایمان ظاهر میشوند چه اتفاقی میافتد؟ حتما این فرآیند برای شما هم جالب است. پس بیایید به همراه هم مراحل کارکرد این موتورها را بررسی کنیم:
- آدرسهای اینترنتی
- خزیدن یا Crowling
- نمایه سازی یا Indexing
- اعلام نتایج یا Creating resaults
- رتبه بندی یا Ranking
الف. آدرسهای اینترنتی
URL، یا Uniform Resource Locator، نقطۀ آغاز کارهای موتور جستجو به شمار میرود. در واقع اولین چیزی است که Search Engines هنگام وارد کردن سوال بررسی میکند. حال اگرURL سایت شما طبق معیارهای موتورهای جستجو، مناسب باشد، شانس بیشتری برای قرار گرفتن در بالای لیست نتایج خواهید داشت. در غیر این صورت، موتور جستجوگر تا زمانی که URL مناسبی پیدا نکند، سایر وبسایتها را جستجو میکند. بنابراین URL برای یافتن نتایج مناسب در جستجوها ضروری است.
ب. خزیدن
همه چیز با عنکبوتها شروع میشود! هنگامی که یک عبارت را در یک موتور جستجو وارد میکنید، موتور جستجوگر فهرست وبسایتهای خود را بررسی میکند تا بهترین مطابقت ممکن را برای سؤال شما پیدا کند. موتور جستجو از نرم افزار خاصی به نام خزندههای وب یا عنکبوتها برای خزیدن و فهرست بندی صفحات وب استفاده میکند.
عنکبوت ها با لیستی از صفحات شناخته شده (که معمولاً توسط اپراتور موتور جستجو ارائه میشود) کار خود را شروع میکنند و بعد از هر صفحه بازدید میکنند. با بازدید از هر صفحه، مطالب را میخوانند و هر لینکی را دنبال میکنند. بعد از آن صفحات جدید را به لیست صفحات موجود خود اضافه میکنند و این چرخه ادامه مییابد.
هر چه عنکبوت صفحات بیشتری را بخزد، وسعت دادههای Search Engines بیشتر است. هرچه هم دادههای یک موتور جستجوگر بیشتر باشد، هنگام جستجو نتایج آن دقیقتر خواهد بود.
اجازه بدهید برای درک بهتر این مرحله یک مثال بزنیم و نگاهی به موتور جستجوی گوگل داشته باشیم؛ گوگل از خزنده ای به نام Googlebot برای خزیدن در وب و فهرستبندی صفحات استفاده میکند. وقتی Googlebot از یک سایت بازدید میکند، کد HTML صفحه را میخواند تا لینکهای موجود در صفحه را شناسایی کند. سپس آن لینکها را دنبال میکند تا صفحات جدید را کشف کند. هنگامی که صفحات جدید را کشف کرد، آنها را به لیست صفحات خود اضافه میکند تا در آینده آنها را بررسی کند. به این ترتیب، خزیدن برای موتورهای جستجو مانند گوگل ضروری است تا نتایج خود را به روز نگه دارند.
اما خزیدن هم انواع مختلفی دارد که میخواهیم به بررسی آنها هم بپردازیم:
- خزیدن Depth-first
- خزیدن Breadth-first
موتور جستجو خزیدن در عمق یک وبسایت را با شروع از صفحه اصلی و سپس پایین رفتن از طریق لینکها برای یافتن صفحات جدید بررسی میکند. این خزیدن باعث میشود که بتواند به سرعت محتوای جدید را پیدا کند.
از سوی دیگر، خزیدن Breadth-first از صفحه اصلی شروع میشود و قبل از این که خزنده وب وارد صفحه بعدی بشود، تمام لینکها را بررسی میکند. این نوع خزیدن اغلب برای وبسایتهایی با صفحات زیاد استفاده میشود و اطمینان حاصل میکند که در نهایت همه صفحات خزیده میشوند.
همچنین روشهای ترکیبی وجود دارد که هر دو رویکرد را با هم ترکیب میکنند. در نهایت، بهترین روش به وبسایت خاص و نوع اطلاعات مورد نظر بستگی دارد.
خزندهها به نوعی قهرمانان گمنام دنیای اینترنت به شمار میآیند؛ آنها به موتورهای جستجو کمک میکنند محتواها را فهرستبندی کنند تا بتوانیم اطلاعات مورد نیاز خود را پیدا کنیم.
اما آیا خزندهها می توانند «همه چیز» را پیدا کنند؟ خزندهها در یافتن محتواهای ثابتی که مرتباً به روز میشوند بسیار خوب هستند. این محتوای ثابت شامل موارد زیر است:
- صفحات محصول
- پست های وبلاگ
- مقالات
با این حال، همه چیز هم به همین سادگی اتفاق نمیافتد! خزندههای وب برای یافتن محتوای پویا، مانند محتوای تولید شده توسط کاربر یا نظرات، به کمک نیاز دارند. این مشکل به این دلیل اتفاق میافتد که این محتوای پویا اغلب به صورت مکرر ایجاد یا بهروزرسانی میشود و باعث میشود که خزندهها نتوانند کار خود را بهخوبی ادامه دهند. در نتیجه موتورهای جستجو برخی از محدودهها را ایندکس نمیکنند.
علاوه بر این، گاهی اوقات خزندهها ممکن است در دسترسی به انواع خاصی از محتوا، مانند فلش یا جاوا اسکریپت، مشکل داشته باشند. بنابراین، صاحبان وب سایت باید اقداماتی را انجام دهند تا اطمینان حاصل شود که خزندهها می توانند به راحتی محتوای آنها را پیدا کرده و فهرستبندی کنند. این مراحل به صاحبان وب سایتها کمک میکنند تا مطمئن شوند که محتوای سایت آنها به درستی ایندکس و خزیده شده است.
فرایند خزیدن صفحات وب چگونه است؟
همه خزندههای موتورهای جستجو با دانلود فایل robots.txt، خزیدن یک وبسایت را آغاز میکنند. این فایل حاوی قوانین و باید و نبایدهایی در مورد صفحاتی است که برای موتورهای جستجو تعیین می کند چه صفحاتی را خزش و چه صفحاتی را نباید خزش کند. فایل robots.txt همچنین ممکن است حاوی اطلاعاتی در مورد نقشه سایت باشد. نقشه سایت؛ شامل لیستی از URLهایی است که سایت می خواهد خزنده موتور جستجو آنها را بخزد.
خزنده های موتورهای جستجو از تعدادی الگوریتم و قوانین استفاده می کنند تا مشخص کنند که یک صفحه چقدر باید دوباره خزیده شود و چند صفحه در یک سایت باید ایندکس شود. به عنوان مثال، صفحه ای که به طور منظم تغییر می کند ممکن است بیشتر از صفحه ای که به ندرت اصلاح می شود خزیده شود.
رندرینگ
هنگامی که موتور جستجو یک صفحه وب را می خزد، سپس صفحه را “رندر” می کند. این شامل گرفتن اطلاعات HTML، جاوا اسکریپت و شیوه نامه آبشاری (CSS) برای ایجاد نحوه نمایش صفحه برای کاربران دسکتاپ و/یا تلفن همراه است. این مهم است تا موتور جستجوگر بتواند بفهمد محتوای صفحه وب چگونه در متن نمایش داده می شود. پردازش جاوا اسکریپت به آنها کمک می کند تا مطمئن شویم که آنها ممکن است تمام محتوایی را داشته باشند که یک کاربر انسانی هنگام بازدید از صفحه می بیند.
موتورهای جستجو مرحله رندر را به عنوان یک فرآیند فرعی در مرحله خزیدن دسته بندی می کنند. من آن را در اینجا به عنوان یک مرحله جداگانه در فرآیند فهرست کردم، زیرا واکشی یک صفحه وب و سپس تجزیه محتوا به منظور درک نحوه تشکیل آن در مرورگر دو فرآیند مجزا هستند. گوگل از همان موتور رندر مورد استفاده مرورگر گوگل کروم به نام “Rendertron” استفاده می کند که از سیستم مرورگر کرومیوم منبع باز ساخته شده است.
Bingbot از Microsoft Edge به عنوان موتور خود برای اجرای جاوا اسکریپت و رندر صفحات وب استفاده می کند. همچنین اکنون بر روی مرورگر مبتنی بر Chromium ساخته شده است، بنابراین اساساً صفحات وب را شبیه به روش Googlebot ارائه می دهد. موتور جستجو گوگل کپی صفحات را به صورت فشرده در مخزن خود ذخیره می کند. به نظر میرسد که مایکروسافت بینگ نیز این کار را انجام میدهد (اما من سندی برای تأیید این موضوع پیدا نکردم). برخی از موتورهای جستجو ممکن است نسخه مختصر صفحات وب را فقط بر حسب متن قابل مشاهده، بدون تمام قالب بندی ذخیره کنند.
رندر بیشتر به یک مشکل در سئو برای صفحاتی تبدیل میشود که بخشهای کلیدی محتوا وابسته به جاوا اسکریپت/آژاکس هستند. هم گوگل و هم مایکروسافت بینگ جاوا اسکریپت را برای دیدن تمام محتوای صفحه اجرا می کنند و ساختارهای پیچیده تر جاوا اسکریپت می تواند برای موتورهای جستجو چالش برانگیز باشد. من صفحات وب ساخته شده با جاوا اسکریپت را دیده ام که اساساً برای موتورهای جستجو نامرئی بوده و منجر به صفحات وب به شدت غیربهینه می شوند که قادر به رتبه بندی برای عبارات جستجوی خود نیستند.
من همچنین مواردی را دیدهام که صفحات دستهبندی بینهایت در وبسایتهای تجارت الکترونیک عملکرد خوبی در موتورهای جستجو نداشتند، زیرا موتور جستجو نمیتوانست تعداد زیادی از پیوندهای محصولات را ببیند. سایر شرایط نیز می توانند با رندر تداخل داشته باشند. به عنوان مثال، هنگامی که یک یا چند فایل JaveScript یا CSS به دلیل قرار گرفتن در زیرشاخه های غیر مجاز توسط robots.txt برای ربات های موتور جستجوگر غیرممکن است، پردازش کامل صفحه غیرممکن خواهد بود.
Googlebot و Bingbot تا حد زیادی صفحاتی را که نیاز به کوکی دارند ایندکس نمی کنند. صفحاتی که برخی از عناصر کلیدی را به صورت مشروط بر اساس کوکی ها ارائه می دهند نیز ممکن است به طور کامل یا درست ارائه نشوند.
خطاهای خزیدن هنگام دسترسی بهURL ها
احتمالا تا به حال برایتان پیش آمده است که وقتی میخواهید وارد سایتی شوید، با خطا مواجه میشوید، در چنین مواقعی اغلب به خطاهای زیر برخورد میکنید:
- کدهای 4xx
- کدهای 5xx
کدهای 4xx خطاهایی هستند که از سمت مشتری ایجاد میشوند، به این معنی که مشکلی در درخواستی که ارسال میکنید وجود دارد. کدهای رایج 4xx عبارتند از:
- 404 (پیدا نشد)
- 400 (درخواست اشتباه)
اما کدهای 5xx خطاهاییاند که از سمت سرور ایجاد میشوند، به این معنی که مشکلی در وبسایت وجود دارد. کدهای رایج 5xx عبارتند از:
- 500 (خطای سرور داخلی)
- 502 (ورودی بد)
در حالی که خطاهای مذکور میتوانند اذیتکننده باشند، راههایی هم برای عیبیابی و رفع آنها وجود دارد.
توجه: خطاهای 4xxمعمولاً به دلیل URL نادرست هستند، در حالی که خطاهای 5xx به دلیل بارگذاری بیش از حد سرورها یا مشکلات پایگاه داده رخ می دهند.
اگر هنگام تلاش برای دسترسی به URL با این خطاها مواجه شدید، در وهلۀ اول آدرس را برای غلط املایی بررسی کنید و مطمئن شوید که از عبارات درست استفاده میکنید.
اگر جواب نداد، با مالک یا سرپرست وبسایت تماس بگیرید تا مشکل را گزارش کنید. آنها باید به شما در حل این خطا کمک کنند تا بتوانید به محتوای مد نظرتان دسترسی داشته باشید.
ج. نمایهسازی یا ایندکس
نمایهسازی فرآیندی حیاتی برای بهینهسازی عملکرد پایگاههای داده است. با نمایه سازی دادهها، DBMS ها میتوانند با سرعت بیشتری عبارات جستجو را پیدا کرده و بازیابی کنند. چندین شاخص مختلف وجود دارد که هر کدام نقاط قوت و ضعف خود را دارند.
رایج ترین نوع شاخص، ایندکس B-tree است.(که داده ها را در یک ساختار درختی سلسله مراتبی سازماندهی می کند). ایندکس B-tree به طور موثر رکوردها را بر اساس مقادیر کلیدی آنها بازیابی میکند.
یکی دیگر از انواع ایندکس محبوب، شاخص هش است که از یک الگوریتم هش برای ترسیم مقادیر کلیدی به رکوردهای خاص استفاده میکند.
شاخصهای هش مخصوصاً برای انجام مقایسهها مناسب هستند. در نهایت؛ نمایه بیت مپ دادهها را به صورت آرایه ای از بیتها رمزگذاری میکند.
ایندکسهای بیت مپ بسیار کارآمد هستند و میتوانند به طور موثر به پرسشها پاسخ دهند. تقریباً میتوانید برای هر نوع دادهای، از جمله دادههای عددی، دادههای متنی و تصاویر، فهرستهایی ایجاد کنید. ایندکسها را میتوان بر روی یک یا چند ستون در یک جدول ایجاد کرد و حتی میتوان بر روی عباراتی که چندین ستون را با هم ترکیب میکنند ایجاد کرد.
مدیران پایگاه داده میتوانند فهرستها را به صورت دستی ایجاد کنند یا DBMS میتواند به طور خودکار آنها را ایجاد کند. برای ایجاد تعادل مناسب بین عملکرد و میزان استفاده از فضا، باید شاخصها را با دقت انتخاب کنید.
این مورد زمانی اهمیت پیدا میکند که بدانید ایندکسهای بیش از حد میتوانند منجر به استفاده بیش از حد از دیسک شود، در حالی که ایجاد نمایههای بسیار کم میتواند عملکرد را کاهش دهد. ایندکسها ابزار قدرتمندی برای بهینهسازی عملکرد پایگاه داده هستند، اما برای دستیابی به بهترین نتایج باید از آنها با احتیاط استفاده کنید.
تفسیر و بازیابی صفحات توسط موتورهای جستجو
نمایهسازی فرآیندی است که موتورهای جستجو برای تفسیر و ذخیره صفحات شما استفاده میکنند. برای انجام این کار، آنها ابتدا باید بفهمند که صفحات شما در مورد چه چیزی هستند. این کار با نگاه کردن به محتوای صفحات شما و هر ابردادهای که ممکن است وجود داشته باشد، انجام میشود.
هنگامی که آنها محتوای صفحات شما را به خوبی درک کردند، می توانند شروع به فهرست کردن آنها کنند. نمایه سازی شامل ذخیرهسازی صفحات شما در یک پایگاه داده است تا زمانی که شخصی یک عبارت مرتبط را جستجو میکند، موتور جستجو به راحتی بتواند آنها را بازیابی کند.
با این حال، نمایهسازی میتواند اطلاعات دیگری مانند محبوبیت صفحات شما یا تعداد لینکهای ورودی را نیز ذخیره کند. این اطلاعات میتواند به تعیین رتبهبندی صفحاتتان در نتایج جستجو کمک کند.
همانطور که میبینید، نمایهسازی بخش مهمی از نحوه کار موتورهای جستجو است و مهم است که اطمینان حاصل شود صفحات شما به درستی ایندکس شدهاند. در این صورت میتوانید مطمئن شوید در نتایج جستجو قابل مشاهده هستند.
با این حال، گاهی اوقات این الگوریتمها میتوانند یک صفحه را به اشتباه تفسیر کنند یا محتوای یک وبسایت تغییر کند و دیگر در مورد همان موضوع نباشد. در این موارد، ارسال درخواستی به موتور جستجو برای فهرست بندی مجدد صفحه بسیار مهم است تا بتوان آن را به طور دقیق در نتایج جستجو نشان داد. این فرآیند «بازیابی» نامیده می شود.
به وسیلۀ بازیابی صفحاتی که به درستی ایندکس نشدهاند یا دیگر مرتبط نیستند، موتورهای جستجو میتوانند نتایج دقیق و مفیدتری را به کاربران ارائه دهند. در نتیجه، بازیابی برای حفظ یک وب سایت سالم ضروری است.
اعلام نتایج یا Creating resaults
پس از طی تمام این مراحل، نهایتا موتورهای جستجو چگونه نتایج را به شما نشان میدهند؟ موتورهای جستجو نتایج را به وسیله دادههای کاربر از برنامه یا دستگاهی که کاربر با آن به موتور جستجوگر دسترسی دارد جمع آوری میکنند. دادههای جمع آوری شده کاربر توسط موتورجستجو شامل موارد زیر است:
تاریخچه جستجو، تاریخ و زمان جستجو، اطلاعات مکان، دادههای صوتی، شناسه کاربر، شناسایی دستگاه، آدرس آی پی، لیستهای تماس، سابقه خرید و …
Search Engines از کوکیها برای ردیابی تاریخچه مرور و سایر دادهها استفاده میکند. کوکیها فایلهای متنی کوچکی هستند که از وب سایتهایی که کاربر بازدید میکند به مرورگر وی ارسال میشود. موتورهای جستجو از کوکیها برای شناسایی علایق کاربر و شخصی سازی کردن نتایج و تبلیغات استفاده میکنند. آنها میتوانند تنظیماتی مانند رمزهای عبور، ترجیحات زبان، فیلترهای محتوا، تعداد نتایج در هر صفحه و علایق کاربر را به خاطر بسپارند.
رتبه بندی یا Ranking
رتبه بندی موتورهای جستجو یک فرآیند پیچیده است. گوگل بیش از 200 عامل را در نظر میگیرد تا در آخر تعیین کند کدام وب سایتها را در صفحه اول نتایج جستجو نشان دهد و کدام را در صفحات بعدی ارائه دهد.
برخی از عواملی که موتورهای جستجو هنگام رتبه بندی وب سایتها به آن توجه میکنند عبارتند از:
- کیفیت و کمیت محتوای سایت.
- تعداد وب سایتهای دیگری که به آن لینک می دهند.
- سرعت و قابلیت استفاده از سایت.
رتبه بندی موتورهای جستجو عامل مهمی در تعیین میزان ترافیک دریافتی یک وب سایت است و میتواند تاثیر زیادی بر روی نتیجه کسب و کار داشته باشد. به همین دلیل است که بسیاری از شرکتها سرمایه گذاری زیادی روی بهینه سازی موتورهای جستجو یا سئو میکنند و رتبه وب سایت را در موتورهای جستجو بهبود میبخشد.
الگوریتمهای موتورهای جستجو چگونه کار میکنند؟(ارائه مثال)
برای درک آسانتر نحوۀ کارکرد موتورهای جستجو، در اینجا یک فرآیند ساده از نحوه عملکرد عوامل رتبه بندی موتورهای جستجو آورده شده است:
مرحله اول: تجزیه و تحلیل سوال کاربر
اولین قدم این است که موتورهای جستجو بفهمند کاربر به دنبال چه نوع اطلاعاتی است. برای انجام این کار، آنها سوال کاربر (عبارات جستجو) را با تجزیه آن به تعدادی کلیدواژه معنی دار تجزیه و تحلیل میکنند. منظور از کلمهکلیدی، کلمهای است که معنی و هدف خاصی دارد.
به عنوان مثال، وقتی «چگونه یک کیک شکلاتی درست کنیم» را تایپ میکنید، موتورهای جستجو از کلمه «چگونه» میفهمند که شما به دنبال دستورالعملهایی در مورد نحوۀ درست کردن کیک شکلاتی هستید، بنابراین نتایج نشان داده شده حاوی وبسایتهای آشپزی با دستور العملها خواهد بود.
به همین منوال، اگر عبارت «خرید محصول…» را جستجو کنید، از کلمات خرید و محصول میفهمند که شما به دنبال خرید چیزی هستید و نتایج نشان داده شده شامل وبسایتهای تجارت الکترونیک و فروشگاههای آنلاین خواهد بود.
الگوریتمها به موتورهای جستجو کمک میکنند تا کلمات کلیدی مرتبط را با هم مرتبط کنند. به عنوان مثال، آنها میدانند که معنای عبارت “چگونه یک لامپ را تعویض دهیم؟” مانند “روشهای تعویض لامپ” است.
جالب است بدانید که آنها همچنین به اندازه کافی باهوش هستند که اشتباهات املایی را تفسیر کنند، کلمات جمع را بفهمند و به صورت صوتی معنای حرف شما متوجه شوند.
مرحله دوم: یافتن صفحات منطبق
مرحله دوم این است که به فهرست ظاهر شده نگاه کنید و تصمیم بگیرید که کدام صفحات میتوانند بهترین پاسخ را برای سوال شما ارائه کنند.
این یک مرحلۀ بسیار مهم در کل فرآیند هم برای موتورهای جستجو و هم برای وب مسترها است. موتورهای جستجو باید بهترین نتایج ممکن را به سریع ترین شکل ممکن پیدا کنند تا کاربران خود را راضی نگه دارند.
این مرحله همچنین مرحله ای است که تکنیک های SEO میتوانند بر تصمیمات اتخاذ شده توسط الگوریتمها تأثیر بگذارند.
اما این تمام ماجرا نیست! همانطور که قبلا ذکر شد، گوگل از بیش از 255 عامل در الگوریتم های خود استفاده می کند تا اطمینان حاصل کند که کاربران از نتایجی که به دست می آورند راضی هستند.
مرحله سوم: ارائه نتایج به کاربران
نتایج جستجو که معمولاً به عنوان صفحات نتایج موتورهای جستجو (SERP) شناخته میشوند، در یک لیست مرتب ارائه میشوند. طرحبندی SERP ها اغلب شامل عناصر مختلفی مانند لیستهای ارگانیک، تبلیغات پولی، قطعه های برجسته، نمودارهای دانش، قطعه های غنی و غیره است که بستگی به ماهیت سوال دارد.
به عنوان مثال، جستجو برای یک خبر خاص ممکن است مقالات خبری اخیر را نشان دهد، در حالی که یک پرس و جو برای یک رستوران محلی می تواند نقشه ای را با مکان های نزدیک نشان دهد.
مهمترین عوامل رتبه بندی صفحات توسط موتورهای جستجو
نتایج جستجوی شما باید حداقل با برخی از کلمات جستجوی شما مطابقت داشته باشد. موتورهای جستجو صفحاتی را که در آن کلمات کلیدی در موقعیت برجسته ای مانند عنوان صفحه یا اغلب در سراسر صفحه ظاهر می شوند، اولویت بندی می کنند. محتوای صفحه موتورهای جستجو با تجزیه و تحلیل طول، عمق و وسعت صفحات وب، محتوای با کیفیت بالا را در اولویت قرار می دهند. بک لینک ها در وب سایت دیگر، می توانند به عنوان رأی به اعتبار آن سایت در نظر گرفته شوند. موتورهای جستجو از اطلاعات شخصی کاربران، مانند تاریخچه جستجو و مکان، برای ارائه نتایجی که منحصراً به شما مرتبط هستند، استفاده می کنند.
معنی پرس و جو
سرچ انجین به جستجوهای کاربر نگاه می کند تا قصد جستجوگر را تعیین کند، که نوع خاصی از اطلاعات کاربر است. موتورهای جستجو از مدل های زبان برای این کار استفاده می کنند. مدلهای زبان الگوریتمهایی هستند که ورودی کاربر را میخوانند، معنی آن را میفهمند و نوع اطلاعاتی را که کاربر به دنبال آن است، تعیین میکند.
ارتباط
کلمات کلیدی از پرس و جوهای جستجو با کلمات کلیدی در محتوا تطبیق داده می شوند. کلمات کلیدی که در چندین مکان در محتوا ظاهر می شوند، نسبت به سایرین ارتباط بیشتری دارند.
کیفیت
موتورهای جستجو به دنبال شاخص های تخصص، اقتدار و قابل اعتماد بودن در محتوا هستند. اگر سایر وب سایت های برجسته به محتوا لینک دهند، قابل اعتمادتر در نظر گرفته می شود.
قابلیت دسترسی
موتورهای جستجو دسترسی و تجربه عمومی کاربر از محتوا را ارزیابی می کنند و به محتوا با تجربه صفحه بهتر پاداش می دهند. یکی از نمونههایی از قابلیت استفاده از صفحه، سازگاری با موبایل است، که معیاری است برای استفاده از یک صفحه وب در دستگاه تلفن همراه.
داده های کاربر
سابقه جستجوی گذشته کاربر، تنظیمات جستجو و دادههای موقعیت مکانی چند نوع داده است که موتورهای جستجو برای تعیین رتبهبندی محتوایی که انتخاب میکنند استفاده میکنند.
موتورهای جستجو ممکن است از معیارهای دیگر عملکرد وب سایت، مانند نرخ پرش و زمان صرف شده در صفحه، برای تعیین رتبه وب سایت ها در صفحه نتایج استفاده کنند. موتورهای جستجو ممکن است برای همان عبارت جستجو شده به عنوان محتوای متنی در مقابل جستجوی تصویر یا ویدیو، نتایج متفاوتی را ارائه دهند.
موتورهای جستجو چگونه کسب درآمد می کنند؟
موتورهای جستجو دارای دو نوع نتایج جستجو هستند: نتایج جستجوی ارگانیک و تبلیغات پولی. در اینجا خلاصهای از نحوه ایجاد درآمد آورده شده است.
موتورهای جستجو از راه های مختلفی کسب درآمد می کنند، از جمله موارد زیر:
تبلیغات پرداخت به ازای کلیک: تبلیغکنندگان یا شبکههای تبلیغاتی شخص ثالث، تبلیغات را روی SERP و خود محتوا قرار میدهند. هرچه تعداد بازدیدها یا کلیکهای بیشتری از یک کلمه کلیدی مرتبط با جستجو دریافت کند، تبلیغکنندگان برای مرتبط کردن تبلیغاتشان با آن پول بیشتری میپردازند.
هنگامی که کاربر روی یکی از این تبلیغات پولی کلیک میکند، موتور جستجو هزینهای را از تبلیغ کننده دریافت میکند. میزان کارمزد بستگی به رقابتی بودن کلمه کلیدی و پیشنهاد ارائه شده توسط تبلیغ کننده دارد. این مدل برای موتورهای جستجو بسیار سودآور است زیرا هر بار که کاربر روی تبلیغ کلیک میکند درآمد کسب میکند.
داده های کاربر: موتورهای جستجو نیز از داده های کاربر که جمع آوری می کنند درآمد کسب می کنند. به عنوان مثال می توان به تاریخچه جستجو و داده های مکان اشاره کرد. این داده ها برای ایجاد یک نمایه دیجیتال برای یک جستجوگر معین استفاده می شود، که ارائه دهندگان موتورهای جستجو می توانند از آن برای ارائه تبلیغات هدفمند به آن کاربر استفاده کنند.
تبلیغات متنی: موتورهای جستجو همچنین از ارائه تبلیغات متنی که مستقیماً با جستجوی فعلی کاربر مرتبط هستند، سرمایه گذاری می کنند. اگر یک موتور جستجوگر دارای ویژگی خرید در پلتفرم باشد، ممکن است تبلیغات متنی برای محصولات مرتبط با جستجوی کاربر را در نوار کناری یک وب سایت که در آن تبلیغات نمایش داده می شود، نمایش دهد. به عنوان مثال، اگر فروشگاه اینترنتی کتاب می فروشد، ممکن است تبلیغی برای عینک مطالعه در گوشه صفحه ظاهر شود. کمک های مالی. برخی از موتورهای جستجو برای کمک به سازمان های غیرانتفاعی برای درخواست کمک های مالی طراحی شده اند.
مدل حراج
موتورهای جستجو اغلب از یک سیستم حراج برای تعیین اینکه کدام تبلیغات در نتایج جستجو ظاهر میشود استفاده میکنند. تبلیغکنندگان برای قرار دادن آگهیها بر اساس پیشنهادات کلمه کلیدی و امتیازهای کیفیت (معیار ارتباط و کیفیت آگهی) با یکدیگر رقابت میکنند. تبلیغی که بالاترین قیمت پیشنهادی و بهترین کیفیت را داشته باشد معمولاً جایگاه برتر را کسب میکند.
موتورهای جستجو چگونه نتایج را شخصی سازی می کنند؟
موتورهای جستجو نتایج را بر اساس نمایه های جستجوگر دیجیتال ایجاد شده از داده های کاربر شخصی سازی می کنند. داده های کاربر از برنامه یا دستگاهی که کاربر با آن به موتور جستجو دسترسی دارد جمع آوری می شود. داده های کاربر جمع آوری شده شامل موارد زیر است:
- تاریخچه جستجو
- تاریخ و زمان جستجو
- اطلاعات مکان
- داده های صوتی
- شناسه کاربر
- شناسایی دستگاه
- آدرس آی پی
- داده های تشخیصی دستگاه
- لیست های تماس
- سابقه خرید
از کوکی ها برای ردیابی تاریخچه مرور و سایر داده ها استفاده می شود. آنها فایل های متنی کوچکی هستند که از وب سایت هایی که کاربر بازدید می کند به مرورگر وب خود ارسال می شود. موتورهای جستجو از کوکی ها برای ردیابی ترجیحات کاربر و شخصی سازی نتایج و تبلیغات استفاده می کنند. آنها می توانند تنظیماتی مانند رمزهای عبور، ترجیحات زبان، فیلترهای محتوا، تعداد نتایج در هر صفحه و اطلاعات جلسه را به خاطر بسپارند.
دیدید که روند کار موتورهای جستجو چگونه است؟ الگوریتمها و تکنولوژیهای پیشرفتهای به کار گرفته شدهاند تا بتوانید به محض جستجوی موضوعی در گوگل، به نتایج آن دست پیدا کنید. لازم به ذکر است که هر چه قدر درباره نحوه کار موتورهای جستجو بیشتر بدانید، بهتر میتوانید به رشد سایتهای خودتان کمک کنید. در واقع، با دانستن نحوه کارکرد الگوریتمها، میتوانید همگام با الگوریتم موتورهای جستجو پیش بروید و همیشه در بالاترین نتایج ظاهر شوید.