سفارش تبلیغ
صبا ویژن

آشنایی با موتورهای جستجو

وب را می توان منبع بزرگی از اطلاعات دانست که برای اکثر پرسش های کاربران پاسخ های قابل قبولی را در خود جای داده است. امروزه با وجود میلیون ها وب سایت و میلیاردها صفحه وب و انبوهی از فایل ها و مستندات قابل دسترس، افراد گوناگون برای دریافت پاسخ پرسش های خود راهی بهتر و سریع تر از مراجعه به اینترنت سراغ ندارد. Image result for search engine

اما سوال اصلی این است که برای رسیدن به اطلاعات مورد نظر باید به کدام وب سایت مراجعه نمود تا از میان انبوه اطلاعات موجود در اینترنت به صفحه مطلوب رسید؟ شاید اگر برای حل این معضل راه حل مناسبی ابداع نشده بود، استفاده عمومی از وب تا این حد گسترش پیدا نمی کرد.
تا مدت ها کار دسته بندی صفحات وب به صورت دستی و بدون استفاده از نرم افزار خاصی انجام می شد تا این که کم کم ایده تولید موتورهای جستجومیان برنامه نویسان شکل گرفت و از سال 1993 به تدریج نرم افزارهایی برای جستجو در محتوای صفحات وب تولید شد. در همین زمان بود که مفهومی به نام Web Robot پا به دنیای فن آوری اطلاعات گذاشت؛ یعنی نرم افزاری که به صورت خودکار صفحات وب را احضار نموده و با بررسی محتوای صفحات، اقدام به نمایه سازی آنها می کند.
تا اوایل سال 2050 موتورهای جستجوی متعددی توسط شرکتهای مختلف در اختیار کاربران وب قرار گرفت که تعدادی از آنها مانند Excite.com ،Lycos.com Altavista.com و Ask.com همچنان مورد استفاده قرار می گیرند اما باید جدی ترین تلاش ها در این زمینه را مربوط به موتورهای جستجوی Google وYahoo و نیز موتور جستجوی شرکت مایکروسافت دانست که با عنوان MSN شروع به کار کرد و هم اینک به Bing تغییر نام داده است.

امروزه موتور جستجوی گوگل به مدد الگوریتم قدرتمندی که توسط یک دانشجوی جوان به نام آری بیجا نوشته شد توانسته در دنیای موتورهای جستجو به رقیب بلامنازع تبدیل شود و تقریبا سایر رقبا را به حاشیه براند، قرار گرفتن گوگل در میان سایت پربیننده دنیا نشان می دهد که جستجو در اینترنت برای اغلب کاربران تبدیل به دروازه ای جهت ورود به دنیای وسیع وب شده؛ هدفی که پایه گذاران موتور جستجو سال ها به دنبال آن بودند و اکنون این هدف محقق شده است
هنگامی که کلید واژه ای را در یکی از موتورهای جستجو مثل yahoo.com google.com یا bing.com وارد می کنید، در کمتر از یک ثانیه، لیستی از نشانی وب سایتها و صفحات حاوی کلیدواژه در اختیار شما قرار می گیرد و تعداد نتایج به دست آمده می تواند بین صفر تا چند میلیون نتیجه متغیر باشد. این سوال ممکن است برای هر کاربر موتورهای جستجو پیش بیاید که یافتن این تعداد نتیجه در این زمان کوتاه چگونه امکان پذیر است؟ برای پاسخ به این سوال باید اجزاء تشکیل دهنده یک موتور جستجو را که در اغلب آنها مشترک است با هم مرور کنیم.

  •  Spider با Robot: اسپایدر یا روبوت نرم افزاری است که وظیفه جمع آوری اطلاعات موردنیاز برای یک موتور جستجو را برعهده دارد. اسپایدر به صورت خودکار، به صفحات مختلف سر می زند. کد HTML و محتوای آن را بررسی می کند و با دنبال نمودن پیوندها، اطلاعات موردنیاز را در اختیار سایر بخش های موتور جستجو قرار می دهد.
  • Crawler: کرالر یا خزنده برنامه دیگری است که اسپایدر را مدیریت می کند یعنی مشخص می کند که به سراغ کدام صفحات برود و چه پیوندهایی را دنبال کند. علاوه بر این برای مرور مجدد صفحات قبلی و به روز کردن اطلاعات موجود درباره آنها برنامه ریزیمی کند.
  • Indexer: وظیفه نمایه کردن اطلاعات را برعهده دارد به این معنی که اطلاعات را از اسپایدر دریافت نموده و آنها را مورد تجزیه و تحلیل قرار می دهدتا مشخص شود چه کلیدواژه هایی در صفحه وب وجود دارد، در کجای صفحه و چندبار تکرار شده اند و نشانی آنها بر روی وب چیست.
  • Database: نتیجه تجزیه و تحلیل صورت گرفته توسط Indexer برای پایگاه داده ارسال میشود. در این بخش، داده ها گروه بندی، کدگذاری و فشرده شده و در پایگاه داده عظیم موتور جستجو ذخیره می شوند.
  • Ranker: عمده تفاوت موجود در توانایی موتورهای جستجو برای پاسخگویی مناسب به کاربران به سیستم رتبه بندی موتور جستجو برمی گردد. در این بخش عبارت وارد شده توسط کاربر مورد بررسی قرار می گیرد و Ranker نتایج موجود در پایگاه داده را بر حسب میزان ارتباط با کلیدواژه ها، به صورت نزولی مرتب می کند و به عنوان نتیجه برمی گرداند.

هر قدر سیستم رتبه بندی یک موتور قوی تر باشد و پایگاه داده توانایی ذخیره سازی حجم بیشتری از اطلاعات را داشته باشد، نتایج به دست آمده از جستجو کاربردی تر و فاقد موارد غیرمرتبط خواهد بود.

 

منبع:موتورهای جستجو