تحقیق درباره موتور جستجوگر

راهنمای سایت

سایت اقدام پژوهی -  گزارش تخصصی و فایل های مورد نیاز فرهنگیان

1 -با اطمینان خرید کنید ، پشتیبان سایت همیشه در خدمت شما می باشد .فایل ها بعد از خرید بصورت ورد و قابل ویرایش به دست شما خواهد رسید. پشتیبانی : بااسمس و واتساپ: 09159886819  -  صارمی

2- شما با هر کارت بانکی عضو شتاب (همه کارت های عضو شتاب ) و داشتن رمز دوم کارت خود و cvv2  و تاریخ انقاضاکارت ، می توانید بصورت آنلاین از سامانه پرداخت بانکی  (که کاملا مطمئن و محافظت شده می باشد ) خرید نمائید .

3 - درهنگام خرید اگر ایمیل ندارید ، در قسمت ایمیل ، ایمیل http://up.asemankafinet.ir/view/2488784/email.png  را بنویسید.

http://up.asemankafinet.ir/view/2518890/%D8%B1%D8%A7%D9%87%D9%86%D9%85%D8%A7%DB%8C%20%D8%AE%D8%B1%DB%8C%D8%AF%20%D8%A2%D9%86%D9%84%D8%A7%DB%8C%D9%86.jpghttp://up.asemankafinet.ir/view/2518891/%D8%B1%D8%A7%D9%87%D9%86%D9%85%D8%A7%DB%8C%20%D8%AE%D8%B1%DB%8C%D8%AF%20%DA%A9%D8%A7%D8%B1%D8%AA%20%D8%A8%D9%87%20%DA%A9%D8%A7%D8%B1%D8%AA.jpg

لیست گزارش تخصصی   لیست اقدام پژوهی     لیست کلیه طرح درس ها

پشتیبانی سایت

در صورت هر گونه مشکل در دریافت فایل بعد از خرید به شماره 09159886819 در شاد ، تلگرام و یا نرم افزار ایتا  پیام بدهید
آیدی ما در نرم افزار شاد : @asemankafinet

تحقیق درباره موتور جستجوگر

بازديد: 7
تحقیق درباره موتور جستجوگر

 

تحقیق درمورد موتور جستجوگر

مقدمه :

با پيشرفت بشر در زمينه‌هاي مختلف علمي و افزايش سطح آگاهي انسان دربارة پديده‌هاي مختلف و البته نياز رو به گسترش ما به دانش و اطلاعات در اين عصر زمينه براي بروز پديد‌ه‌هاي مختلفي كه بتواند خواسته‌هاي علمي و اطلاع رساني انسان را براي برآورده‌ سازد افزايش يافته است . با ساخت كامپيوتر در اواسط قرن گذشته مقداري از نيازهاي انسان برآورده شد با گذشت زمان اين دستگاه در قسمتهاي مختلف جامعه نفوذ كرد و تا امروز كه در جاهايي مانند مراكز نظامي، پزشكي و اداري به وفور استفاده مي‌شود .

در دهه‌هاي پاياني قرن گذشته با افزايش نيازبه اطلاعات بصورت روزانه گسترش ارتباط بين سازمانها و نهادها . نياز به يك شبكه جهاني احساس شد كه هم اطلاعات به روز شده و فراواني بتواند در آن وجود داشته باشد و هم به سادگي و ارزان در اختيار مردم قرار گيرد . كه اينترنت بر اين اساس شكل گرفت . امروزه اينترنت به سرعت در حال وارد شدن به زندگي مردم است اين رسانه با مطالب فراوان و متنوعي كه دارد توانسته است قشرهاي مختلف مردم را به خود جذب كند .

امروزه عده زيادي از مردم عادي، ادارات دولتي، سازمانها ، در روز از اينترنت استفاده مي‌كنند . به همين خاطر به مكانيزمي نياز شد كه كاربران بتوانند امكان جستجو داشته باشند در نتيجه موتورهاي جستجوگر در اين رسانه ايجاد شده است تا بتواند مطالب مورد نظر كاربر را به سرعت پيدا كنند .

موتورهاي جستجو از ابتداي تشكيل خود با امكان جستجوي مطلب در بعضي از سايتهاي اينترنتي قرار گرفتند. اين سايتها با گذشت زمان توانستند مكانيزم جستجوي خود را بهينه و از طرفي گسترده‌تر كنند . با گسترش استفاده از اينترنت احتياج به موتور جستجوي فارسي بشدت مشاهده مي‌شد كه اين كار توسط GOOGLE انجام شده است . و مي‌توان به كمك آن اطلاعات فراواني را بصورت فارسي در زمينه‌هاي مختلف بدست آورد . گستردگي اين مطالب بقدري زياد است كه پيشنهاد مي‌شود كه هر كاربر اسم خود را يك بار در موتور جستجو نوشته و نتيجه كار را مشاهده كنند .

سايتهاي موتور جستجو در حال حاضر نيز در حال بهتر كردن الگوريتم جستجوي خود و اضافه كردن كارايي‌هاي ديگر به سايت خود هستند كه در قسمت پاياني تحقيق آمده است . در اين تحقيق سعي شده است مطالبي راجع به موتورهاي جستجو و انواع آن و نسل

آينده آنها مطالبي آورده شده است .

 

 موتور جستجوگر چگونه كار مي كند ؟

وقتي جستجويي در يك موتور جستجوگر انجام و نتايج جستجو ارائه مي‌شود، كاربر در واقع نتيجه كار بخش‌هاي متفاوت آن موتور جستجوگر را مي‌بينند .

موتور جستجوگر قبلاً پايگاه داده‌اش «Database » را آماده كرده است و اين گونه نيست كه در همان  لحظه جستجو، تمام وب را بگردد . بسياري از خود مي‌پرسند كه چگونه امكان دارد گوگل « Google» در كمتر از يك ثانيه تمام سايت‌هاي وب را بگردد و ميليون‌ها صفحه را در نتايج جستجوي خود ارائه كند ؟

نه گوگل و نه هيچ موتور جستجوگر ديگري توانايي انجام اين كار را ندارد. همه آنها در زمان پاسخ‌گوي به كاربران، تنها در پايگاه داده‌اي كه در اختيار دارند به جستجو مي‌پردازند و نه در وب ! موتور جستجوگر به كمك بخش‌هاي متفاوت خود، اطلاعات مورد نياز قبلاً جمع‌آوري، تجزيه و تحليل مي‌كند و آنرا در پايگاه داده‌اش ذخيره مي‌نمايد، بخش‌هاي مجزاي يك موتور جستجوگر عبارتند از :

                ·Spiderيا عنكبوت

                ·Crawlerيا خزنده

                ·Indexerيا بايگاني كننده

                ·Databaseيا پايگاه داده

                ·Rankerيا سيستم رتبه بندي

الف ـ Spider(عنكبوت)

اسپايدر يا روبوت « Robot » نرم افزاري است كه كار جمع‌آوري اطلاعات مورد نياز يك موتور جستجوگر را بر عهده دارد . اسپايدر به صفحات مختلف سر مي‌زند، محتواي آنها را مي‌خواند و اطلاعات مورد نياز موتور جستجوگر را جمع‌آوري مي‌كند و آنرا در اختيار ساير بخش‌هاي موتور جستجوگر قرار مي‌دهد.

كار يك اسپايدر، بسيار شبيه كار كاربران وب است. همانطور كه كاربران، صفحات مختلف را بازديد مي‌كنند، اسپايدر هم اين كار را انجام مي‌دهد با اين تفاوت كه اسپايدر كدهاي HTML صفحات را مي‌بيند اما كاربران نتيجه حاصل از كنار هم قرار گرفتن اين كدها را. 

اسپايدر، به هنگام مشاهده صفحات، از خود بر روي سرورها « رد پا بر جاي مي‌گذارد . شما اگر اجازه دسترسي به آمار ديد و بازديد‌هاي صورت گرفته از يك سايت و اتفاقات انجام شده در آنرا داشته باشيد، مي‌توانيد مشخص كنيد كه اسپايدر كدام موتورهاي جستجوگر صفحات سايت را مورد بازديد قرار داده‌اند .

اسپايدر‌ها كاربردهاي ديگري نيز دارند، به عنوان مثال عده‌اي از آنها به سايت‌هاي مختلف مراجعه مي‌كنند و فقط به بررسي فعال بودن لينك‌هاي آنها مي‌پردازند و يا به دنبال آدرس پست الكترونيكي « Email » افراد مي‌گردند .

 

ب ـ Crawler (خزنده )

كراولر، نرم افزاري است كه به عنوانفرمانده  براي اسپايدر عمل مي‌كند. كراولر مشخص مي‌كند كه اسپايدر كدام صفحات را مورد بازديد قرار دهد. در واقع كراولر تصميم مي‌گيرد كه كدام يك از لينك‌هاي صفحه‌اي كه اسپايدر در حال حاضر در آن قرار دارد، دنبال شود. ممكن است همه آنها را دنبال كند، بعضي‌ها را دنبال كند و يا هيچ كدام را دنبال نكند .

كراولر، ممكن است قبلاً توسط دارندگان موتورهاي جستجوگر برنامه‌ريزي شده باشد كه آدرس‌هاي خاصي را طبق برنامه در اختيار اسپايدر قرار دهد تا از آنها ديدن كند .

دنبال كردن لينك‌هاي يك صفحه به اين بستگي دارد كه موتورهاي جستجوگر چه حجمي از اطلاعات يك سايت را مي‌تواند در پايگاه داده‌اش ذخيره كندو همچنين ممكن است اجازه دسترسي به عضي از صفحات به موتورهاي جستجوگر داده نشده باشد.

شما به عنوان دارنده سايت، همان طور كه دوست داريد موتورهاي جستجوگر اطلاعات شما را با خود ببرند، مي‌توانيد آنها را از بعضي از صفحات سايت‌‌تان دور كنيد و اجازه دسترسي به محتواي آن صفحات را به موتورهاي جستجوگر ندهيد .

تنظيم ميزان دسترسي موتورهاي جستجوگر به محتواي يك سايت توسط پروتكل Robots انجام مي‌شود . به عمل كراولر، خزش (Crawling ) مي‌گويند.

 

ج ـ Indexer ( بايگاني كننده )

تمام اطلاعات جمع‌آوري شده توسط اسپايدر در اختيار ايندكسر قرار مي‌گيرد . در اين بخش اطلاعات ارسالي مورد تجزيه و تحليل قرار مي‌گيرند و به بخش‌هاي متفاوتي تقسيم مي‌شوند . تجزيه و تحليل بدين معني است كه مشخص مي‌شود اطلاعات از كدام صفحه ارسال شده است، چه حجمي دارد، كلمات موجود در آن كدام است، كلمات چند بار تكرار شده است، كلمات در كجاي صفحه قرار دارند و  .

در حقيقت ايندكسر صفحه را به پارامترهاي آن خرد مي‌كند و تمام اين پارامترها را به يك مقياس عددي تبديل مي‌كند تا سيستم رتبه بندي بتواند پارامترهاي صفحات مختلف را با هم مقايسه كند.

در زمان تجزيه و تحليل اطلاعات، ايندكسر براي كاهش حجم داده‌ها از عضي كلمات كه بسيار رايج هستند صرفنظر مي‌كند. كلماتي نظير a، an، the، www، isو از اين گونه كلمات هستند .

 

د ـ Database( پايگاه داده )

تمام داده‌ها تجزيه و تحليل شده در ايندكسر، به پايگاه داده ارسال مي‌گردد. در اين بخش، داده‌ها گروه‌بندي، كدگذاري، و ذخيره مي‌شود . هنچنين داده‌ها قبل از آنكه ذخيره شوند، فشرده مي‌شوند تا حجم كمي را اشغال كنند.

يك موتور جستجوگر بايد پايگاه داده عظيمي داشته باشد و به طور مداوم حجم محتواي آنرا گسترش دهد و البته اطلاعات قديمي را هم به روز كند. بزرگي و به روز بودن پايگاه داده يك موتور جستجوگر براي آن امتياز محسوب مي‌گردد. يكي از تفاوتهاي اصلي موتورهاي جستجوگر در حجم پايگاه داده آنها و همچنين روش ذخيره سازي داده است .

 

و ـ Ranker( سيستم رتبه بندي )

بعد از آنكه مراحل قبل انجام شد، موتور جستجوگر آماده پاسخ‌گويي به سئوالات كاربران است. كاربران چند كلمه را در جعبه جستجوي « Search Box» آن وارد مي‌كنند و سپس با فشردن  Enter  منتظر پاسخ مي‌مانند . در اين مرحله، سيستم رتبه بندي وارد عمل مي‌شود و ابتدا تمام صفحات موجود در پايگاه داده، كه به موضوع جستجو شده، مرتبط هستند را مشخص مي‌كند . سپس آنها را به ترتيب از بيشترين ارتباط تا كمترين ارتباط مرتب مي‌كند و در نتايج جستجو به كاربر ارائه مي‌كند .

حتي اگر موتور جستجو گر بهتر‌ين و كامل‌ترين پايگاه داده را داشته باشد اما نتواند پاسخ‌هاي مرتبطي را ارائه كند، يك موتور جستجوگر ضعيف خواهد بود .

سيستم رتبه‌بندي قلب تپنده يك موتور جستجوگر است و تفاوت اصلي موتورهاي جستجوگر در اين بخش قرار دارد. سيستم رتبه بندي براي پاسخ‌گويي به سئوالات كاربران، پارامترهاي بسياري را در نظر مي‌گيرد تا بتواند بهترين پاسخ‌ها را در اختيار آنها قرار دهد.

 

الگوريتم ، مجموعه‌اي از دستورالعمل‌ها است كه موتور جستجوگر با اعمال آنها بر پارامترهاي صفحات موجود در پايگاه داده‌اش ، تصميم مي‌گيرد كه صفحات مرتبط را چگونه در نتايج جستجو ، مرتب كند . در حال حاضر قدرتمند‌ترين سيستم رتبه‌بندي را گوگل دراختيار دارد .

البته مي‌توان با ادغام كردن وظيفه‌هاي اسپايدر با كراولر و همچنين ايندكسر با پايگاه داده  موتور جستجوگر را شامل سه بخش زير دانست كه اين گونه تقسم‌بندي هم درست مي‌باشد :

      ·كراولر

      ·بايگاني

      ·سيستم رتبه‌بندي

تذكر ـ براي سهولت در بيان مطالب بعدي هرگاه صحبت از بايگاني كردن ( شدن ) به ميان مي‌آيد ، مقصود اين است كه صفحه تجزيه و تحليل و به پايگاه داده موتور جستجوگر وارد مي‌شود .

براي آنكه تصور درستي از نحوه كار يك موتور جستجوگر داشته باشيد مثال غير متعارف زير را با هم بررسي مي‌كنيم .

يك شكارچي تصميم به شكار مي‌گيرد :

ـ كار كراولر:

او قصد دارد براي شكار به منطقه حفاظت شده ابيورد ، در شهرستان درگز ( شمال خراسان ) برود .

 

ـ پروتكل Robots :

ابتدا تمام محدوديت‌هاي موجود براي شكار در اين منطقه را بررسي مي‌كند :

آيا در اين منطقه مي‌توان به شكار پرداخت ؟

كدام حيوانات را مي‌توان شكار كرد ؟

حداكثر تعداد شكار چه ميزاني است ؟

و    .

فرض مي‌كنيم او مجوز شكار يك اوريال ( نوعي ‌آهو ) را دريافت مي‌كند .

 

ـ كار اسپايدر :

او اوريال رعنا را شكار مي‌كند و سپس آنرا به منزل مي‌برد .

 

ـ كار ايندكسر :

شكار را تكه‌تكه كرده ، گوشت ، استخوان ، دل و قلوه ، كله پاچه و آنرا بسته‌بندي مي‌كند و بخش‌هاي زايد شكار را دور مي‌اندازد .

 

ـ كار پايگاه داده :

بسته‌هاي حاصل را درون فريزر قرار داده ، ذخيره مي‌كند .

ـ كار سيستم رتبه‌بندي :

مهمان سراغ او مي‌آيد   همسر او بسته به ذائقه مهمانان براي آنها غذا طبخ مي‌كند ، ممكن است عده‌اي كله پاچه ، عده‌اي آبگوشت ، عده‌اي جگر و دوست داشته باشند . پخت غذا طبق سليقه  مهمانان كار سختي است . ممكن است همه آنها آبگوشت بخواهند اما آنها مسلماً با مزه‌ترين آبگوشت را مي‌خواهند !

 

  انواع موتورهاي جستجوگر :

موتورهاي جستجوگر( با درجات متفاوتي از موفقيت ) در واقع يك كار انجام مي‌دهند :

فراهم آوردن يك وسيله جستجوي ساده براي كمك به كاربران در رسيدن به اطلاعات مورد نياز .

براي نيل به اين مهم ، موتورهاي جستجوگر از اطلاعات موجود در پايگاه داده‌شان كمك مي‌گيرند . اطلاعات اين پايگاه داده نيز به روش‌هاي گوناگوني تامين مي‌شود . كار جمع‌آوري داده را اسپايدرها بر عهده دارند . اما آيا همه موتورهاي جستجوگر ، اسپايدر دارند ؟  آيا همه اسپايدرها مثل هم كار مي‌كنند ؟

با توجه به نوع جمع‌آوري اطلاعات ، شيوه ارائه نتايج و مواردي ديگر ، موتورهاي جستجوگر به انواع گوناگوني تقسيم مي‌شوند كه عبارتند از :

 

 ·                   Saerch Engine

 ·                   Directory

 ·                   Meta Search Engine

 ·                   Pay Per Click Search Engine

 ·                   Specialty Search Engine

 

 

الف ـ Saerch Engine يا موتورهاي جستجوگر

در اين نوع از موتورهاي جستجوگر ، كار جمع‌آوري اطلاعات بر عهده اسپايدرها است . در حالت كلي زماني كه صحبت از موتورهاي جستجوگر مي‌شود ، مقصود ، اين نوع آن است .

پايگاه داده اين نوع از موتورهاي جستجوگر بزرگتر از ساير انواع است و اطلاعاتي را كه آنها ارائه مي‌دهند ، معمولاً به روزتر مي‌باشد . عمليات به روز رساني و گسترش پايگاه داده موتورهاي جستجوگر از يك هفته تا چند ماه به طول مي‌انجامد .

اسپايدرها ، هيچ‌گاه از كار نمي‌ايستند و به طور مداوم به جمع‌آوري اطلاعات مشغول  هستند. ممكن است اطلاعات جمع‌آوري شده توسط اسپايدرها از صفحات جديدي باشد و يا اطلاعات به روز شده از صفحاتي بشد كه قبلاً هم به آنها مراجعه كرده‌اند .

وقتي كه صحبت از تكنيك‌هاي بهينه‌سازي رتبه سايت‌ها مي‌شود در واقع تكنيك‌هايي مطرح‌اند كه براي كار با اين نوع ازموتورهاي جستجوگر مؤثرند . بعضي از اين نوع موتورهاي جستجوگر عبارتند از :

Googole , MSN , Altavista , NorthernLight , WiseNut , Teoma …

 

ب ـ Directory يا فهرست

دايركتوري‌ها اطلاعات را در گروه‌هاي مختلف دسته‌بندي مي‌كنند . تفاوت اصلي دايركتوري با يك موتورهاي جستجوگر در اين است كه دايركتوري اسپايدر ندارد .      

دارندگان سايت‌ها به دايركتوري مراجعه مي‌كنند ، گروه مناسب براي سايت خود را در آن بر مي‌گزينند و سايت‌ خود را به آن گروه معرفي مي‌كنند . پس از آنكه اطلاعات سايت‌ها به گروه‌هاي مختلف ارسال شد ، ويراستاران دايركتوري آن اطلاعات را بررسي مي‌كنند . در صورتي كه گروه درخواست شده ، با زمينه فعاليت سايت معرفي شده يكي باشد و همچنين ساير قوانين دايركتوري نيز رعايت شده باشد ، سايت معرفي شده را در گروه ياد شده مي‌پذيرد و در غير اينصورت از قبول آن امتناع مي‌كنند.

در صورتي كه كاربران استفاده درستي از گروه دايركتوري بنمايد مي‌توانند اطلاعات مفيدي رابه كمك آنها كسب كنند .

دايركتوري از وجود يك سايت مطلع نمي‌گردد مگر زماني كه آن سايت به دايركتوري معرفي شود تا در يكي از گروه‌هاي آن قرار گيرد .

يكي از ايراداتي كه به دايركتوري‌ها وارد مي‌شود اين است كه سايت‌هاي مرده زيادي در خود دارند . به عبارت ديگر يك سايت بعد از آنكه به آن معرفي شده است ديگر به فعاليت خود ادامه نداده است اما با اين حال هنوز هم دايركتوري آن به عنوان يك سايت فعال به كاربران معرفي مي‌كند .

البته دايركتوري‌هاي حرفه‌اي با استخدام ويراستاران زيادي تلاش بسياري براي رفع اين نقص مي‌نمايند .امكان دارد دايركتوري‌ها براي بررسي اين مورد از اسپايدر‌ها هم كمك بگيرند .در اين مورد خاص ، كار اسپايدر اين است كه بررسي كند كه آيا سايت‌هايي كه قبلاً در گروه‌ها قرار گرفته‌اند ،هنوز هم فعال مي‌باشند ؟

قرار گرفتن در پايگاه داده دايركتوري‌هاي عمده ، نقش مهمي در كسب رتبه‌هاي بالا در موتورهاي جستجوگر ( نوع اول ) دارد . دايركتوريهاي عمده عبارتند از :

Yahoo , Look Smart , Dmoz

 

ج ـ Meta Search Engine  يا ابر جستجوگر

ابر جستجوگر از نتايج ساير موتورهاي جستجوگر استفاده مي‌كند . كار بدين صورت است كه سئوالات كاربران را همزمان به موتورهاي جستجوگر مختلفي ارسال و نتايج جستجوي آنها را بررسي مي‌كند و در نهايت رتبه‌هاي بالاي آنها را با اعمال پارمترهاي مورد توجه الگوريتم رتبه‌بندي خود ، به عنوان نتايج جستجوي خود نشان مي‌دهد .اين نوع موتور جستجوگر اسپايدر ندارد .

مهمترين آنها عبارنتد از :

Meta Crawler , Dogpile , IXQuick , Mamma , Vivisimo , ez2find  

 

دـ Pay Per Click Search engine يا موتورهاي جستجوگر رتبه‌بندي به ازاي پول!

كار آنها بسيار شبيه يك مزايده است :

با توجه به واژه كليكي انتخابي ، براي بالاترين رتبه ، بايد بالاترين قيمت نسبت به ساير متقاضيان پرداخت شود .

در واقع نحوه ارائه نتايج جستجو در PPC با اين ترتيب است كه اگر سايتي خواهان بالاترين رتبه (رده اول) در نتايج جستجوي آن مي‌باشد ، بايد بالاترين رقم به ازاي هر كليك را نسبت به تمام رقبا بپردازد .

به عنوان مثال اگر سايتي مكان اول را براي عبارت""Persian carpet  به قيمت 28 ريال خريده باشد هر بار كه عبارت ياد شده جستجو گردد و كاربر با دنبال كردن پيوند ارائه شده به سايت خريدار مراجعه كند 28 ريال از سوي سايت خريدار رتبه به موتور جستجوگر بايد پرداخته شود . اگر هزار نفر اين كار را انجام دهند آنگاه 1000×28 ريال بايد پرداخته شود .

البته اين گونه نيست كه اين گونه از موتورهاي جستجوگر فقط سايت هايي را نمايش دهند كه با آنها قرارداد تجاري دارند . بلكه ابتدا تمام سايت هايي را كه با آنها قرار داد تجاري دارند نمايش مي‌دهد و سپس سايت هاي ديگر را براي تكميل كردند نتايج جستجوي خود به سايت هاي ياد شده مي افزايند .

روش ارائه نتايج در يك موتورهاي جستجوگر رتبه به ازاي پول

سايت هاي رده 110 و 111 براي عبارت ""free stuff هزينه مي‌پردازند كه بالاتر از سايت رده 112 ايستاده‌اند . به عبارت‌هاي listing sponsored و additional listing          

توجه كنيد . فكرش را بكنيد كه 111 سايت حاضر به پرداخت پول براي اين عبارت بوده‌اند در حالي كه همه آنها مي‌دانسته‌اند در چه رتبه‌ايي نشان داده خواهند شد . اگر فرض كنيم كه سايت رده 111 براي هر كليك تنها يك سنت بپردازد و اختلاف هر رتبه با رتبه هاي ديگر تنها يك سنت باشد آنگاه سايت رتبه اول حاضر به پرداخت 111 سنت براي هر كليك بوده است . سايت هاي را مشاهده كرده اند كه حاضر به پرداخت 14 دلار به ازاي هر كليك نيز بوده اند !

اين رقابت شديد در اين نوع از موتورهاي جستجوگر مي‌تواند ناشي از بازده بسيار بالاي اين نوع موتورهاي جستجوگر و همين طور اطمينان دارندگان سايت ها از فروش خود باشد . البته مي توانيد سايت هايي را كه ناشيانه حاضر به پرداخت رقم بالايي را شده اند را هم به دلايل بالا بيافزايد .

 

فوايد آنها :

ـ دارنده سايت تنها زماني پول مي‌پردازد كه واقعاً بيننده‌اي به سايت او بيائيد .

ـ سايت تقريباً در عرض چند ساعت و يا حداكثر يك هفته در نتايج جستجو قرار مي گيرد و ديگر نيازي به چندين ماه ماندن نيست تا در نتايج جستجوي ساير موتورهاي جستجوگر قرار گيرد كه آن هم معلوم نيست در چه رتبه‌ايي قرار خواهد گرفت .

ـ سايتي اگر بالاترين رتبه را مي‌خواهد كافي است كه بالاترين قيمت را بپردازد و ديگر نيازي به كاربرد تكنيك‌هاي رايج براي كسب رتبه‌هاي بالا نيست .

ـ يك سايت با استفاده از سيستم اين موتورهاي جستجوگر در نتايج جستجوي شركاي تجاري آنها هم قرار مي‌گيرد .

برخي از آنها عبارتند از :

Overture , Googole Adwords , Findwhat , kanoodle ,…

 

ه ـ Specialty Search Engine  يا موتورهاي جستجوگر خاص

اين نوع از موتورهاي جستجوگر بر موضوعي خاص تمركز دارند و تنها سايت‌هاي مرتبط با آن موضوع را در پايگاه داده خود قرار مي‌دهند. به عنوان مثال يكي از آنها ممكن است تنها سايت‌هاي ايراني را بپذيرد و موضوع فعاليتش سايت‌هاي ايراني باشد .

اين موتورهاي جستجوگر معمولاً اطلاعات تخصصي‌تري را ارائه مي‌دهند زيرا معمولاً توسط افراد متخصص درآن زمينه اداره مي‌شوند . موتورهاي جستجوگر منطقه‌اي و موضوعي نيز با اين دسته تعلق دارند . دراين مورد مي‌توان به مواردي نظير :

chemicalSearch , IndustrySearch   اشاره كرد .

نسل بعدي موتور جستجوگر

سرعت باور نكردني و دامنه عملكرد و دسترسي فوق‌العاده موتورهاي پر قدرت جستجوي اينترنتي از يك محدوديت و شايد بتوان گفت نقطه ضعف اساسي رنج مي‌برند. اينكه تنها در پاسخ به كلمات به كار مي‌افتند ، اگر لحظه‌اي عمقي به مسئله نگاه كنيد ، متوجه موجوديت كسل كننده و يكنواخت اين سايت‌ها خواهيد شد . اين درحالي است كه جهان فوق‌العاده درخشان ، متنوع و مملو از اشياء و الگوهايي است كه هر يك در برگيرنده توصيفاتي قابل جستجو هستند . اكنون پژوهشگران عرصه كامپيوتر به اميد بهره‌مندي هر چه بيشتر از اين نعمات خداوندي ، موتورهاي جستجوگر جديدي طراحي كرده‌ند كه مي‌توانند منبع سرشاري از كاتالوگ‌هاي اشياء 3 بعدي مانند قطعات هواپيما يا مشخصه‌هاي معماري را در اختيار كاربران قرار دهند .

در ورود به اين سايت‌ها تنها كاري كه خود بايد انجام دهد ، آن است كه آنچه در ذهن خود دارد و به دنبالش است ، با خطوط كلي ترسيم نمايد . در اين حالت موتورهاي جستجو اشياء مشابه و هم‌تراز آن را در فهرست نتايج آن ارائه مي‌كند .

«كارتيك راماني » پروفسور دانشگاه « پرديو » و خالق سيستمي كه قادر به يافتن قطعات صنعتي طراحي شده توسط كامپيوتر مي‌باشد ، در مورد اختراع خود مي‌گويد : ايده دانش و اطلاعات و بازيابي آن دانش مدت‌ها بود كه توجه و كنجكاوي من را به خود جلب كرده بود و اكنون احساس مي‌كنم كه مكانيسم ابداعي‌ام مفهومي مستحكم و يكپارچه به اين بازاريابي مي‌بخشد .

« راماني » انتظار دارد موتور جستجويش بويژه براي كمپاني‌هاي بزرگ صنعتي كاربرد‌هاي فراواني داشته باشد خصوصاً اين كه مهندسين اين شركت‌ها غالباً  وقت و انرژي قابل توجهي را صرف طراحي يك قطعه تخصصي مي‌كنند در حالي كه پيشتر فرد ديگري نوع مشابه آنرا خلق كرده است ، استفاده نموده و و يا كنار گذاشته است « ريك جفز » مهندس ارشد مركز موتور‌هاي «كاترپيلار» معتقد است تكنولوژي « راماني » مي‌تواند به كمپاني‌ها در ساده ساختن صورت موجودي‌شان كمك نمايد .

موسسه «جفز» به تنهايي ده‌ها هزار قطعه جورواجور توليد مي‌كند «جفز» در تشريح بيشتر موضوع مي‌گويد : اگر شما قصد طراحي يك زانويي جديد براي خط لوله نفت را داشته باشيد ، در كاخانه‌ها به وفور از اين قطعه توليد مي‌شود اما خلق CAD در حال حاضر گرچه بسياري از آنها با كمك نرم‌افزار طراحي كامپيوتري مي‌گردند ، براي اينكه بصورت كاتالوگ درآيند ، بايستي هر يك جداگانه مورد آزمايش قرار گيرند . كا كسل كننده‌اي كه حتي اغلب انجام نمي‌گيرد زيرا عملي و معقول نيست .

حال با اين روش كارخانجات مي‌توانند صورت موجودي خود را به ساده‌ترين شيوه ممكن تهيه و ارائه نمايند . با بهره‌گيري از موتور جستجوي جديد ، طراحان مي‌توانند طرح قطعه مورد نياز خود را بصورت كلي ترسيم كنند و ظرف مدت چند ثانيه تعداد بيشماري قطعه در قالب صورت موجودي‌هاي گوناگون در برابر ديدگانش ظاهر خواهد گشت كه با نوع مورد درخواست آنها شباهت و حتي مطابقت خواهد داشت در صورتي كه يك قلم از نتايج ارائه شده با اندك تفاوتهايي نزديك به طرح مورد نظر كاربر باشد ، وي مي‌تواند اسكلتي از آن قطعه را مشاهده كرده و بر روي صفحه كامپيوتر خود آنرا دستكاري نمايد به عنوان مثال ابعادش را كوتاه و بلند كرده و يا منحني بسازد ، سپس مجدداً‌ پايگاه داده‌هاي موتور جستجو را مورد كاوش قرار دهد در دنياي امروز نياز براي سرعت در پروسه توليد محصولات بيش از هر زمان ديگري احساس مي‌شود و اين موتور جستجو از نوع پيشرفت‌هايي است كه مي‌تواند در تحقق اين هدف، فوق‌العاده موثر واقع شود مضاف براين كه كارآيي و بازده را نيز به نحوه قابل توجهي بالا مي‌برد .

البته موتورهاي جستجوي رايج در اينترنت هنوز در تلاش براي تسلط پيدا كردن بر تصاوير دو بعدي هستند به عنوان مثال برنامه جستجوي عكس گوگل نتايج نسبتاً خوبي ارائه مي‌نمايد اما عملاً‌ قادر به گشتن در مجموعه تصاوير خود نيست و بيشتر متن حاشيه‌اي طرح را ملاك كار قرار مي‌دهد .

در هر حال موتورهاي جستجوي سه بعدي كه به عنوان ابزاري خلاق و قدرتمند ظاهر گشته‌اند مي‌روند تا عرصه كار با كامپيوترها را متحول سازند، نرم افزارهاي دو سويه طراحي و مدل سازي نيز مجموعه طرحهاي موجود براي جستجو را نه تنها در زمينه ‌هاي صنعتي بلكه در عرصه دنياهاي مجازي آن لاين گسترش داده‌اند .

محققان بسياري در اين حوزه وارد شده‌اند از آن جمله مهندسين كمپاني بوئينگ هستند كه چند سالي است با هدف استفاده مجدد از برخي قطعات يك موتور جستجوي سه بعدي براي خود ابداع كرده‌اند .

پرفسور « توماس فانخوسر» و همكارانش از دانشگاه پرينستون نيز نوعي موتور جستجوي سه بعدي در اينترنت راه اندازي كرده‌اند كه براي افراد اين امكان را فراهم مي‌آورد تا با استفاده از يك ماوس كامپيوتر طرح كلي يك شئي را ترسيم نموده، توضيحات متني به آن اضافه كرده و سپس براي مدل‌هايي مشابه آن در پايگاه داده ‌هايي طراحي به جستجو بپردازند . نتايج مي‌تواند شگفت آور و خيره كننده باشد به گونه‌اي كه شما را به حيرت وا دارد . به عنوان مثال اگر يك سيب زميني بزرگ بكشيد سيستم با ارائه مجموعه‌اي از اشياء با ظاهر سيب‌زميني مانند پاسخ مي دهد اما اين عين حال چند سماور نيز برايتان نمايش خواهد داد. شايد در نظر اول تصور كنيد سايت در نتايج خود دچار اشتباه شده اما با چرخاندن طرح سيب‌زميني‌تان ، متوجه مي شويد كه موتور جستجو درست حدس زده و طرح شما در صورت عمودي قرار گرفتن ، در قسمت بالا و انتهايي باريك تر و در بخش مياني برجسته است و اين بدان معناست كه سايت كليه حدس هاي احتمالي را در نظر مي‌گيرد . اين توانايي‌هاي خارق العاده فرآيند جستجوي قديمي بر مبناي درج كلمات كليدي را به نوعي ابزار كند و كسل كننده بدل ساخته است . البته ترديدي نيست كه «‌متن‌» مي تواند همچنان دقيق تر از «‌طرح» عمل كند.

حال پرسش اينجاست كه يك برنامه كامپيوتري چگونه به دنبال اشياء مي گردد . راز اين دستاورد پديده‌اي به نام « ووكسل» . مالكين دوربين ‌هاي ديجيتال با «پيكسل » آشنايي دارند كه عنصر پايه‌اي يك تصوير ديجيتال است . هر «پيكسل»  ذره كوچكي از رنگ مي‌باشد . به همين شكل « ووكسل» نيز عنصر اصلي يك شي سه بعدي است كه درون كامپيوتر نمايش داده مي‌شود. هر«ووكسل» كه در برگيرنده حجم شي مورد نظر دارد. در كه توسط كاربران ترسيم گرديده ، به CAD برنامه « راماني» نيز بطور مثال طرح هاي «ووكسل» تبديل مي شوند. سپس الگوهايي« ووكسل»‌موجود در پايگاه داده ها براي يافتن شباهت هاي احتمالي با طرح ترسيم شده كاربر مقايسه مي شوند. به دليل آنكه «ووكسل‌ها» بيشتر در برگيرنده  حجم هستند تا شكل، برنامه مزبور مي تواند مثلاً يك فنجان قهوه را به عنوان حجم كار در نظر گرفته و مشخصه گود و توخالي بودن آن را مد نظر قرار دهد بدون توجه به دسته توپري كه مي تواند داشته باشد .

مكانيسم جستجوي سه بعدي به تدريج از اين هم هوشمند تر خواهد شد . اين برنامه را مي‌توان به گونه اي تجهيز كرد كه با درك عمقي كاوش هاي كاربران ، در نهايت الگوهاي مشترك را از يكديگر تمييز دهد. يك كامپيوتر مي تواند نهايتاً تشخيص دهد كه چند تصوير به ظاهر متفاوت همگي نشان دهنده يك انسان هستند حتي اگر در حالات و ژست هاي مختلف باشند .

در آينده نزديك سيستم جستجوي سه بعدي به احتمال قوي بيشتر براي كاربردهاي صنعتي اختصاص خواهد يافت با اين وجود « پيترنورويگ»‌مدير كيفيت جستجوي گوگل ، تكنولوژي جديد را جالب خوانده و خاطر نشان مي سازد در صورت آغاز پروسه ، طراحان گوگل با جديت  بيشتري به آن خواهند پرداخت «قرار راماني» هنوز در حال تنظيم و تكميل موتور جستجوي سه بعدي خود مي باشد و مجوز صادر مي گردد . وي Imaginestics است براي ابداع وي از سوي موسسه تحقيقاتي كه هنوز در مورد پيشرفت حاصله و قابليت دسترسي به اشياء از طريق كامپيوتر هيجان شده است ، مقطع كنوني را آغاز عصر اطلاعات توصيف مي كند.

 

 

 

 

 

 

 

 

 

 

منابع و مآخذ :

WWW. Iranseo. Com

2ـ آموزش اينترنت در 10 روز نوشته احمد سعادت

3ـ مقاله نسل فرداي موتورهاي جستجوگر        مجله كامپيوتر

4ـ اينترنت نوشته علي صداقت   انتشارات آذرخش

CD آموزشي اينترنت ساخته شده توسط شركت رايان گستر

 

منبع : سايت علمی و پژوهشي آسمان -- صفحه اینستاگرام ما را دنبال کنید
اين مطلب در تاريخ: یکشنبه 10 فروردین 1399 ساعت: 21:29 منتشر شده است
برچسب ها : ,,,
نظرات(0)

نظرات


کد امنیتی رفرش

شبکه اجتماعی ما

   
     

موضوعات

پيوندهاي روزانه

تبلیغات در سایت

پیج اینستاگرام ما را دنبال کنید :

فرم های  ارزشیابی معلمان ۱۴۰۲

با اطمینان خرید کنید

پشتیبان سایت همیشه در خدمت شماست.

 سامانه خرید و امن این سایت از همه  لحاظ مطمئن می باشد . یکی از مزیت های این سایت دیدن بیشتر فایل های پی دی اف قبل از خرید می باشد که شما می توانید در صورت پسندیدن فایل را خریداری نمائید .تمامی فایل ها بعد از خرید مستقیما دانلود می شوند و همچنین به ایمیل شما نیز فرستاده می شود . و شما با هرکارت بانکی که رمز دوم داشته باشید می توانید از سامانه بانک سامان یا ملت خرید نمائید . و بازهم اگر بعد از خرید موفق به هردلیلی نتوانستیدفایل را دریافت کنید نام فایل را به شماره همراه   09159886819  در تلگرام ، شاد ، ایتا و یا واتساپ ارسال نمائید، در سریعترین زمان فایل برای شما  فرستاده می شود .

درباره ما

آدرس خراسان شمالی - اسفراین - سایت علمی و پژوهشی آسمان -کافی نت آسمان - هدف از راه اندازی این سایت ارائه خدمات مناسب علمی و پژوهشی و با قیمت های مناسب به فرهنگیان و دانشجویان و دانش آموزان گرامی می باشد .این سایت دارای بیشتر از 12000 تحقیق رایگان نیز می باشد .که براحتی مورد استفاده قرار می گیرد .پشتیبانی سایت : 09159886819-09338737025 - صارمی سایت علمی و پژوهشی آسمان , اقدام پژوهی, گزارش تخصصی درس پژوهی , تحقیق تجربیات دبیران , پروژه آماری و spss , طرح درس