فایل هلپ

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

فایل هلپ

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

ترفندهای جستجو در گوگل

اختصاصی از فایل هلپ ترفندهای جستجو در گوگل دانلود با لینک مستقیم و پر سرعت .

لینک دانلود و خرید پایین توضیحات

فرمت فایل word  و قابل ویرایش و پرینت

تعداد صفحات: 11

 

ترفندهای جستجو در گوگل (قسمت اول)

مبانی جستجوی گوگل:

وقتی شما چند کیورد (Keywords) را با هم جستجو می‌کنید، یک موتور جستجو یک استراتژی از پیش تعیین شده‌ای برای بررسی و ترکیب کیوردهای شما دارد. آیا هر یک از کیوردها می‌توانند به تنهایی در هر جای صفحه وجود داشته باشند یا باید کنار هم قرار گرفته‌ باشند؟ آیا موتور جستجو کلمات کلیدی را با هم جستجو می‌کند یا تک‌تک؟

جستجوی یک عبارت:

گوگل به صورت پیش‌فرض، کلمات کلیدی شما را در هر کجای صفحه، چه کنار هم باشند و چه به صورت پراکنده، جستجو می‌کند. برای تغییر نتایج صفحات با کلمات مرتب شده موردنظر ما، آنها را در بین دو کوتیشن قرار می‌دهیم.

برای جستجوی کیوردهای زیر:

to be or not to be

گوگل کیوردها را در هر جای صفحه که آمده باشند، پیدا خواهد کرد. اگر شما می‌خواهید تنها نتایجی را ببینید که کیوردها با هم و به عنوان یک عبارت در صفحه آمده‌اند، آنها را در بین دو کوتیشن قرار دهید:

"to be or not to be"

گوگل در این حالت تنها نتایجی را نشان می‌دهد که کیوردها با هم ظاهر شده‌اند. البته گوگل کلماتی مثل «or» و «to» را در این حالت جستجو نمیکند.

جستجوی عبارت به این روش همچنین زمانی مفید است که شما می‌خواهید عبارتی را بیابید، اما مطمئن نیستید که جمله‌بندی عبارت مورد نظر شما درست باشد که این مطلب که مکمل این قسمت است در بخش Full-Word Wildcards شرح داده شده است.

اساس بول

یک موتور همه کیوردها یا هر یک از آنها را جستجو می‌کند که بر اساس پیش‌فرض بولی صورت می گیرد. موتورهای جستجو می توانند از AND برای جستجوی همه کیوردها یا OR برای جستجوی هر کلمه استفاده کنند.

در نتیجه حتی اگر موتو جستجو به صورت پیش فرض همه کیوردها را جستجو کند شما می توانید معمولا به آن یک دستور خاصی بدهید تا آن‌را برای یافتن هر کیورد راهنمایی کنید.

پیش فرض بولی گوگل AND است، یعنی اگر شما کلماتی را بدون اصلاح کننده ها جستجو نمایید همه کلمات شما را با هم جستجو می نماید.

به عنوان مثال اگر شما برای کلمات زیر جستجو کنید:

snowblower Honda "Green Bay"

موتور، جستجو را برای همه کیوردها باهم انجام می‌دهد. اگر شما مایلید که مشخص کنید که هر کدام از کلمه‌ها یا عبارات قابل قبول است یک OR بین هر کدام قرار دهید:

snowblower OR snowmobile OR "Green Bay"

اگر شما اصطلاحی را به همراه یک یا دو اصطلاح دیگر میخواهید، ‌آنها را در پرانتز قرار دهید مثل:

snowblower (snowmobile OR "Green Bay")

میتوانید جستجو برای کلمه snowmobile یا عبارت "Green Bay" به همراه کلمه Snowblower را با پایپ که معادل OR است به صورت زیر جستجو کنید که علامت | پایپ نامیده میشود:

snowblower (snowmobile | "Green Bay")

خنثی سازی:

اگر شما مایلید که آیتمی در جستجوی شما ظاهر نشود قبل از آن – قرار دهید:

snowblower snowmobile -"Green Bay"

موتور در این حالت صفحاتی را که شامل snowblower snowmobile هستند و "Green Bay" را در بر ندارند خواهد یافت. نکته ای که باید به آن توجه کرد، علامت – باید درست قبل از کلمه ای که شما آن را در نتایج نمی‌خواهید، باید قرار بگیرد اگر از فاصله نیز استفاده شود دیگر این دستور جواب نمیدهد.

ترفندهای جستجو در گوگل (قسمت دوم)

دستورات و المان‌های خاص:

علاوه بر OR و AND و جستجو‌های عبارتی، Google دستورهای خاص زیادی را برای محدود نمودن جستجوی شما فراهم نموده است.

همانند همه موتورهای جستجوی Full Text، در گوگل به جای اینکه صفحات وب تنها بر اساس عنوان و توضیحات انها ایندکس شوند، صفحات وب کلا ایندکس می‌گردند. دستورهای خاص به کاربران گوگل اجازه می‌دهند که جاهای معینی از صفحات وب را برای اطلاعات به خصوصی، جستجو

نمایند، و این اجازه را به کاربران گوگل می‌دهند که بتوانند جاهای معینی از صفحات وب را برای اطلاعات به خصوصی، جستجو نمایند (که آن‌ها اپراتورهای پیشرفته نیز نامیده می‌شوند). این ویژگی (دستورات و المانهای خاص) خیلی چاره‌ساز است مخصوصا زمانی که شما با بیش از 8 بیلیون صفحه وب مواجهید و می‌خواهید دامنه جستجوی خود را محدودتر نمایید!


دانلود با لینک مستقیم


ترفندهای جستجو در گوگل

تحقیق و بررسی در مورد آناتومی یک موتور جستجو وب فوق متنی در مقیاس وسیع 30ص

اختصاصی از فایل هلپ تحقیق و بررسی در مورد آناتومی یک موتور جستجو وب فوق متنی در مقیاس وسیع 30ص دانلود با لینک مستقیم و پر سرعت .

لینک دانلود و خرید پایین توضیحات

فرمت فایل word  و قابل ویرایش و پرینت

تعداد صفحات: 30

 

«آناتومی یک موتور جستجو وب فوق متنی در مقیاس وسیع»

خلاصه:

در این بخش، به گوگل خواهم پرداخت، یک نمونة اصلی از یک موتور جستجوی در مقیاس وسیع که استفاده وسیعی از ساختار اراده شده در فوق متنی می کند. گوگل برای جستجو و یافتن (Crawl) و شاخص بندی وب به طور مؤثر و تولید نتایج هرچه رضایت بخش تر نسبت به سیستم های موجود طراحی شده است. این نمونه اصلی با پایگاه داده ای متشکل متن و فوق پیوند کامل 24 میلیون صفحه در http://google.standard.edi/ موجود می باشد. مهندسی یک موتور جستجو یک وظیفة چالش آور است. موتورهای جستجو دهها تا صدها میلیون صفحه وب متشکل از تعداد قابل ملاحظه ای موضوعهای متفاوت را شاخص بندی می کنند و پاسخ گوی دهها میلیون پرس و جو به صورت روزانه هستند. بر خلاف اهمیت بالای موتورهای جستجوی برروی وب تحقیقات آکادمیک بسیار اندکی برروی آنها صورت گرفته است (در کشور عزیز ما دقیقاً هیچ مطالعه و تحقیقی صورت نگرفته است). علاوه بر این به دلیل سرعت پیشرفت تکنولوژی وب، امروزه ساخت یک موتور جستجو مسبت به سه سال پیش بسیار متفاوت است. این بخش به بررسی و توصیف عمقی این موتور جستجوی وب در مقیاس وسیع می پردازد. جدای از مشکلات تغییر مقیاس تکنیکهای جستجوی قدیمی داده با این وسعت، چالشهای تکنیکی جدیدی در زمینه استفاده از اطلاعات اضافی ارائه شده در فوق متن برای تولید نتایج جستجوی بوجود آمده است. این بخش به این که چگونه می توان یک سیستم در مقیاس وسیع عملی که بتواند اطلاعات اضافی ارائه شده در فقو متن را استخراج کند را تولید کرد، پاسخ خواهد گفت. همچنین ما به این مشکل که چگونه می توان با مجموعه های فوق متن کنترل نشده (هر کسی می تواند هر چه خواست بنیسد) کنار آمد، نیز دقت خواهیم کرد.

1. معرفی

وب چالشهای جدیدی برای بازیابی اطلاعات ایجاد می کند. حجم اطلاعات موجود برروی وب به سرعت در حال افزایش است و به همان نسبت تعداد کاربران جدید که در جستجوی وب بی تجربه هستند افزایش می یابد. مردمی که احتمالاً وب را از طریق گراف پیوند آن مرور می کنند، اغلب کار خود را با شاخصهای ذخیره شده با کیفیت بالای انسانی مانند یاهو! یا موتورهای جستجو شروع می کنند. لیتهاس ذخیره و نگهداری شده توسط انسانی موضوعهای معروف را به طور موثری پوشش می دهند اما شخصی بودن، گران و پرهزینه بودن برای ساخت و نگهداری، کندی در پیشرفت و ناتوانی در پوشش موضوعهای مبهم و پیچیده از عیبتهای عمده آنها محسوب می شود. موتورهای جستجو بر پایة هم خوانی کلمات کلیدی معمولاً نتیج را با کیفیت بسیار پایین برمی گرداند. برای بهتر شدن شرایط، بعضی شرکتهای تبلیغاتای تلاش وسیعی برای بدست آوردن نظر مردم از طریق گمراه کردن موتورهای جستجوی اتوماتیک می کنند. اقایان سرگی برین و لاورنس پیج موتور جستجوی در مقیاس وسیعی ساخته اند که به تعداد زیادی از مشکلات سیستم های موجود پرداخته است. و آن استفاده وسیعی از این ساختمام ارائه شده در فوق متن می کند به منظور فراهم کردن نتایج جستجوی با کیفیت بالاتر، اسیم این سیستم، گوگل، انتخاب شده است. زیرا گوگل تلفظ معمول googol یا 10100 است و بسیار مناسب هدف ما برای ساختن یک موتور جستجوی بسیار در مقیاس وسیع است.

موتورهای جستجوی وب – گسترش یافتن: 1994-2001

تکنولوژی موتورهای جستجو باید به میزان زیادی تغییر پیدا می کرد تا بتواند هماهنگی خود را با گسترش وب حفظ کند. در 1994، یکی از اولین موتورهای جستجوی وب یعمی کرم وب گسترة جهانی (WWWW) شاخصی از000/110 صفحه وب و اسناد در دسترس وب داشت. از نوامبر 1998 موتورهای جستجوی برتر ادعای شاخص بندی از 2 میلیون (WebCrawler) تا 100 میلیون (از (Search Engine Watch صفحه وب و سند را داشتند. قابل پیش بینی است که تا سال 2001 یک شاخص جامع از وب شامل بیش از دو میلیارد سند باشد. در همان زمان تعداد پرس و جوهایی که موتورهای جستجو اداره می کنند به طور شگفت آوری افزایش می یابد. در ماه مارس و آوریل 1994، کرم وب گستره جهانی (wwww) به طور روزانه حدوداً 1500 پرس و جو را دریافت می کرد. در ماه نوامبر 1998، آلتاویستا (Altavista) اظهار داشت که روزانه حدود 20 میلیون پرس و جو را اداره می کند. با افزایش تعداد کاربران وب و سیستمهای اتوماتیک که از موتورهای جستجو پرس و جو می کنند به نظر می رسد که تا سال 2001 موتورهای جستجو صدها میلیون پرس و جو را اداره خواهند کرد. هدف سیستم گوگل توجه به بسیاری از مشکلات کیفیتی و مقیاس پذیری است که با عرضه تکنولوژی موتورهای جستجوی اینترنتی به میزان زیادی گسترش یافته اند.

1.2.1 گوگل: تغییر دادن وب

این موتور جستجوایی که در سطح وب امروز باشد چالشهای بسیاری را پدید می آورد. تکنولوژی جستجو و یافتن سریع برای جمع آوری و به روز رسانی سندهای وب لازمی می باشد. فضای ذخیره سازی بهید به طور کارآمدی برای ذخیره شاخصها و به طور اختیاری خود سندها بکار گرفته شود. سیستم شاخص بندی باید صدها گیگا بایت داده را به طور کارآمد پردازش کند. پرس و جحوها باید به سرعت اداره شوند (با نرح صدها تا هزاران پرس و جو در ثانیه).

همان گونه که وب گسترش می یابد این وظایف نیز به طور صعودی مشکل می شوند. اگرچه عملکرد سخت افزار و هزینه ها به طور چشمگیری بهبود یافته اند و تا حدی از این سختی را تعدیل کرده اند. با این وجود تعدادی استثنای قابل اشاره نیز مانند زمان استوانه یابی دیسک و قابلیت ادامه کار در شرایط غیرمنتظره سیستم عامل وجود دارند. در طراحی گوگل هر دو مسئلهع گسترش وب و تغییرات تکنولوژیک در نظر گرفته شده اند. گ.گل برای تغییر مقیاس دادن مجموعه داده ها به خوبی طراحی شده است و از فضای ذخیره سازی به طور مؤثری استفاده می کند. ساختمان داده های آن برای دسترسی سریع بهینه سازی شده اند (به بخش 4.2 نگاه کنید). علاوه بر این، هزینه شاخص بندی و ذخیره متن یا HTML نهایتاً بستگی نمسبی به میزان در دسترسی آنها دارد و این بر تغییر مقیاس منتاسب برای سیستم های متمرکز شده مانند گوگل تاثیرگذار است.

.3.1 اهداف طراحی

.1.3.1 کیفیت جستجوی بهینه شده

هدف اصلی در طراحی گوگل بهینه کردنم موتورهای جستجوی وب است. در سال 1994، بعضی از مردم تصور می کردند یک شاخص جستجوی کامل امکان یافتن هر چیزی را میسر می سازد. بر طبق مقالة بهترینهای وب 1994 – پیمایشگرها و «بهترین سرویس پیمایشی باید امکان یافتن تقریباً هر چیزی را به آسانی فراهم کند (هنگامی که تمام داده ها وارد شدند)». اگرچه وب 1999 کاملاً متفاوت است. هر کسی که اخیراً از یک موتور جستجو استفاده کرده باشد به سادگی در می یابد که کامل بودن شاخص تنها عامل مؤثر بر کیفیت نتایج جستجو نمی باشد. «نتایج آشغال» اغلب تمام نتایج مورد علاقه کاربر را خراب می کنند. در حقیقت در نوامبر 1999، تنها یکی از چهار مکوتور تجاری برتر نتایج را خودش می یابد (در پاسخ در ده نتیجه برتر، صفحه جستجو شده خودش را برمی رگداند). یکی از دلایل اصلی این مشکل این است که تعداد سندهای موجود در شاخصها به دلایل روشنی افزایش پیدا کرده اند اما توانایی کاربر بریا یافتن و نگاه کردن اسناد پیشرفت نکرده است. مردم هنوز خواستار نتیجه اول جستجو هستند. به همین دلیل، همان طور کهئ اندازة


دانلود با لینک مستقیم


تحقیق و بررسی در مورد آناتومی یک موتور جستجو وب فوق متنی در مقیاس وسیع 30ص

تحقیق ترتیب اولویت بندی موتورهای جستجو در اینترنت 183 w

اختصاصی از فایل هلپ تحقیق ترتیب اولویت بندی موتورهای جستجو در اینترنت 183 w دانلود با لینک مستقیم و پر سرعت .

لینک دانلود و خرید پایین توضیحات

فرمت فایل word  و قابل ویرایش و پرینت

تعداد صفحات: 288

 

چکیده :

موضوعی که در این مجموعه مورد بررسی قرار گرفته است ترتیب اولویت بندی موتورهای جستجو در اینترنت می باشد موارد Search شده در Search engine به ترتیب های خاصی از بالا به پایین قرار می گیرند وهر موتور جستجو برای این اولویت بندی الگوریتم خاصی را درنظر می گیرد که این یک راز و رمز تجاری برای طراحان آن می باشد .

ما در این مجموعه در ابتدا به توضیح مختصری درباره تاریخچه web پرداخته و پس از آن مفهوم الگوریتم را توضیح داده ایم .

دربخش بعدی با جستجو به وسیله موتورهای مختلف در ابتدا طریقه کارکردموتورهای جستجو را بیان کرده و قسمتهای مختلف یک موتور جستجو را توضیح داده ایم و سپس متذکر شده ایم که همه موتورها از یک سری کلی پیروی می کنند اماهر یک الگوریتم خاص خود را بپردازند .

پس از آن به توضیح بیشتر نمونه الگوریتمهای ارائه شده توسط چند موتور جستجو از جمله Google , Yalooپرداخته ایم .

سرگذشت اینترنت

برای مردمی که تحت بمباران رسانه ها قرار گرفته اند گویی اینترنت زادگاهی نداشته است . سالها ، مودمهای خفته کار کمی داشتند و فقط گاه باbbs ارتباط برقرار می کردند . سیستمهای در آن روزها سیستمهای فقط متنی و بدون گرافیک بودند وکلمه online ( روی خطی ) و اینترنت کلمه های شناخته شده ای نبودند اینترنت فقط برای دانشمندان علوم کامپیوتر ، دانشگاهیان و پژوهشگران تجهیزات جنگی که درباره پژوهشهای جدید بحث می کردند ، کلمه ای آشنا بود .

همه اینها در چند سال گذشته روی ، داد اینترنت امروز به کاربران این امکان را می دهد که عقاید خود را برای میلیونها نفر ا زمردم جهان ابراز کنند . اینترنت با فراهم ساختن امکانات انتقال هر چیزی از نرم افزار و موسیقی گرفته تا تصاویر گرافیکی ، چهره دنیای کامپیوتر را تغییر داده است . اینترنت تقریبا همه جاهست . و تقریبا هر چیزی را می توان در آن پیدا کرد .

اینترنت چیست ؟

با آنکه همه روزه خبرهایی درباره اینترنت از رادیو ، تلویزیون و روزنامه ها می‌بینیم، تعداد کمی از مردم آن را کاملا می شناسند . اصطلاحاتی چون ( ابر بزرگ اطلاعاتی ) و (وب جهان پهنا ) اغلب معادل اینترنت به کار برده می شود ، اما اینترنت در واقع هیچ کدام از اینها نیست . اینترنت یک مکان با یک مقصد نیست . یک شبکه است مکانیسمی برای انتقال داده ها از یک کامپیوتر به سایر کامپیوترها ست .


دانلود با لینک مستقیم


تحقیق ترتیب اولویت بندی موتورهای جستجو در اینترنت 183 w

searchEngine

اختصاصی از فایل هلپ searchEngine دانلود با لینک مستقیم و پر سرعت .

لینک دانلود و خرید پایین توضیحات

فرمت فایل word  و قابل ویرایش و پرینت

تعداد صفحات: 21

 

موتور جستجو یا SEO چیست ؟

تعریف : بهینه سازی برای موتور جستجو یا SEO چیست ؟

وب سایت شما هر اندازه هم که زیبا و حرفه ای طراحی و پیاده سازی شده باشد ، بدون بازدید کننده ، آنهم بازدید کنندگان مفید ، که مخاطبان واقعی شما باشند ارزشی نخواهد داشت . شما برای بالا بردن تعداد بازدیدکنندگان ، چه تدبیری اندیشیده اید ؟؟

بهینه سازی سایت برای موتور های جستجو ی اینترنت یکی از این تدبیرهاست .

SEO مخفف عبارت (oPtimization search Engine) است . و یعنی اطمینان یافتن از اینکه سایت شما به نحو شایسته ای جایگاه خود را در موتور جستجو یافته و در معرض دید مخاطبان مورد نظر قرار دارد . این یعنی اینکه سایت شما به نحو مطلوب و درستی با موتورهای جستجوگر اینترنت تعامل دارد . بسیاری از سایتها با وجود ظاهر زیبا و طراحی شدن با بالاترین تکنیکهای طراحی وب ، بازهم موفقیت های بسیار بدی در جستجو دارند و این بدلیل دانش کم و محدود طذاح سایت با روش کار جستجوگر هاست .

آمار نشان می دهد که بیش از 90% کاربران اینترنت دست کم یک موتور جستجو را می شناسند و برای یافتن اطلاعات مورد نیاز خود از آن استفاده می کنند . وقتی که یک کاربر اینترنت عبارتی را مورد جستجو قرار می دهد فهرستی از سایتهای حاوی آن عبارت برای وی نشان داده می شود . سایت های ارایه خدمات جستجو (Search) معمولاً هزاران و بلکه میلیونها نتیجه را باز می گردانند . ولی عموماً 10 نتیجه در صفحه ی نخست دیده می شوند . آمار حاکی از آن است که تنها 7% کاربران از صفحه های سوم به بعد نتایج را مرور میکتتد . پس رسیدن به دهک اول یا همان ( Top ten ) هدف بسیاری از وب مسترها و دارنگان سایتهای اینترنت است . به ویژه در مورد سایتهای تجاری این موضوع اهمیت ویژهای پیدا می کند که در جای خود بررسی کرده ایم .

اما چگونه ؟

رتبه بندی جستجوگر ها به عوامل بسیار زیادی بستگی دارد . عواملی همچون HTML صفحه ، متا تگ ها (ابر داده ها ) ، کلمات کلیدی و سرانجام مکان تکرار با چگالی کلمه های مهم (کلید واژه ها ) از مهمترین عوامل و فاکتورها در جستجو هستند .

دقت : هر موتور جستجو از فرمول خاص خود برای رتبه بندی(Ranking) استفاده می کند و هر از چندی نیز آن فرمول را تغییر می دهد . و خوب است بدانید حتی نسخه اولیه تکنولوژی موتورهای جستجوگر مهم نیز هم اکنون کاملاً محرمانه نگهداری می شوند .

مفاهیم و اصلاحات دنیای جستجو و موتورهای جستجوگر

Spider

نرم افزاری است که کار جمع آوری اطلاعات از صفحات مختلف را بر عهده دارد .

Crawer

نرم افزاری که مسیر حرکت اسپایدر را مشخص می کند .

Directory

فهرست : نوعی از موتورهای جستجوگر که پایگاه داده آن توسط ویراستار تکمیل می گردد .

Keyword

به واژه های مهم (کلیدی ) هر صفحه گفته می شود : اما غالباً منظور کلماتی است که دوست داریم باآنها رتبه های مناسبی کسب کنیم .

Keyword Density

چگالی کلمه ، منظور تعداد دفعات تکرار واژه های کلیدی در مقایسه با سایر کلمات متن است .

Keyword Staffing

تکرار یک کلمه به دفعات و پشت سر هم به منظور بالا بردن چگالی کلمه : این کار تقلب محسوب می شود .

Tinny Text

نوشتن متن با اندازه های بسیار کوچک و ریز به گونه ای که کلمات بسیاری بدین ترتیب در یک خط قرار داده می شود و به سختی نیز در صفحه قابل رویت هستند . نوشتن مطالب به این صورت ، تقلب محسوب است .

Invisible Text

متن نامرئی : منظور استفاده از متن های همرنگ باپس زمینه صفحه است . متن هایی که از دید کاربران مخفی می ماند . به عنوان مثال اگر پس زمینه یک صفحه سیاه است ، متن صفحه نیز با رنگ سیاه نوشته می شود تا دیده نشود . این نوع متن ها از مصادیق تقلب می باشند .

Spam

تقلب به تمام تلاش هایی گفته می شود که به کمک آن سعی می شود از راه های غیر معمول ، رتبه های بالایی کسب شود ، یا در اختیار گذاردن اطلاعاتی که موتورهای جستجوگر آنرا دوست ندارند (اطلاعات ناخواسته ) مانند تکرار یک کلمه به دفعات و پشت سر هم ، استفاده از متن های هم رنگ زمینه و..

ALT tag

محتوای این شناسه ، متنی است که یک عکس را توضیح می دهد .

Deep Crawl

به معنای این است که موتور جستجوگر ، می تواند صفحات زیادی از یک سایت را پایگاه در پایگاه داده اش قرار دهد . موتور جستجوگر هر چه پایگاه داده اش بزرگتر باشد ، صفحات بیشتری از یک سایت را می تواند در پایگاه داده اس قرار دهد . همه موتورهای جستجوگر دارای این ویژگی نمی باشند .

Robots.txt

با این فایل متنی و ساده ، میزان دسترسی موتور جستجوگر به محتوای یک "سایت" را می توان کنترل کرد

META robots tag

به کمک این شناسه میزان دسترسی موتور جستجوگر به محتوای یک "صفحه را می توان کنترل کرد ."

Link

پیوند : در واقع پلی بین دو صفحه است . به کمک آن می توان از یک صفحه به صفحه دیگر رفت .

Link Popularity

مقصود این است که چه تعداد از سایت های دیگر به سایتی مشخص لینک کرده اند یا اینکه از چند سایت دیگر می توان به کمک پیوند ها به سایتی مشخص رفت .

Link Reputation

اشاره به این دارد که سایر سایتها درباره سایتی که بدان لینک داده اند ، چه می گویند . عموماً در این موارد عنوان ، متن لینک و کلمات اطراف لینک در سایت مقصد ، بررسی میشوند .

Learn Frequency

بعضی از موتورهای جستجوگر می توانند تشخیص دهند که محتوای صفحات پس از چه مدتی تغییر می کند و به روز می گردد و بعد از آن مدت به آن صفحات مراجعه می کنند .

URL_Uniform Resource Locator

به آدرس منحصر به فرد هر منبع موجود در اینترنت گفته می شود ، این منبع می تواند یک صفحه وب ، یک فایل متنی و .. باشد .

Stop Word

به کلماتی گفته می شود که در کل اینترنت از آنها بسیار استفاده شده است ، کلماتی نظیر an , web www, hom page,the,a

Meta tages

به کمک این شناسه ها ، اطلاعاتی از صفحه در اختیار بینندگان (موتور جستجوگر ، مرورگرهاو...) قرار داده می شود .

META keywords

به کمک آن ، کلمات کلیدی صفحه در اختیار موتورهای جستجوگر قرار داده می شود .


دانلود با لینک مستقیم


searchEngine

دانلود تحقیق همه چیز درباره موتور های جستجو گر درجهان

اختصاصی از فایل هلپ دانلود تحقیق همه چیز درباره موتور های جستجو گر درجهان دانلود با لینک مستقیم و پر سرعت .

لینک دانلود و خرید پایین توضیحات

فرمت فایل word  و قابل ویرایش و پرینت

تعداد صفحات: 75

 

همه چیز درباره موتور های جستجو گر درجهان

موتورهای جستجو چگونه کار می کنند؟

وقتی جستجویی در یک موتور جستجوگر انجام و نتایج جستجو ارایه می شود، کاربران در واقع نتیجه کار بخش های متفاوت موتور جستجوگر را می بینند. موتور جستجوگر قبلا" پایگاه داده اش را آماده کرده است و این گونه نیست که درست در همان لحظه جستجو، تمام وب را بگردد. بسیاری از خود می پرسند که چگونه ممکن است گوگل در کمتر از یک ثانیه تمام سایت های وب را بگردد و میلیون ها صفحه را در نتایج جستجوی خود ارایه کند؟

گوگل و هیچ موتور جستجوگر دیگری توانایی انجام این کار را ندارند. همه آنها در زمان پاسخ گویی به جستجوهای کاربران، تنها در پایگاه داده ای که در اختیار دارند به جستجو می پردازند و نه در وب! موتور جستجوگر به کمک بخش های متفاوت خود، اطلاعات مورد نیاز را قبلا" جمع آوری، تجزیه و تحلیل می کند، آنرا در پایگاه داده اش ذخیره می نماید و به هنگام جستجوی کاربر تنها در همین پایگاه داده می گردد. بخش های مجزای یک موتور جستجوگر عبارتند از:

Spider یا عنکبوت

Crawler یا خزنده

Indexer یا بایگانی کننده

Database یا پایگاه داده

Ranker یا سیستم رتبه بندی

الف Spider- (عنکبوت)

اسپایدر یا روبوت (Robot)، نرم افزاری است که کار جمع آوری اطلاعات مورد نیاز یک موتور جستجوگر را بر عهده دارد. اسپایدر به صفحات مختلف سر می زند، محتوای آنها را می خواند، لینکها را دنبال می کند، اطلاعات مورد نیاز را جمع آوری می کند و آنرا در اختیار سایر بخش های موتور جستجوگر قرار می دهد. کار یک اسپایدر، بسیار شبیه کار کاربران وب است. همانطور که کاربران، صفحات مختلف را بازدید می کنند، اسپایدر هم درست این کار را انجام می دهد با این تفاوت که اسپایدر کدهای HTML صفحات را می بیند اما کاربران نتیجه حاصل از کنار هم قرار گرفتن این کدها را.

اما یک اسپایدر آنرا چگونه می بیند؟


دانلود با لینک مستقیم


دانلود تحقیق همه چیز درباره موتور های جستجو گر درجهان