فایل هلپ

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

فایل هلپ

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

دانلود مقاله رتبه بندی صفحات یا پیج رنک

اختصاصی از فایل هلپ دانلود مقاله رتبه بندی صفحات یا پیج رنک دانلود با لینک مستقیم و پر سرعت .

 

 

 

در این سری مقالات سعی بر اینست که بطور کلی و تخصصی راجع به الگوریتم پی آر گوگل و اهمیت آن از لحاظ بهینه سازی و بازاریابی موتورهای جستجو صحبت کنیم و تکنیک های لازم جهت بهبود سایتها را در اختیار خوانندگان قرار دهیم.
پی آر یک متغیر عددی است که نشان می دهد یک سایت در دنیای اینترنت از چه اهمیتی برخوردار است. گوگل این اهمیت را از طریق لینک ها تشخیص می دهد و وقتی یک سایت به سایت دیگری لینک می شود، از لحاظ گوگل بدین معنی است که آن سایت یک رای به سایت دیگر داده است. هرگاه رای های زیادی از طریق سایتهای دیگر به یک سایت می رسد این بدین معنی است که آن سایت از اهمیت بالاتری برخوردار است. همچنین سایت رای دهنده اهمیت رایش به اهمیت خودش بستگی دارد بدین معنی که هرچه اهمیت بالاتری داشته باشد ، رای های آن نیز پر اهمیت تر است. گوگل اهمیت صفحات وب را از روی همین رای ها و اهمیت آنها حساب می کند.
پی آر روشی است که گوگل به واسطه آن اهمیت صفحات وب را تا یین میکند. این امر از این لحاظ برای گوگل مهم است زیرا که بواسطه این اهمیتو رای ، گوگل رتبه بندی صفحات وب را تایین میکند و صفحه ای که رتبه پی آر بالاتری دارد از صفحه همتای خود رتبه بالاتری خواهد داشت و این به خاطر پی آر است. در حالی که این تنها فاکتور رتبه بندی نیست ولی جزو فاکتورهای مهم موتور جستجوی گوگل است و اخیرا تمام موتورهای جستجو به نوعی از این فاکتور پراکندگی برای رتبه بندی های خود استفاده می کنند.
در اینجا باید خاطر نشان کنم که همه لینکهایی که به یک سایت بر میگردد، توسط گوگل به حساب نمی آید و فقط تعداد محدودی از آنها را به شمار می آورد. در حال حاضر گوگل اکثر لینکهایی را که از مزرعه لینکهای شناخته شده می آید فیلتر می کند. مزرعه لینکها سایتهایی هستند که فقط لینک در خود نگه داری می کنند و خاصیت مثبتی در اینترنت ندارند و چون این عمل ماهیت اهمیت سایتها را برهم می زند ، گوگل آنها را فیلتر می کند. بعضی از این لینکها حتی می تواند منجر به جریمه شدن سایت شما در گوگل شود. گوگل می داند که صاحبان سایت نمی توانند لینکهایی را که به آنها می شود کنترل کنند ولی می توانند اینکه به چه سایتی لینک شوند را کنترل کنند ، پس خیلی دقت کنید به چه سایتهایی لینک می دهید.
رتبه بندی صفحات یا پیج رنک قسمت دوم

 

پیج رنک چگونه محاسبه می شود ؟
برای محاسبه پی آر یک صفحه ، تمامی لینکهایی که به آن صفحه بر میگردند مورد محاسبه قرار می گیرند. و این هم لینکهایی که از داخل سایت به آن متصل میشوند را در بر می گیرد و هم لینکهای خارجی.
PR(A) = (1-d) + d(PR(t1)/C(t1) + ... + PR(tn)/C(tn))
این تساوی است که طی آن پی آر یک صفحه محاسبه می شود. این الگوریتم پی آر است که هنگام راه اندازی ابتدایی پی آر انتشار یافت. و احتمال اینکه گوگل نیز از مشابه همین فرمول استفاده کند وجود دارد ولی آنها راجع به الگوریتم هایشان صحبتی نمی کنند و ما اطلاع دقیقی از آن نداریم ولی این مسئله مهمی نیست زیرا که این الگوریتم به اندازه کافی خوب می باشد.
در این تساوی 't1 - tn' صفحاتی هستند که به صفحه A لینک شده اند و ‘C’ تعداد لینکهای بیرونی که یک صفحه دارد و در نهایت ‘d’ فاکتور اشباع شدن است که معمولا آنرا 0.85 در نظر می گیریم.
اگر بخواهیم بطور ساده آنرا بررسی کنیم می توان به صورت زیر آنرا بررسی کرد ؛
پی آر = 0.15 + 0.85 * ( سهمی از پی آر هر سایتی که به آن متصل می شود )
"سهم" ؛ پی آر صفحه لینک شونده تقسیم بر تعداد لینکهای خروجی بروی آن صفحه !
جالب است نه ؟ در واقع هر صفحه با لینکی که به صفحات دیگر می دهد ، به آنها رای می دهد و مقدار این پی آر کمی کمتر از مقدار پی آر خود آن صفحه است (مقدار پی آر خود صفحه * 0.85 ). این مقدارتقریبا بطور مساوی بین تمامی صفحاتی که به آنها لینک شده است ، تقسیم می شود.
از این فرمول اینگونه بدست می آید که یک لینک از یک سایت با پی آر 4 و 5 لینک خروجی با ارزش تر از گرفتن لینک از یک سایت با پی آر 8 و 100 لینک خروجی است. پی آر صفحه ای که از آن لینک می گیرید مهم است ولی به همان اندازه تعداد لینکهای خروجی آن صفحه نیز مهم است. هر چقدر تعداد لینکها در صفحه لینک دهنده بیشتر باشد ، پی آر کمتری به صفحات لینک شده تعلق می گیرد.
اگر تفاوت بین پی آر های 1 تا 10 ثابت و مساوی بود ، فرض بالا قوت بیشتری می داشت اما بسیاری بر این عقیده هستند که مقادیر بین پی آر های 1 تا 10 بصورت لگاریتمی تغییر می کنند و دلایل قانع کننده ای برای باور کردن این تصاعد لگاریتمی وجود دارد. هیچ کس خارج از گوگل نمی داند که گوگل از چه الگوریتمی برای پی آر استفاده می کند ولی احتمال استفاده گوگل از مقیاس لگاریتمی و یا مشابه آن زیاد است. با توجه به این مطلب ، بدست می آید که پی آر بسیار بیشتری در مقایسه با پی آر لازم برای پی آری که بدست آمده لازم است تا از یک پی آر به پی آر بعدی برسیم. نتیجه این می شود که فرض قبلی می شود ، پس یک لینک از سایتی با پی آر 8 که لینکهای خروجی زیادی دارد باارزش تر از صفحه ای با پی آر 4 و لینکهای خروجی کمتر خواهد بود.
هر کدام از این الگوریتمها را که گوگل استفاده کند ، ما می توانیم از یک چیز مطمئن باشیم. لینک هایی که از سایتهای دیگر می آیند باعث افزایش پی آر سایت ما می شوند. فقط در خاط داشته باشید که باید از قرار دادن لینکهای خود در مزرعه های لینکها و سایتهایی که لینک جمع می کنند و خاصیت دیگری ندارند خودداری کنید.
در نظر داشته باشید که اگر صفحه ای لینک به صفحه دیگری بدهد ، پی آر خودش کم نمی شود و چیزی از دست نمی دهد بلکه فقط رای می دهد. پس دادن رای ، جابجا شدن پی آر نیست ، بلکه بطور ساده فقط دادن یک رای است که قوت آن به مقدار پی آر آن صفحه بستگی دارد. این مسئله مانند مجمع سهام داران است. وقتی سهام داران جمع می شوند و هر کس به ازای درصد سهمش رای می دهد ، از تعداد سهامشان کم نمی شود و این قضیه کاملا مشابه است. با این حال ، صفحات گاهی تحت شرایطی بطور غیر مستقیم ، پی آر از دست می دهند که جلوتر راجع به آن صحبت می کنیم.
خوب اکنون به نحوه انجام شدن محاسبات می پردازیم.
برای محاسبه یک صفحه ، ابتدا پی آر آن ، اگر پی آری داشته باشد ، کاملا کنار گذاشته می شود و یک محاسبه کاملا جدید که فقط بر پایه لینکها و رای هایی که پس از آخرین محاسبه پی آر به آن داده شده و ممکن است تغییر کرده باشد انجام می شود. ولی آنچه در این ابتدا مشخص نیست اینست که این کار انجام شدنی نیست اگر این محاسبات یکبار انجام شوند. توضیح بیشتر آنکه فرض کنید ما دو صفحه آ و ب داشته باشیم که به یکدیگر نیز لینک شده باشند و هیچ لینک دیگری در این دو وجود نداشته باشد. آنچه اتفاق می افتد ، از قرار زیر است ؛
قدم اول ؛ محاسبه پی آر صفحه اول از مقدار لینکهای ورودی به آن
صفحه آ اکنون یک مقدار پی آر دارد. برای این محاسبه از لینک ورودی از صفحه ب استفاده شد ، اما صفحه ب یک لینک ورودی از صفحه آ دارد و پی آر جدید آن هنوز محاسبه نشده پس آنچه به عنوان پی آر برای صفحه آ بدست آماده بر اساس پی آر غیر دقیق صفحه ب است که در کل دقیق نمی باشد.
قدم دوم ؛ محاسبه پی آر صفحه ب با توجه به مقدار لینکهای ورودی
صفحه ب اکنون پی آر جدیدی دارد اما نمی تواند دقیق باشد زیرا که محاسباتی که به کار گرفته شده ، با استفاده از پی آر غیر دقیق صفحه آ است پس کل این دو محاسبه غیر دقیق است.
از آنجایی که ایندو محاسبه به یکدیگر وابسطه هستند ، ما نمی توانیم هیچکدام از این پی آر ها را بطور دقیق محاسبه کنیم تا زمانی که پی آر دقیق یکی را جلوتر از دیگری داشته باشیم. اما حالا که دو مقدار پی آر جدید خالص هرکدام را داریم ، آیا می توان دوباره این محاسبات را انجام داد تا جوب دقیق گرفت ؟ خیر
ما میتوانیم این محاسبات را مجدد انجام دهیم و نتایج دقیق تر نیز می شوند ولی ما همیشه جوابهای غیر دقیق را برای محاسبه های بعدی استفاده می کنیم پس نتایج ما همیشه غیر دقیق می باشند.
این مشکل با تکرار کردن بسیار محاسبات حل می شود. هر بار نتایج کمی دقیقتر از بارهای قبل می باشد اما دقت محض در این محاسبات وجود ندارد. 40 تا 50 بار محاسبه کافی است زیرا از آن به بعد نتایج تغییر چشم گیری نمی کنند. اینست آنچه گوگل در هر بار بروزرسانی انجام می دهد و دلیل طولانی بودن بروزرسانی های پی آر در گوگل می باشد که معمولا 70 روزمی باشد.
قانون پیج رنک توسط برین و پیج در گوگل

 

پیج رنک ( برین و پیج ، سال 1998 )
توضیح مفصل و باز کردن این الگوریتم را از دیدگاه بهینه سازی و مارکتینگ در اینجا مقتنم نمی دانم. ولی لازم است که در انجا راجع به پیج رنک صحبت کنیم چرا که نشان می دهد همیشه لازم نیست رتبه بندی بر اساس وزن لغات بکار رفته در متن باشد ، بلکه می تواند بر اساس وزن و ارزش لینکها و پیوندها نیز باشذ. اولین باری این الگوریتم ظاهر شد و دنیای بهینه سازس صفحات وب را عوض کرد ، با بهره گرفتن از طبیعت اجتماعی و متعحد وب و ساختار متصل لینکها توانست به دنیای وب بصورت یک وب واحد نگاه کرده و موقعیت هر صفحه تنها را ارزش گذاری کند. رتبه بندی صفحات که طی این قانون PR نام گرفته است از لحاظ عددی مقداریست بین صفر و یک که گوگل آنرا در نرم افزار خود ععدی بین یک تا ده نشان میدهد ، زیرا که تمامی لینکها در یک ماتریس جای داده می شود. حال آنچه مسلم است اینکه دنیای وب دیگر محیطی اجتماعی نیست و لینک دادن سایتی به سایت دیگر با هزاران حساب و کتاب انجام میشود و این به واسطه همین PR است که خود نابودی خود را در آینده رقم زده است.
قانون بردفرد
قانون بردفرد که در سال 1934پای به عرصه جستجو گزارد در مورد شواهدی از جستجو در پروندهای کتابخانه ای صحبت میکند که میتوان توسط آنها تعداد نتایج و پروندههای مرتبط را تخمین زد.
برای روشن شدن بیشتر این نحوه یافتن و مرتب کردن پروندها ، مثالی میاوریم تا مطلب باز شود. برای مثال اگر شما 5 نتیجه دارید که برای شما از درجه اهمیت برخوردار است و در این 5 وب سایت 12 پرونده برای شما مهم است و مورد نظر شما در مطلب خاصی است. حال اگر شما بخواهید 12 پرونده یا صفحه دیگر را که مطلبی مرتبط داشته باشند بدست آورید ، شما باید 10 سایت را مطالعه و مورد بررسی قرار دهید.
پس نتیجه گیری میشود که در قانون بردفرد ما با یک ترکیب مضاعف کننده 5/10روبرو هستیم. هر بار که شما بخواهید 12 صفحه مرتبط دیگر داشته باشید باید 10 سایت دیگر وجود داشته باشد. پس این بصورت تساعدی بالا رفته و در نهایت به ارقام 5 ، 10، 20 ، ... میرسد.
البته در جستجو داخل نتایج موتور های جستجو ، کمتر پیش میآید کسی انقدر عمیق جستجو کند.
مقایسه پیج رنک و هیتس
شباهتها : ایندو الگوریتم هر دو الگوریتم هایی هستند که بر اساس یک پرسش و یا Query عمل می کنند. Query ها در هر دوی آنها را می توان بروی یک نمودار همسایگی رسم کرد. هر دوی آنها از پروسه زمانبر و تکراری جهت انجام محاسبات و بدست آوردن درجه اهمیت یک سایت استفاده می کنند. برای اطلاع بیشتر از این نوع محاسبات مقاله پیج رنک را مطالعه کنید. تفاوتها : پیج رنک مستقل از پرسش یا query می باشد. در هیتس رابطه اجباری بین خوشه های اطلاعاتی و وب سایتها بر قرار می شود. پیج رنک بر پایه بر پایه وزن هر لینک و نرمالیزاسیون آنها کار می کند و مجموعه هایی از صفحه های داخلی مرتبط را می یابد در صورتی که هیتس لیستی از صفحاتی که مرتبط به پرسش هستند جمع آوری می کند. پیج رنک یک بردار رتبه بندی محاسبه می کند.
10 نشانگر برتر افزایش ترافیک و بهینه سازی موتورهای جستجو
10 نشانگر برتر افزایش ترافیک سایت و بهینه سازی صفحات وب در موتورهای جستجو برای تشخیص کیفیت و ارزش یک سایت که آنرا از دیگر سایتهای هم موضوع در اینترنت متمایز می کند. آیا تا به حال به این فکر کرده اید که یک سایت تبلیغاتی چه ارزشی برای تبلیغات دارد؟ یا تعرفعه تبلیغاتی سایتها را چگونه می توان ارزش نهاد؟
این سوالات زمانی ارزشمند میشوند که مایل هستید به سایتی تبلیغ خود را بدهید و در ازای آن پول بپردازید و یا اینکه برای گذاردن لینک خود در سایت دیگری باید هزینه بپردازید. هر زمان که تمایل به همکاری با سایتی را دارید و یا اینکه ارزش آنرا برای قرار دادن تبلیغات و تعرفه مایلید برآورد کنید احتیاج به دانش ارزش گذاری سایت خواهید داشت. در دنیای امروز هیچ چیزی مهمتر از ارزشی که سایت شما از دیدگاه موتورهای جستجو دارد نمی باشد و همین ارزش تعیین کننده رتبه و موقعیت شماست. مانند پیست مسابقات اتومبیل رانی و ماشین های داخل آن می توان به این قضیه نگریست. هر چقدر قطعات دقیق تری در ماشین ها بکار رفته باشد رتبه بالاتری را کسب خواهند کرد و این در مورد سایتها و رعایت نکات و ظرافت ها نیز صادق است.
اول مسیر درست را انتخاب کنید
اگر مسیر غلط باشد مانند شرکت در مسابقه اتومبیل رانی در کلاس متفاوت است و هیچ معلوم نیست که نتیجه چه خواهد بود حتی اگر تجهیزات و لوازم به جا باشند.من همیشه ذکر کرده ام که لینک باید از سایت مرتبط و از دیدگاه گوگل از محله خوب باشد. همانقدر که این مسئله مهم است ، لینک نگرفتن و ندادن به محله بد اینترنت نیز مهم است. زیرا اگر شما حتی فقط لینک بدهید ، از دیدگاه جستجوگرها کمک به محله بد کرده اید و مجرم محسوب می شوید. البته برخورد جستجو گر ها با مجرمان خیلی متفاوت است و بسیار پیچیده است و خود جای بحث در یک مقاله جدا دارد ، اما آنچه مسلم است اینکه در نتیجه تاثیر گذار است و می تواند در رتبه بندی شما بسیار موثر واقع شود. خوشبختانه تشخیص سایتها و محله های بد از خوب کار آسانی است و همه موارد آنرا بررسی می کنیم. برای جستجوگرها نشانه هایی وجود دارد که از روی آن می توانند سایتهایی با کیفیت خوب و کیفیت بد را تشخیص دهند و زمانی که شما نیز از این فاکتورها با خبر شوید می توانید تشخیص دهید که کدام سایتها ارزش لینک گرفتن یا خریدن را دارند ، کدام سایتها برای لینک دادن مطمئن هستند و از لینک دادن به کدام سایتها باید حذر کرد ، آیا سایت خود شما از دیدگاه جستجوگرها با کیفیت است یا نه و آیا سایت شما می تواند در ردهء یک کلمه کلیدی مشخص در 10 تای اول نتایج جستجو رقابت کند یا نه.
اطلاعات فوق برای کسانی که مایلند سایت فعالی را بخرند نیز مهم است تا بتوانند ارزش واقعی را بدست آورند. بازار وب ایران در این زمینه بسیار ضعیف است و احتیاج به فرهنگ سازی و ساختار سازی بسیار است. هدف این مقاله نیز جهت دادن به همین زمینه و ایجاد مسیر و استاندارد در تبلیغات و فعالیتهای بهینه سازی سایتها خصوصا فارسی در اینترنت است.
لینکهای برگشتی سایت از سایتهای معتبر دولتی و یا دانشگاهی

لینکهای برگشتی از سایتهای آموزشی .edu و یا سایتهای دولتی .gov
لینکهای برگشتی از سایتهای آموزشی .edu و یا سایتهای دولتی .gov از اهمیت بالاتری برخوردار می باشند و این بدین خاطر است که از دیدگاه جستجوگرها بدست آوردن لینک از چنین سایتهایی آسان نبوده و براحتی بقیه سایتها نمی باشد.

 

فرمت این مقاله به صورت Word و با قابلیت ویرایش میباشد

تعداد صفحات این مقاله   51 صفحه

پس از پرداخت ، میتوانید مقاله را به صورت انلاین دانلود کنید


دانلود با لینک مستقیم


دانلود مقاله رتبه بندی صفحات یا پیج رنک

پایان نامه کارشناسی تقسیم‌بندی صفحات وب

اختصاصی از فایل هلپ پایان نامه کارشناسی تقسیم‌بندی صفحات وب دانلود با لینک مستقیم و پر سرعت .

پایان نامه کارشناسی تقسیم‌بندی صفحات وب


پایان نامه کارشناسی تقسیم‌بندی صفحات وب

فرمت فایل: word

تعداد صفحه:76

دانشگاه آزاد اسلامی واحد میبد

دانشکده فنی و مهندسی گروه کامپیوتر- نرم افزار

پایان‌نامه‌ی کارشناسی رشته‌ی مهندسی کامپیوتر گرایش نرم‌افزار

عنوان پایان نامه

تقسیم‌بندی صفحات وب

 

 

 فهرست

 

فصل اول: معرفی نامه
۱-۱-  معرفی فصل دوم پایان نامه   ۲
۱-۲- معرفی فصل سوم پایان نامه   ۷
فصل دوم:روش های متفاوت تقسیم بندی صفحات وب
۲-۱- تقسیم بندی صفحات وب بطور مختصر   ۹
۲-۱-۱-۱- روش خلاصه سازی تعدیل شده Luhn   ۱۰
۲-۱-۱-۲ – روش تحلیل معنایی نهفته (LSA)   ۱۲
۲-۱-۱-۳- شناسایی  مضمون  بدنه  اصلی  توسط  تجزیه  و تحلیل لایه‌ای   ۱۳
۲-۱-۱-۴- خلاصه سازی نظارت شده   ۱۵
۲-۱-۱-۵- یک دسته بندی کلی از خلاصه سازی   ۱۷
۲-۱-۲- آزمایشات   ۱۸
۲-۱-۲-۱- مجموعه ی داده   ۱۸
۲-۱-۲-۲- دسته کننده ها   ۱۹
۲-۱-۲-۳- مقیاس ارزیابی   ۲۱
۲-۱-۲-۴- نتایج و تحلیل های تجربی   ۲۲
۲-۱-۲-۵ مورد پژوهش   ۲۹
۲-۱-۳- نتیجه گیری  و عملکرد آینده   ۳۱
۲-۲- تقسیم بندی صفحات وب با استفاده از الگوریتم  اجتماع مورچه ها   ۳۲
۲-۲-۱- پیش پردازش  متنی وابسته   به زبان شناسی  و استخراج وب   ۳۲
۲-۲-۲- الگوریتم Ant- Miner   ۳۶
۲-۲-۳- نتایج محاسباتی   ۳۹
۲-۲-۳-۱- تنظیم بصورت عملی   ۳۹
۲-۲-۳-۲- نتایج تأثیر تکنیک های پیش پردازش متنی وابسته به زبان شناسی   ۴۰
۲-۲-۴- بحث و تحقیقات آینده   ۴۳
۲-۳- تقسیم بندی صفحات وب براساس ساختار پوشه‌ای   ۴۴
۲-۳-۱ الگوریتم های تقسیم بندی صفحات وب   ۴۵
۲-۳-۲- روش مبتنی بر ساختار   ۴۷
۲-۳-۳- یک کاربرد خاص   ۴۷
۲-۳-۳-۱- استخراج مهمترین خصوصیات   ۴۸
۲-۳-۳-۲- عمل دسته بندی   ۵۰
۲-۳-۴ نتایج   ۵۱
۲-۳-۵- نتیجه گیری و عملکرد آینده   ۵۳
فصل سوم : جستجوی وب با استفاده از طبقه بندی خودکار
۳-۱- معماری    ۵۷
۳-۱-۱- دسته کننده‌ی خودکار    ۵۷
۳-۱-۲-واسط جستجو   ۵۸
۳-۲- آزمایش معتبر سازی   ۵۹
۳-۲-۲- برپایی آزمایش    ۶۰
۳-۲-۲- نتایج تجربی   ۶۱
۳-۳- فهرست لغات هر دسته   ۶۴
۳-۳-۱- تشخیص هرزنامۀ¹ وب   ۶۶
۳-۳-۲- تأثیرات تبعیضات   ۶۷
۳-۴- عملکردهای بعدی    ۶۸

 

چکیده

 

همانطور که می دانیم مجموع اطلاعات در دسترس روی وب بسیار زیاد می باشد و هر ساله شاهد  روندرو به رشد تصاعدی در مقدار اطلاعات روی صفحات وب می باشیم. در حقیقت ،وب یک انبار بزرگ اطلاعات است و با یک بررسی اجمالی در میابیم که شمارش صفحات  قابل  دسترس  در وب در حدود  یک میلیارد صفحه می باشد وچیزی در حدود  یک و نیم  میلیون صفحه  نیز  به طور روزانه اضافه می شوند. به عنوان مثال در حال حاضر سایت گوگل  بیشتر از  ۲/۴ میلیارد  صفحه را  جستجو  می کند.  این  مقدار هنگفت  اطلاعات  به اضافه طبیعت  فعل و انفعالی  و  پر  محتوای  وب  آنرا  بسیار  پر طرفدار کرده است . به علاوه  سازماندهی این صفحات امکان جستجوی آسان را نمی دهد.

 

 بنابراین  با توجه به رشد سریع وب گسترده جهانی  ( www ) بطوردائم نیازمند فراهم کردن یک روش  خودکار برای کار بران تقسیم بندی و طبقه بندی  صفحات وب می باشیم. در بخش نتیجه یک قاعده ، نتیجه ، دسته ای از پیش بینی های یک قانون است که پیش بینی کننده آنها را ثبت کرده است.به عنوان مثال این موضوع می تواند یک قانون باشد که:

 

 If <salary=high> and <mortgage=no> then

 

اگر شما حقوق بالایی داشته باشید و هیچ رهن و قرضی هم نداشته باشید پس اعتبار بالایی دارید. این نوع ارایه اطلاعات نتایج جامع و کلی برای کاربر دارند. زیرا هدف عمومی نگهداری اطلاعات کشف و دستیابی به اطلاعات دقیق نیست بلکه ارایه اطلاعات عمومی و جامع به کاربران است. در پروسه دسته بندی اهداف کشف قوانین از یک مجموعه اطلاعات پایه و آموزشی و بکار بردن این قوانین در یک مجموعه اطلاعات آزمایشی ( که در اطلاعات پایه دیده نشده ) و ارایه یک پیش بینی قابل قبول از دسته مجموعه آزمایشی است. در این پروژه هدف کشف یک مجموعه خوب از قواعد دسته بندی برای طبقه بندی صفحات وب بر اساس موضوع آنهاست.

 

  هدف این پروژه تقسیم بندی صفحات وب به منظور آسان سازی کار سرویس های جستجوی آینده می باشد وبنابراین  توانایی استخراج کردن  اطلاعات  خاص از میان انبوه صفحات وب به اندازه خود صفحات وب مهم می باشد.بنابراین روش های مؤثر و صحیح برای طبقه بندی این حجم عظیم اطلاعات ضروری است.

 

فصل اول

 

معرفی نامه

 

  در این فصل به اختصار به معرفی فصول مختلف می پردازیم و با بیان اهداف کلی هر فصل مروری اجمالی بر کل مطالب پایان نامه خواهیم داشت:

 

 معرفی فصل دوم پایان نامه:

 

۱-۱- روش های مختلف تقسیم بندی صفحات وب

 

در این بخش همانگونه که از عنوان آن پیداست به معرفی و مقایسه ی روش های متفاوت تقسیم بندی می پردازیم.این بخش شامل سه قسمت مجزاست که در هر قسمت هر یک از این روش ها به تفصیل مورد بحث قرار گرفته اند:

 

 ۱-۱-۱- تقسیم بندی صفحات وب بطور مختصر

 

با رشد سریع جهان پهنه ی گسترده ی وب  نیاز فزاینده ای به فعالیت های گسترده در جهت کمک به کاربرانصفحات وب برای  طبقه بندی و دسته بندی این صفحات وجود دارد . این قبیل کمک ها که در سازمان دهی مقادیر زیاد  اطلاعات که با سیستم های جستجو در ارتباط هستند و یا تشکیل کاتالوگ هایی که تشکیلات وب را سامان دهی می کنند ، بسیار مفید هستند.از نمونه های اخیر آن می توان یاهو و فرهنگ لغت looksmart (http://www.looksmart.com) که دارای کاربران زیادی هستند را نام برد.

 

 شواهد نشان می دهد که طبقه بندی نقش مهمی را در آینده سیستم های جستجو بازی می کند. تحقیقات انجام شده  نشان می دهد که کاربران ترجیح می دهند برای جستجو ، از کاتولوگ های از پیش دسته بندی شده استفاده کنند . از طرفی رسیدن به این قبیل نیاز های اساسی بدون تکنیک های خودکار دسته بندی صفحات وب و تحت ویرایش دستی و طبیعی توسط انسان بسیار مشکل است . زیرا با افزایش حجم اطلاعات طبقه بندی دستی بسیار وقتگیر و دشوار است.

 

    در نگاه اول ، دسته بندی صفحات وب را می توان از برنامه های اداری دسته بندی متون مقتبس نمود.اگر بخواهیم در یک آزمایش ملموس تر به نتایج دقیق برسیم، راه حل مساله بسیار دشوار خواهد شد.صفحات وب ساختار اصلی و اساسی خود را در قالب زبان HTML قرار می دهند که آنها شامل محتویات پر سروصدا مانند تیترهای تبلیغاتی و یا هدایت گرهای راهنما و غیر متنی هستند.اگز روش های خاص طبقه بندی ویژه متون برای این صفحات بکار گرفته شود چون متمایل به یک الگوریتم خاص دسته بندی متون است ، گمراه شده و باعث از دست رفتن تمرکز بر موضوعات اصلی و محتویات مهم می شود.زیرا این محتویات فقط شامل متن نیست.

 

    پس وظیفه و هدف مهم ما طراحی یک کاوشگر هوشمند برای جستجوی مطالب مهم صفحات وب است که هم شامل اطلاعات متنی و هم سایر اطلاعات مهم باشد.در این مقاله ما نشان می دهیم که تکنیک های خلاصه سازی صفحات وب برای جستجوگر ها دسته بندی صفحات وب ، تکنیکی کاربردی و بسیار مفید است. ما همچنین نشان می دهیم که به جای استفاده از تکنیک های خلاصه سازی در فضای وب که عمدتا برای متون طراحی شده ، می توان از برنامه ها و تکنیک های خاص خلاصه سازی صفحات وب استفاده کرد. به منظور جمع آوری شواهد قابل ملموسی که نشان دهیم تکنیک های خلاصه سازی در صفحات وب سودمند هستند، ما ابتدا یک آزمایش موردی ایده آل را بررسی می کنیم که در آن هر صفحه وب ، با خلا صه این صفحه، که توسط انسان خلاصه شده جابجا شده است.پس از انجام این آزمایش در می یابیم که در مقایسه با استفاه از متن کامل صفحه وب ، حالت خلاصه شده رشد چشمگیر ۱۴٫۸ درصدی داشته است که پیشرفت قابل ملاحظه ای شمرده می شود.به علاوه در این مقاله ما یک تکنیک جدید خلاصه سازی صفحات وب را پیشنهاد می کنیم که این روش موضوعات اصلی صفحات وب را با روش آنالیز لایه ای صفحات برای بالا بردن دقت دسته بندی استخراج می کند.

 

     سپس عملیات دسته بندی را به همراه الگوریتم اجرای آن ارزیابی می کنیم و آن را با روش های سنتی دسته بندی خودکار متون که شامل روش های نظارتی و غیر نظارتی می باشد مقایسه می کنیم.در آخر ما نشان می دهیم که یک اسمبل از روش خلاصه سازی حدود ۱۲٫۹ درصد پیشرفت را می تواند حاصل کند که این عدد بسیار نزدیک به حدود بالایی است که ما در آزمایش ایده آل خود به آن دست یافتیم.

 

    نتیجه کلی این مقاله این است که جستجو گر هایی که فقط برای متون طراحی شده اند در حالت کلی گزینه مناسبی برای جستجو در فضای وب نیستند و ما نیاز به برنامه هاو جستجو گر هایی داریم که صفحات وب را در لایه های مختلف و همچنین سطوح متفاوت بررسی و جستجو کنند. لذا استفاده از مدل هایی که روش های خلاصه سازی و دسته بندی را بادقت بیشتری انجام می دهند، سرعت و دقت جستجو را افزایش خواهد داد.

 

۱-۱-۲- تقسیم یندی صفحات وب با استفاده از الگوریتم اجتماع مورچه ها

 

در این بخش هدف کشف کردن یک مجموعه  خوب  قوانین  تقسیم  بندی  به  منظور  رده بندی کردن صفحات وب بر اساس موضوعات آنهاست. الگوریتم استفاده شده در این فصل الگوریتم اجتماع مورچه( اولین الگوریتم بهینه سازی اجتماع مورچه) برای کشف  قوانین  تقسیم بندی  در زمینه ی  استخراج مضامین  وب می باشد. همچنین مزایا و معایب  چندین  تکنیک  پیش پردازش متنی  بر اساس زبان شناسی  را  به منظور کاهش مقدار  زیادی از علائم و نشان های به هم پیو سته  با استفاده از استخراج  مضامین وب  بررسی می کند.

 

   نگهداری صفحات وب بسیار چالش پذیر تر است.زیرا شامل متون غیر سازمان یافته و یا نیمه سازمان یافته بسیاری در صفحات وب یافت می شود. به علاوه تعداد زیادی از لغات و خصوصیات در رابطه با صفحات وب بالقوه موجود است . و یک تحلیل تئوری از      الگوریتم مورچه (تحت یک نگاه بدبینانه) نشان می دهد که زمان محاسباتی شدیدا به مقدار توصیفات و خصوصیات حساس است . پس استنباط اینکه این الگوریتم در رابطه با مجموعه داه هایی که در عمل خصوصیت های زیادی دارند  و همچنین در چالش با دنیای وب و نگهداری وب ها چگونه مقیاس بندی می کند ، از اهمیت فراوانی برخوردار است.

 

    در آخر تحقیق در مورد اینکه تکنیک های مختلف جستجوی متون که توصیفات و خصوصیات آنها رو  به افزایش است ، چه تاثیری بر عملکرد الگوریتم خواهد گذاشت دارای اهمیت می باشد.

 

    نتیجه کلی این مقاله این است که باافزایش اطلاعات صفحات وب جهت سهولت در برداشت و جستجو نیازمند دسته بندی و طبقه بندی آنها هستیم.برای دسته بندی نیاز به یک الگوی مناسب وجود دارد که این انتخاب الگو نیز به نوبه خود نیازمند قواعد کلی و مناسب ا ست.قواعد شامل مقدمه ها و نتایج هستند که مارا در جهت ایجاد الگوی مناسب برای دسته بندی یاری می دهند.

 

    هدف ما دسته بندی اطلاعات بر حسب موضوع است که نباید به صورت جزئی و خاص این مهم را انجام داد ، بلکه دسته بندی مناسب و معقول باید عمومی ، مفید و جامعه نگر باشد.

 

۱-۱-۳- تقسیم بندی صفحات وب براساس ساختارپوشه ای

 

اخیرا در حجم داده های موجود در web یک افزایش نمایی وجود دارد. بر این اساس ، تعداد صفحات موجود در web  در حدود ۱ میلیارد است و روزانه تقریبا ۱٫۵ میلیون به آن اضافه می شود. این حجم وسیع داده علاوه  بر تاثیرات متقابل ،وب رابه شدت مورد توجه عامه مردم قرار داده است.

 

 در هر حال ، در مواردی چون اطلاعات ، محتویات و کیفیت تا حدود زیادی با یکدیگر تفاوت دارند. به علاوه ، سازمان این صفحات اجازه یک تحقیق ساده را نمی دهد. بنابراین ، یک روش دقیق و موثر برای  دسته بندی این حجم از اطلاعات برای بهره برداری از تمام قابلیت های وب بسیار ضروری است. این ضرورت مدت زیادی است که احساس شده است و رویکردهای مختلفی برای حل این مشکل پیشنهاد شده است.

 

برای شروع ، دسته بندی توسط متخصصین شبکه جهانی به صورت دستی انجام شد. اما خیلی سریع ، دسته بندی به صورت اتوماتیک ونیمه اتوماتیک در آمد. تعدادی از رویکردهای مورد استفاده شامل دسته بندی متن بر اساس الگوریتم های آماری است ، رویکرد -Kنزدیکترین همسایه ، یادگیری قوانین القایی ، در خت های تصمیم ، شبکه های عصبی و ماشین های برداری پشتیبان ، از جمله این موارد می باشند. تلاش دیگری که در این زمینه صورت گرفت ، دسته بندی محتویات وب بر اساس ساختمانی وراثتی است.

 

به هر حال ، علاوه بر محتویات متن در صفحات وب ، تصاویر ، نمایش ها و دیگر موارد رسانه ای در کنار هم و در تعامل با ساختمان متن ، اطلاعات زیادی را برای دسته بندی صفحات می دهند.

 

 الگوریتم های دسته بندی موجود که به تنهایی روی محتویات متن برای دسته بندی ، تکیه دارند ، از این جنبه ها استفاده نمی کنند. به تازگی با رویکردی اتوماتیک بر اساس   جنبه ای  برای دسته بندی صفحات وب  روبرو شده ایم.

 

 ما یک رویکرد برای دسته بندی اتوماتیک صفحات وب  توصیف کرده ایم واز تصاویر و ساختمان صفحه برای دسته بندی استفاده می کند.نتایج حاصله کاملا امیدوار کننده است . این رویکرد می تواند در کنار   دیگر رویکرد های مبتنی بر متن توسط موتور های جسنجو گر برای  دسته بندی صفحات وب ، مورد استفاده قرار گیرد .

 

عملیات جاری ما روشی را برای دسته بندی استفاده می کند که در آن وزن اختصاص یافته به هر جنبه به طور دستی چند جنبه ابتکاری دیگر ( مانند قرار دادن یک صفحه به عنوان صفحه ی خانگی ) می تواند دقت دسته بندی را افزایش دهد. در حال حاضر ، ما تنها از تصاویر علاوه بر اطلاعات ساختمان صفحات استفاده کرده ایم و از جنبه هایی چون  صوت و نمایش استفاده نکرده ایم.

 

معرفی فصل سوم پایان نامه:

 

 ۱-۲- جستجوی وب با استفاده از طبقه بندی خودکار

 

پهنه  مرزی  جستجوی  مساعد  و  مفید کاربر  برای  صفحات  وب  هنوز  یکی از مهمترین  مبارزه طلبی ها  درسهل  نمودن آن برای عموم  می باشد و در حقیقت  همه ابزارهای  جستجوی اخیر هر یک از ریزه کاری های نا چیز  یا فراخوانی ناچیز دستخوش تغییر می شوند.

 

 ما این مسئله را در این فصل با گسترش پهنه مرزی جستجوی که به طبقه بندی خودکار صفحات وب وابسته است مورد توجه قرار داده ایم. تقسیم بندی ما متکی بر علم رده بندی یاهو! می باشد اما از این نظر که آن خودکار می باشد  و توانایی در برگرفتن سریع تر   همه عظمت وب را در قبال  علم  رده بندی یاهو! دارد  با  هم  متفاوتند .  اعتبار آزمایشات طبقه بندی  ما  در  این  فصل  اطلاعات جانبی  را در  زمینه  قدرت  طبقه بندی  خودکار  ارائه  می کند .

 

همچنین جستجوی  مجدد  ما نشان می دهد که تقسیم  بندی وب و ابزار های جستجو باید برای مهارت هایی نظیر تشخیص هرزنامه ی وب که از موجودی های چنین ابزار هایی  نتیجه شده اند ، پاداشی در نظر بگیرند.

 

تهیه یک روش  تحقیق  و جستجو موثر و مطلوب در وب همچنان یکی از چالش های مهم برای در دسترس عموم قرار دادن آن است . تصور کنید که شما به عنوان یک جستجو گر می خواهید وزن متوسط یوز پلنگ رابدانید. اگر شما تصمیم بگیرید که بوسیله ی کلمات کلیدی “یوز پلنگ” و ” وزن ” جستجو را انجام دهید ، تقریبا ۹۰۰ متن مطابق با کلمات مورد نظر را خواهید یافت . اما متا سفانه شما به سرعت آن جواب مورد نظر را نخواهید یافت . نتایج جستجو با صفحات زیادی که شامل  ” ماشینهای جاگوار ” ، “آتاری جاگوار ” به عنوان یک سیستم بازی خانگی ، و احتمالا حتی تیم فوتبال ” جاگوار ” ، همراه خواهد شد. از این ۹۰۰ صفحه ، یافته ایم که بالاترین متن موجود در لیست که شامل اطلاعات مورد نظر ما است ، متن ۴۱ می باشد .  ( وزن متوسط جنس نر ، بین ۱۲۵ تا ۲۵۰  پوند است.)

 

حال سوال این است که آیا ما کم وبیش می توانیم به یک موتور جستجو گر مانند Alta Vista بگوییم که جستجوی ما با این کلمات کلیدی تنها باید محدود به متون مربوط به جانور شناسی و یا موارد دیگری از علوم باشد؟

 

یک رویکرد برای محدود کردن جستجو استفاده از یک شاخه مانند یاهو! است . متاسفانه این موارد تنها در بخش کوچکی از وب پوشش داده شده اند. در واقع ، تمامی ابزار های جستجو گر موجود در حال حاضر از دو مشکل دقت پایین ( به معنای تعداد بیش از اندازه متن های بدون ارتباط ) و فراخوانی ضعیف ( به این معنی که قسمت کوچکی از وب توسط این ابزار پوشش داده شده است.) رنج می برند.

 

ما بر این مورد یا توسعه یک جستجو که بر دسته بندی اتوماتیک صفحات وب تکیه دارد ، تاکید می کنیم. دسته بندی ما در یاهو! یک طبقه بندی علمی را می سازد ، اما با این تفاوت که اتوماتیک است و بنابراین این قابلیت را دارد که تمامی وب  را تحت پوشش قرار دهد .

 

۲-۱-  تقسیم بندی صفحات وب بطور مختصر

 

در این فصل ما به بررسی ساختار مطلقاً پیچیده‌ای که در صفحات وب جاسازی شده است می پردازیم و چگونگی استفاده از اطلاعات را در خلاصه سازی صفحات وب نشان می دهیم . در اینجا هدف ما استخراج کردن مفاهیم مربوطه‌ی بیشتر از صفحات وب و گذراندن آنها از یک الگوریتم تقسیم بندی متنی استاندارد می باشد .

 

 بویژه ما به چهار شیوه‌ی متفاوت اجرای خلاصه سازی صفحات وب رسیدگی می نماییم روش اول مشابه تکنیک خلاصه سازی [۱]Luhn می باشد،که در بخش ۲-۱-۱-۱- توضیح داده شده است . روش دوم مشابه استفاده از تحلیل معنایی نهفته روی صفحات وب برای خلاصه سازی می باشد . روش سوم پیدا کردن مفاهیم مهم بدنه‌ ی اصلی متن و ترکیب اجزای آن به منظور خلاصه سازی می باشد و در آخر ، روش چهارم نگریستن به خلاصه سازی همانند یک امر یادگیری نظارت شده می باشد .

 

ما نتایج هر چهار روش خلاصه سازی شده را با هم ترکیب کرده و در خلاصه سازی صفحات وب مورد استفاده قرار می دهیم .

 

۲-۱-۱-۱- روش خلاصه سازی تعدیل شده Luhn

 

 ما روش Luhn که به منظور خلاصه سازی متون طراحی شده است را برای خلاصه سازی صفحات وب تغییر می دهیم . روش Luhn یک شیوه‌ی اصولی خلاصه سازی است که در آن هر جمله با یک عامل با معنی ارجاع داده شده است و جملات با بزرگ ترین عاملهای با معنی شان به منظور شکل دادن خلاصه انتخاب شده اند به منظور محاسبه ی عامل با معنی یک جمله نیازمند ساختن یک ” منبع لغات با معنی ” هستیم که کلماتی را که فرآوانی آنها بین بیشترین حد فرآوانی و کمترین حد فرآوانی می باشد را معین می کند . پس از انجام دادن این کار عامل با معنی یک جمله می تواند توسط روش Luhn همانند زیر محاسبه شود :

 

(۱) قرار دادن یک حد L برای فاصله بین هر دو کلمه‌ با معنی که از نظر معنی بهم مربوط مطرح شده‌اند.

 

(۲) پیدا کردن یک بخش از جمله که مساوی با کلمات با معنی نه بیشتر از L می باشد و از کلمات غیر معنی دار است.

 

(۳) شمارش تعداد کلمات معنی دار آن بخش و تقسیم عادلانه‌ی این تعداد توسط کل کلمات این بخش .

 

نتیجه عامل با معنی مربوط به S می باشد .

 

به منظور تغییر دادن این روال برای صفحات وب ما یک سری دستورات را برای الگوریتم Luhn می سازیم . در امر تقسیم بندی صفحات وب ، دسته اطلاعات هر صفحه قبلاً در داده‌های آموزشی معلوم شده است ، بنابراین کلمات با معنی انتخاب شده می تواند بین هر دسته از قبل تولید شده باشد .

 

در این روش ما برای هر دسته با انتخاب کردن کلمات با فرآوانی زیاد و پس از پاک کردن کلمات غیر قابل استفاده در آن بخش یک منبع لغات بامعنی ساختیم و سپس روش Luhn را به منظور محاسبه عامل با معنی به کار گرفتیم.

 

این تغییر دو مزیت دارد اول اینکه دانسته های قبلی بخش ها در خلاصه سازی مورد استفاده قرار می گیرد و دوم اینکه برخی از لغاتی نسبتاً بطور مکرر دریک صفحه‌ی مجزا تکرار می شوند از میان آمار پوشه‌های متعدد پاک خواهند شد .

 

در طول خلاصه سازی صفحات وب در دوره‌ی آموزشی شان با معنی در جمله با توجه به معنی لغات با معنی مطابق بر چسب آن بخش محاسبه خواهد شد .

 

برای تست صفحات وب اطلاعات آن بخش را در دست نداریم در اینجا ما عاملهای با معنی را برای هر جمله با توجه به منابع لغات با معنی متفاوت در سرتا سر بخش‌های مختلف محاسبه می نماییم .

 

نشان با معنی جمله‌ی نهایی میانگین همه‌ی بخش ها خواهد بود و به Luhn S منسوب است . خلاصه‌ی این صفحه با جملاتی که بالاترین نشان را دارند شکل خواهد گرفت .

 

۲-۱-۱-۲ روش تحلیل معنایی نهفته (LSA[2])

 

تحلیل معنایی نهفته با موفقیت در بازیابی اطلاعات و بسیاری از قلمروهای مربوطه بکار رفته است و توانایی این روش در ارائه کردن واحدها و اجزای مربوط است که به یک “فضای خالی معنایی ” با ابعاد خیلی بزرگ اشاره می کند . در حوزه‌ی خلاصه سازی متنی،روش گنگ[۳] یکی از کارهایی است که در متن های محض به روش LSA جواب داده است . در این بخش ما چگونگی به کار بردن LSA را برای خلاصه سازی مرور خواهیم کرد .

 

روش تحلیل معنایی نهفته مبنی بر تجزیه‌ی ارزش منفرد (SVD)[4] می باشد .

 

 SVD تکنیک تجزیه‌ی ماتریس ریاضی است که قابل اجرا بر روی متون توسط انسان های کار آزموده و با تجربه است . به عنوان مثال ماتریس  داده شده است که هر بردار ستون  نماینده‌ی بردار واحد فرآوانی دارای وزن جمله‌ی i در پوشه‌ی تحت ملاحظه می‌باشد ، روش SVD همانند زیر تعریف می‌شود :

 

 در اینجا که یک ماتریس نرمال ستونی است که ستونهای آن بردارهای منفرد طرف چپ نامیده می شوند.
، یک ماتریس قطری n n است که عناصر قطری غیر منفی آن با ارزش منفرد ، با ترتیب نزولی ذخیره شده‌اند .
یک ماتریس نرمال n n است که ستونهای آن بردارهای منفرد طرف راست نامیده می‌شوند ، روش LSA در خلاصه سازی به دو علت کاربرد پذیر است:

 

ابتدا اینکه ، LSA قابل تعریف و مدلسازی در رابطه‌ی متقابل بین واحدهای طبقه بندی شده از نظر معنا وجملات می باشد . دوم اینکه ، LSA می تواند الگوی ترکیبی کلمات برجسته و تکرار شونده‌ی متن را در پوشه‌ای که یک موضوع خاص را توصیف می کند بدست آورد. در روش LSA ، مفاهیم توسط یکی از بردارهای منفردی که مقدار متناظرشان نمایانگر اهمیت درجه‌ی آن الگو در یک پوشه می باشد ، نشان داده می‌شود. هر جمله ای شامل این الگوی ترکیبی لغات در این بردار منفرد ارائه خواهد شد . هر جمله‌ای که این الگو را بهتر نمایش دهد ،بیشترین مقدار شاخص این بردار را خواهد داشت این شاخص را با  نمایش می دهیم . و جملات با بالاترین شاخص را برای خلاصه سازی انتخاب می کنیم .

 

۲-۱-۱-۳- شناسایی  مضمون  بدنه  اصلی  توسط  تجزیه  و تحلیل لایه‌ای

 

[۱].روشی که برای خلاصه سازی متون طراحی شده است.

 

[۲] . LSA Latent semantic Analysis

 

[3] . Gong

 

[4] . SVD singular Value De composition

 


دانلود با لینک مستقیم


پایان نامه کارشناسی تقسیم‌بندی صفحات وب

طرح توجیهی طراحی نرم افزار و صفحات وب

اختصاصی از فایل هلپ طرح توجیهی طراحی نرم افزار و صفحات وب دانلود با لینک مستقیم و پر سرعت .

طرح توجیهی طراحی نرم افزار و صفحات وب


طرح توجیهی طراحی نرم افزار و صفحات وب

موضوع طرح:تولید نرم افزارهای آموزشی و خدمات کامپیوتری، طراحی صفحات وب و نصب شبکه می باشد
تعداد صفحات این طرح۱۷صفحه می باشد
فرمت فایل به صورت pdf می باشد
آموزش ومحاسبه ی دقیق و نکته به نکته ی کلیه ی موارد زیر به صورت مجزا :::

 

محاسبه نقطه سر به سر

محاسبة کارمزد وام

جدول بازپرداخت اصل و کارمزد تسهیلات

محاسبه دوره برگشت سرمایه

سود ویژه قبل از کسر مالیات

هزینه فروش و اداری

استهلاک

سرمایه در گردش

حقوق و دستمزد

هزینه نگهداری و تعمیرات

هزینه های جاری

هزینه های قبل از بهره برداری

تاسیسات اداری

تاسیسات


دانلود با لینک مستقیم


طرح توجیهی طراحی نرم افزار و صفحات وب

دانلود مقاله فهرست نویسی صفحات وب و اینترنت

اختصاصی از فایل هلپ دانلود مقاله فهرست نویسی صفحات وب و اینترنت دانلود با لینک مستقیم و پر سرعت .

چکیده
درعصر حاضر که دوره پیشرفت سرسام آور فناوری بالاخص فناوری های اطلاعاتی و ارتباطی است، کمتر حرفه ای را می بینیم که فناوری رنگ تازه ای به آن نداده و یا در آن تغییر و تحول ایجاد نکرده باشد. علوم کتابداری و اطلاع رسانی نیز همپای دیگر علوم نه تنها از این پیشرفت ها مصون نمانده است، بلکه خود نیز به عنوان یکی از تجلی گاههای عمده فناوری های جدید اطلاعاتی و ارتباطی از جمله اینترنت می باشد.
در اولین سالهای ظهور اینترنت در کتابخانه ها به هیچ وجه گمان این همه تاثیرات عمیق این فناوری جدید بر کارکردهای کتابخانه نمی رفت. امروزه کتابداران با چالش های جدیدی در حرفه خود روبرو هستند، از جمله حوزه فهرستنویسی و سازماندهی از اینترنت بسیار تاثیر پذیرفته است و از آنجایی که خود اینترنت نیز به عنوان یک محمل اطلاعاتی جدید و از طرفی دیگر حجم روزافزون منابع اطلاعاتی موجود در اینترنت در حال افزایش است، باعث شده که کتابداران را در پی یافتن راههای بهتر و مطمئن تر جهت کسب اطلاعات دقیق تر، مفید تر و سریع تر از این محیط جدید، به تلاش و تکاپو وادارد.
آنچه در دهه های گذشته ذهن کتابداران را به خود مشغول داشته است، بحث آینده سازماندهی و تغییر قالب منابع اطلاعاتی و چگونگی سازماندهی، دسترسی و اشاعه این نوع منابع بوده است. کتابداران با توجه به ضعف اینترنت در سازماندهی منابع اطلاعاتی در تلاش هستند که روش های مناسبی را ذخیره سازی و بازیابی بهتر و مناسب تر اطلاعات به کار گیرند.
کلیدواژه ها: فهرستنویسی وب. فهرستنویسی اینترنت

یکی از اهداف جامعه پیشرفته در علوم و فنون، ایجاد توازن مطلوب بین دانش تولید شده و اطلاعات تولید شده است. امروزه رسیدن به این هدف نگرانی زیادی را بوجود آورده است. لیکلیدر(1996) در این باره سه راه حل پیشنهاد کرده است:
1- کاهش شدید میزان انتشارات.
2- بهینه سازی طرق بازیابی و انتخاب مدرک متناسب با نیازها.
3- ارتقای راههای آماده سازی محتوای اطلاعاتی مدرک.

مورد اول قابل قبول نیست. در مورد گزینه دوم لیکلیدر می کوشد تا میزان برخورد استفاده کنندگان و مجموعه اطلاعاتی را از طریق توصیه روشهای پیشرفته فکری و ماشینی جهت انتخاب مدارک مناسب با نیازها تقلیل دهد. پیشنهاد سوم وی به مراتب برتر از مورد دوم بوده و شامل روشهای پیشرفته فکری و ماشینی جهت آماده سازی اطلاعات موجود در مدرک است. در این مرحله است که سازماندهی اطلاعات می تواند تا حد زیادی راهگشای مشکلات باشد.
سازماندهی منابع دانش یکی از ارکان اساسی علم کتابداری است و پیشینه آن به قدمت خود انسان و تاریخ علم است، چرا که بدون استفاده از یک روش متناسب علمی و منطقی و نظم عالی نمی توان به راحتی به منابع اصلاعاتی دسترسی پیدا کرد. هدف عمده و اساسی فهرستنویسی، سازمان دادن به مجموعه مواد و منابع کتابخانه است تا از این طریق بتوان کتاب مورد نیاز را از مجموعه موجود، سریع تر بازیابی کرد.
همان طور که از این تعریف می توان استنباط کرد، هدف عمده فهرستنویسی نظم و سازمان دادن به مجموعه مواد و منابع است و تفاوتی ندارد که این مواد و منابع به چه فرمت و محملی باشند. سازمان دادن به منابع چه چاپی و چه الکترونیکی از مهمترین وظایف و کارکردهای علوم کتابداری و اطلاع رسانی است.
به طور کلی کارکردهایی که از فهرست و فهرستنویسی انتظار می رود به شرح زیر است:
1- کاربران را از وجود انواع مواد و منابع آگاه می کند(شناسایی)
2- در انتخاب دقیق منابع و جستجوی منابع مناسب به کاربران کمک می کند. به کمک تمام اطلاعات موجود در فهرست، کاربران می توانند به اطلاعات مورد نظر از طریق نقاط دسترسی گوناگون دست یابند.(گزینش و دسترسی)
3- با استفاده از کدها و استانداردها، امکان بازیابی و ذخیره یکپارچه اطلاعات برای همگان فراهم می شود.(بازیابی)

به طور دقیق تر هدف فهرستنویسی، تهیه شناسه برای مجموعه منابع کتابخانه ( اعم از کتاب و دیگر اشکال منابع ) بر اساس نیاز مراجعه کنندگان است و موجب شناسایی بهتر و کامل تر اثر می گردد. روند فهرستنویسی در نقش پالایه ای برای زدودن اطلاعات زائد عمل می کند. وظیفه فهرستنویسی، جدا نمودن اطلاعات شاخصی است که بدان وسیله یک اثر شناسایی و بازیابی می شود. این نیاز چه در محیط های چاپی و چه در محیط وب و اینترنت بسیار ملموس است و با توجه به اینکه سازماندهی منابع دانش و اطلاعات از وظایف اولیه و بنیادین کتابداران می باشد، لذا شایسته است تا فهرستنویسان و کتابداران در جهت سازماندهی محمل های جدید اطلاعاتی که روز به روز در حال افزایش است، نهایت کوشش و دقت را به عمل آورند.
سازماندهی اطلاعات از ارکان اساسی محیط علمی به شمار می آید، چرا که بدون وجود نظم و ترتیب، دستیابی به منابع اطلاعاتی با هزینه زمانی و اقتصادی گزافی صورت می گیرد. در طول تاریخ کتابداری محیط ها و دوره های متفاوتی را شاهد بوده ایم که در هر یک برای دستیابی به اطلاعات، سازماندهی اطلاعات وجود داشته است و پیوسته سیر تکاملی خود را ادامه می دهد.
یکی از مهمترین تحولات نیمه دوم قرن بیستم، ظهور و گسترش پدیده اینترنت است که تاثیرات شگرفی بر کتابداری و سازماندهی داشته است. این تاثیرات تقریبا دوجانبه بوده است، از سویی اینترنت خود امکانات و تسهیلات زیادی جهت سازماندهی اطلاعات فراروی کتابداران می گذارد و از طرفی خود نیز تحت تاثیر روشهای سازماندهی مرسوم در کتابداری قرار می گیرد.
اینترنت به منزله پدیده ای اطلاعاتی مداوم در حال تغییر و توسعه است. این شبکه که از آن به شبکه شبکه ها نیز تعبیر می شود، حرفه کتابداری را با حجم عظیمی از اطلاعات الکترونیکی مواجه ساخته است و در نتیجه بر آن نیز اثر گذاشته است. اطلاعات موجود در این شبکه از بهترین ابزارهای بهبود کیفیت کار کتابخانه ها محسوب می شود. این پهنه عظیم اطلاعات خود با مشکلی بزرگ تر به نام سازماندهی اینترنت روبرو است، که در صورت عدم سازماندهی نمی توان کارآیی مفیدی را از آن انتظار داشت.

اهداف و کارکردهای اینترنت را می توان به صورت زیر بیان کرد:
1- تولید اطلاعات: اینترنت یکی از نوین ترین ابزارهای توسعه و پیشرفت علوم است و در سایه وجود آن، علوم جدیدی متولد شدند و بر غنای علوم دیگر نظیر ارتباطات و اطلاع رسانی و علوم رایانه افزوده شده و خود نیز وسیله ای در جهت تولید اطلاعات شد.
2- سازماندهی اطلاعات: این مهم به خوبی و به صورت یکپارچه رعایت نشده است و هر سایت و موتور کاوش دارای الگوریتم خاص خود است. بعلاوه وجود میلیون ها سایت نیاز فراوانی به سازماندهی دارند تا جستجو و بازیابی در اینترنت را با اهداف کتابداری و اطلاع رسانی تطبیق دهند.
3- اشاعه اطلاعات: اینترنت به عنوان یک رسانه ارتباطی و محمل اطلاعاتی جدید کار اشاعه اطلاعات را به طور همه گیر و جهانی برعهده دارد.

علاوه بر این، جستجو و بازیابی اطلاعات در اینترنت دارای مشکلات خاص خود است. این مشکلات از چهار عامل مهم ناشی می شوند:
1- عدم کنترل بر نوع و سطح حجم عظیم اطلاعات وارده.
2- عدم ثبات در سایت ها و صفحات و مدارات الکترونیکی.
3- عدم استفاده از روشها و راهبردهای مرسوم برای سازماندهی اطلاعات.
4- گوناگونی موتورهای جستجو از نظر مکانیسم های نمایه سازی، جستجو و بازیابی اطلاعات.

یکی از راهکارهای جلوگیری از مشکلات پدید آمده در زمینه جستجو و بازیابی اطلاعات در اینترنت، استفاده از تجربیات فراوانی است که کتابداران و اطلاع رسانان سالهاست در زمینه سازماندهی دانش ( فهرستنویسی، نمایه سازی و رده بندی ) به کار می گیرند. تولید کنندگان اطلاعات، طراحان صفحات و موتورهای کاوش می توانند با بهره گیری از شیوه های سازماندهی اطلاعات که توسط کتابداران به کار گرفته شده، راهبردی سازنده در دسترسی به اطلاعات از طریق اینترنت ارائه کنند.

چرا باید اینترنت را فهرستنویسی کنیم؟
اینترنت همچون یک مغازه سمساری است که همه چیز در آن یافت می شود و فهرستی برای آن وجود ندارد. یک فرد بی تجربه می تواند ساعت های مدیدی غرق در جستجوی بی فایده اینترنت شود. حتی جستجوهایی که با منطق کافی شروع شوند ممکن است در فضای نامتناهی شبکه گم شوند.طی سالیان دراز تلاش می شده است تا راهی پیدا شود که نوعی کنترل بر اطلاعات موجود در اینترنت اعمال شود، لکن، هنوز کسی نمی تواند بگوید که اینترنت بسامان شده است. تغئیرات در اینترنت آنقدر سریع و زیاد است که کوششهای آغاز شده برای سازماندهی اطلاعات موجود در اینترنت پس از چند ماه ناروزآمد می شوند. به همین دلیل تعدادی از متخصصین یک سال وب را 6 تا 9 هفته می دانند. به عبارت دیگر، تغئیراتی که طی سال در جامعه رخ می دهد، طی 6 تا 9 هفته در جامعه اینترنتی اتفاق می افتد. به دلیل تغئیرات سریع، سازماندهی در اینترنت چالشی قابل توجه است.
بر طبق آمار تا نیمه دوم سال 2000 بیش از 1/2 میلیارد صفحه اطلاعات، بدون تکرار و قابل دسترسی بر روی وب موجود بوده و نرخ رشد انفجاری صفحات وب 7 میلیون صفحه در روز تخمین زده شد. بازیابی اطلاعات مناسب در میان چنین حجم عظیمی از اطلاعات، بدون سازماندهی اطلاعات وب، شدیدا به مخاطره می افتد.

اگر کتابداران بخواهند از مخاطرات شبکه در امان باشند برداشتن سه گام ضروری است:
1- باید راههای مشخص برای دسترسی وجود داشته باشد که امکان اشتباه کردن و از دست دادن زمان را کاهش دهد.
2- باید دانش کافی در حوزه های مورد علاقه فردی که به جستجو می پردازد وجود داشته باشد.
3- باید نسبت به افزوده ها و روش های جدید جستجو در اینترنت هوشیاری مستمر وجود داشته باشد.
شیوه های کنونی نمایه سازی اطلاعات که اساس کار موتورهای کاوش اینترنت قرار گرفته است، نیازهای کاربران این پدیده رو به گسترش را به طور کامل برآورده نمی کند. نمایه سازی اساس کار موتورهای جستجو در رتبه بندی و ترکیب منطقی واژه ها برای بازیابی اطلاعات در اینترنت را تشکیل می دهد که در هر موتور، این وظیفه بر عهده بخشی به نام عنکبوت وب یا خزنده وب است که مدام کار مرور و بازدید از سایت ها را برعهده دارد و آنها را به موتور جستجو انتقال می دهد که حاصل آن بازیابی موتور کاوش است که نمایش داده می شود.
آرلن جی. تیلور و پاتریک کلمسون در تحقیق که در سال 1995 انجام دادند، ضعف های موتورهای کاوش را به این صورت بیان کردند:
1- در یک مجموعه از یافته های بازیابی شده، مدخل های تکراری فراوانی مشاهده می شود.
2- نتایج غیر قابل پیش بینی هستند.
3- نتایج گاهی اوقات گمراه کننده هستند. ممکن است جستجویی در یک موتور کاوش نتیجه ای نداشته باشد، ولی در موتور دیگر دارای یافته های فراوان باشد.
4- موتورهای کاوش محتویات پایگاههای اطلاعاتی خودشان را نشان نمی دهند و از معیارهایی که برای گنجاندن یک مدرک در فایل هایشان دارند حتی شرحی ارائه نمی کنند.
5- کنترل واژگانی وجود ندارد و قواعد نقطه گذاری و بزرگ نویسی نیز استاندارد نیست.
6- بدون بررسی عملی هر عنصر، اغلب نمی توان میزان ربط و رابطه ها را تحلیل کرد، یعنی اطلاعات کافی در مدخل نمایه موجود نیست تا فرد بتواند دست به انتخاب مناسب بزند.
7- اغلب جستجو ها کم ربط یا نامرتبط هستند.
8- عدم بازیابی بسیاری از منابع ارزشمند به علت قرار گرفتن در وب پنهان.
در حالی که منابع اینترنت به صورت یکپارچه سازماندهی نشده اند، تنها مسیر ممکن برای بازیابی اطلاعات مطلوب همین موتورهای کاوش هستند. ماندل و ولون رابطه بین اصول دسترسی کتابشناختی چارلز امی کاتر را با منابع اینترنتی مورد بررسی قرار دادند. آنها به بررسی ارزش و اهمیتی پرداختند که جمع آوری اسامی مولفان، تعئین نقش مولفان، کنار هم گذاشتن آثار و نسخه ها و تهیه دسترسی موضوعی به منابع وب از طریق رده بندی و واژگان کنترل شده، در بازیابی دارد. ودوارد با دلیل اثبات می کند که در حال حاضر اینترنت در وضعیت هرج و مرج مانندی از نظر سازماندهی و دسترسی قرار دارد و جستجویی که معمولا فقط با موتورهای جستجوی کلید واژه ای انجام می شود، متناسب با نیازهای بیشتر استفاده کنندگان نمی باشد.
ایده نسبتا مشابه دیگری نیز توسط داد بیان گردیده است. وی معتقد است که انفجار اینترنت و وب جهان گستر باعث افزایش تلاش های نیمه حرفه ای به منظور تهیه انواع دستیابی موضوعی به منابع اینترنت از طریق راهنمای سلسله مراتبی در موتورهای جستجوی وب، مانند یاهو شده است. این رویکردهای سلسله مراتبی برای دسترسی موضوعی بر مبنای ابزارهای آزمایش شده و قابل پذیرشی مانند رده بندی دهدهی دیدیی، فهرست سرعنوانهای موضوعی کتابخانه کنگره و جز آن نیست و بنابر این نتایج بدست آمده از هر موتور جستجو با دیگر موتورهای جستجو متفاوت است. این مساله توسط داد که ساختار و اصول فهرستهای سلسله مراتبی گوناگون را بررسی می کرد، مشاهده گردید و آنها را با طرحهای رده بندی دهدهی دیدیی و کتابخانه کنگره و فهرست سرعنوانهای موضوعی کنگره مقایسه نمود.
نیکلسون و دیگران طرح تحقیقاتی CATRIONA که هدفش تحقیق و بررسی نیازمندیهای فنی، سازمانی و مالی جهت توسعه نرم افزارهای کاربردی و روشهایی برای فهرست نویسی و رده بندی و بازیابی مدارک و دیگر منابع اینترنتی بود را گزارش می دهد.
مشکلات جستجو و بازیابی و راهکارهای کنونی موتورهای کاوش در ذخیره و بازیابی اطلاعات پاسخگوی کاربران نیست و در اینجاست که تواناییهای متخصصان کتابداری و اطلاع رسانی که حاصل سیر تکامل اصول و قواعد سازماندهی در طول چندین قرن است، می تواند راهگشای این مشکل باشد و ایجاد روش های کاربر گرا چه در پایگاههای اطلاعاتی دستی و چه در پایگاههای اطلاعاتی رایانه ای که حاصل تلاش کتابداران بوده است، گواه این مدعاست.
فهرست کتابخانه ها دیگر تنها سیاهه ای از منابعی که به طور فیزیکی در کتابخانه ما دسترس پذیر باشند نیست، بلکه فهرست کمک می کند تا منابع مفید در هر کجا که باشند، بازیابی شوند. فهرستنویسی منابع اینترنتی هم بر این هدف استوار است.
ضرورت هایی که در فهرستنویسی منابع اینترنتی دخیل‌اند عبارتند از:
1- وجود مسائل و مشکلات جستجو و بازیابی اطلاعات در اینترنت از طریق موتورهای کاوش که علاوه بر اتلاف وقت زیاد، علاقه مندان را از دستیابی به منابع مفید محروم می کند.
2- توانایی ها و مزایای فهرست های کتابخانه ای در سازماندهی اطلاعات و حل مشکلات جستجو و بازیابی اطلاعات.
3- امکان فراهم آوری دسترسی به منابع ارزشمندی که به طور روزافزون به اینترنت افزوده می شود و کتابخانه ها هزینه کمی برای تهیه آن می پردازند.
4- ایجاد و گسترش کتابخانه های دیجیتالی که نیاز به سازماندهی و ایجاد راهکارهای مناسب بازیابی منابع اینترنتی هم یکی از ملزومات آن خواهد بود.
با ایجاد موتورهای جستجو توسط متخصصان کامپیوتر، این تصور ایجاد شد که مساله بازیابی اطلاعات حل شده است. اما موتورهای جستجو فقط به نمایه سازی اینترنت پرداختند و مساله سازماندهی اطلاعات به بوته فراموشی سپرده شد. پس از مدت کوتاهی همگان متوجه شدند که موتورهای جستجو نمی توانند نیازهای بازیابی را به خوبی پوشش دهند و بازیابی موارد غیر مرتبط یا دارای ارتباط کم باعث هدر رفتن وقت استفاده کنندگان می شود و سرعتی که اینترنت و تکنولوژی اطلاعات فراهم می کند از این طریق مستهلک می گردد. به این ترتیب با وجودی که کاربران می توانند با کمترین اطلاعات ممکن اقدام به بازیابی نمایند، گستردگی موارد بازیابی شده عملا باعث خنثی شدن این قابلیت می گردد.
کمتر موتور جستجویی در اینترنت را می توان یافت که بر اساس اصول سازماندهی و نمایه سازی که حداقل در طول سده اخیر در کتابخانه ها و مراکز اطلاع رسانی مورد استفاده هستند، طراحی شده باشند. به جای فهرستنویسان، کار سازماندهی اطلاعات در اینترنت بر عهده موتورهای جست و جو است که هریک به شیوه ای متفاوت و بدون استفاده از رویکردهای کتابدارانه به شناسایی و نمایه سازی منابع اطلاعاتی می پردازند.

 

 

 

فرمت این مقاله به صورت Word و با قابلیت ویرایش میباشد

تعداد صفحات این مقاله  25 صفحه

پس از پرداخت ، میتوانید مقاله را به صورت انلاین دانلود کنید


دانلود با لینک مستقیم


دانلود مقاله فهرست نویسی صفحات وب و اینترنت