449 views
پیشینه تحقیق الگوریتم نزدیک ترن همسایه و روش های موجود برای بهبود آن دارای ۲۹ صفحه می باشد فایل پیشینه تحقیق به صورت ورد word و قابل ویرایش می باشد. بلافاصله بعد از پرداخت و خرید لینک دنلود فایل نمایش داده می شود و قادر خواهید بود آن را دانلود و دریافت نمایید . ضمناً لینک دانلود فایل همان لحظه به آدرس ایمیل ثبت شده شما ارسال می گردد.
فصل اول:مقدمه ۴
۱-۱- مقدمه ۴
۱-۲- روشهای دسته بندی ۴
۱-۳- ارزیابی دستهبند ۶
۱-۴- تصدیق متقابل ۷
۱-۵- الگوریتم نزدیکترین همسایه ۹
۱-۷- سر فصل ها ۱۱
فصل دوم: ۱۲
الگوریتم نزدیک ترن همسایه و روشهای موجود برای بهبود آن ۱۲
۲-۲- محدودیتهای روش نزدیکترین همسایه ۱۵
۲-۳- مروری بر راهکارهای ارائه شده در گذشته برای بهبود الگوریتم نزدیکترین همسایه ۱۶
فصل سوم:روشهای تصمیم گیری دسته جمعی ۱۹
۳-۲- روشهای متفاوت برای ایجاد یک تصمیمگیر دستهجمعی ۲۱
۳-۳- ساختارهای مختلف در روش تصمیمگیری دستهجمعی ۲۲
۳-۴- رایگیری بین دستهبندها ۲۳
۳-۵- معرفی چند روش تصمیمگیری دستهجمعی پرکاربرد ۲۴
فهرست منابع ۲۸
۱-Active Learning for kNN based on Bagging Features, Shuo, S., Yuhai, L., Yuehua, H., Shihua, Z.,and Yong, L., Fourth International Conference on Natural Computation ICNC 2008 7, art. no. 4667945: 61-64.
۲-Boosting k-nearest neighbor classifier by means of input space projection, García-Pedrajas, and Ortiz-Boyer, Expert Systems with Applications, 2009 36(7): 10570-10582.
۳-Neighborhood rough set based heterogeneous feature subset selection, Q. Hu, D. Yu, J. Liu, C. Wu, Information Sciences 178 (2008) 3577–۳۵۹۴٫
۴-A new approach to attribute reduction of consistent and inconsistent covering decision systems with covering rough sets, G. Chen, C.Z. Wang, Q.H. Hu Information Sciences 177 (2007) 3500–۳۵۱۸٫
۵-Nearest Neighbor Ensemble, C. Domeniconi, and B. Yan, in Proceedings of the 17th International Conference on Pattern Recognition, Cambridge, UK, August 23-26, 2004.
۶-Locally adaptive metric nearest neighbor classification, C. Domeniconi, J. Peng, D. Gunopulos, IEEE Transaction on Pattern Analysis and Machine Intelligence 24 (2002) 1281–۱۲۸۵٫
۷-Improving nearest neighbor rule with a simple adaptive distance measure,J. Wang, P. Neskovic, L.N. Cooper, Pattern Recognition Letters 28 (2007) 207–۲۱۳٫
۸-Flexible Metric Nearest-neighbor Classification, J. Friedman, Technical Report 113, Department of Statistices, Stanford University, 1994.
۹-Nearest Neighbor Pattern Classification, T. Cover, and P. Hart, , IEEE Transactions on Information Theory,1967, 13(1): 21-27.
۱۰-Full Bayesian network Classifiers. Zhang, Jiang Su and Harry. ACM, 2006, international Conference on Machine Learning, Vol. 148, pp. 897-904.
۱۱-A Simple Decomposition Method for Support Vector Machines. Chih-Wei Hsu and Chih-Jen Lin. ACM, 2002, Machine Learning , Vol. 46.
۱۲-Neural networks for classification: a survey. Zhang, Guoqiang Peter. 2000, IEEE Transactions on Systems, Man, and Cybernetics, Part C , pp. 451-462.
۱۳-A method of learning weighted similarity function to improve the performance of nearest neighbor, M. Zolghadri Jahromi, E. Parvinnia, R. John, Information Sciences 179 (2009)
در دنیای امروزی حجم اطلاعات دیجیتالی به صورت روز افزونی در حال افزایش است. در همین راستا، به جهت مدیریت و بررسی علمی این اطلاعات، نیاز به پردازش هوشمندانه و خودکار این اطلاعات بیش از پیش احساس می شود.
یکی از مهم ترین این پردازش ها که در فناوری اطلاعات و ارتباطات مورد نیاز است، دستهبندی خودکار این اطلاعات می باشد. دسته بندی در مسائل متنوعی در فناوری اطلاعات به کار گرفته می شود، در مسائلی مانند امنیت اطلاعات، شناسایی نفوزگری در شبکه، دسته بندی کاربران بر اساس اطلاعات شخصی، پردازش تصویر و در واقع شناسایی هر گونه الگو بر اساس نمونهها و اطلاعات پیشین. این پردازش می تواند دسته[۱]ی نمونههای جدید که به مجموعه اطلاعات اضافه می شود را پیش بینی نماید. از این رو در هوش مصنوعی توجه خاصی به توسعه انواع روشهای دسته بندی هوشمند و خودکار شده است.
دستهبندی یکی از مهمترین شاخههای یادگیری ماشین[۲] است. دستهبندی به پیشبینی برچسب دسته[۳] نمونه[۴] بدون برچسب، بر اساس مجموعه نمونههای آموزشی برچسبدار (که قبلا به با کمک یک کارشناس دستهبندی شدهاند) گفته میشود. درواقع دستهبندی روشی است که هدف آن، گروهبندی اشیا به تعدادی دسته یا گروه میباشد. در روشهای دستهبندی، با استفاده از اطلاعات بدست آمده از مجموعه نمونههای آموزشی، از فضای ویژگیها[۵] به مجموعه برچسب دستهها نگاشتی بدست می آید که بر اساس آن، نمونههای بدون برچسب به یکی از دستهها نسبت داده میشود.
در مسائل دستهبندی، هر نمونه توسط یک بردار ویژگی[۶] به صورت X=<x1 , x2 ,… xm> معرفی میشود که نشان دهندهی مجموعه مقادیر ویژگیهای نمونهی مربوطه است. بر اساس این بردار، نمونهی X دارای m خصوصیت یا ویژگی است. این ویژگیها میتوانند مقادیر عدد صحیح، اعشاری ویا مقادیر نامی[۷] به خود اختصاص بدهند. همچنین این نمونه دارای یک برچسب C است که معرف دستهای است که نمونهی X به آن تعلق دارد.
تفاوت روشها دستهبندی در چگونگی طراحی نگاشت است. در بعضی از آنها با استفاده از دادههای آموزشی مدلی ایجاد میشود که بر اساس آن فضای ویژگیها به قسمتهای مختلف تقسیم میشود که در آن، هر قسمت نشان دهندهی یک دسته است. در این گونه روشهای دستهبندی از مدل برای پیشبینی دستهی نمونه بدون برچسب استفاده شده و از نمونههای آموزشی به طور مستقیم استفاده نمی شود. یک نمونه از این دستهبندها، دستهبندهای احتمالی[۸] میباشد. این گونه الگوریتمها، از استنتاج آماری برای پیدا کردن بهترین دسته استفاده میکنند؛ برخلاف سایر دستهبندها که فقط بهترین کلاس را مشخص میکنند الگوریتم های احتمالی به ازای هر دسته موجود یک احتمال را به عنوان تعلق نمونه به آن مشخص میکنند و کلاس برنده، بر اساس بیشترین احتمال انتخاب میشود. روشهای احتمالی در یادگیری ماشین معمولا با نام الگوریتمهای آماری نیز شناخته میشوند. در گروهی دیگر از روشهای دسته بندی، نمونه براساس خود مجموعه نمونهها و بدون ساختن مدل، به پیشبینی دستهی نمونه مورد نظر میپردازد. به این گونه الگوریتم های دستهبندی، نمونه- بنیاد[۹] گفته میشود.
تاکنون الگوریتمهای متفاوتی به عنوان دسته بند ارائه شده اند. از جملهی آنها میتوان به الگوریتم نزدیک ترین همسایهها[۱۰] [۱] ، دستهبند بیز[۱۱][۲]، ماشین بردار پشتیبان[۳] و شبکه عصبی[۱۲][۴] اشاره کرد.
اولین موضوعی که در مورد هر الگوریتم مورد توجه قرار میگیرد، کارایی و دقت آن الگوریتم است. در هوش مصنوعی، معیارهای متفاوتی وجود دارند که در مسائل مختلف و زیر شاخههای این علم استفاده میشود. در مورد کارایی یک دستهبند، به عنوان یکی از مسائل اصلی هوش مصنوعی، روشهای متنوعی وجود دارد که در این قسمت بررسی شدهاند.
معیار کارایی نظرگرفته شده برای یک دستهبند، ارتباط مستقیمی با کاربرد و ضمینه کار خاص آن دستهبند دارد. بنابراین در مسائل متفاوت، ممکن است معیارهای مختلفی برای اندازهگیری کارایی الگوریتم در نظرگرفته شود. همچنین همان طور که مشخص است، یک دستهبند که بتواند برای همه مسائل موجود بهترین جواب را ارائه دهد، وجود ندارد.
در بررسی آماری کارایی یک دستهبند، از یک مجموعه که شامل تعداد مشخصی نمونهی آموزشی دارای برچسب است استفاده میشود. برای این کار، قسمتی از این نمونهها و یا تمام مجموعه، به عنوان مجموعه آموزشی[۱۳]، در اختیار دستهبند برای آموزش قرار میگیرد. پس از آموزش، دسته بند به وسیلهی زیرمجموعهای از نمونهها، به عنوان نمونههای آزمایشی، محک زده میشود. نمونههای موجود در مجموعهی آزمایشی، بسته به نوع آزمون کارایی، میتواند عضو مجموعه آموزشی بوده و یا متفاوت با آن باشند.
[۱] Class
[۲]Machine Learning
[۳]Class label
[۴]Instance
[۵]Features Space
[۶]Feature Vector
[۷]Nominal
[۸]Probabilistic Classification
[۹]Instance-Based
[۱۰]K-Nearest Neighbour
[۱۱] Naïve Bayesian Classifier
[۱۲] Neural Networks
[۱۳]Training Instances
تمامی فایل های پیشینه تحقیق و پرسشنامه و مقالات مربوطه به صورت فایل دنلودی می باشند و شما به محض پرداخت آنلاین مبلغ همان لحظه قادر به دریافت فایل خواهید بود. این عملیات کاملاً خودکار بوده و توسط سیستم انجام می پذیرد. جهت پرداخت مبلغ شما به درگاه پرداخت یکی از بانک ها منتقل خواهید شد، برای پرداخت آنلاین از درگاه بانک این بانک ها، حتماً نیاز نیست که شما شماره کارت همان بانک را داشته باشید و بلکه شما میتوانید از طریق همه کارت های عضو شبکه بانکی، مبلغ را پرداخت نمایید.
ارسال نظر