صفحه محصول - تحقیق روشها و تکنیک های داده کاوی

تحقیق روشها و تکنیک های داده کاوی (docx) 1 صفحه


دسته بندی : تحقیق

نوع فایل : Word (.docx) ( قابل ویرایش و آماده پرینت )

تعداد صفحات: 1 صفحه

قسمتی از متن Word (.docx) :

وزارت علوم، تحقیقات و فناوری دانشگاه علوم و فنون مازندران رشته: فناوری اطلاعات- گرایش مهندسی فناوری اطلاعات Methods and techniques of data mining استاد راهنما: دکتر جواد وحیدی استاد مشاور: دکتر بابک شیرازی دانشجو: مائده تشکّریان سپاسگزاری: اینجانب از پدر و مادر گرامی‌ام که هرچه دارم از زحمات بی‌دریغ و دعای خیر آن‌هاست و دو برادر عزیزم که با تشویق و حمایت‌های خویش مرا در طی دوران تحصیل یاری نمودند نهایت سپاسگزاری و قدردانی را می‌نمایم. نگارنده این پایان‌نامه همچنین وظیفه‌ی خود می‌داند که از کلیه عزیزانی که در به ثمر رسیدن این پروژه نقش حیاتی ایفا نموده‌اند، به شرح زیر قدردانی نماید: از استاد راهنمای بزرگوارم دکتر جواد وحیدی که با راهنمایی‌های ارزنده، در پیشبرد اهداف کار، اینجانب را یاری نمودند صمیمانه سپاسگزارم. همچنین از استاد مشاور ارجمندم دکتر بابک شیرازی که با پشتیبانی‌های علمی‌شان، اینجانب را مساعدت فرمودند کمال تشکر را دارم. مائده تشکریان فهرست رئوس مطالب 2-1- مقدمه7 2-2- داده‌کاوی7 2-2-1- خوشه‌بندی8 2-2-1-1- روشهای تقسيمبندی8 2-2-1-2- روشهای سلسله مراتبی8 2-2-1-3- روشهای مبتنی بر چگالی9 2-2-2- طبقه‌بندی9 2-2-2-1- طبقه‌بندی مبتنی بر قواعد10 2-2-3- کشف قواعد انجمنی12 2-2-3-1- تعاریف و مفاهیم اصلی در قواعد انجمنی12 2-2-3-1-1- تقسیم بندی قواعد انجمنی14 2-2-3-1-2- استخراج قواعد تک‌سطحی تک بعدی دودویی14 2-2-3-1-2-1- مرحله پیوست16 2-2-3-1-2-2- مرحله هرس17 2-2-3-1-3- محاسبه اطمینان و استخراج قواعد نهایی17 2-3- داده‌کاوی توزيع شده17 2-6-1- داده‌کاوی توزيع شده33 2-6-2- کارهای مهم انجام شده در زمينه داده‌کاوی با استفاده از عامل36 2-7- جمع‌بندی پیوست منابع و مآخذ 2-2- دادهکاوی داده کاوی، یک تکنولوژی نوظهور است، که از ابزارها و تکنیک‌های مدل‌سازی و تجزیه و تحلیل آماری، الگوریتم‌های ریاضی، و متدهای یادگیری ماشین برای کشف الگوهای معتبر و ناشناخته در مجموعه داده‌های حجیم استفاده می‌کند. هرچند این تکنولوژی دوران نوباوگی خود را طی می‌کند، اما شرکت‌ها و سازمان‌های بسیاری از جمله خرده‌فروشی‌ها، بانک‌ها، مراکز درمانی، کارخانجات تولیدی، ارتباطات راه دور، و مؤسسات دولتی از ابزارها و تکنیک‌های داده‌کاوی برای تحلیل داده‌هایشان و کشف اطلاعات و دانش مفید از آن‌ها استفاده می‌کنند. ADDIN EN.CITE Wang2003125[1, 2]1251256Wang, J.Data mining: opportunities and challenges2003Irm Press1931777837Rao201010510510517Rao, V.S.Vidyavathi, S.Distributed Data Mining and Mining Multi-Agent DataIJCSE) International Journal on Computer Science and EngineeringIJCSE) International Journal on Computer Science and Engineering1237-12442042010[1, 2] داده‌کاوی اطلاعاتی را از پایگاه داده‌ها استخراج می‌کند که از طریق کوئری‌ها و گزارش‌گیری‌ها قابل دست‌یابی نیستند. رشد انفجاری داده‌های ذخیره شده در پایگاه داده‌ها، نیاز به تکنولوژی‌های جدید که بتوانند حجم عظیم داده‌ها را هوشمندانه به دانش مفید تبدیل کنند، را پدید آورده است. ADDIN EN.CITE Chen1996106[3]10610617Chen, M.S.Han, J.Yu, P.S.Data mining: an overview from a database perspectiveKnowledge and Data Engineering, IEEE Transactions onKnowledge and Data Engineering, IEEE Transactions on866-8838619961041-4347[3] دادهکاوی به معنای يافتن نيمه خودکار الگوهای پنهان در مجموعه دادههای موجود می‌باشد. ADDIN EN.CITE Han20051[4]1117Han, J.Kamber, M.Data mining: Concepts and Techniques, 2nd EditionSan Francisco, CA, itd: Morgan KaufmannSan Francisco, CA, itd: Morgan Kaufmann2005[4] این تکنولوژی با دیگر تکنیک‌های تحلیل داده، که سیستم، مقادیر اولیه را می‌گیرد و خود، الگوهایی را تولید می‌کند، متفاوت است. داده‌کاوی توسط ابزارهای الگوریتمیک، الگوها، تغییرات، آنومالی‌ها، قوانین، و ساختارهای مهم آماری، و رویدادها را از مجموعه داده‌های عظیم استخراج می‌کند. ADDIN EN.CITE R. Grossman1999107[5]10710747R. Grossman,S. Kasif,R. Moore,D. Rocke,J. UllmanData mining research: Opportunities and challengesA Report of Three Workshops on Mining Large, Massive and Distributed Data1999[5] می‌توان گفت که داده کاوی در جهت کشف اطلاعات پنهان و روابط موجود در بين دادههای فعلی و پيشبينی موارد نامعلوم و يا مشاهده نشده عمل میکند. برای انجام عمليات کاوش لازم است قبلاً روی دادههای موجود پیش پردازش‌هایی انجام گيرد. عمل پيش پردازش اطلاعات خود از دو بخش کاهش اطلاعات، و خلاصهسازی و کلیسازی دادهها تشکيل شده است. کاهش اطلاعات عبارت است از توليد يک مجموعه کوچک‌تر، از دادههای اوليه، که تحت عمليات دادهکاوی نتايج تقریباً یکسانی با نتايج دادهکاوی روی اطلاعات اوليه به دست دهد. ADDIN EN.CITE Han20051[4]1117Han, J.Kamber, M.Data mining: Concepts and Techniques, 2nd EditionSan Francisco, CA, itd: Morgan KaufmannSan Francisco, CA, itd: Morgan Kaufmann2005[4] پس از انجام عمل کاهش اطلاعات و حذف خصايص غير مرتبط نوبت به خلاصهسازی و کلیسازی دادهها می‌رسد. دادههای موجود در بانک‌های اطلاعاتی معمولاً حاوی اطلاعات در سطوح پايينی هستند، بنابراين خلاصهسازی مجموعه بزرگی از دادهها و ارائه آن به صورت يک مفهوم کلی اهميت بسيار زيادی دارد. کلیسازی اطلاعات، فرآيندی است که تعداد زيادی از رکوردهای يک بانک اطلاعاتی را به صورت مفهومی در سطح بالاتر ارائه می‌نمايد. تکنیک‌‌های دادهکاوی به چند دسته تقسيم میشوند که سه دسته اصلی عبارتند از خوشهبندی، طبقهبندی و کشف قواعد انجمنی. در ادامه هر يک از اين روش‌ها را به طور کلی معرفی مینماييم. 2-2-1- خوشهبندی فرآيند خوشهبندی سعی دارد که يک مجموعه داده را به چندين خوشه تقسيم نمايد بطوريکه داده‌های قرار گرفته در يک خوشه با يکديگر شبيه بوده و با دادههای خوشههای ديگر متفاوت باشند. در حال حاضر روش‌های متعددی برای خوشهبندی دادهها وجود دارد که بر اساس نوع دادهها، شکل خوشهها، فاصله دادهها و غيره عمل خوشهبندی را انجام میدهند. مهم‌ترین روش‌های خوشهبندی در زير معرفی شدهاند: 2-2-1-1- روش‌های خوشه‌بندی مبتنی بر تقسيم‌بندی این روش‌ها، دادههای موجود در يک مجموعه داده را به k خوشه تقسيم میکنند، بطوريکه هر خوشه دو خصوصيت زير را داراست: هر خوشه يا گروه حداقل شامل يک داده میباشد. هر داده موجود در مجموعه داده دقیقاً به يک گروه يا خوشه تعلق دارد. معيار اصلی در چنين مجموعه دادههايی ميزان شباهت دادههای قرار گرفته در هر خوشه میباشد. در حاليکه داده‌های قرار گرفته در دو خوشه مختلف از نظر شباهت با يکديگر فاصله زيادی دارند. مقدار k که به عنوان پارامتر استفاده میگردد، هم میتواند به صورت پويا تعيين گردد و هم اينکه قبل از شروع الگوريتم خوشهبندی مقدار آن مشخص گردد. 2-2-1-2- روش‌های سلسله مراتبی روش‌های سلسله مراتبی به دو دسته کلی روش‌های پایین به بالا و روش‌های بالا به پایین تقسيم می‌گردند. روش‌های سلسله مراتبی پایین به بالا به اين صورت عمل میکنند که در شروع هر کدام از دادهها را در يک خوشه جداگانه قرار میدهد و در طول اجرا سعی میکند تا خوشههايی نزديک به يکديگر را با هم ادغام نمايد. اين عمل ادغام تا زمانی که يا تنها يک خوشه داشته باشيم و يا اينکه شرط خاتمه برقرار گردد، ادامه میيابد. روش‌های بالا به پایین دقیقاً به طریق عکس عمل میکنند، به اين طريق که ابتدا تمام دادهها را در يک خوشه قرار میدهد و در هر تکرار از الگوريتم، هر خوشه به خوشههای کوچک‌تر شکسته میشود و این کار تا زمانی ادامه میيابد که يا هر کدام از خوشهها تنها شامل يک داده باشند و يا شرط خاتمه الگوريتم برقرار گردد. شرط خاتمه معمولاً تعداد کلاستر يا خوشه میباشد. 2-2-1-3- روش‌های مبتنی بر چگالی اکثر روش‌های خوشهبندی که به این روش عمل میکنند معمولاً از تابع فاصله به عنوان تابع معيار خود بهره میبرند. استفاده از چنين معياری باعث میگردد که الگوريتم خوشهبندی تنها قادر به ايجاد خوشههايی با اشکال منظم باشد. در صورتيکه خوشههای واقعی در دادهها دارای اشکال غیر منظمی باشند، اين الگوريتمها در خوشهبندی آن‌ها با مشکل مواجه میگردند. برای حل این‌گونه مشکلات يکسری از روش‌ها برای خوشهبندی پيشنهاد گرديدهاند که عمل خوشهبندی را بر مبنای چگالی دادهها انجام می‌دهند. ايده‌ی اصلی در اين روش‌ها بر اين اساس است که تا زمانی که دادههای قرار گرفته در همسايگی خوشه‌ها از حد معينی بيشتر باشند، آن‌ها رشد میکنند و بزرگ میشوند. چنين روش‌هايی قادرند خوشههايی با شکل‌های نامنظم نيز ايجاد نمايند. البته دسته‌های ديگری از روش‌های خوشهبندی مانند روش‌های مبتنی بر گريد، روش‌های مبتنی بر مدل و غیره وجود دارند که میتوانيد آن‌ها را در ADDIN EN.CITE Han20051[4]1117Han, J.Kamber, M.Data mining: Concepts and Techniques, 2nd EditionSan Francisco, CA, itd: Morgan KaufmannSan Francisco, CA, itd: Morgan Kaufmann2005[4] مطالعه نماييد. 2-2-2- طبقهبندی فرايند طبقهبندی در واقع نوعی يادگيری با ناظر میباشد که در طی دو مرحله انجام میگردد. در مرحله اول مجموعهای از دادهها که در آن هر داده شامل تعدادی خصوصيت دارای مقدار و يک خصوصيت بنام خصوصيت کلاس میباشد، برای ايجاد يک مدل داده بکار میروند که اين مدل داده در واقع توصيف کننده مفهوم و خصوصيات آن مجموعه دادهها است. مرحله دوم فرآيند طبقهبندی، اعمال يا بکارگيری مدل ايجاد شده، بر روی داده‌هايی است که شامل تمام خصوصيات دادههايی که برای ايجاد مدل بکار گرفته شدهاند، میباشند، بجز خصوصيت کلاس، و هدف از عمل طبقهبندی نيز تخمين مقدار اين خصوصيت میباشد. الگوريتمها و روش‌های مختلفی برای طبقهبندی تاکنون پيشنهاد شدهاند که برای مثال میتوان از روش‌های طبقهبندی با استفاده از درخت تصميم، طبقهبندی بيزين، SVM، طبقهبندی با استفاده از شبکه‌های عصبی، طبقهبندی مبتنی بر قواعد و غیره نام برد. ADDIN EN.CITE Mitchell19972[6]2217Mitchell, T.M.Machine learning. 1997Burr Ridge, IL: McGraw HillBurr Ridge, IL: McGraw Hill1997[6] در اينجا ما قصد نداريم وارد مباحث مربوط به الگوريتمها و روش‌های طبقهبندی شويم و تنها روش طبقهبندی مبتنی بر قواعد را معرفی خواهيم نمود. در صورت نياز به مطالعه بيشتر میتوانيد به مرجع ADDIN EN.CITE Han20051[4]1117Han, J.Kamber, M.Data mining: Concepts and Techniques, 2nd EditionSan Francisco, CA, itd: Morgan KaufmannSan Francisco, CA, itd: Morgan Kaufmann2005[4] مراجعه نماييد. 2-2-2-1- طبقهبندی مبتنی بر قواعد در اين قسمت قصد داريم نگاهی به بحث طبقهبندی مبتنی بر قواعد داشته باشيم. در این روش، مدل ايجاد شده از روی دادهها به صورت مجموعهای از قواعد میباشد. میتوان گفت که هر قاعده به صورت يک قاعده IF P THEN C میباشد که در آن P مجموعهای از شرايط بوده و C نيز مشخص کننده برچسب يک کلاس يا طبقه خاص میباشد. يک قاعده بدست آمده از مجموعه دادههای آموزشی با استفاده از دو معيار coverage و accuracy میتواند ارزيابی گردد. اين دو معيار به صورت زير تعريف میگردند: (2-1)(2-2) که در تعاريف مذکور تعداد دادههايی در مجموعه داده D است که توسط قاعده پوشش داده میشوند. تعداد دادههايی است که توسط قاعده به درستی طبقهبندی شدهاند. |D| تعداد داده‌های موجود در D میباشد. نکته مهمی که بايد اينجا به آن اشاره کرد اين بحث است که چگونه دادهها توسط اين قواعد طبقه‌بندی میگردند. همان‌طور که اشاره گرديد اين قواعد دارای يک قسمت شرط (P) و يک قسمت C هستند. P يک الگو به صورت میباشد که هر کدام از piها بيان کننده‌ی يک محدوديت برای يکی از خصوصيات هستند. اگر خصوصيات دادهای محدوديتهای مذکور قاعدهای را برآورده سازد آنگاه کلاس يا طبقهبند آن داده، کلاس يا طبقهای است که آن قاعده بيان میکند(C). اما مسأله مهمی که اينجا پيش میآيد، اين است که اگر يک داده در قسمت شرط (P) بيش از يک قاعده صدق کند، آنگاه کدام قاعده را بايد انتخاب کرد. بسته به استراتژیهای مختلف، اين مشکل جواب‌های مختلفی می‌تواند داشته باشد. دو نمونه از مهم‌ترین استراتژیهايی که معمولاً برای حل اين مشکل بکار میروند، استراتژی‌های مرتب‌سازی بر اساس اندازه و مرتب‌سازی بر اساس قاعده میباشند. در استراتژی مرتب‌سازی بر اساس اندازه، چنانچه يک داده در بيش از يک قاعده صدق کند، قاعده‌ای برای طبقهبندی داده انتخاب میشود که خصوصيات بيشتری را برای مشخص نمودن کلاس داده تست کرده باشد. در استراتژی مرتب‌سازی بر اساس قاعده، پيش قواعد اولويت دهی میشوند و هنگام طبقهبندی، قاعده با اولويت بالاتر، مشخص کننده کلاس داده خواهد بود. اولويت‌دهی به قواعد هم به طرق مختلفی ممکن است انجام گردد. برای مثال ممکن است که ابتدا کلاس‌ها اولويتدهی شوند و قواعد مربوط به هر کلاس نيز با تأثیر پذيری از اين اولويت‌دهی، اولويت بگيرند. اولويت کلاس‌ها نيز ممکن است بر اساس اهميت کلاس يا تعداد دادههای متعلق به آن کلاس و يا غیره مشخص گردند. استراتژیهای ديگری نيز در اين زمينه وجود دارند که ما در اينجا درباره آن‌ها صحبت نمیکنيم. مسأله ديگری که ممکن است پيش بيايد اين است که يک داده با هیچ‌کدام از قواعد هم‌خوانی نداشته باشد. برای این مسأله هم میتوان راهحل‌هايی ارائه نمود. معمولترين راهحل اين است که چنانچه دادهای با هیچ‌یک از قواعد هم‌خوانی نداشت، کلاسی به عنوان کلاس آن داده انتخاب گردد که بيشترين تعداد داده در بين دادهها به آن کلاس تعلق دارد. مورد ديگری هم که اينجا قابل ذکر است اين مطلب است که قواعدی که برای طبقهبندی استفاده میشوند، چگونه ايجاد میگردند. البته ما نمیخواهيم در اينجا وارد جزئيات مربوط به استخراج قواعد از دادههای آموزشی شويم. برای استخراج قواعد از مجموعه دادههای آموزشی معمولاً از دستهای از الگوريتم‌ها بنام الگوريتم‌های SCA استفاده میگردد که اين الگوريتم‌ها در هر مرحله يک قاعده را از دادههای آموزشی یاد گرفته و دادههايی را که از آن قاعده پيروی میکنند را از مجموعه دادههای آموزشی خود حذف میکنند و با دادههای باقی‌مانده، کار خود را ادامه می‌دهند. از نمونه الگوريتم‌های معروف SCA میتوان به AQ، CN2 و RIPPER اشاره نمود. البته قابل ذکر است که برای کشف قواعد میتوان از روش‌های ايجاد درخت تصميم و يا کشف قواعد انجمنی نيز استفاده نمود. در درخت تصميم هر مسير از ريشه تا يک برگ را میتوان به عنوان قسمت P قاعده در نظر گرفت و کلاسی که برگ مشخص میکند، قسمت C خواهد بود. در مورد نحوه استفاده از روش‌های کشف قواعد انجمنی و استفاده از آن‌ها برای طبقه‌‌بندی نيز میتوانيد به ADDIN EN.CITE Bing19983[7, 8]3310Bing, Liu.Wynne, Hsu.Yiming, Ma.Integrating classification and association rule miningKDD80-861998New York City, New York, USA.Bing200044417Bing, Liu.Yiming, Ma.Ching Kian, Wong.Improving an association rule based classifierPrinciples of Data Mining and Knowledge DiscoveryPrinciples of Data Mining and Knowledge Discovery293-3172000[7, 8] مراجعه کنيد. 2-2-3- کشف قواعد انجمنی سازمان‌های کسب و کار، اغلب حجم عظیمی از داده‌ها را از عملیات روزانه جمع آوری می‌کنند. به عنوان مثال، حجم عظیمی از داده‌ها از خریدهای روزانه مشتریان در فروشگاه‌های خرده فروشی بدست می‌آید. استخراج قواعد انجمنی، نوعی از عملیات داده کاوی است که به تجزیه و تحلیل داده و جستجو برای یافتن ارتباط بین ویژگی‌ها از قبیل اینکه مشتریان کدام اقلام را هم‌زمان خریداری می‌کنند، می‌پردازد. نام دیگر روش کشف قواعد انجمنی، تحلیل سبد بازار می‌باشد. به عبارت دیگر، قواعد انجمنی، مطالعه ویژگی‌ها یا خصوصیاتی می‌باشد که با یکدیگر همراه بوده و به دنبال استخراج قواعد از میان این خصوصیات می‌باشد. این روش به دنبال استخراج قواعد به منظور کمی کردن ارتباط میان دو یا چند خصوصیت است. قواعد انجمنی به شکل اگر و آنگاه به همراه دو معیار پشتیبان و اطمینان تعریف می‌شوند. در اینجا به مثال‌هایی از کاربرد قوانین انجمنی اشاره می‌شود: بررسی ارتباط بین توانایی خواندن کودکان با خواندن داستان توسط والدین برای آن‌ها. بررسی اینکه چه اقلامی در یک فروشگاه با یکدیگر خریداری می‌شوند و اینکه چه اقلامی هیچ‌گاه با یکدیگر خریداری نمی‌شوند. تعیین سهم نمونه‌ها در بررسی تأثیرات خطرناک یک داروی جدید. قواعد انجمنی، ماهیتا قواعد احتمالی هستند. به عبارت دیگر قاعده لزوماً قاعده را نتیجه نمی‌دهد، زیرا این قاعده ممکن است از شرط حداقل پشتیبان برخوردار نباشد. به طور مشابه قواعد و لزوماً قاعده را نتیجه نمی‌دهند زیرا قاعده اخیر ممکن است از شرط حداقل اطمینان برخوردار نباشد. ADDIN EN.CITE Han20051[4]1117Han, J.Kamber, M.Data mining: Concepts and Techniques, 2nd EditionSan Francisco, CA, itd: Morgan KaufmannSan Francisco, CA, itd: Morgan Kaufmann2005[4] 2-2-3-1- تعاریف و مفاهیم اصلی در قواعد انجمنی I = {I1, I2, …, Im} : مجموعه اقلام خریداری شده است. T: هر زیرمجموعه‌ای از I می‌باشد که از آن به عنوان تراکنش یاد می‌شود. D: مجموعه تراکنش‌های موجود در T است. TID: شناسه منحصر به فرد و یکتایی است که به هر یک از تراکنش‌ها اختصاص می‌یابد. نمای کلی یک قاعده انجمنی به شکل زیر می‌باشد: [پشتیبان , اطمینان] به طوری که داریم: پشتیبان (X, Y): نشان دهنده‌ی درصد یا تعداد مجموعه تراکنش‌های D است که شامل هر دوی X و Y باشند. اطمینان: میزان وابستگی یک کالای خاص را به دیگری بیان می‌کند و مطابق فرمول زیر محاسبه می‌شود: (2-3)(X) پشتیبان / ()پشتیبان = (Y X,) اطمینان این شاخص درجه‌ی وابستگی بین دو مجموعه X و Y را محاسبه می‌کند و به عنوان شاخصی برای اندازه‌گیری توان یک قاعده در نظر گرفته می‌شود. غالباً قاعده‌هایی انتخاب می‌شوند که عدد اطمینان بزرگی داشته باشند. فرض کنید اطلاعات مشتریانی که محصول X را خریده‌اند، همچنین علاقه دارند در همان زمان از محصول Y نیز بخرند، در قاعده انجمنی زیر نشان داده شده است: (پشتیبان = 20% و اطمینان = 60%) شاخص‌های اطمینان و پشتیبان قواعد بیانگر جذابیت آن‌ها هستند. این دو شاخص به ترتیب مفید بودن و اطمینان از قواعد مکشوفه را نشان می‌دهند. پشتیبان 20% برای قاعده انجمنی فوق به این معنی است که 20% همه‌ی تراکنش‌های موجود نشان می‌دهند که کالای X و Y با هم خریداری شده‌اند. اطمینان 60% به این معنی است که60% مشتریانی که کالای X را خریده‌اند، کالای Y را نیز خریداری کرده‌اند. اگر مجموعه‌ای از عناصر حداقل پشتیبانی لازم را داشته باشند مکرر خوانده می‌شوند. قواعد قوی، قواعدی هستند که به طور توأمان دارای مقدار پشتیبان و اطمینان بیش از مقدار آستانه باشند. با استفاده از این مفاهیم، پیدا کردن قواعد انجمنی در دو گام خلاصه می‌شود، یعنی پیدا کردن مجموعه‌های مکرر و استخراج قواعد قوی. 2-2-3-1-1- تقسیم بندی قواعد انجمنی بر اساس ارزش عناصر درون قواعد، می‌توان قواعد را به انواع دودویی و کمی تقسیم کرد، در مثال زیر، قاعده اولی دودویی و دومی، کمی است. ]60% = confidence ,2% Computer Financial management software [sup = Buys (X, high resolution TV) بر اساس ابعاد یک قاعده می‌توان آن را تک بعدی یا چند بعدی نامید. قاعده زیر، فقط بعد خرید را شامل می‌شود. Buys (X, Computer) Buys (X, “Financial management software”) اما قاعده‌ی زیر سه بعدی است، و ابعاد سن، درآمد و خرید را شامل می‌شود. (X, high resolution TV) Buys ("k48.. k42" X,) and income ("39..30" X,) Age از آنجایی که داده‌ها می‌توانند در سطوح و یا مقیاس‌های مختلف تعریف شوند، قواعد را می‌توان بر اساس این سطوح خلاصه نمود. مراتب خلاصه‌سازی و اینکه آیا قواعد در یک سطح هستند یا در چند سطح، می‌تواند مبنای تقسیم‌بندی باشد. 2-2-3-1-2- استخراج قواعد تک‌سطحی تک بعدی دودویی قبل از ارائه الگوریتم‌های استخراج قواعد، نمادها و قراردادهایی را به منظور درک بهتر این الگوریتم‌ها مطرح می‌کنیم. اقلام مطابق با قاعده ترتیب حروف الفبا چیده می‌شوند، به عنوان مثال، اگر باشد، مطابق این قاعده، باید رابطه‌ی برقرار باشد. در تمامی این الگوریتم‌ها مراحلی که طی می‌شوند به قرار زیر می‌باشند: گام اول: در اولین گذر، پشتیبان هر یک از اجزا محاسبه شده، و اقلام مکرر (با بیشترین میزان فراوانی) با در نظر گرفتن آستانه حداقل پشتیبان انتخاب می‌شوند. (LK) گام دوم: در هر گذر، اقلام مکرر که از فاز قبلی، محاسبه شده‌اند برای ایجاد اقلام کاندیدا به کار می‌روند. (CK) گام سوم: پشتیبان هر یک از CK ها محاسبه شده، و بزرگ‌ترین آن‌ها انتخاب می‌شود. این کار تا زمانی که هیچ قلم بزرگ‌تری یافت نشود، ادامه می‌یابد. در هر فاز پس از یافتن اقلام بزرگ (LK)، می‌توان قواعد مطلوب را به صورت زیر استخراج کرد: برای تمامی اقلام مکرر L همه‌ی زیرمجموعه‌های غیرتهی آن را (s) در نظر می‌گیریم. برای تمامی این زیرمجموعه‌ها، یک قاعده به صورت زیر استخراج می‌کنیم: "s (L – s)" این قاعده در صورتی برقرار می‌شود که اطمینان حاصل از آن بزرگ‌تر یا مساوی حداقل اطمینان در نظر گرفته شده توسط کاربر باشد، به بیان دیگر اگر رابطه‌ی زیر برقرار باشد، قاعده‌ی فوق پذیرفته می‌شود و در غیر این صورت این قاعده لغو می‌شود. (2-4)حداقل اطمینان ( (s) پشتیبان / (L) پشتیبان) پروسه استخراج قواعد انجمنی عبارت است از: ابتدا همه‌ی اقلام مکرر را که بیشتر یا مساوی با آستانه‌ی پشتیبان هستند بیابید. برای تمامی اقلام مکرر، همه‌ی زیر مجموعه‌های آن‌ها را استخراج کنید. همه‌ی قواعد ممکن را استخراج کنید. قواعدی را بپذیرید که از بیشتر و یا آستانه‌ی اطمینان برخوردار باشند. در اینجا برای پیدا کردن این قواعد از الگوریتم ساده Apriori یا الگوریتم پیش‌نیاز استفاده می‌کنیم. فرض کنید که ابتدا باید تمام مجموعه‌های تک عضوی مکرر را پیدا کنید، سپس بر اساس آن مجموعه‌های دو عضوی مکرر را پیدا کنید و الی آخر. در هر مرحله باید کل فضا جستجو شود اما این الگوریتم از خصوصیت Apriori استفاده می‌کند به این صورت که "اگر مجموعه‌ای از عناصر مکرر باشد، تمام زیرمجموعه‌های غیر تهی آن نیز مکرر خواهند بود". هر زیر مجموعه‌ی یک مجموعه مکرر، خود نیز مکرر است. این خصوصیت را این‌گونه نیز می‌توان توصیف کرد: اگر مجموعه I به تعداد مشخصی تکرار شده باشد و اگر ما A را به آن اضافه کنیم تعداد تکرار این مجموعه از مجموعه قبلی بیشتر نخواهد بود. پس اگر اولی مکرر نباشد دومی نیز مکرر نخواهد بود. این الگوریتم از این خصوصیت استفاده می‌کند و در اینجا عملکرد آن را شرح می‌دهیم: می‌دانیم که از یک زیرمجموعه 1-k عضوی یا همان Lk-1 برای به دست آوردن Lk یعنی مجموعه‌های k عضوی استفاده می‌شود. این کار در دو مرحله صورت می‌گیرد، ابتدا باید مجموعه‌ای از اعضا پیدا شود که با ترکیب LK-1 با آن‌ها Lk به دست آید. این مجموعه از عناصر را Ck نامیده و مرحله به دست آوردن آن‌ها را پیوست می‌نامیم. مرحله بعد اضافه کردن این عناصر به مجموعه‌های قبلی است که آن را مرحله هرس می‌نامیم. در زیر این دو مرحله شرح داده می‌شوند. 2-2-3-1-2-1- مرحله پیوست ابتدا باید مطمئن شویم که عناصر بر مبنای ترتیب حروف الفبا مرتب شده‌اند. دو مجموعه از Lk-1 با یکدیگر قابل پیوست هستند اگر 2-k عنصر اول آن‌ها با یکدیگر برابر باشند. یعنی: توجه کنید که دو عنصر آخر مرتب شده‌اند و از وجود عناصر تکراری جلوگیری می‌کنند. با اجتماع دو مجموعه قابل پیوست، آن دو مجموعه ترکیب می‌شوند. با این روش، مجموعه ترکیب شده حاصل k عضو خواهد داشت که البته عنصر آخر (از نظر ترتیبی) از مجموعه دوم خواهد بود. در مثال زیر دو مجموعه (4، 2، 1) و (3، 2، 1) را در نظر بگیرید: مجموعه اول و دوم مرتب هستند و داریم: 4>3>2>1 پس می‌توان مجموعه ترکیب شده زیر را به دست آورد. 364680519304000(3 2 1) = مجموعه‌ی اول = LK-1 || || 364680518859500(4 3 2 1) = مجموعه‌ی ترکیب شده = Ck || || (4 2 1) = مجموعه‌ی دوم = LK-1 2-2-3-1-2-2- مرحله هرس Ck مجموعه‌ای از Lkها است که هر عنصر آن یا مکرر است یا خیر، اما تمام عناصر مکرر در آن قرار دارند. حال تمام عناصر این مجموعه باید بررسی شوند تا مکرر بودن آن‌ها مشخص شود اما چون ممکن است تعداد آن‌ها زیاد باشد لذا برای کاهش حجم محاسبات از اصل Apriori استفاده می‌شود. به این صورت اگر یکی از زیرمجموعه‌های این مجموعه مکرر نباشد آن مجموعه نیز مکرر نخواهد بود. بنابراین برای پیدا کردن مجموعه‌های مکرر کافی است مجموعه‌های غیر مکرر را از آن‌ها جدا کنیم به این صورت که اگر عضوی از Ck در Lk-1 نباشد مکرر نیز نخواهد بود. 2-2-3-1-3- محاسبه اطمینان و استخراج قواعد نهایی پس از آنکه مجموعه‌های قوی استخراج شدند حال نویت استخراج قواعد است: (2-5) اطمینان برای هر مجموعه مکرر L تمام زیر مجموعه‌های غیرتهی را در نظر می‌گیریم. برای هر زیر مجموعه‌ی s قواعد را به صورت زیر شکل می‌دهیم. "s (L - s)" سپس اطمینان را حساب کرده و اگر بیشتر از حداقل قابل قبول بود آن را می‌پذیریم. 2-3- دادهکاوی توزيع شده دادهکاوی توزيع شده عبارت است از کشف نيمه خودکار الگوهای پنهان موجود در دادهها، در حالتی که دادهها و يا مکانيزم‌های استنتاج، به صورت توزيع شده باشند. غيرمتمرکز بودن دادهها بدان معناست که داده‌ها به صورت توزيع شده بين دو يا چند سايت بوده و هزينه انتقال تمام يا بخشی از دادهها به يک سايت مرکزی، قابل صرف‌نظر نباشد. توزيع شده بودن مکانيزم‌های استنتاج، به معنای لزوم لحاظ کردن هزينه ارتباط بين مکانيزم‌های مختلف در حال استخراج دانش می‌باشد. اين توزیع‌شدگی ممکن است به دلايل مختلفی از جمله ارائه شدن مکانيزم استخراج دانش در قالب يک سرويس اينترنتی و يا صرفاً ناشی از توزیع‌شدگی دادهها باشد. چنين رويکردی به دادهکاوی، برخلاف جهت کلی تحقيقات انجام شده است که به طور عمده به تکنيک‌های متمرکز پرداخته و نه فقط بر تمرکز، که بر همگونی و ساختار مسطح (در مقابل ساختار رابطهای) دادههای هدف متکی میباشند. مسائلی نظير استخراج دانش در حالت عدم دسترسی به تمام دادههای موجود، برقراری ارتباط موثر و بهينه با ساير مکانيزم‌های در حال استخراج دانش و نيز تبادل دانش يا اطلاعات ميانی به جای اطلاعات خام، فقط تعدادی از مسائل اوليه دادهکاوی توزيع شده با توجه به تعريف آن میباشند. بنابراين، دادهکاوی توزيع شده در عين حال که به عنوان راه حلی کليدی برای مشکلات اصلی پيش روی دادهکاوی مطرح میباشد، خود سرمنشأ چالش‌ها و مسائل متعددی گرديده است؛ حل مؤثر اين مشکلات منجر به استفاده هرچه بيشتر از دادهکاوی و ايجاد امکانات جديد و بهرهبرداری از پتانسيل‌های موجود در قلمروهائی خواهد شد که عليرغم نياز مبرم به دادهکاوی، استفاده بسيار محدودی از آن به عمل میآورند. بحث دادهکاوی توزيع شده به طور کلی از دو جهت قابل بررسی میباشد. اول حالتی که در آن دادهها به صورت همسان بين پايگاه‌های مختلف توزيع شدهاند و دادههای هر پايگاه تمام خصوصيات را دارا هستند. در این حالت دادهها ممکن است ذاتاً توزيع شده باشند و يا اينکه دادههای متمرکز به دلایل امنيتی يا غیره بين پايگاه‌های مختلف تقسيم شده باشند. اصطلاحاً به اين حالت ، تقسيم شده به صورت افقی نيز گفته میشود. ADDIN EN.CITE Kargupta20046[9]666Kargupta, H.Joshi, A.Sivakumar, K.Yesha, Y.Data mining: Next generation challenges and future directions2004AAAI Press0262612038[9] حالت دوم حالتی است که در آن دادههای موجود در هر پايگاه داده دارای خصوصيت‌های مختلف میباشند. معمولاً در اين موارد دادهها خود بين پایگاه‌های مختلف تقسيم گرديدهاند و ذاتاً توزيع شده نيستند. از اينرو به این حالت تقسيم شده عمودی نيز گفته میشود. ADDIN EN.CITE Kargupta20046[9]666Kargupta, H.Joshi, A.Sivakumar, K.Yesha, Y.Data mining: Next generation challenges and future directions2004AAAI Press0262612038[9] برای ايجاد ارتباط بين خصوصيت‌های مختلفی که در پايگاه‌های مختلف نگهداری میشوند اما متعلق به يک داده هستند، معمولاً يک خصوصيت مشترک که به عنوان شناسه مورد استفاده قرار میگيرد، بين تمام پايگاه‌های مختلف نگهداری میشود که رکوردهای مختلف را بهم ارتباط میدهد. در دادهکاوی توزيع شده نيز مسأله کشف و استخراج دانش مشابه دادهکاوی عادی در زمينههای خوشهبندی توزيع شده، کشف قواعد وابستگی به صورت توزيع شده و طبقهبندی توزيع شده (که با نام يادگيری توزيع شده طبقهبند هم از آن نام برده میشود) مورد تحقيق و بررسی قرار می‌گیرد. ضمن اينکه در بحث دادهکاوی توزيع شده، مسأله مربوط به محرمانگی دادهها حتماً بايد مدنظر قرار گيرد. برای مطالعه بيشتر در مورد دادهکاوی توزيع شده میتوانيد به مرجع ADDIN EN.CITE Kargupta20046[9]666Kargupta, H.Joshi, A.Sivakumar, K.Yesha, Y.Data mining: Next generation challenges and future directions2004AAAI Press0262612038[9] مراجعه نماييد. 2-6- مروری بر کارهای انجام شده در اين بخش قصد داريم کارهای انجام شده در زمينه‌ی داده کاوی توزیع شده، و استفاده از عامل برای دادهکاوی را بررسی نماييم. قبل از بيان اين موارد ابتدا لازم است تا با ارائه يک ساختار درختی جايگاه کارهای مورد بررسی در حوزه داده کاوی را به صورت کلی نشان دهيم (شکل 2-2). تقریباً اکثر کارهايی که در بخش دادهکاوی توزيع شده و نيز کاربرد عامل برای دادهکاوی انجام شده و در اين گزارش مورد بررسی قرار گرفتهاند، شامل کارهايی هستند که در درخت شکل 2-2 در نود شماره 1.1.2.2 و نودهای فرزند آن قرار میگيرند. از آنجا که بيشتر کارهای انجام شده در زمينه استفاده از عامل برای دادهکاوی در زمينه دادهکاوی توزيع شده بوده است، لذا اجازه دهيد تا ابتدا بحث دادهکاوی توزيع شده را به همراه برخی از مهم‌ترين کارهای انجام شده مورد بررسی قرار دهيم و سپس به بحث استفاده از عامل‌ها در اين زمينه بپردازيم. 2686685-277495100141052753448051.2001.215430503352801.1001.1283845028765500182880028765500240030030480Data Mining00Data Mining 1399540213360Static00Static3778898213814Dynamic (Active)00Dynamic (Active) 2686050950561.1.2001.1.2781050842611.1.1001.1.11828800254000011144252540000695325406400Central00Central19716757969250014859001254125Vertically partitioned00Vertically partitioned32480251254125Horizontally partitioned00Horizontally partitioned3724275171132500283845017113250024003002139950Data Integration00Data Integration 2352675126171Distributed00Distributed 279082523602600 15144751001361.1.2.1001.1.2.135814001102961.1.2.2001.1.2.2 4533900506061.1.2.2.2001.1.2.2.22266950493361.1.2.2.1001.1.2.2.1 428625082356Model Integration00Model Integration شکل 2- SEQ شکل_2- \* ARABIC 2: درخت تحقيق مبحث داده‌کاوی 2-6-1- دادهکاوی توزيع شده در ADDIN EN.CITE Grossman200146[31]464617Grossman, R.A top-ten list for data miningSIAM NewsSIAM News3452001[31] آقای گروسمن، داده‌کاوی را استخراج نیمه اتوماتیک مدل‌ها، الگوها، تغییرات، ناهنجاری‌ها، و دیگر ساختارهای مهم آماری از مجموعه داده‌های بزرگ تعریف کرده است. کاوش پایگاه داده‌های توزیع شده ADDIN EN.CITE Grossman200146[31-33]464617Grossman, R.A top-ten list for data miningSIAM NewsSIAM News3452001Park20024747476Park, B.Kargupta, H.Distributed data mining: algorithms, systems, and applicationsData Mining Handbook2002Y. NongBhaduri201167676717Bhaduri, K.Das, K.Liu, K.Kargupta, H.Ryan, J.Distributed Data Mining BibliographyDistributed Data Mining BibliographyDistributed Data Mining Bibliography2011[31-33] موضوعی کاربردی است که حجم عظیم تحقیقات انجام شده در این حوزه، سبب پیشرفت چشم‌گیری در تکنیک‌های طبقه‌بندی ADDIN EN.CITE Stolfo199748[34-36]484810Stolfo, S.Prodromidis, A.L.Tselepis, S.Lee, W.Fan, D.W.Chan, P.K.JAM: Java agents for meta-learning over distributed databases74-811997Luo200749494910Luo, P.Xiong, H.Lü, K.Shi, Z.Distributed classification in peer-to-peer networks968-9762007ACM1595936092Aoun-Allah200750505010Aoun-Allah, M.Mineau, G.Distributed data mining: why do more than aggregating models2645-26502007[34-36]، خوشه‌بندی ADDIN EN.CITE Datta200651[37, 38]515110Datta, S.Giannella, C.Kargupta, H.K-Means Clustering Over a Large, Dynamic Network2006 SIAM Conference on Data Mining2006Gionis200552525210Gionis, A.Mannila, H.Tsaparas, P.Clustering aggregation21st ICDE Conference341-3522005IEEE0769522858[37, 38]، OLAP ADDIN EN.CITE Chen200553[39, 40]535310Chen, B.C.Chen, L.Lin, Y.Ramakrishnan, R.Prediction cubes31st VLDB Conference982-9932005NorwayVLDB Endowment1595931546Gray199655555510Gray, J.Bosworth, A.Layman, A.Pirahesh, H.Datacube: A relational aggregation operator generalizing group-by, cross-tab, and sub-totals12th ICDE Conference152-1591996[39, 40]، کاوش الگوریتم‌های پرتکرار PEVuZE5vdGU+PENpdGU+PEF1dGhvcj5BZ3Jhd2FsPC9BdXRob3I+PFllYXI+MTk5NDwvWWVhcj48 UmVjTnVtPjU8L1JlY051bT48RGlzcGxheVRleHQ+WzQxLTQ0XTwvRGlzcGxheVRleHQ+PHJlY29y ZD48cmVjLW51bWJlcj41PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBk Yi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij41PC9rZXk+PC9mb3Jl aWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkNvbmZlcmVuY2UgUHJvY2VlZGluZ3MiPjEwPC9yZWYt dHlwZT48Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+QWdyYXdhbCwgUi48L2F1dGhvcj48 YXV0aG9yPlNyaWthbnQsIFIuPC9hdXRob3I+PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRs ZXM+PHRpdGxlPkZhc3QgYWxnb3JpdGhtcyBmb3IgbWluaW5nIGFzc29jaWF0aW9uIHJ1bGVzPC90 aXRsZT48c2Vjb25kYXJ5LXRpdGxlPlZMREIgQ29uZmVyZW5jZXM8L3NlY29uZGFyeS10aXRsZT48 L3RpdGxlcz48cGFnZXM+NDg3LTQ5OTwvcGFnZXM+PHZvbHVtZT4xMjE1PC92b2x1bWU+PGRhdGVz Pjx5ZWFyPjE5OTQ8L3llYXI+PC9kYXRlcz48cHViLWxvY2F0aW9uPlNhbnRpYWdvLCBDaGlsZTwv cHViLWxvY2F0aW9uPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5B c2hyYWZpPC9BdXRob3I+PFllYXI+MjAwNDwvWWVhcj48UmVjTnVtPjU2PC9SZWNOdW0+PHJlY29y ZD48cmVjLW51bWJlcj41NjwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIg ZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+NTY8L2tleT48L2Zv cmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iSm91cm5hbCBBcnRpY2xlIj4xNzwvcmVmLXR5cGU+ PGNvbnRyaWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPkFzaHJhZmksIE0uWi48L2F1dGhvcj48YXV0 aG9yPlRhbmlhciwgRC48L2F1dGhvcj48YXV0aG9yPlNtaXRoLCBLLjwvYXV0aG9yPjwvYXV0aG9y cz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5PREFNOiBBbiBvcHRpbWl6ZWQgZGlzdHJp YnV0ZWQgYXNzb2NpYXRpb24gcnVsZSBtaW5pbmcgYWxnb3JpdGhtPC90aXRsZT48c2Vjb25kYXJ5 LXRpdGxlPkRpc3RyaWJ1dGVkIFN5c3RlbXMgT25saW5lLCBJRUVFPC9zZWNvbmRhcnktdGl0bGU+ PC90aXRsZXM+PHBlcmlvZGljYWw+PGZ1bGwtdGl0bGU+RGlzdHJpYnV0ZWQgU3lzdGVtcyBPbmxp bmUsIElFRUU8L2Z1bGwtdGl0bGU+PC9wZXJpb2RpY2FsPjx2b2x1bWU+NTwvdm9sdW1lPjxudW1i ZXI+MzwvbnVtYmVyPjxkYXRlcz48eWVhcj4yMDA0PC95ZWFyPjwvZGF0ZXM+PGlzYm4+MTU0MS00 OTIyPC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5DaGV1 bmc8L0F1dGhvcj48WWVhcj4xOTk2PC9ZZWFyPjxSZWNOdW0+NTc8L1JlY051bT48cmVjb3JkPjxy ZWMtbnVtYmVyPjU3PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1p ZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij41Nzwva2V5PjwvZm9yZWln bi1rZXlzPjxyZWYtdHlwZSBuYW1lPSJKb3VybmFsIEFydGljbGUiPjE3PC9yZWYtdHlwZT48Y29u dHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+Q2hldW5nLCBELlcuPC9hdXRob3I+PGF1dGhvcj5O ZywgVi5ULjwvYXV0aG9yPjxhdXRob3I+RnUsIEEuVy48L2F1dGhvcj48YXV0aG9yPkZ1LCBZLjwv YXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5FZmZpY2llbnQg bWluaW5nIG9mIGFzc29jaWF0aW9uIHJ1bGVzIGluIGRpc3RyaWJ1dGVkIGRhdGFiYXNlczwvdGl0 bGU+PHNlY29uZGFyeS10aXRsZT5JRUVFIFRyYW5zYWN0aW9ucyBvbiBLbm93bGVkZ2UgYW5kIERh dGEgRW5naW5lZXJpbmc8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGVyaW9kaWNhbD48ZnVs bC10aXRsZT5JRUVFIFRyYW5zYWN0aW9ucyBvbiBLbm93bGVkZ2UgYW5kIERhdGEgRW5naW5lZXJp bmc8L2Z1bGwtdGl0bGU+PC9wZXJpb2RpY2FsPjxwYWdlcz45MTEtOTIyPC9wYWdlcz48dm9sdW1l Pjg8L3ZvbHVtZT48bnVtYmVyPjY8L251bWJlcj48ZGF0ZXM+PHllYXI+MTk5NjwveWVhcj48L2Rh dGVzPjxpc2JuPjEwNDEtNDM0NzwvaXNibj48dXJscz48L3VybHM+PC9yZWNvcmQ+PC9DaXRlPjxD aXRlPjxBdXRob3I+SGFuPC9BdXRob3I+PFllYXI+MjAwMDwvWWVhcj48UmVjTnVtPjExOTwvUmVj TnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+MTE5PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtl eSBhcHA9IkVOIiBkYi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij4x MTk8L2tleT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iQ29uZmVyZW5jZSBQcm9jZWVk aW5ncyI+MTA8L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5IYW4sIEou PC9hdXRob3I+PGF1dGhvcj5QZWksIEouPC9hdXRob3I+PGF1dGhvcj5ZaW4sIFkuPC9hdXRob3I+ PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPk1pbmluZyBmcmVxdWVudCBw YXR0ZXJucyB3aXRob3V0IGNhbmRpZGF0ZSBnZW5lcmF0aW9uPC90aXRsZT48c2Vjb25kYXJ5LXRp dGxlPkFDTSBTSUdNT0Q8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGFnZXM+MS0xMjwvcGFn ZXM+PHZvbHVtZT4yOTwvdm9sdW1lPjxkYXRlcz48eWVhcj4yMDAwPC95ZWFyPjwvZGF0ZXM+PHB1 Ymxpc2hlcj5BQ008L3B1Ymxpc2hlcj48aXNibj4xNTgxMTMyMTc0PC9pc2JuPjx1cmxzPjwvdXJs cz48L3JlY29yZD48L0NpdGU+PC9FbmROb3RlPn== ADDIN EN.CITE PEVuZE5vdGU+PENpdGU+PEF1dGhvcj5BZ3Jhd2FsPC9BdXRob3I+PFllYXI+MTk5NDwvWWVhcj48 UmVjTnVtPjU8L1JlY051bT48RGlzcGxheVRleHQ+WzQxLTQ0XTwvRGlzcGxheVRleHQ+PHJlY29y ZD48cmVjLW51bWJlcj41PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBk Yi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij41PC9rZXk+PC9mb3Jl aWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkNvbmZlcmVuY2UgUHJvY2VlZGluZ3MiPjEwPC9yZWYt dHlwZT48Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+QWdyYXdhbCwgUi48L2F1dGhvcj48 YXV0aG9yPlNyaWthbnQsIFIuPC9hdXRob3I+PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRs ZXM+PHRpdGxlPkZhc3QgYWxnb3JpdGhtcyBmb3IgbWluaW5nIGFzc29jaWF0aW9uIHJ1bGVzPC90 aXRsZT48c2Vjb25kYXJ5LXRpdGxlPlZMREIgQ29uZmVyZW5jZXM8L3NlY29uZGFyeS10aXRsZT48 L3RpdGxlcz48cGFnZXM+NDg3LTQ5OTwvcGFnZXM+PHZvbHVtZT4xMjE1PC92b2x1bWU+PGRhdGVz Pjx5ZWFyPjE5OTQ8L3llYXI+PC9kYXRlcz48cHViLWxvY2F0aW9uPlNhbnRpYWdvLCBDaGlsZTwv cHViLWxvY2F0aW9uPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5B c2hyYWZpPC9BdXRob3I+PFllYXI+MjAwNDwvWWVhcj48UmVjTnVtPjU2PC9SZWNOdW0+PHJlY29y ZD48cmVjLW51bWJlcj41NjwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIg ZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+NTY8L2tleT48L2Zv cmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iSm91cm5hbCBBcnRpY2xlIj4xNzwvcmVmLXR5cGU+ PGNvbnRyaWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPkFzaHJhZmksIE0uWi48L2F1dGhvcj48YXV0 aG9yPlRhbmlhciwgRC48L2F1dGhvcj48YXV0aG9yPlNtaXRoLCBLLjwvYXV0aG9yPjwvYXV0aG9y cz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5PREFNOiBBbiBvcHRpbWl6ZWQgZGlzdHJp YnV0ZWQgYXNzb2NpYXRpb24gcnVsZSBtaW5pbmcgYWxnb3JpdGhtPC90aXRsZT48c2Vjb25kYXJ5 LXRpdGxlPkRpc3RyaWJ1dGVkIFN5c3RlbXMgT25saW5lLCBJRUVFPC9zZWNvbmRhcnktdGl0bGU+ PC90aXRsZXM+PHBlcmlvZGljYWw+PGZ1bGwtdGl0bGU+RGlzdHJpYnV0ZWQgU3lzdGVtcyBPbmxp bmUsIElFRUU8L2Z1bGwtdGl0bGU+PC9wZXJpb2RpY2FsPjx2b2x1bWU+NTwvdm9sdW1lPjxudW1i ZXI+MzwvbnVtYmVyPjxkYXRlcz48eWVhcj4yMDA0PC95ZWFyPjwvZGF0ZXM+PGlzYm4+MTU0MS00 OTIyPC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5DaGV1 bmc8L0F1dGhvcj48WWVhcj4xOTk2PC9ZZWFyPjxSZWNOdW0+NTc8L1JlY051bT48cmVjb3JkPjxy ZWMtbnVtYmVyPjU3PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1p ZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij41Nzwva2V5PjwvZm9yZWln bi1rZXlzPjxyZWYtdHlwZSBuYW1lPSJKb3VybmFsIEFydGljbGUiPjE3PC9yZWYtdHlwZT48Y29u dHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+Q2hldW5nLCBELlcuPC9hdXRob3I+PGF1dGhvcj5O ZywgVi5ULjwvYXV0aG9yPjxhdXRob3I+RnUsIEEuVy48L2F1dGhvcj48YXV0aG9yPkZ1LCBZLjwv YXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5FZmZpY2llbnQg bWluaW5nIG9mIGFzc29jaWF0aW9uIHJ1bGVzIGluIGRpc3RyaWJ1dGVkIGRhdGFiYXNlczwvdGl0 bGU+PHNlY29uZGFyeS10aXRsZT5JRUVFIFRyYW5zYWN0aW9ucyBvbiBLbm93bGVkZ2UgYW5kIERh dGEgRW5naW5lZXJpbmc8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGVyaW9kaWNhbD48ZnVs bC10aXRsZT5JRUVFIFRyYW5zYWN0aW9ucyBvbiBLbm93bGVkZ2UgYW5kIERhdGEgRW5naW5lZXJp bmc8L2Z1bGwtdGl0bGU+PC9wZXJpb2RpY2FsPjxwYWdlcz45MTEtOTIyPC9wYWdlcz48dm9sdW1l Pjg8L3ZvbHVtZT48bnVtYmVyPjY8L251bWJlcj48ZGF0ZXM+PHllYXI+MTk5NjwveWVhcj48L2Rh dGVzPjxpc2JuPjEwNDEtNDM0NzwvaXNibj48dXJscz48L3VybHM+PC9yZWNvcmQ+PC9DaXRlPjxD aXRlPjxBdXRob3I+SGFuPC9BdXRob3I+PFllYXI+MjAwMDwvWWVhcj48UmVjTnVtPjExOTwvUmVj TnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+MTE5PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtl eSBhcHA9IkVOIiBkYi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij4x MTk8L2tleT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iQ29uZmVyZW5jZSBQcm9jZWVk aW5ncyI+MTA8L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5IYW4sIEou PC9hdXRob3I+PGF1dGhvcj5QZWksIEouPC9hdXRob3I+PGF1dGhvcj5ZaW4sIFkuPC9hdXRob3I+ PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPk1pbmluZyBmcmVxdWVudCBw YXR0ZXJucyB3aXRob3V0IGNhbmRpZGF0ZSBnZW5lcmF0aW9uPC90aXRsZT48c2Vjb25kYXJ5LXRp dGxlPkFDTSBTSUdNT0Q8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGFnZXM+MS0xMjwvcGFn ZXM+PHZvbHVtZT4yOTwvdm9sdW1lPjxkYXRlcz48eWVhcj4yMDAwPC95ZWFyPjwvZGF0ZXM+PHB1 Ymxpc2hlcj5BQ008L3B1Ymxpc2hlcj48aXNibj4xNTgxMTMyMTc0PC9pc2JuPjx1cmxzPjwvdXJs cz48L3JlY29yZD48L0NpdGU+PC9FbmROb3RlPn== ADDIN EN.CITE.DATA [41-44]، کاوش جریان داده ADDIN EN.CITE Manjhi200559[45, 46]595910Manjhi, A.Shkapenyuk, V.Dhamdhere, K.Olston, C.Finding (recently) frequent items in distributed data streamsICDE Conference767-7782005IEEE0769522858Sun200660606017Sun, J.Papadimitriou, S.Faloutsos, C.Distributed pattern discovery in multiple streamsAdvances in Knowledge Discovery and Data MiningAdvances in Knowledge Discovery and Data Mining713-7182006[45, 46]، و ارزیابی شباهت پایگاه داده‌ها ADDIN EN.CITE Li200361[47, 48]616117Li, T.Ogihara, M.Zhu, S.Association-based similarity testing and its applicationsIntelligent Data AnalysisIntelligent Data Analysis209-2327320031088-467XWebb200362626210Webb, G.I.Butler, S.Newlands, D.On detecting differences between groups9th ACM SIGKDD Conference256-2652003ACM1581137370[47, 48] شده است. تقریباً، در هر حوزه اصلی پژوهشی داده کاوی، حداقل یک ماژول یا الگوریتم کاوش توزیع شده وجود دارد. موضوعات اصلی این فعالیت‌های تحقیقاتی، به اشتراک گذاشتن شباهت‌هاست به این ترتیب که همه‌ی آن‌ها از روش یکپارچه کردن و/ یا مقایسه منابع داده توزیع شده برای رسیدن به هدف مشترک بهره می‌برند. به طور کلی، دو گروه عمده در تحقيقات مربوط به دادهکاوی توزيع شده قابل تشخيص است. گروه اول عبارت است از کارهائي که به از بين بردن مشکل توزيع اطلاعات از راه تجمع اطلاعات در يک نقطه مرکزی با استفاده از الگوريتم‌ها و پروتکل‌های بهبود يافته شبکه میپردازند و با فرض اين مسئله که در دادهکاوی توزيع شده دقت و هزينه (ناشی از انتقال اطلاعات) مقابل يکديگر قرار دارند، برای دست‌یابی به يک راهحل قابل قبول از طريق وضع يک استراتژی افزايش دقت در مقابل حداقل هزينه (در حالتی که هزينه انتقال اطلاعات قابل صرفنظر نيست) تلاش میکنند. سيستم Papyrus بر اين مبنا استوار است. ADDIN EN.CITE Bailey199941[49]414110Bailey, S.Grossman, R.Sivakumar, H.Turinsky, A.Papyrus: a system for data mining over local and wide area clusters and super-clusters631999ACM1581130910[49] اين دسته از کارها در درخت تحقيق شکل 2-2 در نود 1.1.2.2.1 قرار میگيرند. گروه دوم از کارهای انجام شده در زمينه دادهکاوی توزيع شده، با در نظر گرفتن حالت‌های مختلف توزيع اطلاعات، به ارائه روش‌هایی برای دادهکاوی بدون انتقال اطلاعات خام به يک نقطه مرکزی و معمولاً از طريق جابهجائی اطلاعات ميانی مختلف بين سايت‌ها می‌پردازند؛ معمولاً در تمام اين روش‌ها، تلاش بر حداقل ساختن ارتباطات است. اين گروه از کارها در درخت تحقيق شکل 2-2 در جايگاه 1.1.2.2.2 قرار دارند. در پژوهش ADDIN EN.CITE Schuster200442[50]424217Schuster, A.Wolff, R.Communication-efficient distributed mining of association rulesData Mining and Knowledge DiscoveryData Mining and Knowledge Discovery171-1968220041384-5810[50] روشی برای استخراج قواعد وابستگی از اطلاعات توزيع شده، با حداقل ارتباط بين فرآيندهای در حال استخراج قوانين ارائه میکند. همچنين به عنوان نمونهای از تحقيقات انجام شده در زمينه حفظ حريم خصوصی در فرآيند دادهکاوی، میتوان به ADDIN EN.CITE Schuster200443[51]434310Schuster, A.Wolff, R.Gilburd, B.Privacy-preserving association rule mining in large-scale distributed systems411-4182004IEEE078038430X[51] اشاره نمود. دو نمونه ديگر از کاربردهای دادهکاوی توزيع شده را میتوانيد در ADDIN EN.CITE Bala200244[52]444410Bala, J.Baik, S.Hadjarian, A.Gogia, BKManthorne, C.Application of a distributed data mining approach to network intrusion detection1419-14202002ACM1581134800[52] و ADDIN EN.CITE Stolfo200045[53]454510Stolfo, S.J.Fan, W.Lee, W.Prodromidis, A.Chan, P.K.Cost-based modeling for fraud and intrusion detection: Results from the JAM project130-144 vol. 222000IEEE0769504906[53] مشاهده کنيد. در اين دو مرجع با استفاده از مدل‌های ايجاد شده به صورت توزيع شده توسط نودهای مختلف در شبکه و سپس ايجاد مدل داده کلی، سعی میشود تا عمليات نفوذ به شبکه شناسايی و خنثی گردد. البته در ADDIN EN.CITE Stolfo200045[53]454510Stolfo, S.J.Fan, W.Lee, W.Prodromidis, A.Chan, P.K.Cost-based modeling for fraud and intrusion detection: Results from the JAM project130-144 vol. 222000IEEE0769504906[53] در هر نود مذکور در شبکه يک عامل قرار دارد که فعاليت‌های مربوط به ايجاد مدل داده و ارتباط با ديگر عامل‌ها را بر عهده دارد. از دیدگاه طبقه‌بندی و خوشه‌بندی، مشکل کشف الگو از پایگاه داده‌های توزیع شده ناشی از چگونگی آموزش مدل‌های کلی از اطلاعات بدست آمده از چندین پایگاه داده است. برای تحقق این هدف از دو روش می‌توان استفاده کرد، جمع آوری داده‌ها در قالب یک نگاه واحد، و یا یکپارچه‌سازی مدل‌های ساخته شده از پایگاه داده‌های مجزا. ADDIN EN.CITE Fujibuchi200763[54, 55]636317Fujibuchi, W.Kato, T.Classification of heterogeneous microarray data by maximum entropy kernelBMC bioinformaticsBMC bioinformatics2678120071471-2105Merugu200568686810Merugu, S.Ghosh, J.A distributed learning framework for heterogeneous data sourcesThe 11th ACM KDD Conference208-2172005ACM159593135X[54, 55] Kargupta و همکاران یک چارچوب داده کاوی اشتراکی با یک کلید اصلی برای یکپارچه کردن داده‌ها در یک نگاه واحد پیشنهاد دادند. ADDIN EN.CITE Kargupta199965[56]656510Kargupta, H.Park, B.H.Hershberger, D.Johnson, E.Collective data mining: A new perspective toward distributed data analysisAdvances in Distributed and Parallel Knowledge Discovery1999Citeseer[56] فرضیات مشابهی برای حفظ حریم خصوصی در داده کاوی ADDIN EN.CITE Kantarcioglu200271[57, 58]717110Kantarcioglu, M.Clifton, C.Privacy-Preserving Distributed Mining of Association Rules on Horizontally Partitioned DataACM SIGMOD Workshop on Research Issues on Data Mining and Knowledge Discovery (DMKD'02)2002Qiu200772727217Qiu, L.Li, Y.Wu, X.Preserving privacy in association rule mining with bloom filtersJournal of Intelligent Information SystemsJournal of Intelligent Information Systems253-27829320070925-9902[57, 58]، یک‌دسته کردن و جمع آوری خوشه‌ها ADDIN EN.CITE Gionis200552[38]525210Gionis, A.Mannila, H.Tsaparas, P.Clustering aggregation21st ICDE Conference341-3522005IEEE0769522858[38]، و یکپارچه سازی مدل برپایه‌ی کرنل ADDIN EN.CITE Fujibuchi200763[54]636317Fujibuchi, W.Kato, T.Classification of heterogeneous microarray data by maximum entropy kernelBMC bioinformaticsBMC bioinformatics2678120071471-2105[54]، از داده‌های ناهمگون ارائه شده است. یین و همکارانش یک کاوشگر عرضی برای طبقه‌بندی پایگاه داده‌های رابطه‌ای چندگانه پیشنهاد داده بودند. ADDIN EN.CITE Yin200673[59]737317Yin, X.Han, J.Yang, J.Yu, P.Crossmine: Efficient classification across multiple database relationsConstraint-Based Mining and Inductive DatabasesConstraint-Based Mining and Inductive Databases172-1952006[59] وانگ و همکارانش، مشکل تقویت خوشه‌بندی چند نوع شی بین رابطه‌ای (به عنوان مثال اسناد وب) را مورد بررسی قرار دادند. ADDIN EN.CITE Wang200374[60]747410Wang, J.Zeng, H.Chen, Z.Lu, H.Tao, L.Ma, W.Y.ReCoM: reinforcement clustering of multi-type interrelated data objectsSIGIR Conference274-2812003ACM1581136463[60] مشکل کاوش الگوی پرتکرار برای پایگاه داده‌های توزیع شده به خوبی مورد مطالعه قرار گرفته است PEVuZE5vdGU+PENpdGU+PEF1dGhvcj5TY2h1c3RlcjwvQXV0aG9yPjxZZWFyPjIwMDQ8L1llYXI+ PFJlY051bT40MjwvUmVjTnVtPjxEaXNwbGF5VGV4dD5bNDIsIDQzLCA1MCwgNTYsIDYxLTY3XTwv RGlzcGxheVRleHQ+PHJlY29yZD48cmVjLW51bWJlcj40MjwvcmVjLW51bWJlcj48Zm9yZWlnbi1r ZXlzPjxrZXkgYXBwPSJFTiIgZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6 c2ZkdiI+NDI8L2tleT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iSm91cm5hbCBBcnRp Y2xlIj4xNzwvcmVmLXR5cGU+PGNvbnRyaWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPlNjaHVzdGVy LCBBLjwvYXV0aG9yPjxhdXRob3I+V29sZmYsIFIuPC9hdXRob3I+PC9hdXRob3JzPjwvY29udHJp YnV0b3JzPjx0aXRsZXM+PHRpdGxlPkNvbW11bmljYXRpb24tZWZmaWNpZW50IGRpc3RyaWJ1dGVk IG1pbmluZyBvZiBhc3NvY2lhdGlvbiBydWxlczwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT5EYXRh IE1pbmluZyBhbmQgS25vd2xlZGdlIERpc2NvdmVyeTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVz PjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPkRhdGEgTWluaW5nIGFuZCBLbm93bGVkZ2UgRGlzY292 ZXJ5PC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48cGFnZXM+MTcxLTE5NjwvcGFnZXM+PHZvbHVt ZT44PC92b2x1bWU+PG51bWJlcj4yPC9udW1iZXI+PGRhdGVzPjx5ZWFyPjIwMDQ8L3llYXI+PC9k YXRlcz48aXNibj4xMzg0LTU4MTA8L2lzYm4+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48 Q2l0ZT48QXV0aG9yPkFzaHJhZmk8L0F1dGhvcj48WWVhcj4yMDA0PC9ZZWFyPjxSZWNOdW0+NTY8 L1JlY051bT48cmVjb3JkPjxyZWMtbnVtYmVyPjU2PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+ PGtleSBhcHA9IkVOIiBkYi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2 Ij41Njwva2V5PjwvZm9yZWlnbi1rZXlzPjxyZWYtdHlwZSBuYW1lPSJKb3VybmFsIEFydGljbGUi PjE3PC9yZWYtdHlwZT48Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+QXNocmFmaSwgTS5a LjwvYXV0aG9yPjxhdXRob3I+VGFuaWFyLCBELjwvYXV0aG9yPjxhdXRob3I+U21pdGgsIEsuPC9h dXRob3I+PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPk9EQU06IEFuIG9w dGltaXplZCBkaXN0cmlidXRlZCBhc3NvY2lhdGlvbiBydWxlIG1pbmluZyBhbGdvcml0aG08L3Rp dGxlPjxzZWNvbmRhcnktdGl0bGU+RGlzdHJpYnV0ZWQgU3lzdGVtcyBPbmxpbmUsIElFRUU8L3Nl Y29uZGFyeS10aXRsZT48L3RpdGxlcz48cGVyaW9kaWNhbD48ZnVsbC10aXRsZT5EaXN0cmlidXRl ZCBTeXN0ZW1zIE9ubGluZSwgSUVFRTwvZnVsbC10aXRsZT48L3BlcmlvZGljYWw+PHZvbHVtZT41 PC92b2x1bWU+PG51bWJlcj4zPC9udW1iZXI+PGRhdGVzPjx5ZWFyPjIwMDQ8L3llYXI+PC9kYXRl cz48aXNibj4xNTQxLTQ5MjI8L2lzYm4+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0 ZT48QXV0aG9yPkNoZXVuZzwvQXV0aG9yPjxZZWFyPjE5OTY8L1llYXI+PFJlY051bT41NzwvUmVj TnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+NTc8L3JlYy1udW1iZXI+PGZvcmVpZ24ta2V5cz48a2V5 IGFwcD0iRU4iIGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJocGV6dm9zejV6cjAwenNmZHYiPjU3 PC9rZXk+PC9mb3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkpvdXJuYWwgQXJ0aWNsZSI+MTc8 L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5DaGV1bmcsIEQuVy48L2F1 dGhvcj48YXV0aG9yPk5nLCBWLlQuPC9hdXRob3I+PGF1dGhvcj5GdSwgQS5XLjwvYXV0aG9yPjxh dXRob3I+RnUsIFkuPC9hdXRob3I+PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRp dGxlPkVmZmljaWVudCBtaW5pbmcgb2YgYXNzb2NpYXRpb24gcnVsZXMgaW4gZGlzdHJpYnV0ZWQg ZGF0YWJhc2VzPC90aXRsZT48c2Vjb25kYXJ5LXRpdGxlPklFRUUgVHJhbnNhY3Rpb25zIG9uIEtu b3dsZWRnZSBhbmQgRGF0YSBFbmdpbmVlcmluZzwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxw ZXJpb2RpY2FsPjxmdWxsLXRpdGxlPklFRUUgVHJhbnNhY3Rpb25zIG9uIEtub3dsZWRnZSBhbmQg RGF0YSBFbmdpbmVlcmluZzwvZnVsbC10aXRsZT48L3BlcmlvZGljYWw+PHBhZ2VzPjkxMS05MjI8 L3BhZ2VzPjx2b2x1bWU+ODwvdm9sdW1lPjxudW1iZXI+NjwvbnVtYmVyPjxkYXRlcz48eWVhcj4x OTk2PC95ZWFyPjwvZGF0ZXM+PGlzYm4+MTA0MS00MzQ3PC9pc2JuPjx1cmxzPjwvdXJscz48L3Jl Y29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5LYXJndXB0YTwvQXV0aG9yPjxZZWFyPjE5OTk8L1ll YXI+PFJlY051bT42NTwvUmVjTnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+NjU8L3JlYy1udW1iZXI+ PGZvcmVpZ24ta2V5cz48a2V5IGFwcD0iRU4iIGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJocGV6 dm9zejV6cjAwenNmZHYiPjY1PC9rZXk+PC9mb3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkNv bmZlcmVuY2UgUHJvY2VlZGluZ3MiPjEwPC9yZWYtdHlwZT48Y29udHJpYnV0b3JzPjxhdXRob3Jz PjxhdXRob3I+S2FyZ3VwdGEsIEguPC9hdXRob3I+PGF1dGhvcj5QYXJrLCBCLkguPC9hdXRob3I+ PGF1dGhvcj5IZXJzaGJlcmdlciwgRC48L2F1dGhvcj48YXV0aG9yPkpvaG5zb24sIEUuPC9hdXRo b3I+PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPkNvbGxlY3RpdmUgZGF0 YSBtaW5pbmc6IEEgbmV3IHBlcnNwZWN0aXZlIHRvd2FyZCBkaXN0cmlidXRlZCBkYXRhIGFuYWx5 c2lzPC90aXRsZT48c2Vjb25kYXJ5LXRpdGxlPkFkdmFuY2VzIGluIERpc3RyaWJ1dGVkIGFuZCBQ YXJhbGxlbCBLbm93bGVkZ2UgRGlzY292ZXJ5PC9zZWNvbmRhcnktdGl0bGU+PC90aXRsZXM+PGRh dGVzPjx5ZWFyPjE5OTk8L3llYXI+PC9kYXRlcz48cHVibGlzaGVyPkNpdGVzZWVyPC9wdWJsaXNo ZXI+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0ZT48QXV0aG9yPkFncmF3YWw8L0F1 dGhvcj48WWVhcj4xOTk2PC9ZZWFyPjxSZWNOdW0+NzU8L1JlY051bT48cmVjb3JkPjxyZWMtbnVt YmVyPjc1PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1pZD0ic2Rw cHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij43NTwva2V5PjwvZm9yZWlnbi1rZXlz PjxyZWYtdHlwZSBuYW1lPSJKb3VybmFsIEFydGljbGUiPjE3PC9yZWYtdHlwZT48Y29udHJpYnV0 b3JzPjxhdXRob3JzPjxhdXRob3I+QWdyYXdhbCwgUi48L2F1dGhvcj48YXV0aG9yPlNoYWZlciwg Si5DLjwvYXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5QYXJh bGxlbCBtaW5pbmcgb2YgYXNzb2NpYXRpb24gcnVsZXM8L3RpdGxlPjxzZWNvbmRhcnktdGl0bGU+ S25vd2xlZGdlIGFuZCBEYXRhIEVuZ2luZWVyaW5nLCBJRUVFIFRyYW5zYWN0aW9ucyBvbjwvc2Vj b25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPktub3dsZWRnZSBh bmQgRGF0YSBFbmdpbmVlcmluZywgSUVFRSBUcmFuc2FjdGlvbnMgb248L2Z1bGwtdGl0bGU+PC9w ZXJpb2RpY2FsPjxwYWdlcz45NjItOTY5PC9wYWdlcz48dm9sdW1lPjg8L3ZvbHVtZT48bnVtYmVy PjY8L251bWJlcj48ZGF0ZXM+PHllYXI+MTk5NjwveWVhcj48L2RhdGVzPjxpc2JuPjEwNDEtNDM0 NzwvaXNibj48dXJscz48L3VybHM+PC9yZWNvcmQ+PC9DaXRlPjxDaXRlPjxBdXRob3I+SGFuPC9B dXRob3I+PFllYXI+MTk5NzwvWWVhcj48UmVjTnVtPjc2PC9SZWNOdW0+PHJlY29yZD48cmVjLW51 bWJlcj43NjwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIgZGItaWQ9InNk cHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+NzY8L2tleT48L2ZvcmVpZ24ta2V5 cz48cmVmLXR5cGUgbmFtZT0iQ29uZmVyZW5jZSBQcm9jZWVkaW5ncyI+MTA8L3JlZi10eXBlPjxj b250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5IYW4sIEUuSC48L2F1dGhvcj48YXV0aG9yPkth cnlwaXMsIEcuPC9hdXRob3I+PGF1dGhvcj5LdW1hciwgVi48L2F1dGhvcj48L2F1dGhvcnM+PC9j b250cmlidXRvcnM+PHRpdGxlcz48dGl0bGU+U2NhbGFibGUgcGFyYWxsZWwgZGF0YSBtaW5pbmcg Zm9yIGFzc29jaWF0aW9uIHJ1bGVzPC90aXRsZT48c2Vjb25kYXJ5LXRpdGxlPkFDTSBTSUdNT0Qg Q29uZmVyZW5jZTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjx2b2x1bWU+MjY8L3ZvbHVtZT48 bnVtYmVyPjI8L251bWJlcj48ZGF0ZXM+PHllYXI+MTk5NzwveWVhcj48L2RhdGVzPjxwdWJsaXNo ZXI+QUNNPC9wdWJsaXNoZXI+PGlzYm4+MDg5NzkxOTExNDwvaXNibj48dXJscz48L3VybHM+PC9y ZWNvcmQ+PC9DaXRlPjxDaXRlPjxBdXRob3I+TGk8L0F1dGhvcj48WWVhcj4yMDA1PC9ZZWFyPjxS ZWNOdW0+Nzc8L1JlY051bT48cmVjb3JkPjxyZWMtbnVtYmVyPjc3PC9yZWMtbnVtYmVyPjxmb3Jl aWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1 enIwMHpzZmR2Ij43Nzwva2V5PjwvZm9yZWlnbi1rZXlzPjxyZWYtdHlwZSBuYW1lPSJKb3VybmFs IEFydGljbGUiPjE3PC9yZWYtdHlwZT48Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+TGks IFMuPC9hdXRob3I+PGF1dGhvcj5XdSwgVC48L2F1dGhvcj48YXV0aG9yPlBvdHRlbmdlciwgVy5N LjwvYXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5EaXN0cmli dXRlZCBoaWdoZXIgb3JkZXIgYXNzb2NpYXRpb24gcnVsZSBtaW5pbmcgdXNpbmcgaW5mb3JtYXRp b24gZXh0cmFjdGVkIGZyb20gdGV4dHVhbCBkYXRhPC90aXRsZT48c2Vjb25kYXJ5LXRpdGxlPkFD TSBTSUdLREQgRXhwbG9yYXRpb25zIE5ld3NsZXR0ZXI8L3NlY29uZGFyeS10aXRsZT48L3RpdGxl cz48cGVyaW9kaWNhbD48ZnVsbC10aXRsZT5BQ00gU0lHS0REIEV4cGxvcmF0aW9ucyBOZXdzbGV0 dGVyPC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48cGFnZXM+MjYtMzU8L3BhZ2VzPjx2b2x1bWU+ Nzwvdm9sdW1lPjxudW1iZXI+MTwvbnVtYmVyPjxkYXRlcz48eWVhcj4yMDA1PC95ZWFyPjwvZGF0 ZXM+PGlzYm4+MTkzMS0wMTQ1PC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENp dGU+PEF1dGhvcj5PdGV5PC9BdXRob3I+PFllYXI+MjAwMzwvWWVhcj48UmVjTnVtPjc4PC9SZWNO dW0+PHJlY29yZD48cmVjLW51bWJlcj43ODwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkg YXBwPSJFTiIgZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+Nzg8 L2tleT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iQ29uZmVyZW5jZSBQcm9jZWVkaW5n cyI+MTA8L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5PdGV5LCBNLkUu PC9hdXRob3I+PGF1dGhvcj5XYW5nLCBDLjwvYXV0aG9yPjxhdXRob3I+UGFydGhhc2FyYXRoeSwg Uy48L2F1dGhvcj48YXV0aG9yPlZlbG9zbywgQS48L2F1dGhvcj48YXV0aG9yPk1laXJhIEpyLCBX LjwvYXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5NaW5pbmcg ZnJlcXVlbnQgaXRlbXNldHMgaW4gZGlzdHJpYnV0ZWQgYW5kIGR5bmFtaWMgZGF0YWJhc2VzPC90 aXRsZT48c2Vjb25kYXJ5LXRpdGxlPklDRE0gQ29uZmVyZW5jZTwvc2Vjb25kYXJ5LXRpdGxlPjwv dGl0bGVzPjxwYWdlcz42MTctNjIwPC9wYWdlcz48ZGF0ZXM+PHllYXI+MjAwMzwveWVhcj48L2Rh dGVzPjxwdWJsaXNoZXI+SUVFRTwvcHVibGlzaGVyPjxpc2JuPjA3Njk1MTk3ODQ8L2lzYm4+PHVy bHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0ZT48QXV0aG9yPld1PC9BdXRob3I+PFllYXI+ MjAwMzwvWWVhcj48UmVjTnVtPjc5PC9SZWNOdW0+PHJlY29yZD48cmVjLW51bWJlcj43OTwvcmVj LW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIgZGItaWQ9InNkcHB6MDByM2YwdmZn ZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+Nzk8L2tleT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUg bmFtZT0iSm91cm5hbCBBcnRpY2xlIj4xNzwvcmVmLXR5cGU+PGNvbnRyaWJ1dG9ycz48YXV0aG9y cz48YXV0aG9yPld1LCBYLjwvYXV0aG9yPjxhdXRob3I+WmhhbmcsIFMuPC9hdXRob3I+PC9hdXRo b3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPlN5bnRoZXNpemluZyBoaWdoLWZyZXF1 ZW5jeSBydWxlcyBmcm9tIGRpZmZlcmVudCBkYXRhIHNvdXJjZXM8L3RpdGxlPjxzZWNvbmRhcnkt dGl0bGU+S25vd2xlZGdlIGFuZCBEYXRhIEVuZ2luZWVyaW5nLCBJRUVFIFRyYW5zYWN0aW9ucyBv bjwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPktub3ds ZWRnZSBhbmQgRGF0YSBFbmdpbmVlcmluZywgSUVFRSBUcmFuc2FjdGlvbnMgb248L2Z1bGwtdGl0 bGU+PC9wZXJpb2RpY2FsPjxwYWdlcz4zNTMtMzY3PC9wYWdlcz48dm9sdW1lPjE1PC92b2x1bWU+ PG51bWJlcj4yPC9udW1iZXI+PGRhdGVzPjx5ZWFyPjIwMDM8L3llYXI+PC9kYXRlcz48aXNibj4x MDQxLTQzNDc8L2lzYm4+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0ZT48QXV0aG9y Plpha2k8L0F1dGhvcj48WWVhcj4xOTk5PC9ZZWFyPjxSZWNOdW0+ODA8L1JlY051bT48cmVjb3Jk PjxyZWMtbnVtYmVyPjgwPC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBk Yi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij44MDwva2V5PjwvZm9y ZWlnbi1rZXlzPjxyZWYtdHlwZSBuYW1lPSJKb3VybmFsIEFydGljbGUiPjE3PC9yZWYtdHlwZT48 Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+WmFraSwgTS5KLjwvYXV0aG9yPjwvYXV0aG9y cz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5QYXJhbGxlbCBhbmQgZGlzdHJpYnV0ZWQg YXNzb2NpYXRpb24gbWluaW5nOiBBIHN1cnZleTwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT5Db25j dXJyZW5jeSwgSUVFRTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxwZXJpb2RpY2FsPjxmdWxs LXRpdGxlPkNvbmN1cnJlbmN5LCBJRUVFPC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48cGFnZXM+ MTQtMjU8L3BhZ2VzPjx2b2x1bWU+Nzwvdm9sdW1lPjxudW1iZXI+NDwvbnVtYmVyPjxkYXRlcz48 eWVhcj4xOTk5PC95ZWFyPjwvZGF0ZXM+PGlzYm4+MTA5Mi0zMDYzPC9pc2JuPjx1cmxzPjwvdXJs cz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5aaGFuZzwvQXV0aG9yPjxZZWFyPjIwMDY8 L1llYXI+PFJlY051bT44MTwvUmVjTnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+ODE8L3JlYy1udW1i ZXI+PGZvcmVpZ24ta2V5cz48a2V5IGFwcD0iRU4iIGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJo cGV6dm9zejV6cjAwenNmZHYiPjgxPC9rZXk+PC9mb3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9 IkpvdXJuYWwgQXJ0aWNsZSI+MTc8L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1 dGhvcj5aaGFuZywgUy48L2F1dGhvcj48YXV0aG9yPlpha2ksIE0uSi48L2F1dGhvcj48L2F1dGhv cnM+PC9jb250cmlidXRvcnM+PHRpdGxlcz48dGl0bGU+TWluaW5nIG11bHRpcGxlIGRhdGEgc291 cmNlczogbG9jYWwgcGF0dGVybiBhbmFseXNpczwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT5EYXRh IE1pbmluZyBhbmQgS25vd2xlZGdlIERpc2NvdmVyeTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVz PjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPkRhdGEgTWluaW5nIGFuZCBLbm93bGVkZ2UgRGlzY292 ZXJ5PC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48cGFnZXM+MTIxLTEyNTwvcGFnZXM+PHZvbHVt ZT4xMjwvdm9sdW1lPjxudW1iZXI+MjwvbnVtYmVyPjxkYXRlcz48eWVhcj4yMDA2PC95ZWFyPjwv ZGF0ZXM+PGlzYm4+MTM4NC01ODEwPC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+ PC9FbmROb3RlPn== ADDIN EN.CITE PEVuZE5vdGU+PENpdGU+PEF1dGhvcj5TY2h1c3RlcjwvQXV0aG9yPjxZZWFyPjIwMDQ8L1llYXI+ PFJlY051bT40MjwvUmVjTnVtPjxEaXNwbGF5VGV4dD5bNDIsIDQzLCA1MCwgNTYsIDYxLTY3XTwv RGlzcGxheVRleHQ+PHJlY29yZD48cmVjLW51bWJlcj40MjwvcmVjLW51bWJlcj48Zm9yZWlnbi1r ZXlzPjxrZXkgYXBwPSJFTiIgZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6 c2ZkdiI+NDI8L2tleT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iSm91cm5hbCBBcnRp Y2xlIj4xNzwvcmVmLXR5cGU+PGNvbnRyaWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPlNjaHVzdGVy LCBBLjwvYXV0aG9yPjxhdXRob3I+V29sZmYsIFIuPC9hdXRob3I+PC9hdXRob3JzPjwvY29udHJp YnV0b3JzPjx0aXRsZXM+PHRpdGxlPkNvbW11bmljYXRpb24tZWZmaWNpZW50IGRpc3RyaWJ1dGVk IG1pbmluZyBvZiBhc3NvY2lhdGlvbiBydWxlczwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT5EYXRh IE1pbmluZyBhbmQgS25vd2xlZGdlIERpc2NvdmVyeTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVz PjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPkRhdGEgTWluaW5nIGFuZCBLbm93bGVkZ2UgRGlzY292 ZXJ5PC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48cGFnZXM+MTcxLTE5NjwvcGFnZXM+PHZvbHVt ZT44PC92b2x1bWU+PG51bWJlcj4yPC9udW1iZXI+PGRhdGVzPjx5ZWFyPjIwMDQ8L3llYXI+PC9k YXRlcz48aXNibj4xMzg0LTU4MTA8L2lzYm4+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48 Q2l0ZT48QXV0aG9yPkFzaHJhZmk8L0F1dGhvcj48WWVhcj4yMDA0PC9ZZWFyPjxSZWNOdW0+NTY8 L1JlY051bT48cmVjb3JkPjxyZWMtbnVtYmVyPjU2PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+ PGtleSBhcHA9IkVOIiBkYi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2 Ij41Njwva2V5PjwvZm9yZWlnbi1rZXlzPjxyZWYtdHlwZSBuYW1lPSJKb3VybmFsIEFydGljbGUi PjE3PC9yZWYtdHlwZT48Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+QXNocmFmaSwgTS5a LjwvYXV0aG9yPjxhdXRob3I+VGFuaWFyLCBELjwvYXV0aG9yPjxhdXRob3I+U21pdGgsIEsuPC9h dXRob3I+PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPk9EQU06IEFuIG9w dGltaXplZCBkaXN0cmlidXRlZCBhc3NvY2lhdGlvbiBydWxlIG1pbmluZyBhbGdvcml0aG08L3Rp dGxlPjxzZWNvbmRhcnktdGl0bGU+RGlzdHJpYnV0ZWQgU3lzdGVtcyBPbmxpbmUsIElFRUU8L3Nl Y29uZGFyeS10aXRsZT48L3RpdGxlcz48cGVyaW9kaWNhbD48ZnVsbC10aXRsZT5EaXN0cmlidXRl ZCBTeXN0ZW1zIE9ubGluZSwgSUVFRTwvZnVsbC10aXRsZT48L3BlcmlvZGljYWw+PHZvbHVtZT41 PC92b2x1bWU+PG51bWJlcj4zPC9udW1iZXI+PGRhdGVzPjx5ZWFyPjIwMDQ8L3llYXI+PC9kYXRl cz48aXNibj4xNTQxLTQ5MjI8L2lzYm4+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0 ZT48QXV0aG9yPkNoZXVuZzwvQXV0aG9yPjxZZWFyPjE5OTY8L1llYXI+PFJlY051bT41NzwvUmVj TnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+NTc8L3JlYy1udW1iZXI+PGZvcmVpZ24ta2V5cz48a2V5 IGFwcD0iRU4iIGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJocGV6dm9zejV6cjAwenNmZHYiPjU3 PC9rZXk+PC9mb3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkpvdXJuYWwgQXJ0aWNsZSI+MTc8 L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5DaGV1bmcsIEQuVy48L2F1 dGhvcj48YXV0aG9yPk5nLCBWLlQuPC9hdXRob3I+PGF1dGhvcj5GdSwgQS5XLjwvYXV0aG9yPjxh dXRob3I+RnUsIFkuPC9hdXRob3I+PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRp dGxlPkVmZmljaWVudCBtaW5pbmcgb2YgYXNzb2NpYXRpb24gcnVsZXMgaW4gZGlzdHJpYnV0ZWQg ZGF0YWJhc2VzPC90aXRsZT48c2Vjb25kYXJ5LXRpdGxlPklFRUUgVHJhbnNhY3Rpb25zIG9uIEtu b3dsZWRnZSBhbmQgRGF0YSBFbmdpbmVlcmluZzwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxw ZXJpb2RpY2FsPjxmdWxsLXRpdGxlPklFRUUgVHJhbnNhY3Rpb25zIG9uIEtub3dsZWRnZSBhbmQg RGF0YSBFbmdpbmVlcmluZzwvZnVsbC10aXRsZT48L3BlcmlvZGljYWw+PHBhZ2VzPjkxMS05MjI8 L3BhZ2VzPjx2b2x1bWU+ODwvdm9sdW1lPjxudW1iZXI+NjwvbnVtYmVyPjxkYXRlcz48eWVhcj4x OTk2PC95ZWFyPjwvZGF0ZXM+PGlzYm4+MTA0MS00MzQ3PC9pc2JuPjx1cmxzPjwvdXJscz48L3Jl Y29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5LYXJndXB0YTwvQXV0aG9yPjxZZWFyPjE5OTk8L1ll YXI+PFJlY051bT42NTwvUmVjTnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+NjU8L3JlYy1udW1iZXI+ PGZvcmVpZ24ta2V5cz48a2V5IGFwcD0iRU4iIGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJocGV6 dm9zejV6cjAwenNmZHYiPjY1PC9rZXk+PC9mb3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkNv bmZlcmVuY2UgUHJvY2VlZGluZ3MiPjEwPC9yZWYtdHlwZT48Y29udHJpYnV0b3JzPjxhdXRob3Jz PjxhdXRob3I+S2FyZ3VwdGEsIEguPC9hdXRob3I+PGF1dGhvcj5QYXJrLCBCLkguPC9hdXRob3I+ PGF1dGhvcj5IZXJzaGJlcmdlciwgRC48L2F1dGhvcj48YXV0aG9yPkpvaG5zb24sIEUuPC9hdXRo b3I+PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPkNvbGxlY3RpdmUgZGF0 YSBtaW5pbmc6IEEgbmV3IHBlcnNwZWN0aXZlIHRvd2FyZCBkaXN0cmlidXRlZCBkYXRhIGFuYWx5 c2lzPC90aXRsZT48c2Vjb25kYXJ5LXRpdGxlPkFkdmFuY2VzIGluIERpc3RyaWJ1dGVkIGFuZCBQ YXJhbGxlbCBLbm93bGVkZ2UgRGlzY292ZXJ5PC9zZWNvbmRhcnktdGl0bGU+PC90aXRsZXM+PGRh dGVzPjx5ZWFyPjE5OTk8L3llYXI+PC9kYXRlcz48cHVibGlzaGVyPkNpdGVzZWVyPC9wdWJsaXNo ZXI+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0ZT48QXV0aG9yPkFncmF3YWw8L0F1 dGhvcj48WWVhcj4xOTk2PC9ZZWFyPjxSZWNOdW0+NzU8L1JlY051bT48cmVjb3JkPjxyZWMtbnVt YmVyPjc1PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1pZD0ic2Rw cHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij43NTwva2V5PjwvZm9yZWlnbi1rZXlz PjxyZWYtdHlwZSBuYW1lPSJKb3VybmFsIEFydGljbGUiPjE3PC9yZWYtdHlwZT48Y29udHJpYnV0 b3JzPjxhdXRob3JzPjxhdXRob3I+QWdyYXdhbCwgUi48L2F1dGhvcj48YXV0aG9yPlNoYWZlciwg Si5DLjwvYXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5QYXJh bGxlbCBtaW5pbmcgb2YgYXNzb2NpYXRpb24gcnVsZXM8L3RpdGxlPjxzZWNvbmRhcnktdGl0bGU+ S25vd2xlZGdlIGFuZCBEYXRhIEVuZ2luZWVyaW5nLCBJRUVFIFRyYW5zYWN0aW9ucyBvbjwvc2Vj b25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPktub3dsZWRnZSBh bmQgRGF0YSBFbmdpbmVlcmluZywgSUVFRSBUcmFuc2FjdGlvbnMgb248L2Z1bGwtdGl0bGU+PC9w ZXJpb2RpY2FsPjxwYWdlcz45NjItOTY5PC9wYWdlcz48dm9sdW1lPjg8L3ZvbHVtZT48bnVtYmVy PjY8L251bWJlcj48ZGF0ZXM+PHllYXI+MTk5NjwveWVhcj48L2RhdGVzPjxpc2JuPjEwNDEtNDM0 NzwvaXNibj48dXJscz48L3VybHM+PC9yZWNvcmQ+PC9DaXRlPjxDaXRlPjxBdXRob3I+SGFuPC9B dXRob3I+PFllYXI+MTk5NzwvWWVhcj48UmVjTnVtPjc2PC9SZWNOdW0+PHJlY29yZD48cmVjLW51 bWJlcj43NjwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIgZGItaWQ9InNk cHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+NzY8L2tleT48L2ZvcmVpZ24ta2V5 cz48cmVmLXR5cGUgbmFtZT0iQ29uZmVyZW5jZSBQcm9jZWVkaW5ncyI+MTA8L3JlZi10eXBlPjxj b250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5IYW4sIEUuSC48L2F1dGhvcj48YXV0aG9yPkth cnlwaXMsIEcuPC9hdXRob3I+PGF1dGhvcj5LdW1hciwgVi48L2F1dGhvcj48L2F1dGhvcnM+PC9j b250cmlidXRvcnM+PHRpdGxlcz48dGl0bGU+U2NhbGFibGUgcGFyYWxsZWwgZGF0YSBtaW5pbmcg Zm9yIGFzc29jaWF0aW9uIHJ1bGVzPC90aXRsZT48c2Vjb25kYXJ5LXRpdGxlPkFDTSBTSUdNT0Qg Q29uZmVyZW5jZTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjx2b2x1bWU+MjY8L3ZvbHVtZT48 bnVtYmVyPjI8L251bWJlcj48ZGF0ZXM+PHllYXI+MTk5NzwveWVhcj48L2RhdGVzPjxwdWJsaXNo ZXI+QUNNPC9wdWJsaXNoZXI+PGlzYm4+MDg5NzkxOTExNDwvaXNibj48dXJscz48L3VybHM+PC9y ZWNvcmQ+PC9DaXRlPjxDaXRlPjxBdXRob3I+TGk8L0F1dGhvcj48WWVhcj4yMDA1PC9ZZWFyPjxS ZWNOdW0+Nzc8L1JlY051bT48cmVjb3JkPjxyZWMtbnVtYmVyPjc3PC9yZWMtbnVtYmVyPjxmb3Jl aWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1 enIwMHpzZmR2Ij43Nzwva2V5PjwvZm9yZWlnbi1rZXlzPjxyZWYtdHlwZSBuYW1lPSJKb3VybmFs IEFydGljbGUiPjE3PC9yZWYtdHlwZT48Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+TGks IFMuPC9hdXRob3I+PGF1dGhvcj5XdSwgVC48L2F1dGhvcj48YXV0aG9yPlBvdHRlbmdlciwgVy5N LjwvYXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5EaXN0cmli dXRlZCBoaWdoZXIgb3JkZXIgYXNzb2NpYXRpb24gcnVsZSBtaW5pbmcgdXNpbmcgaW5mb3JtYXRp b24gZXh0cmFjdGVkIGZyb20gdGV4dHVhbCBkYXRhPC90aXRsZT48c2Vjb25kYXJ5LXRpdGxlPkFD TSBTSUdLREQgRXhwbG9yYXRpb25zIE5ld3NsZXR0ZXI8L3NlY29uZGFyeS10aXRsZT48L3RpdGxl cz48cGVyaW9kaWNhbD48ZnVsbC10aXRsZT5BQ00gU0lHS0REIEV4cGxvcmF0aW9ucyBOZXdzbGV0 dGVyPC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48cGFnZXM+MjYtMzU8L3BhZ2VzPjx2b2x1bWU+ Nzwvdm9sdW1lPjxudW1iZXI+MTwvbnVtYmVyPjxkYXRlcz48eWVhcj4yMDA1PC95ZWFyPjwvZGF0 ZXM+PGlzYm4+MTkzMS0wMTQ1PC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENp dGU+PEF1dGhvcj5PdGV5PC9BdXRob3I+PFllYXI+MjAwMzwvWWVhcj48UmVjTnVtPjc4PC9SZWNO dW0+PHJlY29yZD48cmVjLW51bWJlcj43ODwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkg YXBwPSJFTiIgZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+Nzg8 L2tleT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iQ29uZmVyZW5jZSBQcm9jZWVkaW5n cyI+MTA8L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5PdGV5LCBNLkUu PC9hdXRob3I+PGF1dGhvcj5XYW5nLCBDLjwvYXV0aG9yPjxhdXRob3I+UGFydGhhc2FyYXRoeSwg Uy48L2F1dGhvcj48YXV0aG9yPlZlbG9zbywgQS48L2F1dGhvcj48YXV0aG9yPk1laXJhIEpyLCBX LjwvYXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5NaW5pbmcg ZnJlcXVlbnQgaXRlbXNldHMgaW4gZGlzdHJpYnV0ZWQgYW5kIGR5bmFtaWMgZGF0YWJhc2VzPC90 aXRsZT48c2Vjb25kYXJ5LXRpdGxlPklDRE0gQ29uZmVyZW5jZTwvc2Vjb25kYXJ5LXRpdGxlPjwv dGl0bGVzPjxwYWdlcz42MTctNjIwPC9wYWdlcz48ZGF0ZXM+PHllYXI+MjAwMzwveWVhcj48L2Rh dGVzPjxwdWJsaXNoZXI+SUVFRTwvcHVibGlzaGVyPjxpc2JuPjA3Njk1MTk3ODQ8L2lzYm4+PHVy bHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0ZT48QXV0aG9yPld1PC9BdXRob3I+PFllYXI+ MjAwMzwvWWVhcj48UmVjTnVtPjc5PC9SZWNOdW0+PHJlY29yZD48cmVjLW51bWJlcj43OTwvcmVj LW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIgZGItaWQ9InNkcHB6MDByM2YwdmZn ZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+Nzk8L2tleT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUg bmFtZT0iSm91cm5hbCBBcnRpY2xlIj4xNzwvcmVmLXR5cGU+PGNvbnRyaWJ1dG9ycz48YXV0aG9y cz48YXV0aG9yPld1LCBYLjwvYXV0aG9yPjxhdXRob3I+WmhhbmcsIFMuPC9hdXRob3I+PC9hdXRo b3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPlN5bnRoZXNpemluZyBoaWdoLWZyZXF1 ZW5jeSBydWxlcyBmcm9tIGRpZmZlcmVudCBkYXRhIHNvdXJjZXM8L3RpdGxlPjxzZWNvbmRhcnkt dGl0bGU+S25vd2xlZGdlIGFuZCBEYXRhIEVuZ2luZWVyaW5nLCBJRUVFIFRyYW5zYWN0aW9ucyBv bjwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPktub3ds ZWRnZSBhbmQgRGF0YSBFbmdpbmVlcmluZywgSUVFRSBUcmFuc2FjdGlvbnMgb248L2Z1bGwtdGl0 bGU+PC9wZXJpb2RpY2FsPjxwYWdlcz4zNTMtMzY3PC9wYWdlcz48dm9sdW1lPjE1PC92b2x1bWU+ PG51bWJlcj4yPC9udW1iZXI+PGRhdGVzPjx5ZWFyPjIwMDM8L3llYXI+PC9kYXRlcz48aXNibj4x MDQxLTQzNDc8L2lzYm4+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0ZT48QXV0aG9y Plpha2k8L0F1dGhvcj48WWVhcj4xOTk5PC9ZZWFyPjxSZWNOdW0+ODA8L1JlY051bT48cmVjb3Jk PjxyZWMtbnVtYmVyPjgwPC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBk Yi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij44MDwva2V5PjwvZm9y ZWlnbi1rZXlzPjxyZWYtdHlwZSBuYW1lPSJKb3VybmFsIEFydGljbGUiPjE3PC9yZWYtdHlwZT48 Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+WmFraSwgTS5KLjwvYXV0aG9yPjwvYXV0aG9y cz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5QYXJhbGxlbCBhbmQgZGlzdHJpYnV0ZWQg YXNzb2NpYXRpb24gbWluaW5nOiBBIHN1cnZleTwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT5Db25j dXJyZW5jeSwgSUVFRTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxwZXJpb2RpY2FsPjxmdWxs LXRpdGxlPkNvbmN1cnJlbmN5LCBJRUVFPC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48cGFnZXM+ MTQtMjU8L3BhZ2VzPjx2b2x1bWU+Nzwvdm9sdW1lPjxudW1iZXI+NDwvbnVtYmVyPjxkYXRlcz48 eWVhcj4xOTk5PC95ZWFyPjwvZGF0ZXM+PGlzYm4+MTA5Mi0zMDYzPC9pc2JuPjx1cmxzPjwvdXJs cz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5aaGFuZzwvQXV0aG9yPjxZZWFyPjIwMDY8 L1llYXI+PFJlY051bT44MTwvUmVjTnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+ODE8L3JlYy1udW1i ZXI+PGZvcmVpZ24ta2V5cz48a2V5IGFwcD0iRU4iIGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJo cGV6dm9zejV6cjAwenNmZHYiPjgxPC9rZXk+PC9mb3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9 IkpvdXJuYWwgQXJ0aWNsZSI+MTc8L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1 dGhvcj5aaGFuZywgUy48L2F1dGhvcj48YXV0aG9yPlpha2ksIE0uSi48L2F1dGhvcj48L2F1dGhv cnM+PC9jb250cmlidXRvcnM+PHRpdGxlcz48dGl0bGU+TWluaW5nIG11bHRpcGxlIGRhdGEgc291 cmNlczogbG9jYWwgcGF0dGVybiBhbmFseXNpczwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT5EYXRh IE1pbmluZyBhbmQgS25vd2xlZGdlIERpc2NvdmVyeTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVz PjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPkRhdGEgTWluaW5nIGFuZCBLbm93bGVkZ2UgRGlzY292 ZXJ5PC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48cGFnZXM+MTIxLTEyNTwvcGFnZXM+PHZvbHVt ZT4xMjwvdm9sdW1lPjxudW1iZXI+MjwvbnVtYmVyPjxkYXRlcz48eWVhcj4yMDA2PC95ZWFyPjwv ZGF0ZXM+PGlzYm4+MTM4NC01ODEwPC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+ PC9FbmROb3RlPn== ADDIN EN.CITE.DATA [42, 43, 50, 56, 61-67] و سه سازوکار توزیع شمارشی، توزیع داده‌ها، و توزیع کاندید ارائه شده است. ADDIN EN.CITE Kargupta199965[56]656510Kargupta, H.Park, B.H.Hershberger, D.Johnson, E.Collective data mining: A new perspective toward distributed data analysisAdvances in Distributed and Parallel Knowledge Discovery1999Citeseer[56] در تمام این فعالیت‌های پژوهشی، در درجه‌ی اول، تمرکز بر روی کاوش پایگاه داده‌های بزرگ، یا جریان‌های داده متوالی (به عبارتی کاوش الگوهای ال)، یا یکپارچه کردن الگوهای کشف شده از پایگاه داده‌های مجزا در قالب یک دانش جدید (به عبارتی کاوش الگوهای جی) بوده است. همچنین برخی از معماری‌های سیستم به منظور کشف الگوهای پرتکرار از مجموعه داده‌های در مقیاس ترابایت که بر روی سیستم‌های خوشه‌ای اجرا می‌شوند ADDIN EN.CITE Buehrer200782[68]828210Buehrer, G.Parthasarathy, S.Tatikonda, S.Kurc, T.Saltz, J.Toward terabyte pattern mining: an architecture-conscious solution12th ACM SIGPLAN symposium on Principles and practice of parallel programming2-122007ACM1595936025[68]، طراحی شده‌اند که از داده ساختارهای فشرده (مشابه درخت FP ADDIN EN.CITE Han200083[69]838310Han, J.Pei, J.Yin, Y.Mining frequent patterns without candidate generationACM SIGMOD Conf.1-12292000ACM1581132174[69])، و متدهای رمزنگاری مختصر استفاده می‌کنند. هرچند، این چارچوب‌ها و راه حل‌ها دامنه‌ی کاری خود را به حجم داده محدود می‌کنند، اما، هیچ سازوکاری برای مطالعه‌ی مقایسه‌ای بر روی پایگاه داده‌های متعدد و کشف روابط بین الگوها ندارند. هنگامی که داده‌ها در چندین منبع داده (متمرکز یا توزیع شده) وجود دارند، یکی از مهم‌ترین کارها، بررسی شباهت بین پایگاه داده‌ها برای کشف اطلاعات ساختاری بین آن‌ها به منظور خوشه‌بندی ADDIN EN.CITE Zhang199684[70]848410Zhang, T.Ramakrishnan, R.Livny, M.BIRCH: an efficient data clustering method for very large databasesACM SIGMOD Conference103-114251996ACM0897917944[70] یا طبقه‌بندی ADDIN EN.CITE Zhu200985[71]858510Zhu, X.Jin, R.Multiple information source cooperative learning21st International Joint Conference on Artificial Intelligence1369–13762009[71] است. آقایان parthasarathy ADDIN EN.CITE Parthasarathy200086[72]868617Parthasarathy, S.Ogihara, M.Exploiting dataset similarity for distributed miningParallel and Distributed ProcessingParallel and Distributed Processing399-4062000[72] و لی ADDIN EN.CITE Li200361[47]616117Li, T.Ogihara, M.Zhu, S.Association-based similarity testing and its applicationsIntelligent Data AnalysisIntelligent Data Analysis209-2327320031088-467X[47] مشکل ارزیابی شباهت پایگاه داده با مقایسه قوانین انجمنی از پایگاه داده‌های مختلف، به عنوان مثال، قوانین یکسان کشف شده از پایگاه داده‌های مختلف، و تعداد تکرار نمونه‌هایی که از آن قانون تبعیت می‌کنند، را مورد بررسی و مطالعه قرار دادند. اهمیت یافتن اختلافات بین پایگاه داده‌ها، مسئله‌ای است که توسط محققان بسیاری مورد مطالعه قرار گرفته است PEVuZE5vdGU+PENpdGU+PEF1dGhvcj5CYXk8L0F1dGhvcj48WWVhcj4yMDAxPC9ZZWFyPjxSZWNO dW0+ODc8L1JlY051bT48RGlzcGxheVRleHQ+WzQ4LCA3My03NV08L0Rpc3BsYXlUZXh0PjxyZWNv cmQ+PHJlYy1udW1iZXI+ODc8L3JlYy1udW1iZXI+PGZvcmVpZ24ta2V5cz48a2V5IGFwcD0iRU4i IGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJocGV6dm9zejV6cjAwenNmZHYiPjg3PC9rZXk+PC9m b3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkpvdXJuYWwgQXJ0aWNsZSI+MTc8L3JlZi10eXBl Pjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5CYXksIFMuRC48L2F1dGhvcj48YXV0aG9y PlBhenphbmksIE0uSi48L2F1dGhvcj48L2F1dGhvcnM+PC9jb250cmlidXRvcnM+PHRpdGxlcz48 dGl0bGU+RGV0ZWN0aW5nIGdyb3VwIGRpZmZlcmVuY2VzOiBNaW5pbmcgY29udHJhc3Qgc2V0czwv dGl0bGU+PHNlY29uZGFyeS10aXRsZT5EYXRhIE1pbmluZyBhbmQgS25vd2xlZGdlIERpc2NvdmVy eTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPkRhdGEg TWluaW5nIGFuZCBLbm93bGVkZ2UgRGlzY292ZXJ5PC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48 cGFnZXM+MjEzLTI0NjwvcGFnZXM+PHZvbHVtZT41PC92b2x1bWU+PG51bWJlcj4zPC9udW1iZXI+ PGRhdGVzPjx5ZWFyPjIwMDE8L3llYXI+PC9kYXRlcz48aXNibj4xMzg0LTU4MTA8L2lzYm4+PHVy bHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0ZT48QXV0aG9yPkRvbmc8L0F1dGhvcj48WWVh cj4xOTk5PC9ZZWFyPjxSZWNOdW0+ODg8L1JlY051bT48cmVjb3JkPjxyZWMtbnVtYmVyPjg4PC9y ZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1pZD0ic2RwcHowMHIzZjB2 ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij44ODwva2V5PjwvZm9yZWlnbi1rZXlzPjxyZWYtdHlw ZSBuYW1lPSJDb25mZXJlbmNlIFByb2NlZWRpbmdzIj4xMDwvcmVmLXR5cGU+PGNvbnRyaWJ1dG9y cz48YXV0aG9ycz48YXV0aG9yPkRvbmcsIEcuPC9hdXRob3I+PGF1dGhvcj5MaSwgSi48L2F1dGhv cj48L2F1dGhvcnM+PC9jb250cmlidXRvcnM+PHRpdGxlcz48dGl0bGU+RWZmaWNpZW50IG1pbmlu ZyBvZiBlbWVyZ2luZyBwYXR0ZXJuczogRGlzY292ZXJpbmcgdHJlbmRzIGFuZCBkaWZmZXJlbmNl czwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT41dGggQUNNIFNJR0tERCBDb25mZXJlbmNlPC9zZWNv bmRhcnktdGl0bGU+PC90aXRsZXM+PHBhZ2VzPjQzLTUyPC9wYWdlcz48ZGF0ZXM+PHllYXI+MTk5 OTwveWVhcj48L2RhdGVzPjxwdWJsaXNoZXI+QUNNPC9wdWJsaXNoZXI+PGlzYm4+MTU4MTEzMTQz NzwvaXNibj48dXJscz48L3VybHM+PC9yZWNvcmQ+PC9DaXRlPjxDaXRlPjxBdXRob3I+V2ViYjwv QXV0aG9yPjxZZWFyPjIwMDM8L1llYXI+PFJlY051bT42MjwvUmVjTnVtPjxyZWNvcmQ+PHJlYy1u dW1iZXI+NjI8L3JlYy1udW1iZXI+PGZvcmVpZ24ta2V5cz48a2V5IGFwcD0iRU4iIGRiLWlkPSJz ZHBwejAwcjNmMHZmZ2VwNTJocGV6dm9zejV6cjAwenNmZHYiPjYyPC9rZXk+PC9mb3JlaWduLWtl eXM+PHJlZi10eXBlIG5hbWU9IkNvbmZlcmVuY2UgUHJvY2VlZGluZ3MiPjEwPC9yZWYtdHlwZT48 Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+V2ViYiwgRy5JLjwvYXV0aG9yPjxhdXRob3I+ QnV0bGVyLCBTLjwvYXV0aG9yPjxhdXRob3I+TmV3bGFuZHMsIEQuPC9hdXRob3I+PC9hdXRob3Jz PjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPk9uIGRldGVjdGluZyBkaWZmZXJlbmNlcyBi ZXR3ZWVuIGdyb3VwczwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT45dGggQUNNIFNJR0tERCBDb25m ZXJlbmNlPC9zZWNvbmRhcnktdGl0bGU+PC90aXRsZXM+PHBhZ2VzPjI1Ni0yNjU8L3BhZ2VzPjxk YXRlcz48eWVhcj4yMDAzPC95ZWFyPjwvZGF0ZXM+PHB1Ymxpc2hlcj5BQ008L3B1Ymxpc2hlcj48 aXNibj4xNTgxMTM3MzcwPC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+ PEF1dGhvcj5ZYW5nPC9BdXRob3I+PFllYXI+MjAwODwvWWVhcj48UmVjTnVtPjg5PC9SZWNOdW0+ PHJlY29yZD48cmVjLW51bWJlcj44OTwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBw PSJFTiIgZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+ODk8L2tl eT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iSm91cm5hbCBBcnRpY2xlIj4xNzwvcmVm LXR5cGU+PGNvbnRyaWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPllhbmcsIFkuPC9hdXRob3I+PGF1 dGhvcj5XdSwgWC48L2F1dGhvcj48YXV0aG9yPlpodSwgWC48L2F1dGhvcj48L2F1dGhvcnM+PC9j b250cmlidXRvcnM+PHRpdGxlcz48dGl0bGU+Q29uY2VwdHVhbCBlcXVpdmFsZW5jZSBmb3IgY29u dHJhc3QgbWluaW5nIGluIGNsYXNzaWZpY2F0aW9uIGxlYXJuaW5nPC90aXRsZT48c2Vjb25kYXJ5 LXRpdGxlPkRhdGEgJmFtcDsgS25vd2xlZGdlIEVuZ2luZWVyaW5nPC9zZWNvbmRhcnktdGl0bGU+ PC90aXRsZXM+PHBlcmlvZGljYWw+PGZ1bGwtdGl0bGU+RGF0YSAmYW1wOyBLbm93bGVkZ2UgRW5n aW5lZXJpbmc8L2Z1bGwtdGl0bGU+PC9wZXJpb2RpY2FsPjxwYWdlcz40MTMtNDI5PC9wYWdlcz48 dm9sdW1lPjY3PC92b2x1bWU+PG51bWJlcj4zPC9udW1iZXI+PGRhdGVzPjx5ZWFyPjIwMDg8L3ll YXI+PC9kYXRlcz48aXNibj4wMTY5LTAyM1g8L2lzYm4+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwv Q2l0ZT48L0VuZE5vdGU+ ADDIN EN.CITE PEVuZE5vdGU+PENpdGU+PEF1dGhvcj5CYXk8L0F1dGhvcj48WWVhcj4yMDAxPC9ZZWFyPjxSZWNO dW0+ODc8L1JlY051bT48RGlzcGxheVRleHQ+WzQ4LCA3My03NV08L0Rpc3BsYXlUZXh0PjxyZWNv cmQ+PHJlYy1udW1iZXI+ODc8L3JlYy1udW1iZXI+PGZvcmVpZ24ta2V5cz48a2V5IGFwcD0iRU4i IGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJocGV6dm9zejV6cjAwenNmZHYiPjg3PC9rZXk+PC9m b3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkpvdXJuYWwgQXJ0aWNsZSI+MTc8L3JlZi10eXBl Pjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5CYXksIFMuRC48L2F1dGhvcj48YXV0aG9y PlBhenphbmksIE0uSi48L2F1dGhvcj48L2F1dGhvcnM+PC9jb250cmlidXRvcnM+PHRpdGxlcz48 dGl0bGU+RGV0ZWN0aW5nIGdyb3VwIGRpZmZlcmVuY2VzOiBNaW5pbmcgY29udHJhc3Qgc2V0czwv dGl0bGU+PHNlY29uZGFyeS10aXRsZT5EYXRhIE1pbmluZyBhbmQgS25vd2xlZGdlIERpc2NvdmVy eTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPkRhdGEg TWluaW5nIGFuZCBLbm93bGVkZ2UgRGlzY292ZXJ5PC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48 cGFnZXM+MjEzLTI0NjwvcGFnZXM+PHZvbHVtZT41PC92b2x1bWU+PG51bWJlcj4zPC9udW1iZXI+ PGRhdGVzPjx5ZWFyPjIwMDE8L3llYXI+PC9kYXRlcz48aXNibj4xMzg0LTU4MTA8L2lzYm4+PHVy bHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0ZT48QXV0aG9yPkRvbmc8L0F1dGhvcj48WWVh cj4xOTk5PC9ZZWFyPjxSZWNOdW0+ODg8L1JlY051bT48cmVjb3JkPjxyZWMtbnVtYmVyPjg4PC9y ZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1pZD0ic2RwcHowMHIzZjB2 ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij44ODwva2V5PjwvZm9yZWlnbi1rZXlzPjxyZWYtdHlw ZSBuYW1lPSJDb25mZXJlbmNlIFByb2NlZWRpbmdzIj4xMDwvcmVmLXR5cGU+PGNvbnRyaWJ1dG9y cz48YXV0aG9ycz48YXV0aG9yPkRvbmcsIEcuPC9hdXRob3I+PGF1dGhvcj5MaSwgSi48L2F1dGhv cj48L2F1dGhvcnM+PC9jb250cmlidXRvcnM+PHRpdGxlcz48dGl0bGU+RWZmaWNpZW50IG1pbmlu ZyBvZiBlbWVyZ2luZyBwYXR0ZXJuczogRGlzY292ZXJpbmcgdHJlbmRzIGFuZCBkaWZmZXJlbmNl czwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT41dGggQUNNIFNJR0tERCBDb25mZXJlbmNlPC9zZWNv bmRhcnktdGl0bGU+PC90aXRsZXM+PHBhZ2VzPjQzLTUyPC9wYWdlcz48ZGF0ZXM+PHllYXI+MTk5 OTwveWVhcj48L2RhdGVzPjxwdWJsaXNoZXI+QUNNPC9wdWJsaXNoZXI+PGlzYm4+MTU4MTEzMTQz NzwvaXNibj48dXJscz48L3VybHM+PC9yZWNvcmQ+PC9DaXRlPjxDaXRlPjxBdXRob3I+V2ViYjwv QXV0aG9yPjxZZWFyPjIwMDM8L1llYXI+PFJlY051bT42MjwvUmVjTnVtPjxyZWNvcmQ+PHJlYy1u dW1iZXI+NjI8L3JlYy1udW1iZXI+PGZvcmVpZ24ta2V5cz48a2V5IGFwcD0iRU4iIGRiLWlkPSJz ZHBwejAwcjNmMHZmZ2VwNTJocGV6dm9zejV6cjAwenNmZHYiPjYyPC9rZXk+PC9mb3JlaWduLWtl eXM+PHJlZi10eXBlIG5hbWU9IkNvbmZlcmVuY2UgUHJvY2VlZGluZ3MiPjEwPC9yZWYtdHlwZT48 Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+V2ViYiwgRy5JLjwvYXV0aG9yPjxhdXRob3I+ QnV0bGVyLCBTLjwvYXV0aG9yPjxhdXRob3I+TmV3bGFuZHMsIEQuPC9hdXRob3I+PC9hdXRob3Jz PjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPk9uIGRldGVjdGluZyBkaWZmZXJlbmNlcyBi ZXR3ZWVuIGdyb3VwczwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT45dGggQUNNIFNJR0tERCBDb25m ZXJlbmNlPC9zZWNvbmRhcnktdGl0bGU+PC90aXRsZXM+PHBhZ2VzPjI1Ni0yNjU8L3BhZ2VzPjxk YXRlcz48eWVhcj4yMDAzPC95ZWFyPjwvZGF0ZXM+PHB1Ymxpc2hlcj5BQ008L3B1Ymxpc2hlcj48 aXNibj4xNTgxMTM3MzcwPC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+ PEF1dGhvcj5ZYW5nPC9BdXRob3I+PFllYXI+MjAwODwvWWVhcj48UmVjTnVtPjg5PC9SZWNOdW0+ PHJlY29yZD48cmVjLW51bWJlcj44OTwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBw PSJFTiIgZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+ODk8L2tl eT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iSm91cm5hbCBBcnRpY2xlIj4xNzwvcmVm LXR5cGU+PGNvbnRyaWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPllhbmcsIFkuPC9hdXRob3I+PGF1 dGhvcj5XdSwgWC48L2F1dGhvcj48YXV0aG9yPlpodSwgWC48L2F1dGhvcj48L2F1dGhvcnM+PC9j b250cmlidXRvcnM+PHRpdGxlcz48dGl0bGU+Q29uY2VwdHVhbCBlcXVpdmFsZW5jZSBmb3IgY29u dHJhc3QgbWluaW5nIGluIGNsYXNzaWZpY2F0aW9uIGxlYXJuaW5nPC90aXRsZT48c2Vjb25kYXJ5 LXRpdGxlPkRhdGEgJmFtcDsgS25vd2xlZGdlIEVuZ2luZWVyaW5nPC9zZWNvbmRhcnktdGl0bGU+ PC90aXRsZXM+PHBlcmlvZGljYWw+PGZ1bGwtdGl0bGU+RGF0YSAmYW1wOyBLbm93bGVkZ2UgRW5n aW5lZXJpbmc8L2Z1bGwtdGl0bGU+PC9wZXJpb2RpY2FsPjxwYWdlcz40MTMtNDI5PC9wYWdlcz48 dm9sdW1lPjY3PC92b2x1bWU+PG51bWJlcj4zPC9udW1iZXI+PGRhdGVzPjx5ZWFyPjIwMDg8L3ll YXI+PC9kYXRlcz48aXNibj4wMTY5LTAyM1g8L2lzYm4+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwv Q2l0ZT48L0VuZE5vdGU+ ADDIN EN.CITE.DATA [48, 73-75]، و اکثر روش‌ها بر روی مقایسه‌ی یک جفت پایگاه داده در یک زمان تمرکز دارند. وب و همکارانش، یک روش بر پایه‌ی قانون، به منظور کشف مجموعه تضادهای بین دو پایگاه داده پیشنهاد دادند. ADDIN EN.CITE Webb200362[48]626210Webb, G.I.Butler, S.Newlands, D.On detecting differences between groups9th ACM SIGKDD Conference256-2652003ACM1581137370[48] Xu و همکارانش، روشی برای کشف انتظارات نسبی بین محصولات از دیدگاه مشتریان پیشنهاد دادند. ADDIN EN.CITE Xu201190[76]909017Xu, K.Liao, S.S.Li, J.Song, Y.Mining comparative opinions from customer reviews for Competitive IntelligenceDecision support systemsDecision support systems743-75450420110167-9236[76] در مرجع ADDIN EN.CITE Yang200889[75]898917Yang, Y.Wu, X.Zhu, X.Conceptual equivalence for contrast mining in classification learningData & Knowledge EngineeringData & Knowledge Engineering413-42967320080169-023X[75]، روش‌هایی برای ارزیابی هم‌ارزی مفهومی بین دو پایگاه داده ارائه شده است. جی و همکارانش، روش‌هایی برای کشف الگوهای متوالی با حداقل تمایز بین دو مجموعه داده، پیشنهاد دادند ADDIN EN.CITE Ji200591[77]919110Ji, X.Bailey, J.Dong, G.Mining minimal distinguishing subsequence patterns with gap constraintsICDM Conference8 pp.2005IEEE0769522785[77] که در آن الگوها به صورت "پرتکرار در پایگاه داده‌ی A و به طور قابل توجهی کم تکرار در پایگاه داده‌ی B"، به عبارت دیگر، {(A≥α) & (B≤β)} وجود دارند. تمام این روش‌ها بر یافتن اختلافات (در قالب اقلام داده و یا الگوها) بین دو مجموعه داده، تمرکز دارند، اما نمی‌توانند از جستجوهای پیچیده پشتیبانی کنند. تحقیقات بسیاری در حوزه جستجوی پایگاه داده، و پشتیبانی از عملیات داده کاوی PEVuZE5vdGU+PENpdGU+PEF1dGhvcj5KaW48L0F1dGhvcj48WWVhcj4yMDA2PC9ZZWFyPjxSZWNO dW0+OTI8L1JlY051bT48RGlzcGxheVRleHQ+Wzc4LTgxXTwvRGlzcGxheVRleHQ+PHJlY29yZD48 cmVjLW51bWJlcj45MjwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIgZGIt aWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+OTI8L2tleT48L2ZvcmVp Z24ta2V5cz48cmVmLXR5cGUgbmFtZT0iQ29uZmVyZW5jZSBQcm9jZWVkaW5ncyI+MTA8L3JlZi10 eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5KaW4sIFIuPC9hdXRob3I+PGF1dGhv cj5BZ3Jhd2FsLCBHLjwvYXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0 aXRsZT5TeXN0ZW1hdGljIGFwcHJvYWNoIGZvciBvcHRpbWl6aW5nIGNvbXBsZXggbWluaW5nIHRh c2tzIG9uIG11bHRpcGxlIGRhdGFiYXNlczwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT5JQ0RFIENv bmZlcmVuY2U8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGFnZXM+MTctMTc8L3BhZ2VzPjxk YXRlcz48eWVhcj4yMDA2PC95ZWFyPjwvZGF0ZXM+PHB1Ymxpc2hlcj5JRUVFPC9wdWJsaXNoZXI+ PGlzYm4+MDc2OTUyNTcwOTwvaXNibj48dXJscz48L3VybHM+PC9yZWNvcmQ+PC9DaXRlPjxDaXRl PjxBdXRob3I+QnVjaWzEgzwvQXV0aG9yPjxZZWFyPjIwMDM8L1llYXI+PFJlY051bT45MzwvUmVj TnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+OTM8L3JlYy1udW1iZXI+PGZvcmVpZ24ta2V5cz48a2V5 IGFwcD0iRU4iIGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJocGV6dm9zejV6cjAwenNmZHYiPjkz PC9rZXk+PC9mb3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkpvdXJuYWwgQXJ0aWNsZSI+MTc8 L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5CdWNpbMSDLCBDLjwvYXV0 aG9yPjxhdXRob3I+R2VocmtlLCBKLjwvYXV0aG9yPjxhdXRob3I+S2lmZXIsIEQuPC9hdXRob3I+ PGF1dGhvcj5XaGl0ZSwgVy48L2F1dGhvcj48L2F1dGhvcnM+PC9jb250cmlidXRvcnM+PHRpdGxl cz48dGl0bGU+RHVhbG1pbmVyOiBBIGR1YWwtcHJ1bmluZyBhbGdvcml0aG0gZm9yIGl0ZW1zZXRz IHdpdGggY29uc3RyYWludHM8L3RpdGxlPjxzZWNvbmRhcnktdGl0bGU+RGF0YSBNaW5pbmcgYW5k IEtub3dsZWRnZSBEaXNjb3Zlcnk8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGVyaW9kaWNh bD48ZnVsbC10aXRsZT5EYXRhIE1pbmluZyBhbmQgS25vd2xlZGdlIERpc2NvdmVyeTwvZnVsbC10 aXRsZT48L3BlcmlvZGljYWw+PHBhZ2VzPjI0MS0yNzI8L3BhZ2VzPjx2b2x1bWU+Nzwvdm9sdW1l PjxudW1iZXI+MzwvbnVtYmVyPjxkYXRlcz48eWVhcj4yMDAzPC95ZWFyPjwvZGF0ZXM+PGlzYm4+ MTM4NC01ODEwPC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhv cj5Uc3VyPC9BdXRob3I+PFllYXI+MTk5ODwvWWVhcj48UmVjTnVtPjk0PC9SZWNOdW0+PHJlY29y ZD48cmVjLW51bWJlcj45NDwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIg ZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+OTQ8L2tleT48L2Zv cmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iSm91cm5hbCBBcnRpY2xlIj4xNzwvcmVmLXR5cGU+ PGNvbnRyaWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPlRzdXIsIEQuPC9hdXRob3I+PGF1dGhvcj5V bGxtYW4sIEouRC48L2F1dGhvcj48YXV0aG9yPkFiaXRlYm91bCwgUy48L2F1dGhvcj48YXV0aG9y PkNsaWZ0b24sIEMuPC9hdXRob3I+PGF1dGhvcj5Nb3R3YW5pLCBSLjwvYXV0aG9yPjxhdXRob3I+ TmVzdG9yb3YsIFMuPC9hdXRob3I+PGF1dGhvcj5Sb3NlbnRoYWwsIEEuPC9hdXRob3I+PC9hdXRo b3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPlF1ZXJ5IGZsb2NrczogYSBnZW5lcmFs aXphdGlvbiBvZiBhc3NvY2lhdGlvbi1ydWxlIG1pbmluZzwvdGl0bGU+PHNlY29uZGFyeS10aXRs ZT5BQ00tU0lHTU9EIENvbmZlcmVuY2U8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGVyaW9k aWNhbD48ZnVsbC10aXRsZT5BQ00tU0lHTU9EIENvbmZlcmVuY2U8L2Z1bGwtdGl0bGU+PC9wZXJp b2RpY2FsPjxwYWdlcz4xLTEyPC9wYWdlcz48dm9sdW1lPjI3PC92b2x1bWU+PG51bWJlcj4yPC9u dW1iZXI+PGRhdGVzPjx5ZWFyPjE5OTg8L3llYXI+PC9kYXRlcz48aXNibj4wODk3OTE5OTU1PC9p c2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5aaHU8L0F1dGhv cj48WWVhcj4yMDA3PC9ZZWFyPjxSZWNOdW0+OTU8L1JlY051bT48cmVjb3JkPjxyZWMtbnVtYmVy Pjk1PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1pZD0ic2RwcHow MHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij45NTwva2V5PjwvZm9yZWlnbi1rZXlzPjxy ZWYtdHlwZSBuYW1lPSJDb25mZXJlbmNlIFByb2NlZWRpbmdzIj4xMDwvcmVmLXR5cGU+PGNvbnRy aWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPlpodSwgWC48L2F1dGhvcj48YXV0aG9yPld1LCBYLjwv YXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5EaXNjb3Zlcmlu ZyByZWxhdGlvbmFsIHBhdHRlcm5zIGFjcm9zcyBtdWx0aXBsZSBkYXRhYmFzZXM8L3RpdGxlPjxz ZWNvbmRhcnktdGl0bGU+SUNERSBDb25mZXJlbmNlPC9zZWNvbmRhcnktdGl0bGU+PC90aXRsZXM+ PHBhZ2VzPjcyNi03MzU8L3BhZ2VzPjxkYXRlcz48eWVhcj4yMDA3PC95ZWFyPjwvZGF0ZXM+PHB1 Ymxpc2hlcj5JRUVFPC9wdWJsaXNoZXI+PGlzYm4+MTQyNDQwODAzMjwvaXNibj48dXJscz48L3Vy bHM+PC9yZWNvcmQ+PC9DaXRlPjwvRW5kTm90ZT5= ADDIN EN.CITE PEVuZE5vdGU+PENpdGU+PEF1dGhvcj5KaW48L0F1dGhvcj48WWVhcj4yMDA2PC9ZZWFyPjxSZWNO dW0+OTI8L1JlY051bT48RGlzcGxheVRleHQ+Wzc4LTgxXTwvRGlzcGxheVRleHQ+PHJlY29yZD48 cmVjLW51bWJlcj45MjwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIgZGIt aWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+OTI8L2tleT48L2ZvcmVp Z24ta2V5cz48cmVmLXR5cGUgbmFtZT0iQ29uZmVyZW5jZSBQcm9jZWVkaW5ncyI+MTA8L3JlZi10 eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5KaW4sIFIuPC9hdXRob3I+PGF1dGhv cj5BZ3Jhd2FsLCBHLjwvYXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0 aXRsZT5TeXN0ZW1hdGljIGFwcHJvYWNoIGZvciBvcHRpbWl6aW5nIGNvbXBsZXggbWluaW5nIHRh c2tzIG9uIG11bHRpcGxlIGRhdGFiYXNlczwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT5JQ0RFIENv bmZlcmVuY2U8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGFnZXM+MTctMTc8L3BhZ2VzPjxk YXRlcz48eWVhcj4yMDA2PC95ZWFyPjwvZGF0ZXM+PHB1Ymxpc2hlcj5JRUVFPC9wdWJsaXNoZXI+ PGlzYm4+MDc2OTUyNTcwOTwvaXNibj48dXJscz48L3VybHM+PC9yZWNvcmQ+PC9DaXRlPjxDaXRl PjxBdXRob3I+QnVjaWzEgzwvQXV0aG9yPjxZZWFyPjIwMDM8L1llYXI+PFJlY051bT45MzwvUmVj TnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+OTM8L3JlYy1udW1iZXI+PGZvcmVpZ24ta2V5cz48a2V5 IGFwcD0iRU4iIGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJocGV6dm9zejV6cjAwenNmZHYiPjkz PC9rZXk+PC9mb3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkpvdXJuYWwgQXJ0aWNsZSI+MTc8 L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5CdWNpbMSDLCBDLjwvYXV0 aG9yPjxhdXRob3I+R2VocmtlLCBKLjwvYXV0aG9yPjxhdXRob3I+S2lmZXIsIEQuPC9hdXRob3I+ PGF1dGhvcj5XaGl0ZSwgVy48L2F1dGhvcj48L2F1dGhvcnM+PC9jb250cmlidXRvcnM+PHRpdGxl cz48dGl0bGU+RHVhbG1pbmVyOiBBIGR1YWwtcHJ1bmluZyBhbGdvcml0aG0gZm9yIGl0ZW1zZXRz IHdpdGggY29uc3RyYWludHM8L3RpdGxlPjxzZWNvbmRhcnktdGl0bGU+RGF0YSBNaW5pbmcgYW5k IEtub3dsZWRnZSBEaXNjb3Zlcnk8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGVyaW9kaWNh bD48ZnVsbC10aXRsZT5EYXRhIE1pbmluZyBhbmQgS25vd2xlZGdlIERpc2NvdmVyeTwvZnVsbC10 aXRsZT48L3BlcmlvZGljYWw+PHBhZ2VzPjI0MS0yNzI8L3BhZ2VzPjx2b2x1bWU+Nzwvdm9sdW1l PjxudW1iZXI+MzwvbnVtYmVyPjxkYXRlcz48eWVhcj4yMDAzPC95ZWFyPjwvZGF0ZXM+PGlzYm4+ MTM4NC01ODEwPC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhv cj5Uc3VyPC9BdXRob3I+PFllYXI+MTk5ODwvWWVhcj48UmVjTnVtPjk0PC9SZWNOdW0+PHJlY29y ZD48cmVjLW51bWJlcj45NDwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIg ZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+OTQ8L2tleT48L2Zv cmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iSm91cm5hbCBBcnRpY2xlIj4xNzwvcmVmLXR5cGU+ PGNvbnRyaWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPlRzdXIsIEQuPC9hdXRob3I+PGF1dGhvcj5V bGxtYW4sIEouRC48L2F1dGhvcj48YXV0aG9yPkFiaXRlYm91bCwgUy48L2F1dGhvcj48YXV0aG9y PkNsaWZ0b24sIEMuPC9hdXRob3I+PGF1dGhvcj5Nb3R3YW5pLCBSLjwvYXV0aG9yPjxhdXRob3I+ TmVzdG9yb3YsIFMuPC9hdXRob3I+PGF1dGhvcj5Sb3NlbnRoYWwsIEEuPC9hdXRob3I+PC9hdXRo b3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPlF1ZXJ5IGZsb2NrczogYSBnZW5lcmFs aXphdGlvbiBvZiBhc3NvY2lhdGlvbi1ydWxlIG1pbmluZzwvdGl0bGU+PHNlY29uZGFyeS10aXRs ZT5BQ00tU0lHTU9EIENvbmZlcmVuY2U8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGVyaW9k aWNhbD48ZnVsbC10aXRsZT5BQ00tU0lHTU9EIENvbmZlcmVuY2U8L2Z1bGwtdGl0bGU+PC9wZXJp b2RpY2FsPjxwYWdlcz4xLTEyPC9wYWdlcz48dm9sdW1lPjI3PC92b2x1bWU+PG51bWJlcj4yPC9u dW1iZXI+PGRhdGVzPjx5ZWFyPjE5OTg8L3llYXI+PC9kYXRlcz48aXNibj4wODk3OTE5OTU1PC9p c2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5aaHU8L0F1dGhv cj48WWVhcj4yMDA3PC9ZZWFyPjxSZWNOdW0+OTU8L1JlY051bT48cmVjb3JkPjxyZWMtbnVtYmVy Pjk1PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1pZD0ic2RwcHow MHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij45NTwva2V5PjwvZm9yZWlnbi1rZXlzPjxy ZWYtdHlwZSBuYW1lPSJDb25mZXJlbmNlIFByb2NlZWRpbmdzIj4xMDwvcmVmLXR5cGU+PGNvbnRy aWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPlpodSwgWC48L2F1dGhvcj48YXV0aG9yPld1LCBYLjwv YXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5EaXNjb3Zlcmlu ZyByZWxhdGlvbmFsIHBhdHRlcm5zIGFjcm9zcyBtdWx0aXBsZSBkYXRhYmFzZXM8L3RpdGxlPjxz ZWNvbmRhcnktdGl0bGU+SUNERSBDb25mZXJlbmNlPC9zZWNvbmRhcnktdGl0bGU+PC90aXRsZXM+ PHBhZ2VzPjcyNi03MzU8L3BhZ2VzPjxkYXRlcz48eWVhcj4yMDA3PC95ZWFyPjwvZGF0ZXM+PHB1 Ymxpc2hlcj5JRUVFPC9wdWJsaXNoZXI+PGlzYm4+MTQyNDQwODAzMjwvaXNibj48dXJscz48L3Vy bHM+PC9yZWNvcmQ+PC9DaXRlPjwvRW5kTm90ZT5= ADDIN EN.CITE.DATA [78-81] صورت گرفته است، و زبان‌های جستجوی پایگاه داده برای پشتیبانی از عملیات کاوش، گسترش یافته‌اند، اما اغلب فعالیت‌های پژوهشی بر روی یک پایگاه داده‌ی مستقل با شرایط جستجوی نسبتاً ساده تمرکز کرده‌اند. در مرجع ADDIN EN.CITE Jin200692[78]929210Jin, R.Agrawal, G.Systematic approach for optimizing complex mining tasks on multiple databasesICDE Conference17-172006IEEE0769525709[78] جین و Agrawal، یک سازوکار برپایه‌ی SQL برای کاوش الگوهای پرتکرار بین چندین پایگاه داده، با هدف بهینه سازی جستجوهای کاربران به منظور یافتن الگوهای واجد شرایط ارائه دادند. 3 نکته‌ای که در مورد این مقاله باید مورد توجه قرار گیرد: 1) فعالیت‌های انجام شده در تحقیقات آن‌ها تنها بر روی شمارش برنامه‌های جستجو و انتخاب موردی که کم‌ترین هزینه را دارد، تمرکز کرده‌اند. 2) به دلیل محدودیت‌های چارچوب کاوش الگوی آن‌ها (که بر روی پایگاه داده‌های مستقل کار می‌کردند)، راه حلی که آن‌ها ارائه دادند، تنها می‌تواند پاسخگوی جستجوهای ساده باشد، به عبارت دیگر، هر کدام از مؤلفه‌های این جستجو باید به صراحت یک پایگاه داده‌ی واحد و مقدار آستانه‌ی متناظر با آن را مشخص کنند، مانند {(Si≥α1) & (Sj≥α2) & (Sk≤β)}. بنابراین روش‌های آن‌ها نمی‌تواند جستجوهای پیچیده را جوابگو باشد، و بنابراین کاربرد آن محدود است؛ و 3 ) روش‌های آن‌ها فقط برای پایگاه داده‌های متمرکز قابل اجرا هستند، در صورتی که ما قصد داریم داده کاوی و کشف دانش را بر روی پایگاه داده‌های توزیع شده انجام دهیم. 2-6-2- کارهای مهم انجام شده در زمينه دادهکاوی با استفاده از عامل اين دسته از روش‌ها، رويکرد مبتنی بر عامل را در مواجهه با مسئله داده کاوی توزيع شده پيش می‌گيرند. اگرچه، همانگونه که در ادامه به تفصيل بيان خواهد گرديد، اين رويکرد غالباً به نوع نام‌گذاری راهحل ارائه شده بازمیگردد و نه به خصايص ذاتی عامل (به خصوص هوشمندی). اين دسته از روش‌ها در درخت تحقیق شکل 2-2 در نود 1.2.2 و به طور دقیق‌تر در نود 1.1.2.2 قرار میگيرند. سیستم‌های شناخته شده که دادهکاوی توزيع شده را با استفاده از عامل‌ها پيادهسازی میکنند عبارتند از: سیستم‌های JAM ADDIN EN.CITE Prodromidis200196[82]969627Prodromidis, A.L.Stolfo, S.J.Tselepis, S.Truta, T.Sherwin, J.Kalina, D.Distributed data mining: the JAM system architectureTechnical Report, CUCS-007-01, Columbia UniversityTechnical Report, CUCS-007-01, Columbia University2001[82] و PADMA ADDIN EN.CITE Kargupta199797[83]979710Kargupta, H.Hamzaoglu, I.Stafford, B.PADMA: Parallel data mining agents for scalable text classificationHigh Performance Computing1997Los Alamos National Lab., NM (United States)[83]. عامل‌های جاوا برای ابريادگيری (JAM)، نام يک سيستم توزيع شده است که با استفاده از عامل‌ها به دادهکاوی میپردازد. اين سيستم از تعدادی سايت تشکيل شده است که هر سایت دارای بانک اطلاعاتی خاص خود و نيز تعدادی يادگيرنده میباشد. دو گروه کلی از يادگيرندهها وجود دارد: يادگيرندههائی که در سطح اطلاعات خام عمل میکنند و يادگيرنده‌هائی که توانائی ادغام يادگيرندههای ديگر را دارند (ابريادگيرندهها). سایت‌ها با رابط تعريف شده‌ای با يکديگر ارتباط برقرار کرده و درخواست مواردی نظير ساختار بانک اطلاعاتی يک سايت ديگر (در اينجا صرفاً ساختار يک جدول اطلاعاتی مورد نظر است) و يا فهرست يادگيرندههای آن را مطرح می‌نمايند. در اينجا قصد نداريم به بررسی نقاط ضعف چنين رويکردی برای دادهکاوی روی اطلاعات ناهمگون بپردازيم، بلکه موضوع را صرفاً از ديد عامل‌ها و سیستم‌های چندعامله مورد بررسی قرار میدهيم. سيستم JAM دارای تعدادی خصيصه مفيد و مهم است. نسبتاً باز بودن سيستم، به اين صورت که هر يادگيرندهای در صورت پيادهسازی يک واسط تعريف شده توسط سيستم، که بسيار ساده بوده و يک يادگيرنده صرف نظر از تمايل آن به حضور در سيستم JAM، بايد دارای چنين واسطی باشد، میتواند در سيستم به کار گرفته شود. به اشتراک گذاشتن يادگيرندهها بين سایت‌های مختلف، از ديگر مزايای اين سيستم است که امکان جابهجائی يادگيرندهها (عملاً برنامههای يادگيرنده) را بين سایت‌های مختلف امکان‌پذير میسازد. لازم به ذکر است که چنين امکانی به مفهوم ساخت يک طبقه‌بندی کننده بر روی داده‌های توزيع شده نيست، بلکه صرفاً به معنی امکان بهرهگيری از يادگيرندههای متنوع در حل يک مسئله محلی است. سيستم JAM، عليرغم مزايايی که برشمرده شد، دچار کاستیهائی است که حتی نحوه نامگذاری آن را نيز با پرسش روبرو میسازند. نخستين نقص به نحوه عملکرد سایت‌ها برمیگردد. سایت‌ها در سيستم JAM، بر اساس وقايع عمل میکنند که هر واقعه يا توسط سرپرست سايت ايجاد شده و يا توسط سایت‌های ديگر، که در مورد اخير نيز در نهايت يک کاربر درخواست کار را مطرح نموده است. چنين رويکردی با يکی از اصول بنيادين مطرح در تعريف عامل در تضاد است: خودآغاز بودن و دريافت پيوسته علائم از محيط و عمل بر اساس اين دریافت‌ها. بنابراين اطلاق لفظ عامل به يادگيرندههای مطرح در سيستم JAM با اشکال همراه است. دومين اشکالی که بر اساس تعريف عامل در سيستم مذکور وجود دارد، عدم توجه به مسئله تعادل بين رفتار واکنشی و رفتار پيش فعال است. در اينجا يادگيرندهها صرفاً بر اساس يک الگوريتم يادگيری ماشين، به استخراج دانش از مجموعه اطلاعات ارائه شده به عنوان ورودی پرداخته و هيچ رفتار ديگری برای آن‌ها در نظر گرفته نمیشود. اگرچه سيستم JAMهرگز اشارهای به مفهوم سیستم‌های چندعامله ندارد، اما جهت فراهم آمدن امکان مقايسه بعدی، سيستم مذکور را از اين جنبه نيز مورد توجه قرار میدهيم. در نگاه نخست، JAM دارای خواصی مشابه با سیستم‌های چندعامله میباشد: وجود اشياء و قوانين محيطی؛ اما از سوی ديگر، حتی با قبول وجود عامل‌ها (در واقع يادگيرندهها) در سيستم مذکور، با چند مورد نقض تعريف سيستم چندعامله مواجه هستيم. نخست آنکه مفهوم ارتباط بين عامل‌ها فراتر از تعريف يک يا چند واسط مشخص و ثابت، آن گونه که در سيستم JAM انجام شده است، میباشد؛ در واقع در يک سيستم چندعامله به حداقل يک پروتکل ارتباطی که قوانينی را برای مشخص کردن نحوه به کارگيری زبان ارتباطی مشخص مینمايد، نياز داريم. هر عامل بر حسب معماری و هدف خود، با ساير عوامل محيطی ارتباط برقرار خواهد کرد. همچنين مسئله تأثیر عامل‌ها بر محيط نيز در اينجا در نظر گرفته نشده است. دومين سيستمی که در اينجا مورد بررسی قرار میدهيم، سيستم PADMA (داده کاوی موازی توسط عامل‌ها) میباشد. سيستم مذکور، شامل تعدادی عامل، واسط کاربری و يک هماهنگکننده میباشد. نقش اصلی هماهنگکننده در سيستم، دريافت درخواست‌های کاربر و ارجاع آن‌ها به عامل‌ها و سپس جمع‌آوری و ترکيب نتايج دريافت شده از عامل‌ها میباشد. هر عامل دارای دو توانائی اصلی میباشد: خوشهبندی و پاسخ به پرسوجو، که قابليت اخير امکان دسترسی موازی به اطلاعات ذخيره شده در يک بانک اطلاعاتی را فراهم میآورد. نتايج هر یک از اين دو فرآيند انجام شده توسط هر عامل، به هماهنگ‌کننده منتقل میگردد تا نتيجه نهایی از ترکيب نتايج ميانی حاصل شود. هر عامل به صورت مستقل بر روی اطلاعات در دسترس خود عمل میکند؛ به عبارت ديگر، يکی از خواص سیستم‌های چندعامله که عدم دسترسی يک عامل تنها به تمامی منابع لازم برای دست‌یابی به هدف میباشد، در اينجا رعايت شده است. سيستم PADMA نيز با کمبودهائی مشابه با سيستم JAM همراه است. همچنان که از تعريف سيستم مشخص است، در اين مورد نيز مسئله خودکار بودن عامل و همچنين تعدد عمليات انجامپذير در هر لحظه، ناديده گرفته شده است و عامل‌ها صرفاً به پرسوجوی کاربر پاسخ میدهند. دخالت مستقيم کاربر در عمليات، با تعريف عامل در تضاد آشکار است. همچنين مسئله ارتباط بين عامل‌ها در مورد سيستم PADMA نيز حل نشده باقی مانده و به جای پروتکل ارتباطی، يک زبان ارتباطی با امکان انتقال اطلاعات خام و گراف‌های مفهوم، تعريف شده است. تصميمگيری برای شرکت يا عدم شرکت در يک فرآيند داده‌کاوی توزيع شده، به هيچ وجه جزء اختيارات عامل منظور نشده و تنها میتوان نوعی همکاری ساده (در قالب انتقال نتايج به يک هماهنگکننده) را بين عامل‌ها تشخيص داد؛ بديهی است که اين نوع از همکاری، با آنچه در مورد سیستم‌های چندعامله مطرح است تفاوت زيادی دارد؛ در اينجا حتی هماهنگی بين عامل‌ها (انجام بعضی عمليات در صورت وقوع شرايط خاص ناشی از اعمال ساير عامل‌ها) نيز ضروری نبوده و صرف ادغام نتايج پس از حصول اطمينان از دريافت نتايج کار تمام عامل‌ها، برای دست‌یابی به هدف کفايت خواهد کرد. بنا به دلايل فوق، 1) سيستم PADMA بر مبنای سیستم‌های چندعامله نيست، اگرچه نويسندگان نيز چنين ادعايی را مطرح نکردهاند و 2) برخلاف نام‌گذاری انجام شده در مورد PADMA، اين سيستم را نمیتوان مبتنی بر عامل دانست. بديهی است که با توجه به موارد مطرح شده، اطلاق عنوان دادهکاوی توزيع شده از طريق سیستم‌های چندعامله به سيستم PADMA صحيح نمیباشد. البته در زمينه بهرهگيری از عامل‌ها برای دادهکاوی کارهای ديگری نيز انجام گرديده است که برای مطالعه بيشتر میتوانيد به ADDIN EN.CITE Da Silva200599[84]999917Da Silva, J.C.Giannella, C.Bhargava, R.Kargupta, H.Klusch, M.Distributed data mining and agentsEngineering Applications of Artificial IntelligenceEngineering Applications of Artificial Intelligence791-80718720050952-1976[84] مراجعه نماييد. 2-7- جمعبندی در اين نوشتار ما ابتدا به معرفی دادهکاوی و تکنیک‌های آن پرداختیم، تکنیک کاوش قواعد انجمنی را به تفصیل مورد بررسی قرار دادیم، سپس دادهکاوی توزيع شده، عامل و سیستم‌های چندعامله، و موارد کاربرد عامل را برای دادهکاوی مورد بررسی قرار داديم، و پس از آن، الگوریتم ژنتیک و مفاهیم بنیادی این حوزه را بیان داشتیم. و در نهایت کارها و تحقیقات انجام شده در این زمینه‌ها را بررسی نمودیم. همان‌طور که مشاهده گرديد در مبحث مربوط به استفاده از عامل برای دادهکاوی توزيع شده بيشتر خصوصياتی از عامل همچون خودمختاری، خودآغازی و بيشتر از همه بحث متحرک بودن و قابليت استفاده از آن در محیط‌های توزيع شده مورد بررسی قرار گرفته است، در حاليکه به بهرهگيری از بسياری از خصوصيات مهم عامل همچون هوشمندی، قابليت يادگيری و استدلال، هدفگرايی و غیره چندان توجهی نشده است. پیوست منابع و مآخذ ADDIN EN.REFLIST [1]Wang J., Data mining: opportunities and challenges: Irm Press, 2003. [2]Rao V.S., Vidyavathi S., "Distributed Data Mining and Mining Multi-Agent Data," IJCSE) International Journal on Computer Science and Engineering, vol. 2, pp. 1237-1244, 2010. [3]Chen M.S., Han J., Yu P.S., "Data mining: an overview from a database perspective," Knowledge and Data Engineering, IEEE Transactions on, vol. 8, pp. 866-883, 1996. [4]Han J., Kamber M., "Data mining: Concepts and Techniques, 2nd Edition," San Francisco, CA, itd: Morgan Kaufmann, 2005. [5]Grossman R., Kasif S., Moore R., Rocke D., Ullman J., "Data mining research: Opportunities and challenges," presented at the A Report of Three Workshops on Mining Large, Massive and Distributed Data, 1999. [6]Mitchell T.M., "Machine learning. 1997," Burr Ridge, IL: McGraw Hill, 1997. [7]Bing L., Wynne H., Yiming M., "Integrating classification and association rule mining," in KDD, New York City, New York, USA., 1998, pp. 80-86. [8]Bing L., Yiming M., Ching Kian W., "Improving an association rule based classifier," Principles of Data Mining and Knowledge Discovery, pp. 293-317, 2000. [9]Kargupta H., Joshi A., Sivakumar K., Yesha Y., Data mining: Next generation challenges and future directions: AAAI Press, 2004. [10]Weiss G., Multiagent systems: a modern approach to distributed artificial intelligence: The MIT press, 1999. [11]Sycara K.P., "Multi-agent Systems," AI magazine, Intelligent Agents, vol. 19, pp. 79-92, 1998. [12]Chira C., "Software agents," IDIMS Report, February, vol. 21, 2003. [13]Odell J., "Agents: Technology and usage (Part 1)," Executive Report, vol. 3, 2000. [14]Wooldridge M., Jennings N.R., "Intelligent agents: Theory and practice," Knowledge engineering review, vol. 10, pp. 115-152, 1995. [15]Wooldridge M., "Agent-based computing," Interoperable Communication Networks, vol. 1, pp. 71-98, 1998. [16]Jennings N.R., Norman T.J., Faratin P., "ADEPT: an agent-based approach to business process management," ACM Sigmod Record, vol. 27, pp. 32-39, 1998. [17]Etzioni O., Weld D.S., "Intelligent agents on the internet: Fact, fiction, and forecast," IEEE expert, vol. 10, pp. 44-49, 1995. [18]Horn E., Kupries M., Reinke T., "Properties and models of software agents and prefabrication for agent application systems," 1999, p. 10 pp. [19]Bradshaw J.M., "An introduction to software agents," Software agents, vol. 5, pp. 3-46, 1997. [20]Bratman M., "Intentions, Plans and Practical Reason," ed: Harvard University Press, Cambridge, MA, 1987. [21]Bratman M.E., Israel D.J., Pollack M.E., "Plans and resource‐bounded practical reasoning," Computational intelligence, vol. 4, pp. 349-355, 1988. [22]Jennings N.R., Sycara K., Wooldridge M., "A roadmap of agent research and development," Autonomous agents and multi-agent systems, vol. 1, pp. 7-38, 1998. [23]Jennings N.R., "On agent-based software engineering," Artificial intelligence, vol. 117, pp. 277-296, 2000. [24]Newell A., "The knowledge level," Artificial intelligence, vol. 18, pp. 87-127, 1982. [25]Bussmann S., Mueller J., "A negotiation framework for cooperating agents," 1992 Proceedings of the Special Interest Group on Cooperating KnowledgeBased Systems, pp. 1-17, 1993. [26]Wooldridge M.J., An introduction to multiagent systems: Wiley, 2009. [27]Zhang C., Zhang Z., Cao L., "Agents and data mining: mutual enhancement by integration," Autonomous Intelligent Systems: Agents and Data Mining, pp. 259-275, 2005. [28]Cao L., Data mining and multi-agent integration: Springer, 2009. [29]Cao L., Gorodetsky V., Liu J., Weiss G., "Agents and data mining interaction: 4th international workshop on agents and data mining interaction," in ADMI 2009, Budapest, Hungary, 2009, pp. 23-35. [30]Cao L., Gorodetsky V., Mitkas P.A., "Guest Editors' Introduction: Agents and Data Mining," Intelligent Systems, IEEE, vol. 24, pp. 14-15, 2009. [31]Grossman R., "A top-ten list for data mining," SIAM News, vol. 34, 2001. [32]Park B., Kargupta H., Distributed data mining: algorithms, systems, and applications: Y. Nong, 2002. [33]Bhaduri K., Das K., Liu K., Kargupta H., Ryan J., "Distributed Data Mining Bibliography," Distributed Data Mining Bibliography, 2011. [34]Stolfo S., Prodromidis A.L., Tselepis S., Lee W., Fan D.W., Chan P.K., "JAM: Java agents for meta-learning over distributed databases," 1997, pp. 74-81. [35]Luo P., Xiong H., Lu K., Shi Z., "Distributed classification in peer-to-peer networks," 2007, pp. 968-976. [36]Aoun-Allah M., Mineau G., "Distributed data mining: why do more than aggregating models," 2007, pp. 2645-2650. [37]Datta S., Giannella C., Kargupta H., K-Means Clustering Over a Large, Dynamic Network," in 2006 SIAM Conference on Data Mining, 2006. [38]Gionis A., Mannila H., Tsaparas P., "Clustering aggregation," in 21st ICDE Conference, 2005, pp. 341-352. [39]Chen B.C., Chen L., Lin Y., Ramakrishnan R., "Prediction cubes," in 31st VLDB Conference, Norway, 2005, pp. 982-993. [40]Gray J., Bosworth A., Layman A., Pirahesh H., "Datacube: A relational aggregation operator generalizing group-by, cross-tab, and sub-totals," in 12th ICDE Conference, 1996, pp. 152-159. [41]Agrawal R., Srikant R., "Fast algorithms for mining association rules," in VLDB Conferences, Santiago, Chile, 1994, pp. 487-499. [42]Ashrafi M.Z., Taniar D., Smith K., "ODAM: An optimized distributed association rule mining algorithm," Distributed Systems Online, IEEE, vol. 5, 2004. [43]Cheung D.W., Ng V.T., Fu A.W., Fu Y., "Efficient mining of association rules in distributed databases," IEEE Transactions on Knowledge and Data Engineering, vol. 8, pp. 911-922, 1996. [44]Han J., Pei J., Yin Y. , "Mining frequent patterns without candidate generation," in ACM SIGMOD, 2000, pp. 1-12. [45]Manjhi A., Shkapenyuk V., Dhamdhere K., Olston C., "Finding (recently) frequent items in distributed data streams," in ICDE Conference, 2005, pp. 767-778. [46]Sun J., Papadimitriou S., Faloutsos C., "Distributed pattern discovery in multiple streams," Advances in Knowledge Discovery and Data Mining, pp. 713-718, 2006. [47]Li T., Ogihara M., Zhu S., "Association-based similarity testing and its applications," Intelligent Data Analysis, vol. 7, pp. 209-232, 2003. [48]Webb G.I., Butler S., Newlands D., "On detecting differences between groups," in 9th ACM SIGKDD Conference, 2003, pp. 256-265. [49]Bailey S., Grossman R., Sivakumar H., Turinsky A., "Papyrus: a system for data mining over local and wide area clusters and super-clusters," 1999, p. 63. [50]Schuster A., Wolff R., "Communication-efficient distributed mining of association rules," Data Mining and Knowledge Discovery, vol. 8, pp. 171-196, 2004. [51]Schuster A., Wolff R., Gilburd B., "Privacy-preserving association rule mining in large-scale distributed systems," 2004, pp. 411-418. [52]Bala J., Baik S., Hadjarian A., Gogia B.K., Manthorne C., "Application of a distributed data mining approach to network intrusion detection," 2002, pp. 1419-1420. [53]Stolfo S.J., Fan W., Lee W., Prodromidis A., Chan P.K., "Cost-based modeling for fraud and intrusion detection: Results from the JAM project," 2000, pp. 130-144 vol. 2. [54]Fujibuchi W., Kato T., "Classification of heterogeneous microarray data by maximum entropy kernel," BMC bioinformatics, vol. 8, p. 267, 2007. [55]Merugu S., Ghosh J., "A distributed learning framework for heterogeneous data sources," in The 11th ACM KDD Conference, 2005, pp. 208-217. [56]Kargupta H., Park B.H., Hershberger D., Johnson E., "Collective data mining: A new perspective toward distributed data analysis," in Advances in Distributed and Parallel Knowledge Discovery, 1999. [57]Kantarcioglu M., Clifton C., "Privacy-Preserving Distributed Mining of Association Rules on Horizontally Partitioned Data," in ACM SIGMOD Workshop on Research Issues on Data Mining and Knowledge Discovery (DMKD'02), 2002. [58]Qiu L., Li Y., Wu X., "Preserving privacy in association rule mining with bloom filters," Journal of Intelligent Information Systems, vol. 29, pp. 253-278, 2007. [59]Yin X., Han J., Yang J., Yu P., "Crossmine: Efficient classification across multiple database relations," Constraint-Based Mining and Inductive Databases, pp. 172-195, 2006. [60]Wang J., Zeng H., Chen Z., Lu H., Tao L., Ma W.Y., "ReCoM: reinforcement clustering of multi-type interrelated data objects," in SIGIR Conference, 2003, pp. 274-281. [61]Agrawal R., Shafer J.C., "Parallel mining of association rules," Knowledge and Data Engineering, IEEE Transactions on, vol. 8, pp. 962-969, 1996. [62]Han E.H., Karypis G., Kumar V., "Scalable parallel data mining for association rules," in ACM SIGMOD Conference, 1997. [63]Li S., Wu T., Pottenger W.M., "Distributed higher order association rule mining using information extracted from textual data," ACM SIGKDD Explorations Newsletter, vol. 7, pp. 26-35, 2005. [64]Otey M.E., Wang C., Parthasarathy S., Veloso A., Meira Jr W., "Mining frequent itemsets in distributed and dynamic databases," in ICDM Conference, 2003, pp. 617-620. [65]Wu X., Zhang S., "Synthesizing high-frequency rules from different data sources," Knowledge and Data Engineering, IEEE Transactions on, vol. 15, pp. 353-367, 2003. [66]Zaki M.J., "Parallel and distributed association mining: A survey," Concurrency, IEEE, vol. 7, pp. 14-25, 1999. [67]Zhang S., Zaki M.J., "Mining multiple data sources: local pattern analysis," Data Mining and Knowledge Discovery, vol. 12, pp. 121-125, 2006. [68]Buehrer G., Parthasarathy S., Tatikonda S., Kurc T., Saltz J., "Toward terabyte pattern mining: an architecture-conscious solution," in 12th ACM SIGPLAN symposium on Principles and practice of parallel programming, 2007, pp. 2-12. [69]Han J., Pei J., Yin Y., "Mining frequent patterns without candidate generation," in ACM SIGMOD Conf., 2000, pp. 1-12. [70]Zhang T., Ramakrishnan R., Livny M., "BIRCH: an efficient data clustering method for very large databases," in ACM SIGMOD Conference, 1996, pp. 103-114. [71]Zhu X., Jin R., "Multiple information source cooperative learning," in 21st International Joint Conference on Artificial Intelligence, 2009, pp. 1369–1376. [72]Parthasarathy S., Ogihara M., "Exploiting dataset similarity for distributed mining," Parallel and Distributed Processing, pp. 399-406, 2000. [73]Bay S.D., Pazzani M.J., "Detecting group differences: Mining contrast sets," Data Mining and Knowledge Discovery, vol. 5, pp. 213-246, 2001. [74]Dong G., Li J., "Efficient mining of emerging patterns: Discovering trends and differences," in 5th ACM SIGKDD Conference, 1999, pp. 43-52. [75]Yang Y, Wu X., Zhu X., "Conceptual equivalence for contrast mining in classification learning," Data & Knowledge Engineering, vol. 67, pp. 413-429, 2008. [76]Xu K., Liao S.S., Li J., Song Y., "Mining comparative opinions from customer reviews for Competitive Intelligence," Decision support systems, vol. 50, pp. 743-754, 2011. [77]Ji X., Bailey J., Dong G., "Mining minimal distinguishing subsequence patterns with gap constraints," in ICDM Conference, 2005, p. 8 pp. [78]Jin R., Agrawal G., "Systematic approach for optimizing complex mining tasks on multiple databases," in ICDE Conference, 2006, pp. 17-17. [79]Bucila C., Gehrke J., Kifer D., White W., "Dualminer: A dual-pruning algorithm for itemsets with constraints," Data Mining and Knowledge Discovery, vol. 7, pp. 241-272, 2003. [80]Tsur D., Ullman J.D., Abiteboul S., Clifton C., Motwani R., Nestorov S., Rosenthal A., "Query flocks: a generalization of association-rule mining," ACM-SIGMOD Conference, vol. 27, pp. 1-12, 1998. [81]Zhu X., Wu X., "Discovering relational patterns across multiple databases," in ICDE Conference, 2007, pp. 726-735. [82]Prodromidis A.L., Stolfo S.J., Tselepis S., Truta T., Sherwin J., Kalina D., "Distributed data mining: the JAM system architecture," 2001. [83]Kargupta H., Hamzaoglu I., Stafford B., "PADMA: Parallel data mining agents for scalable text classification," in High Performance Computing, 1997. [84]Da Silva J.C., Giannella C., Bhargava R., Kargupta H., Klusch M., "Distributed data mining and agents," Engineering Applications of Artificial Intelligence, vol. 18, pp. 791-807, 2005. [85]Webb G.I., "Efficient search for association rules," in Proceedings of the sixth ACM SIGKDD international conference on Knowledge discovery and data mining, 2000, pp. 99-107. [86]Paul S., "An optimized distributed association rule mining algorithm in parallel and distributed data mining with xml data for improved response time," International Journal of Computer Science and Information Technology, vol. 2, 2010. [87]Prodromidis A.L., "Management of intelligent learning agents in distributed data mining systems," Ph.D., School of Arts and Science, Columbia University, Columbia, 1999. [88]Zhu X., Li B., Wu X., He D., Zhang C., "CLAP: Collaborative pattern mining for distributed information systems," Decision support systems, 2011. [89]Ogunde A., Folorunso O., Sodiya A., Ogunleye G., "A Review of Some Issues and Challenges in Current Agent-Based Distributed Association Rule Mining," Asian Journal of Information Technology, vol. 10, pp. 84-95, 2011. [90]Cao L., Luo C., Zhang C., "Agent-mining interaction: an emerging area," Autonomous Intelligent Systems: Multi-Agents and Data Mining, pp. 60-73, 2007. [91]Cao L., Luo D., Xiao Y., Zheng Z., "Agent collaboration for multiple trading strategy integration," Agent and Multi-Agent Systems: Technologies and Applications, pp. 361-370, 2008. [92]Cao L., Yu P., Zhang C., Zhao Y., Domain driven data mining: Springer, 2010. [93]Rudowsky I., "Intelligent agents," Communications of the Association for Information Systems, vol. 14, p. 275, 2004. [94]Albashiri K.A., Coenen F., Leng P., "EMADS: An extendible multi-agent data miner," Knowledge-Based Systems, vol. 22, pp. 523-528, 2009. [95]Jie Y., "Research on Association Rules in Distributed Data Mining," Energy Procedia, vol. 13, pp. 8575-8580, 2011.

فایل های دیگر این دسته

مجوزها،گواهینامه ها و بانکهای همکار

دریافت و ترجمه مقاله دارای نماد اعتماد الکترونیک از وزارت صنعت و همچنین دارای قرارداد پرداختهای اینترنتی با شرکتهای بزرگ به پرداخت ملت و زرین پال و آقای پرداخت میباشد که در زیـر میـتوانید مجـوزها را مشاهده کنید