کاربردهای زیادی وجود دارند که در آنها
خوشه بندی مجموعه الگوهای بزرگ ضروری است. اکثرر قرریر هرا و الگوریتمهای تعریف شده توانایی دستکاری این مجموعه داده های بزرگ را ندارند.در این مقاله به بررسی مزایا و معایب هر یک از الگوریتمهای
خوشه بندی برای داده های حجیم نظیر BIRCH ، CLARANS ، CURE ، COBWEB پرداخته شده است.سپس یک روش پیشنهادی جدید
خوشه بندی برای داده های بسیار بزرگ ارائه شده است و هدف این بوده است که مناسب برای حالتهایی باشد که امکان بارگذاری همزمان همه داده ها را در حافظه وجود ندارد و داده ها بصورت بلاکهای متوالی بارگذاری میشوند. این الگوریتم از سه فاز اصلی تشکیل شده است، در فاز نخست فضای کل داده ها به ناحیه های یکسان تفسیم بندی می شود. در فاز دوم ناحیه در برگیرنده هر داده مشخص شده و داده های تعلق یافته به هر ناحیه با کمیتهای حداقلی به صورت فشرده ذخیره میشوند و هر ناحیه متناظر با یک خوشه اولیه میباشد. همچنین در فاز سوم ، بعضی از خوشه های اولیه بصورت سلسله مراتبی با هم ترکیب شده و خوشه های نهایی را تشکیل میدهند. برای ارزیابی کارآیی روش پیشنهادی، مجموعه داده های مصنوعی تولید شده و الگوریتم به این داده ها اعمال شده است و نتیجه
خوشه بندی خوبی حاصل شده است.