Motorem napędzającym współcześnie rozwój nauki, techniki i gospodarki jest szeroki dostęp do danych z doświadczeń i obserwacji procesów zachodzących w przyrodzie, instalacjach przemysłowych oraz w społeczeństwie. Rozwój technologii umożliwił wprawdzie łatwe i szybkie pozyskiwanie oraz gromadzenia olbrzymich zbiorów informacji, nadal jednak ich przetwarzanie i analizowanie jest poważnym wyzwaniem. Aby mu sprostać, opracowano wiele metod, wśród których ważną rolę odgrywa analiza skupień. Jest ona uniwersalnym narzędziem do porządkowania i segregowania wielowymiarowych informacji. Do tradycyjnych obszarów zastosowań analizy skupień należą: segmentacja obrazów, wyszukiwanie informacji oraz bioinformatyka. Stale jednak poszerza się zakres jej stosowania, już dziś służy m.in. w medycynie do diagnozowania pacjentów na podstawie danych klinicznych i laboratoryjnych, w handlu do segmentacji rynku w celu opracowania efektywnych strategii marketingowych oraz w wielu dziedzinach nauki do przetwarzania wyników badań.

Autorzy książki, zdając sobie sprawę z rosnącej popularności metod analizy skupień i konieczności ich ciągłego doskonalenia w celu lepszego przystosowania do analizy coraz obszerniejszych zbiorów danych o złożonej topologii, przygotowali publikację, która:

- zawiera przegląd podstawowych algorytmów analizy skupień wraz z omówieniem ich różnorodnych modyfikacji;

- unaocznia problem oceny i wyboru właściwej liczby skupień;

- omawia specjalizację wybranych algorytmów do zadań przetwarzania ogromnych zbiorów danych;

- prezentuje w zwartej formie ujednolicony materiał, stanowiący podstawę rozwijania nowych algorytmów spektralnej i dyfuzyjnej analizy danych;

- opisuje wybrane rozwiązania stosowane w uczeniu częściowo nadzorowanym;

- zawiera bogatą literaturę, która może być punktem wyjścia różnorodnych samodzielnych poszukiwań wiedzy.

Książka przeznaczona jest dla studentów i doktorantów zainteresowanych technikami odkrywania wiedzy z danych oraz modelowania komputerowego, a także dla praktyków – informatyków opracowujących programy do analizy dużych zbiorów danych.