Zusammenfassung
In diesem Beitrag werden aktuelle Methoden der angewandten Datenanalyse zum Clustern und Klassifizieren vorgestellt. Das automatische Klassifizieren und Clustern von großen Datenmengen von zum Teil heterogenen Datenstrukturen ist ein zentrales Thema in vielen Bereichen der Forensik. Daher sollen hier neuere Methoden der Computational Intelligence zu diesem Problemfeld vorgestellt werden, welche sich als robuste und intuitive Verfahren herausgestellt haben. Dabei wird auf leicht interpretierbare Modelle Wert gelegt. Insbesondere liegt der Fokus auf sogenannten prototypbasierten Modellen der Vektorquantisierung. Ausgehend von einer kurzen Thematisierung des Begriffs der mathematischen Ähnlichkeit von Datenobjekten, werden verschiedene adaptive Verfahren vorgestellt, denen aber einige wenige Prinzipien und Heuristiken zu Grunde liegen. Das betrifft das Stellvertreterprinzip für Daten durch repräsentative Prototypen sowie die robuste Anpassungsfähigkeit der Modelle auf der Basis mathematisch verifizierter Algorithmen. Der Beitrag vermittelt dazu einen einführenden Überblick.