Khoa Hc K Thut My Tnh Trng i

  • Slides: 87
Download presentation
Khoa Học & Kỹ Thuật Máy Tính Trường Đại Học Bách Khoa Tp. Hồ

Khoa Học & Kỹ Thuật Máy Tính Trường Đại Học Bách Khoa Tp. Hồ Chí Minh Chương 5: Gom cụm dữ liệu Khai phá dữ liệu (Data mining) Học kỳ 1 – 2017 -2018 1

Nội dung p 5. 1. Tổng quan về gom cụm dữ liệu p 5.

Nội dung p 5. 1. Tổng quan về gom cụm dữ liệu p 5. 2. Gom cụm dữ liệu bằng phân hoạch p 5. 3. Gom cụm dữ liệu bằng phân cấp p 5. 4. Gom cụm dữ liệu dựa trên mật độ p 5. 5. Gom cụm dữ liệu dựa trên mô hình p 5. 6. Các phương pháp gom cụm dữ liệu khác p 5. 7. Tóm tắt 2

Tài liệu tham khảo [1] Jiawei Han, Micheline Kamber, “Data Mining: Concepts and Techniques”,

Tài liệu tham khảo [1] Jiawei Han, Micheline Kamber, “Data Mining: Concepts and Techniques”, Second Edition, Morgan Kaufmann Publishers, 2006. 7. 1 What is cluster analysis? (p 383 -> 386) 7. 4. 1 Classical Partitioning Methods: k-Means and k-Medoids (p 402 -> p 407) 7. 5. 1 Agglomerative and Divisive Hierarchical Clustering (p 408 -> 411) 7. 6. 1 DBSCAN: A Density-Based Clustering Method (p 418 -> 420) 7. 11 Outlier analysis (p 451 -> 458) 3

5. 0. Tình huống 1 – Outlier detection Người đang sử dụng thẻ ID

5. 0. Tình huống 1 – Outlier detection Người đang sử dụng thẻ ID = 1234 thật sự là chủ nhân của thẻ hay là một tên trộm? 4

5. 0. Tình huống 2 - Làm sạch dữ liệu p Nhận diện phần

5. 0. Tình huống 2 - Làm sạch dữ liệu p Nhận diện phần tử biên (outliers) và giảm thiểu nhiễu (noisy data) n Giải pháp giảm thiểu nhiễu p Phân tích cụm (cluster analysis) 5

5. 0. Tình huống 3 6

5. 0. Tình huống 3 6

5. 0. Tình huống 3 7

5. 0. Tình huống 3 7

5. 0. Tình huống 3 8

5. 0. Tình huống 3 8

5. 0. Tình huống 3 9

5. 0. Tình huống 3 9

5. 0. Tình huống 3 10

5. 0. Tình huống 3 10

5. 0. Tình huống 3 11

5. 0. Tình huống 3 11

5. 0. Tình huống 3 12

5. 0. Tình huống 3 12

5. 0. Tình huống 4 http: //kdd. ics. uci. edu/databases/Corel. Features. data. html Gom

5. 0. Tình huống 4 http: //kdd. ics. uci. edu/databases/Corel. Features. data. html Gom cụm ảnh 13

5. 0. Tình huống … Gom cụm 14

5. 0. Tình huống … Gom cụm 14

5. 0. Tình huống … p Hỗ trợ giai đoạn tiền xử lý dữ

5. 0. Tình huống … p Hỗ trợ giai đoạn tiền xử lý dữ liệu (data preprocessing) p Mô tả sự phân bố dữ liệu/đối tượng (data distribution) p Nhận dạng mẫu (pattern recognition) p Phân tích dữ liệu không gian (spatial data analysis) p Xử lý ảnh (image processing) p Phân mảnh thị trường (market segmentation) p Gom cụm tài liệu ((WWW) document clustering) p … 15

5. 1. Tổng quan về gom cụm dữ liệu p Gom cụm n Quá

5. 1. Tổng quan về gom cụm dữ liệu p Gom cụm n Quá trình gom nhóm/cụm dữ liệu/đối tượng vào các lớp/cụm n Các đối tượng trong cùng một cụm tương tự với nhau hơn so với đối tượng ở các cụm khác. p Obj 1, Obj 2 ở cụm C 1; Obj 3 ở cụm C 2 Obj 1 tương tự Obj 2 hơn so với tương tự Obj 3. Gom cụm 16

5. 1. Tổng quan về gom cụm dữ liệu p Gom cụm n Quá

5. 1. Tổng quan về gom cụm dữ liệu p Gom cụm n Quá trình gom nhóm/cụm dữ liệu/đối tượng vào các lớp/cụm n Các đối tượng trong cùng một cụm tương tự với nhau hơn so với đối tượng ở các cụm khác. p Obj 1, Obj 2 ở cụm C 1; Obj 3 ở cụm C 2 Obj 1 tương tự Obj 2 hơn so với tương tự Obj 3. Intra-cluster distances are minimized. Inter-cluster distances are maximized. 17

5. 1. Tổng quan về gom cụm dữ liệu p Gom cụm n Quá

5. 1. Tổng quan về gom cụm dữ liệu p Gom cụm n Quá trình gom nhóm/cụm dữ liệu/đối tượng vào các lớp/cụm n Các đối tượng trong cùng một cụm tương tự với nhau hơn so với đối tượng ở các cụm khác. p Obj 1, Obj 2 ở cụm C 1; Obj 3 ở cụm C 2 Obj 1 tương tự Obj 2 hơn so với tương tự Obj 3. Intra-cluster distances are minimized. High intracluster/class similarity Low intercluster/class similarity Inter-cluster distances are maximized. 18

5. 1. Tổng quan về gom cụm dữ liệu p Vấn đề kiểu dữ

5. 1. Tổng quan về gom cụm dữ liệu p Vấn đề kiểu dữ liệu/đối tượng được gom cụm n Ma trận dữ liệu (data matrix) -n đối tượng (objects) -p biến/thuộc tính (variables/attributes) 19

5. 1. Tổng quan về gom cụm dữ liệu p Vấn đề kiểu dữ

5. 1. Tổng quan về gom cụm dữ liệu p Vấn đề kiểu dữ liệu/đối tượng được gom cụm n Ma trận sai biệt (dissimilarity matrix) d(i, j) là khoảng cách giữa đối tượng i và j; thể hiện sự khác biệt giữa đối tượng i và j; được tính tuỳ thuộc vào kiểu của các biến/thuộc tính. 20

5. 1. Tổng quan về gom cụm dữ liệu p Vấn đề kiểu dữ

5. 1. Tổng quan về gom cụm dữ liệu p Vấn đề kiểu dữ liệu/đối tượng được gom cụm d(i, j) là khoảng cách giữa đối tượng i và j; thể hiện sự khác biệt giữa đối tượng i và j; được tính tuỳ thuộc vào kiểu của các biến/thuộc tính. d(i, j) 0 d(i, i) = 0 d(i, j) = d(j, i) d(i, j) d(i, k) + d(k, j) 21

5. 1. Tổng quan về gom cụm dữ liệu p Vấn đề kiểu dữ

5. 1. Tổng quan về gom cụm dữ liệu p Vấn đề kiểu dữ liệu/đối tượng được gom cụm n Đối tượng vector (vector objects) p p Đối tượng i và j được biểu diễn tương ứng bởi vector x và y. Độ tương tự (similarity) giữa i và j được tính bởi độ đo cosine: x = (x 1, …, xp) y = (y 1, …, yp) s(x, y) = (x 1*y 1 + … + xp*yp)/((x 12 + … + xp 2)1/2*(y 12+ … + yp 2)1/2) 22

5. 1. Tổng quan về gom cụm dữ liệu p Vấn đề kiểu dữ

5. 1. Tổng quan về gom cụm dữ liệu p Vấn đề kiểu dữ liệu/đối tượng được gom cụm n Interval-scaled variables/attributes n Binary variables/attributes n Categorical variables/attributes n Ordinal variables/attributes n Ratio-scaled variables/attributes n Variables/attributes of mixed types 23

p. A sample data table containing variables of mixed type. 24

p. A sample data table containing variables of mixed type. 24

5. 1. Tổng quan về gom cụm dữ liệu p Interval-scaled variables/attributes Mean absolute

5. 1. Tổng quan về gom cụm dữ liệu p Interval-scaled variables/attributes Mean absolute deviation Mean Z-score measurement 25

5. 1. Tổng quan về gom cụm dữ liệu p Độ đo khoảng cách

5. 1. Tổng quan về gom cụm dữ liệu p Độ đo khoảng cách Minkowski p Độ đo khoảng cách Manhattan p Độ đo khoảng cách Euclidean 26

5. 1. Tổng quan về gom cụm dữ liệu p Binary variables/attributes Object j

5. 1. Tổng quan về gom cụm dữ liệu p Binary variables/attributes Object j Object i (= a + b + c + d) Hệ số so trùng đơn giản (nếu symmetric): Hệ số so trùng Jaccard (nếu asymmetric): 27

5. 1. Tổng quan về gom cụm dữ liệu p Binary variables/attributes n Ví

5. 1. Tổng quan về gom cụm dữ liệu p Binary variables/attributes n Ví dụ p p p gender: symmetric Binary attributes còn lại: asymmetric Y, P 1, N 0 28

5. 1. Tổng quan về gom cụm dữ liệu p Variables/attributes of mixed types

5. 1. Tổng quan về gom cụm dữ liệu p Variables/attributes of mixed types n Tổng quát p Nếu xif hoặc xjf bị thiếu (missing) thì p f (variable/attribute): binary (nominal) dij(f) = 0 if xif = xjf , or dij(f) = 1 otherwise p f : interval-scaled (Minkowski, Manhattan, Euclidean) p f : ordinal or ratio-scaled § tính ranks rif và § zif trở thành interval-scaled 29

5. 1. Tổng quan về gom cụm dữ liệu 30

5. 1. Tổng quan về gom cụm dữ liệu 30

Question Briefly outline how to compute the dissimilarity between objects described by the following

Question Briefly outline how to compute the dissimilarity between objects described by the following types of variables: (a) Numerical (interval-scaled) variables (b) Asymmetric binary variables (c) Categorical variables (d) Ratio-scaled variables (e) Ordinal variables p 31

5. 1. Tổng quan về gom cụm dữ liệu p Quá trình gom cụm

5. 1. Tổng quan về gom cụm dữ liệu p Quá trình gom cụm dữ liệu R. Xu, D. Wunsch II. Survey of Clustering Algorithms. IEEE Transactions on Neural Networks, 16(3), May 2005, pp. 645 -678. 32

5. 1. Tổng quan về gom cụm dữ liệu p Mỗi cụm nên có

5. 1. Tổng quan về gom cụm dữ liệu p Mỗi cụm nên có bao nhiêu phần tử? p Các phân tử nên được gom vào bao nhiêu cụm? p Bao nhiêu cụm nên được tạo ra? Bao nhiêu cụm? 6 cụm? 2 cụm? 4 cụm? 33

5. 1. Tổng quan về gom cụm dữ liệu p Các yêu cầu tiêu

5. 1. Tổng quan về gom cụm dữ liệu p Các yêu cầu tiêu biểu về việc gom cụm dữ liệu n Khả năng co giãn về tập dữ liệu (scalability) n Khả năng xử lý nhiều kiểu thuộc tính khác nhau (different types of attributes) n Khả năng khám phá các cụm với hình dạng tùy ý (clusters with arbitrary shape) n Tối thiểu hóa yêu cầu về tri thức miền trong việc xác định các thông số nhập (domain knowledge for input parameters) n Khả năng xử lý dữ liệu có nhiễu (noisy data) 34

5. 1. Tổng quan về gom cụm dữ liệu p Các yêu cầu tiêu

5. 1. Tổng quan về gom cụm dữ liệu p Các yêu cầu tiêu biểu về việc gom cụm dữ liệu n Khả năng gom cụm tăng dần và độc lập với thứ tự của dữ liệu nhập (incremental clustering and insensitivity to the order of input records) n Khả năng xử lý dữ liệu đa chiều (high dimensionality) n Khả năng gom cụm dựa trên ràng buộc (constraint-based clustering) n Khả diễn và khả dụng (interpretability and usability) 35

5. 1. Tổng quan về gom cụm dữ liệu p Phân loại các phương

5. 1. Tổng quan về gom cụm dữ liệu p Phân loại các phương pháp gom cụm dữ liệu tiêu biểu n Phân hoạch (partitioning): các phân hoạch được tạo ra và đánh giá theo một tiêu chí nào đó. n Phân cấp (hierarchical): phân rã tập dữ liệu/đối tượng có thứ tự phân cấp theo một tiêu chí nào đó. n Dựa trên mật độ (density-based): dựa trên connectivity and density functions. n Dựa trên lưới (grid-based): dựa trên a multiple-level granularity structure. n Dựa trên mô hình (model-based): một mô hình giả thuyết được đưa ra cho mỗi cụm; sau đó hiệu chỉnh các thông số để mô hình phù hợp với cụm dữ liệu/đối tượng nhất. n … 36

5. 1. Tổng quan về gom cụm dữ liệu p Phân loại các phương

5. 1. Tổng quan về gom cụm dữ liệu p Phân loại các phương pháp gom cụm dữ liệu tiêu biểu Original Points Partitioning 37

5. 1. Tổng quan về gom cụm dữ liệu p Phân loại các phương

5. 1. Tổng quan về gom cụm dữ liệu p Phân loại các phương pháp gom cụm dữ liệu tiêu biểu p 1 p 3 p 4 p 2 Original Points Hierarchical 38

5. 1. Tổng quan về gom cụm dữ liệu p Các phương pháp đánh

5. 1. Tổng quan về gom cụm dữ liệu p Các phương pháp đánh giá việc gom cụm dữ liệu n Đánh giá ngoại (external validation) p n Đánh giá nội (internal validation) p n Đánh giá kết quả gom cụm dựa vào cấu trúc được chỉ định trước cho tập dữ liệu Đánh giá kết quả gom cụm theo số lượng các vector của chính tập dữ liệu (ma trận gần – proximity matrix) Đánh giá tương đối (relative validation) p Đánh giá kết quả gom cụm bằng việc so sánh các kết quả gom cụm khác ứng với các bộ trị thông số khác nhau Tiêu chí cho việc đánh giá và chọn kết quả gom cụm tối ưu - Độ nén (compactness): các đối tượng trong cụm nên gần nhau. - Độ phân tách (separation): các cụm nên xa nhau. 39

5. 1. Tổng quan về gom cụm dữ liệu p Các phương pháp đánh

5. 1. Tổng quan về gom cụm dữ liệu p Các phương pháp đánh giá việc gom cụm dữ liệu n Đánh giá ngoại (external validation) p n Đánh giá nội (internal validation) p n Độ đo: Rand statistic, Jaccard coefficient, Folkes and Mallows index, … Độ đo: Hubert’s statistic, Silhouette index, Dunn’s index, … Đánh giá tương đối (relative validation) 40

5. 1. Tổng quan về gom cụm dữ liệu p Các phương pháp đánh

5. 1. Tổng quan về gom cụm dữ liệu p Các phương pháp đánh giá việc gom cụm dữ liệu n Các độ đo đánh giá ngoại (external validation measures – contingency matrix) J. Wu and et al. Adapting the Right Measures for K-means Clustering. KDD’ 09, Paris, France, July 2009. 41

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đánh giá kết quả

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đánh giá kết quả gom cụm Contingency matrix -Partition P: kết quả gom cụm trên n đối tượng -Partition C: các cụm thật sự của n đối tượng -nij = |Pi Cj|: số đối tượng trong Pi từ Cj 42

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đánh giá kết quả

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đánh giá kết quả gom cụm Kết quả gom cụm theo phương án I và II -Partition P: kết quả gom cụm trên n (=66) đối tượng -Partition C: các cụm thật sự của n (=66) đối tượng -nij = |Pi Cj|: số đối tượng trong Pi từ Cj 43

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đánh giá kết quả

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đánh giá kết quả gom cụm n Entropy (trị nhỏ khi chất lượng gom cụm tốt) Gom cụm theo phương án I hay phương án II tốt? ? ? 44

5. 2. Gom cụm dữ liệu bằng phân hoạch p Giải thuật k-means 45

5. 2. Gom cụm dữ liệu bằng phân hoạch p Giải thuật k-means 45

5. 2. Gom cụm dữ liệu bằng phân hoạch 46

5. 2. Gom cụm dữ liệu bằng phân hoạch 46

5. 2. Gom cụm dữ liệu bằng phân hoạch Original Points Optimal Clustering Sub-optimal

5. 2. Gom cụm dữ liệu bằng phân hoạch Original Points Optimal Clustering Sub-optimal Clustering 47

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đặc điểm của giải

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đặc điểm của giải thuật k-means? 48

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đặc điểm của giải

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đặc điểm của giải thuật k-means n Bài toán tối ưu hóa p n n Cực trị cục bộ Mỗi cụm được đặc trưng hóa bởi trung tâm của cụm (i. e. đối tượng trung bình (mean)). p Không thể xác định được đối tượng trung bình? ? ? p Số cụm k nên là bao nhiêu? Độ phức tạp: O(nkt) p n là số đối tượng, k là số cụm, t là số lần lặp § k << n, t << n 49

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đặc điểm của giải

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đặc điểm của giải thuật k-means n Ảnh hưởng bởi nhiễu (các phần tử kì dị/biên) n Không phù hợp cho việc khai phá ra các cụm có dạng không lồi (nonconvex) hay các cụm có kích thước rất khác nhau p p Kết quả gom cụm có dạng siêu cầu (hyperspherial) Kích thước các cụm kết quả thường đồng đều (relatively uniform sizes) 50

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đặc điểm của giải

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đặc điểm của giải thuật k-means n Đánh giá kết quả gom cụm của giải thuật kmeans với hai trị k 1 (phương án I) và k 2 (phương án II) khác nhau trên cùng tập dữ liệu mẫu cho trước p Entropy (trị nhỏ khi chất lượng gom cụm tốt) § Entropy (I) = ? ? ? § Entropy (II) = ? ? ? Gom cụm theo phương án I hay phương án II tốt? 51

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đặc điểm của giải

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đặc điểm của giải thuật k-means n Đánh giá kết quả gom cụm của giải thuật k-means với hai trị k 1 (phương án I) và k 2 (phương án II) khác nhau trên cùng tập dữ liệu mẫu cho trước p F-measure (trị lớn khi chất lượng gom cụm tốt) § F-measure (I) = ? ? ? § F-measure (II) = ? ? ? Gom cụm theo phương án I hay phương án II tốt? Kết quả đánh giá trùng với kết quả đánh giá dựa trên độ đo Entropy? 52

5. 2. Gom cụm dữ liệu bằng phân hoạch 53

5. 2. Gom cụm dữ liệu bằng phân hoạch 53

Exercise p p p Suppose that the data mining task is to cluster the

Exercise p p p Suppose that the data mining task is to cluster the following eight points (with (x, y) representing location) into three clusters: A 1(2, 10), A 2(2, 5), A 3(8, 4), B 1(5, 8), B 2(7, 5), B 3(6, 4), C 1(1, 2), C 2(4, 9). The distance function is Euclidean distance. Suppose initially we assign A 1, B 1, and C 1 as the center of each cluster, respectively. Use the k-means algorithm to show only (a) The three cluster centers after the first round execution (b) The final three clusters 54

5. 2. Gom cụm dữ liệu bằng phân hoạch p Tính “total cost S

5. 2. Gom cụm dữ liệu bằng phân hoạch p Tính “total cost S of swapping Oj và Orandom” = Σp. Cp/Oi. Orandom 55

5. 2. Gom cụm dữ liệu bằng phân hoạch p Tính “total cost S

5. 2. Gom cụm dữ liệu bằng phân hoạch p Tính “total cost S of swapping Oj và Orandom” = Σp. Cp/Oi. Orandom Cp/O O i random = d(p, Oj) – d(p, Oi) Cp/Oi. Orandom = d(p, Oj) – d(p, Orandom) Cp/O O i random =0 Cp/Oi. Orandom = d(p, Oi) – d(p, Orandom) 56

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đặc điểm của giải

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đặc điểm của giải thuật PAM (k-medoids) n ? ? ? 57

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đặc điểm của giải

5. 2. Gom cụm dữ liệu bằng phân hoạch p Đặc điểm của giải thuật PAM (k-medoids) n Mỗi cụm được đại diện bởi phần tử chính giữa cụm (centroid). p p n Giảm thiểu sự ảnh hưởng của nhiễu (phần tử biên/kì dị/cực trị). Số cụm k cần được xác định trước. Độ phức tạp cho mỗi vòng lặp O(k(n-k)2) p Giải thuật bị ảnh hưởng bởi kích thước tập dữ liệu. 58

5. 3. Gom cụm dữ liệu bằng phân cấp p Gom cụm dữ liệu

5. 3. Gom cụm dữ liệu bằng phân cấp p Gom cụm dữ liệu bằng phân cấp (hierarchical clustering): nhóm các đối tượng vào cây phân cấp của các cụm n Agglomerative: bottom-up (trộn các cụm) n Divisive: top-down (phân tách các cụm) Không Yêu cầu điều kiện dừng Không tách yêu cầu thông số nhập k (số cụm) thể quay lui ở mỗi bước trộn/phân 59

5. 3. Gom cụm dữ liệu bằng phân cấp p An agglomerative hierarchical clustering

5. 3. Gom cụm dữ liệu bằng phân cấp p An agglomerative hierarchical clustering method: AGNES (Agglomerative NESting) bottom-up p A divisive hierarchical clustering method: DIANA (Divisive ANAlysis) top-down 60

5. 3. Gom cụm dữ liệu bằng phân cấp p An agglomerative hierarchical clustering

5. 3. Gom cụm dữ liệu bằng phân cấp p An agglomerative hierarchical clustering method: AGNES (Agglomerative NESting) n Khởi đầu, mỗi đối tượng tạo thành một cụm. n Các cụm sau đó được trộn lại theo một tiêu chí nào đó. p n p Cách tiếp cận single-linkage: cụm C 1 và C 2 được trộn lại nếu khoảng cách giữa 2 đối tượng từ C 1 và C 2 là ngắn nhất. Quá trình trộn các cụm được lặp lại đến khi tất cả các đối tượng tạo thành một cụm duy nhất. A divisive hierarchical clustering method: DIANA (Divisive ANAlysis) n n Khởi đầu, tất cả các đối tượng tạo thành một cụm duy nhất. Một cụm được phân tách theo một tiêu chí nào đó đến khi mỗi cụm chỉ có một đối tượng. p Khoảng cách lớn nhất giữa các đối tượng cận nhau nhất. 61

5. 3. Gom cụm dữ liệu bằng phân cấp Single-linkage Complete-linkage 4 4 3

5. 3. Gom cụm dữ liệu bằng phân cấp Single-linkage Complete-linkage 4 4 3 3 2 2 1 1 1 2 3 4 Tiêu chí trộn các cụm: single-linkage và complete-linkage 62

5. 3. Gom cụm dữ liệu bằng phân cấp p Quá trình gom cụm

5. 3. Gom cụm dữ liệu bằng phân cấp p Quá trình gom cụm bằng phân cấp được biểu diễn bởi cấu trúc cây (dendrogram). 63

5. 3. Gom cụm dữ liệu bằng phân cấp p Quá trình gom cụm

5. 3. Gom cụm dữ liệu bằng phân cấp p Quá trình gom cụm bằng phân cấp được biểu diễn bởi cấu trúc cây (dendrogram). 3 cụm có độ tương tự kết hợp nhỏ nhất 0. 5 64

5. 3. Gom cụm dữ liệu bằng phân cấp p Các độ đo dùng

5. 3. Gom cụm dữ liệu bằng phân cấp p Các độ đo dùng đo khoảng cách giữa các cụm Ci và Cj p, p’: các đối tượng |p-p’|: khoảng cách giữa p và p’ mi, mj: đối tượng trung bình của Ci, Cj, tương ứng ni, nj: số lượng đối tượng của Ci, Cj, tương ứng 65

5. 3. Gom cụm dữ liệu bằng phân cấp p Một số giải thuật

5. 3. Gom cụm dữ liệu bằng phân cấp p Một số giải thuật gom cụm dữ liệu bằng phân cấp n BIRCH (Balanced Iterative Reducing and Clustering using Hierarchies): phân hoạch các đối tượng dùng cấu trúc cây theo độ co giãn của phân giải (scale of resolution) n ROCK (Robust Clustering using lin. Ks): gom cụm dành cho các thuộc tính rời rạc (categorical/discrete attributes), trộn các cụm dựa vào sự kết nối lẫn nhau giữa các cụm n Chameleon: mô hình động để xác định sự tương tự giữa các cặp cụm 66

5. 3. Gom cụm dữ liệu bằng phân cấp p Một số vấn đề

5. 3. Gom cụm dữ liệu bằng phân cấp p Một số vấn đề với gom cụm dữ liệu bằng phân cấp n Chọn điểm trộn/phân tách phù hợp n Khả năng co giãn (scalability) p Mỗi quyết định trộn/phân tách yêu cầu kiểm tra/đánh giá nhiều đối tượng/cụm. Tích hợp gom cụm dữ liệu bằng phân cấp với các kỹ thuật gom cụm khác Gom cụm nhiều giai đoạn (multiple-phase clustering) 67

5. 4. Gom cụm dữ liệu dựa trên mật độ p Gom cụm dữ

5. 4. Gom cụm dữ liệu dựa trên mật độ p Gom cụm dữ liệu dựa trên mật độ n Mỗi cụm là một vùng dày đặc (dense region) gồm các đối tượng. p n p Các đối tượng trong vùng thưa hơn được xem là nhiễu. Mỗi cụm có dạng tùy ý. Giải thuật n DBSCAN (Density-Based Spatial Clustering of Applications with Noise) n OPTICS (Ordering Points To Identify the Clustering Structure) n DENCLUE (DENsity-based CLUst. Ering) 68

5. 4. Gom cụm dữ liệu dựa trên mật độ p DBSCAN (Density-Based Spatial

5. 4. Gom cụm dữ liệu dựa trên mật độ p DBSCAN (Density-Based Spatial Clustering of Applications with Noise) n p OPTICS (Ordering Points To Identify the Clustering Structure) n p Phân tích các điểm kết nối nhau dựa vào mật độ Tạo ra thứ tự các điểm dữ liệu tùy vào cấu trúc gom cụm dựa vào mật độ của tập dữ liệu DENCLUE (DENsity-based CLUst. Ering) n Gom cụm dựa vào các hàm phân bố mật độ 69

5. 4. Gom cụm dữ liệu dựa trên mật độ p Các khái niệm

5. 4. Gom cụm dữ liệu dựa trên mật độ p Các khái niệm dùng trong gom cụm dữ liệu dựa trên mật độ n ε: bán kính của vùng láng giềng của một đối tượng, gọi là ε-neighborhood. n Min. Pts: số lượng đối tượng ít nhất được yêu cầu trong ε-neighborhood của một đối tượng. p Nếu đối tượng có ε-neighborhood với Min. Pts thì đối tượng này được gọi là đối tượng lõi (core object). ε q p ε p: core object (Min. Pts = 3) q: không là core object 70

5. 4. Gom cụm dữ liệu dựa trên mật độ p Các khái niệm

5. 4. Gom cụm dữ liệu dựa trên mật độ p Các khái niệm dùng trong gom cụm dữ liệu dựa trên mật độ n Directly density-reachable (khả năng đạt được trực tiếp): q có thể đạt được trực tiếp từ p nếu q trong vùng láng giềng ε-neighborhood của p và p phải là core object. ε q p ε p: directly density-reachable đối với q? q: directly density-reachable đối với p? p: directly density-reachable đối với q? X q: directly density-reachable đối với p? 71

5. 4. Gom cụm dữ liệu dựa trên mật độ p Các khái niệm

5. 4. Gom cụm dữ liệu dựa trên mật độ p Các khái niệm dùng trong gom cụm dữ liệu dựa trên mật độ n Density-reachable (khả năng đạt được): p p Cho trước tập đối tượng D, ε và Min. Pts q density-reachable từ p nếu chuỗi các đối tượng p 1, . . . , pn D với p 1 = p và pn = q sao cho pi+1 directly density-reachable từ pi theo các thông số ε và Min. Pts, 1 ≤ i ≤ n. Bao đóng truyền (transitive closure) của directly densityreachable Quan hệ bất đối xứng (asymmetric relation) q p Min. Pts = 5 p 2 72

5. 4. Gom cụm dữ liệu dựa trên mật độ p Các khái niệm

5. 4. Gom cụm dữ liệu dựa trên mật độ p Các khái niệm dùng trong gom cụm dữ liệu dựa trên mật độ n Density-connected (nối kết dựa trên mật độ): p Cho trước tập các đối tượng D, ε và Min. Pts p p, q D p p q density-connected với p nếu o D sao cho cả q và p đều density-reachable từ o theo các thông số ε và Min. Pts. Quan hệ đối xứng p q o o 73

5. 4. Gom cụm dữ liệu dựa trên mật độ p Các khái niệm

5. 4. Gom cụm dữ liệu dựa trên mật độ p Các khái niệm dùng trong gom cụm dữ liệu dựa trên mật độ Min. Pts = 3 74

5. 4. Gom cụm dữ liệu dựa trên mật độ p Các khái niệm

5. 4. Gom cụm dữ liệu dựa trên mật độ p Các khái niệm dùng trong gom cụm dữ liệu dựa trên mật độ n Border Outlier Cụm dựa trên mật độ (density based cluster): tập tất cả các đối tượng được nối kết với nhau dựa trên mật độ. p Đối tượng thuộc về cụm có thể là core object. § Nếu đối tượng đó không là core object thì gọi là đối tượng ranh giới (border object). p Đối tượng không thuộc về cụm nào được xem là nhiễu (noise/outlier). Core ε = 1 cm Min. Pts = 5 75

5. 4. Gom cụm dữ liệu dựa trên mật độ p DBSCAN (Density-Based Spatial

5. 4. Gom cụm dữ liệu dựa trên mật độ p DBSCAN (Density-Based Spatial Clustering of Applications with Noise) n Input: tập đối tượng D, ε, Min. Pts n Output: density-based clusters (và noise/outliers) n Giải thuật p 1. Xác định ε–neighborhood của mỗi đối tượng p D. p 2. If p là core object, tạo được một cluster. p 3. Từ bất kì core object p, tìm tất cả các đối tượng density-reachable và đưa các đối tượng này (hoặc các cluster) vào cùng cluster ứng với p. § 3. 1. Các cluster đạt được (density-reachable cluster) có thể được trộn lại với nhau. § 3. 2. Dừng khi không có đối tượng mới nào được thêm vào. 76

5. 4. Gom cụm dữ liệu dựa trên mật độ C 1 Min. Pts

5. 4. Gom cụm dữ liệu dựa trên mật độ C 1 Min. Pts = 4 77

5. 4. Gom cụm dữ liệu dựa trên mật độ p DBSCAN (Density-Based Spatial

5. 4. Gom cụm dữ liệu dựa trên mật độ p DBSCAN (Density-Based Spatial Clustering of Applications with Noise) n Đặc điểm ? ? ? p Các cụm có dạng và kích thước khác nhau. § Không có giả định về phân bố của các đối tượng dữ liệu § Không yêu cầu về số cụm § Không phụ thuộc vào cách khởi động (initialization) p Xử lý nhiễu (noise) và các phần tử biên (outliers) p Yêu cầu trị cho thông số nhập § Yêu cầu định nghĩa của mật độ (density) § ε và Min. Pts p Độ phức tạp § O(nlogn) O(n 2) 78

5. 5. Gom cụm dữ liệu dựa trên mô hình p Tối ưu hóa

5. 5. Gom cụm dữ liệu dựa trên mô hình p Tối ưu hóa sự phù hợp giữa dữ liệu và mô hình toán nào đó n Giả định về quá trình tạo dữ liệu p p Dữ liệu được tạo ra với nhiều sự phân bố xác suất khác nhau. Các phương pháp n Tiếp cận thống kê p Mở rộng của giải thuật gom cụm dựa trên phân hoạch k-means: Expectation-Maximization (EM) n Tiếp cận học máy: gom cụm ý niệm (conceptual clustering) n Tiếp cận mạng neural: Self-Organizing Feature Map (SOM) 79

5. 5. Gom cụm dữ liệu dựa trên mô hình p Gom cụm Expectation-Maximization

5. 5. Gom cụm dữ liệu dựa trên mô hình p Gom cụm Expectation-Maximization (EM) n p Gom cụm ý niệm (conceptual clustering) n p Giải thuật tinh chỉnh lặp để gán các đối tượng vào các cụm (bước kỳ vọng) và ước lượng trị thông số (bước cực đại hoá). Tạo ra cách phân lớp các đối tượng chưa được gán nhãn dựa vào các mô tả đặc trưng cho mỗi nhóm đối tượng ứng với mỗi khái niệm (concept). Gom cụm với mạng neural n Biểu diễn mỗi cụm là một ví dụ tiêu biểu (exemplar). n Exemplar đóng vai trò của một prototype của cụm. n Các đối tượng mới được phân bố vào một cụm nếu tương tự với exemplar của cụm đó nhất dựa trên độ đo khoảng cách. 80

5. 5. Gom cụm dữ liệu dựa trên mô hình 81

5. 5. Gom cụm dữ liệu dựa trên mô hình 81

5. 5. Gom cụm dữ liệu dựa trên mô hình p Giải thuật Expectation-Maximization

5. 5. Gom cụm dữ liệu dựa trên mô hình p Giải thuật Expectation-Maximization (EM) n Gán một đối tượng vào một cụm nếu tương tự trung tâm (mean) của cụm đó nhất p Dựa vào trọng số (weight) của đối tượng đối với mỗi cụm § Xác suất thành viên (probability of membership) p p n Không có ranh giới giữa các cụm Trung tâm của mỗi cụm được tính dựa vào các độ đo có trọng số (weighted measures). Hội tụ nhanh nhưng có thể tối ưu cục bộ 82

5. 5. Gom cụm dữ liệu dựa trên mô hình p Giải thuật Expectation-Maximization

5. 5. Gom cụm dữ liệu dựa trên mô hình p Giải thuật Expectation-Maximization (EM) n Input: tập n đối tượng, K (số cụm) n Output: trị tối ưu cho các thông số của mô hình n Giải thuật: p 1. Khởi trị § 1. 1. Chọn ngẫu nhiên K đối tượng làm trung tâm của K cụm § 1. 2. Ước lượng trị ban đầu cho các thông số (nếu cần) p 2. Lặp tinh chỉnh các thông số (cụm): § 2. 1. Bước kỳ vọng (expectation step): gán mỗi đối tượng x i đến cụm Ck với xác suất P(xi Ck) với k=1. . K § 2. 2. Bước cực đại hóa (maximization step): ước lượng trị các thông số § 2. 3. Dừng khi thỏa điều kiện định trước. 83

5. 5. Gom cụm dữ liệu dựa trên mô hình p Giải thuật Expectation-Maximization

5. 5. Gom cụm dữ liệu dựa trên mô hình p Giải thuật Expectation-Maximization (EM) n Giải thuật: p 1. Khởi trị p 2. Lặp tinh chỉnh các thông số (cụm): § 2. 1. Bước kỳ vọng (expectation step): gán mỗi đối tượng x i đến cụm Ck với xác suất P(xi Ck) § 2. 2. Bước cực đại hóa (maximization step): ước lượng trị các thông số (mk là trung tâm của cụm Ck, j = 1. . K, k = 1. . K) 84

5. 6. Các phương pháp gom cụm dữ liệu khác Gom cụm cứng (hard

5. 6. Các phương pháp gom cụm dữ liệu khác Gom cụm cứng (hard clustering) n n n p Mỗi đối tượng chỉ thuộc về một cụm. Mức thành viên (degree of membership) của mỗi đối tượng với một cụm hoặc là 0 hoặc là 1. Ranh giới (boundary) giữa các cụm rõ ràng. 3000 Weight [kg] p 3500 Lorries 2500 Sports cars 2000 1500 Medium market cars 1000 500 150 200 250 Top speed [km/h] 300 Gom cụm mờ (fuzzy clustering) n Mỗi đối tượng thuộc về nhiều hơn một cụm với mức thành viên nào đó từ 0 đến 1. n Ranh giới giữa các cụm không rõ ràng (mờ - vague/fuzzy). 85

5. 7. Tóm tắt p Gom cụm nhóm các đối tượng vào các cụm

5. 7. Tóm tắt p Gom cụm nhóm các đối tượng vào các cụm dựa trên sự tương tự giữa các đối tượng. p Độ đo đo sự tương tự tùy thuộc vào kiểu dữ liệu/đối tượng cụ thể. p Các giải thuật gom cụm được phân loại thành: nhóm phân hoạch, nhóm phân cấp, nhóm dựa trên mật độ, nhóm dựa trên lưới, nhóm dựa trên mô hình, … 86

5. 7. Tóm tắt R. Xu, D. Wunsch II. Survey of Clustering Algorithms. IEEE

5. 7. Tóm tắt R. Xu, D. Wunsch II. Survey of Clustering Algorithms. IEEE Transactions on Neural Networks, 16(3), May 2005, pp. 645 -678. 87