-
Notifications
You must be signed in to change notification settings - Fork 42
/
classification-ascendante-hierarchique.Rmd
812 lines (670 loc) · 32.2 KB
/
classification-ascendante-hierarchique.Rmd
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
---
title: "Classification ascendante hiérarchique (CAH)"
output:
html_document:
mathjax: default
---
```{r options_communes, include=FALSE, cache=FALSE}
source("options_communes.R")
```
<div class="guide-R">
Une version actualisée de ce chapitre est disponible sur **guide-R** : [Classification ascendante hiérarchique](https://larmarange.github.io/guide-R/analyses_avancees/classification-ascendante-hierarchique.html)
</div>
<div class="webin-R">
Ce chapitre est évoqué dans le webin-R #12 (Classification ascendante hiérarchique sur [YouTube](https://youtu.be/Q8adb64NzUI).
</div>
<div class="note">
Pour une introduction didactique et en français à la classification, voir ce [billet de Philippe Cibois sur Hypothses.org](https://quanti.hypotheses.org/2186).
</div>
Il existe de nombreuses techniques statistiques visant à partinionner
une population en différentes classes ou sous-groupes.
La <dfn>classification ascendante hiérarchique</dfn> (<dfn>CAH</dfn>) est l'une d'entre elles. On cherche
à ce que les individus regroupés au sein d'une même classe (homogénéité intra-classe) soient le plus
semblables possibles tandis que les classes soient le plus dissemblables (hétérogénéité inter-classe).
Le principe de la CAH est de rassembler des individus selon un critère de ressemblance défini au
préalable qui s'exprimera sous la forme d'une <dfn>matrice de distances</dfn>, exprimant la distance existant entre
chaque individu pris deux à deux. Deux observations identiques auront une distance nulle. Plus les deux
observations seront dissemblables, plus la distance sera importante. La CAH va ensuite rassembler les
individus de manière itérative afin de produire un <dfn>dendrogramme</dfn> ou
<dfn>arbre de classification</dfn><dfn data-index="classification, arbre"></dfn>. La classification
est *ascendante* car elle part des observations individuelles ; elle est *hiérarchique* car elle produit des
classes ou groupes de plus en plus vastes, incluant des sous-groupes en leur sein. En découpant cet arbre
à une certaine hauteur choisie, on produira la <dfn>partition</dfn> désirée.
<div class="note">
On trouvera également de nombreux supports de cours en français sur la CAH sur le site de François
Gilles Carpentier : <http://pagesperso.univ-brest.fr/~carpenti/>.
</div>
## Calculer une matrice des distances
La notion de <dfn>ressemblance</dfn> entre observations est évaluée par une <dfn>distance</dfn> entre individus.
Plusieurs type de ditances existent selon les données utilisées.
Il existe de nombreuses distances mathématiques pour les variables quantitatives (euclidiennes, Manhattan...)
que nous n'aborderons pas ici^[Pour une présentation de ces différentes distances, on pourra se référer à
<http://old.biodiversite.wallonie.be/outils/methodo/similarite_distance.htm> ou encore à ce support de cours
par D. Chessel, J. Thioulouse et A.B. Dufour disponible à <http://pbil.univ-lyon1.fr/R/pdf/stage7.pdf>.].
La plupart peuvent être calculées avec la fonction `dist`{data-pkg="stats"}.
Usuellement, pour un ensemble de variables qualitatives, on aura recours à la
<dfn data-index="distance du Phi²">distance du Φ²</dfn><dfn data-index="Phi², distance"></dfn> qui est
celle utilisée pour l'analyse des correspondances multiples (voir le [chapitre dédié]()).
Avec l'extension `ade4`{.pkg}, la distance du Φ² s'obtient avec la fonction
`dist.dudi`{data-pkg="ade4"}^[Cette même fonction peut aussi être utilisée pour calculer une distance
après une analyse en composantes principales ou une analyse mixte de Hill et Smith.].
Le cas particulier de la CAH avec l'extension `FactoMineR`{.pkg} sera abordée dans
une section spécifique ci-après. Nous évoquerons également la
<dfn>distance de Gower</dfn><dfn data-index="Gower, distance"></dfn> qui peut s'appliquer à
un ensemble de variables à la fois qualitatives et quantitatives et qui se calcule avec la fonction
`daisy`{data-pkg="cluster"} de l'extension `cluster`{.pkg}. Enfin, dans le
chapitre sur l'[analyse de séquences](analyse-de-sequences.html), nous verrons également la fonction
`seqdist`{data-pkg="TraMineR"} (extension `TraMineR`{.pkg}) permettant de
calculer une distance entre séquences.
### Distance de Gower
En 1971, Gower a proposé un <dfn>indice de similarité</dfn><dfn data-index="similarité, indice"></dfn>
qui porte son nom^[Voir Gower, J. (1971). A General Coefficient of Similarity and Some of Its Properties. *Biometrics*, 27(4), 857-871. doi:10.2307/2528823 (<http://www.jstor.org/stable/2528823>).].
L'objectif de cet indice consiste à mesurer dans quelle mesure deux individus sont semblables.
L'indice de Gower varie entre 0 et 1. Si l'indice vaut 1, les deux individus sont identiques.
À l'opposé, s'il vaut 0, les deux individus considérés n'ont pas de point commun.
Si l'on note *S~g~* l'<dfn>indice de similarité de Gower</dfn><dfn data-index="Gower, indice de similarité"></dfn>,
la distance de Gower *D~g~* s'obtient simplement de la manière suivante :
*D~g~* = 1 - *S~g~*. Ainsi, la distance sera nulle entre deux individus
identiques et elle sera égale à 1 entre deux individus totalement différents. Cette distance s'obtient sous
**R** avec la fonction `daisy`{data-pkg="cluster"} du package `cluster`{.pkg}.
L'indice de similarité de Gower entre deux individus *x~1~* et *x~2~* se calcule de la manière suivante :
<!--
$$ S_{g}(x_{1},x_{2})=\frac{1}{p}\sum_{j=1}^{p}s_{12j} $$
converted on http://www2.ph.ed.ac.uk/snuggletex/MathInputDemo
-->
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block">
<semantics>
<mrow>
<msub>
<mi>S</mi>
<mi>g</mi>
</msub>
<mfenced close=")" open="(">
<msub>
<mi>x</mi>
<mn>1</mn>
</msub>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
</mfenced>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>p</mi>
</mfrac>
<munderover>
<mo>∑</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>p</mi>
</munderover>
<msub>
<mi>s</mi>
<mrow>
<mn>12</mn>
<mi>j</mi>
</mrow>
</msub>
</mrow>
</semantics>
</math>
*p* représente le nombre total de caractères (ou de variables) descriptifs utilisés pour comparer les deux
individus^[Pour une description mathématique plus détaillée de cette fonction, notamment en cas de valeur manquante, se référer à l'article original de Gower précédemment cité.]. *s*~12*j*~ représente la similarité partielle entre les individus 1 et 2 concernant le descripteur *j*.
Cette similarité partielle se calcule différemment s'il s'agit d'une
<dfn>variable qualitative</dfn><dfn data-index="qualitative, variable"></dfn> ou
<dfn data-index="variable quantitative">quantitative</dfn><dfn data-index="quantitative, variable"></dfn> :
* **variable qualitative :** *s*~12*j*~ vaut 1 si la variable *j* prend la même valeur pour les individus 1 et 2,
et vaut 0 sinon. Par exemple, si 1 et 2 sont tous les deux « grand », alors *s*~12*j*~ vaudra 1.
Si 1 est « grand » et 2 « petit », *s*~12*j*~ vaudra 0.
* **variable quantitative :** la différence absolue entre les valeurs des deux variables est tout d'abord
calculée, soit |*y*~1*j*~ − *y*~2*j*~|. Puis l'écart maximum observé sur l'ensemble du fichier est déterminé et
noté *R*~*j*~. Dès lors, la similarité partielle vaut *S*~12*j*~ = 1 - |*y*~1*j*~ − *y*~2*j*~| / *R*~*j*~.
Dans le cas où l'on n'a que des variables qualitatives, la valeur de l'indice de Gower correspond à la
proportion de caractères en commun. Supposons des individus 1 et 2 décris ainsi :
1. homme / grand / blond / étudiant / urbain
2. femme / grande / brune / étudiante / rurale
Sur les 5 variables utilisées pour les décrire, 1 et 2 ont deux caractéristiques communes : ils sont grand(e)s
et étudiant(e)s. Dès lors, l'indice de similarité de Gower entre 1 et 2 vaut 2/5 = 0,4 (soit une distance de
1 − 0,4 = 0,6).
Plusieurs approches peuvent être retenues pour traiter les valeurs manquantes :
* supprimer tout individu n'étant pas renseigné pour toutes les variables de l'analyse ;
* considérer les valeurs manquantes comme une modalité en tant que telle ;
* garder les valeurs manquantes en tant que valeurs manquantes.
Le choix retenu modifiera les distances de Gower calculées. Supposons que l'on ait :
1. homme / grand / blond / étudiant / urbain
2. femme / grande / brune / étudiante / manquant
Si l'on supprime les individus ayant des
<dfn data-index="valeur manquante">valeurs manquantes</dfn><dfn data-index="manquante, valeur"></dfn>,
2 est retirée du fichier d'observations et aucune distance n'est calculée.
Si l'on traite les valeurs manquantes comme une modalité particulière, 1 et 2
partagent alors 2 caractères sur les 5 analysés, la distance de Gower entre eux est alors de
1 − 2/5 =1 − 0,4 = 0,6.
Si on garde les valeurs manquantes, l'indice de Gower est dès lors calculé sur les seuls
descripteurs renseignés à la fois pour 1 et 2. La distance de Gower sera calculée dans le cas présent
uniquement sur les 4 caractères renseignés et vaudra 1 − 2/4 = 0,5.
### Distance du Φ²
Il s'agit de la distance utilisée dans les analyses de correspondance multiples (ACM). C'est une variante
de la <dfn data-index="distance du Chi²">distance du χ²</dfn><dfn data-index="Chi², distance"></dfn>.
Nous considérons ici que nous avons *Q* questions (soit *Q* variables initiales de type
facteur). À chaque individu est associé un <dfn>patron</dfn> c'est-à-dire une certaine combinaison de réponses aux
*Q* questions. La distance entre deux individus correspond à la distance entre leurs deux patrons. Si les
deux individus présentent le même patron, leur distance sera nulle. La distance du Φ² peut s'exprimer
ainsi :
<!--
$$ d_{\Phi^2}^2(L_i,L_j)=\frac{1}{Q}\sum_{k}\frac{(\delta_{ik}-\delta_{jk})^2}{f_k} $$
converted on http://www2.ph.ed.ac.uk/snuggletex/MathInputDemo
-->
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block">
<semantics>
<mrow>
<msubsup>
<mi>d</mi>
<msup>
<mi>Φ</mi>
<mn>2</mn>
</msup>
<mn>2</mn>
</msubsup>
<mfenced close=")" open="(">
<msub>
<mi>L</mi>
<mi>i</mi>
</msub>
<msub>
<mi>L</mi>
<mi>j</mi>
</msub>
</mfenced>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>Q</mi>
</mfrac>
<munder>
<mo>∑</mo>
<mi>k</mi>
</munder>
<mfrac>
<msup>
<mfenced close=")" open="(">
<mrow>
<msub>
<mi>δ</mi>
<mrow>
<mi>i</mi>
<mi>k</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>δ</mi>
<mrow>
<mi>j</mi>
<mi>k</mi>
</mrow>
</msub>
</mrow>
</mfenced>
<mn>2</mn>
</msup>
<msub>
<mi>f</mi>
<mi>k</mi>
</msub>
</mfrac>
</mrow>
</semantics>
</math>
où *L~i~* et *L~j~* sont deux patrons, *Q* le nombre total de questions. *δ~ik~* vaut 1 si la
modalité *k* est présente dans le patron *L~i~*, 0 sinon. *f~k~* est la fréquence de la modalité *k*
dans l'ensemble de la population.
Exprimé plus simplement, on fait la somme de l'inverse des modalités non communes aux deux patrons,
puis on divise par le nombre total de question. Si nous reprenons notre exemple précédent :
1. homme / grand / blond / étudiant / urbain
2. femme / grande / brune / étudiante / rurale
Pour calculer la distance entre 1 et 2, il nous faut connaître la proportion des différentes modalités dans
l'ensemble de la population étudiée. En l'occurrence :
* hommes : 52 % / femmes : 48 %
* grand : 30 % / moyen : 45 % / petit : 25 %
* blond : 15 % / châtain : 45 % / brun : 30 % / blanc : 10 %
* étudiant : 20 % / salariés : 65 % / retraités : 15 %
* urbain : 80 % / rural : 20 %
Les modalités non communes entre les profils de 1 et 2 sont : homme, femme, blond, brun, urbain et
rural. La distance du Φ² entre 1 et 2 est donc la suivante :
<!--
$$ d_{\Phi^2}^2(L_1,L_2)=\frac{1}{5}(\frac{1}{0,52}+\frac{1}{0,48}+\frac{1}{0,15}+\frac{1}{0,30}+\frac{1}{0,80}+\frac{1}{0,20})=4,05 $$
converted on http://www2.ph.ed.ac.uk/snuggletex/MathInputDemo
-->
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block">
<semantics>
<mrow>
<msubsup>
<mi>d</mi>
<msup>
<mi>Φ</mi>
<mn>2</mn>
</msup>
<mn>2</mn>
</msubsup>
<mfenced close=")" open="(">
<msub>
<mi>L</mi>
<mn>1</mn>
</msub>
<msub>
<mi>L</mi>
<mn>2</mn>
</msub>
</mfenced>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mn>5</mn>
</mfrac>
<mfenced close=")" open="(">
<mrow>
<mfrac>
<mn>1</mn>
<mrow>
<mn>0</mn>
<mo>,</mo>
<mn>52</mn>
</mrow>
</mfrac>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>0</mn>
<mo>,</mo>
<mn>48</mn>
</mrow>
</mfrac>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>0</mn>
<mo>,</mo>
<mn>15</mn>
</mrow>
</mfrac>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>0</mn>
<mo>,</mo>
<mn>30</mn>
</mrow>
</mfrac>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>0</mn>
<mo>,</mo>
<mn>80</mn>
</mrow>
</mfrac>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>0</mn>
<mo>,</mo>
<mn>20</mn>
</mrow>
</mfrac>
</mrow>
</mfenced>
<mo>=</mo>
<mn>4</mn>
<mo>,</mo>
<mn>05</mn>
</mrow>
</semantics>
</math>
Cette distance, bien que moins intuitive que la distance de Gower évoquée précédemment, est la plus
employée pour l'analyse d'enquêtes en sciences sociales. Il faut retenir que la distance entre deux profils
est dépendante de la distribution globale de chaque modalité dans la population étudiée. Ainsi, si l'on
recalcule les distances entre individus à partir d'un sous-échantillon, le résultat obtenu sera différent. De
manière générale, les individus présentant des caractéristiques rares dans la population vont se retrouver
éloignés des individus présentant des caractéristiques fortement représentées.
### Exemple
Nous allons reprendre l'ACM calculée avec `dudi.acm`{data-pkg="ade4"} (`ade4`{.pkg})
dans le [chapitre consacré à l'ACM]() :
```{r}
library(questionr)
data(hdv2003)
d <- hdv2003
d$grpage <- cut(d$age, c(16, 25, 45, 65, 93), right = FALSE, include.lowest = TRUE)
d$etud <- d$nivetud
levels(d$etud) <- c("Primaire", "Primaire", "Primaire", "Secondaire", "Secondaire",
"Technique/Professionnel", "Technique/Professionnel", "Supérieur" )
d2 <- d[, c("grpage", "sexe", "etud", "peche.chasse", "cinema", "cuisine", "bricol", "sport", "lecture.bd")]
library(ade4)
acm <- dudi.acm(d2, scannf = FALSE, nf = 5)
```
La matrice des distances s'obtient dès lors avec la fonction `dist.dudi`{data-pkg="ade4"} :
```{r}
md <- dist.dudi(acm)
```
Pour une matrice de distances basée sur la distance de Gower, nous aurions eu plutôt recours à la fonction `daisy`{data-pkg="cluster"} de l'extension `cluster`{.pkg}.
```{r}
library(cluster)
md_gower <- daisy(d2, metric = "gower")
```
## Calcul du dendrogramme
Il faut ensuite choisir une méthode d'<dfn>agrégation</dfn> pour construire le dendrogramme. De nombreuses
solutions existent (saut minimum, distance maximum, moyenne, Ward...). Chacune d'elle produira un
dendrogramme différent. Nous ne détaillerons pas ici ces différentes techniques^[On pourra consulter
le cours de FG Carpentier déjà cité ou bien des ouvrages d'analyse statistique.]. Cependant, à l'usage,
on privilégiera le plus souvent la <dfn>méthode de Ward</dfn><dfn data-index="Ward, méthode"></dfn>^[Ward, J. (1963). Hierarchical Grouping to Optimize an Objective Function. *Journal of the American Statistical Association*, 58(301), 236-244. doi:10.2307/2282967. (<http://www.jstor.org/stable/2282967>)].
De manière simplifiée, cette méthode cherche à minimiser l'inertie intra-classe et à maximiser l'inertie inter-classe afin d'obtenir des classes les plus homogènes possibles. Cette méthode est souvent incorrectement présentée comme une <q>méthode de minimisation de la variance</q> alors qu'au sens strict Ward vise <q>l'augmentation mininum de la somme des carrés</q> ("minimum increase of sum-of-squares (of errors)")^[Voir par exemple la discussion, en anglais, sur Wikipedia concernant la page présentant la méthode Ward : <https://en.wikipedia.org/wiki/Talk:Ward%27s_method>].
En raison de la variété des distances possibles et de la variété des techniques d'agrégation, on pourra
être amené à réaliser plusieurs dendrogrammes différents sur un même jeu de données jusqu'à obtenir une
classification qui fait « sens ».
La fonction de base pour le calcul d'un dendrogramme est `hclust`{data-pkg="stats"} en précisant
le critère d'agrégation avec `method`. Dans notre cas, nous allons opter pour la méthode de Ward
appliquée au carré des distances (ce qu'on indique avec `method = "ward.D2"`^[Depuis la version
3.1 de **R**. L'option `method = "ward.D"` correspondant à la version disponible dans les versions précédentes de **R**. Mais il est à noter que la méthode décrite par Ward dans son article de 1963 correspond en réalité à `method = "ward.D2`.]) :
```{r}
arbre <- hclust(md, method = "ward.D2")
```
<div class="note">
Le temps de calcul d'un dendrogramme peut être particulièrement important sur un gros fichier de données.
L'extension `fastcluster`{.pkg} permet de réduire significativement le temps de calcul.
Il suffit d'installer puis d'appeler cette extension. La fonction
`hclust`{data-pkg="fastcluster"} sera automatiquement remplacée par cette
version optimisée. Elle prends les mêmes paramètres :
```{r, eval=FALSE}
library(fastcluster)
arbre <- hclust(md, method = "ward.D2")
```
</div>
Le dendrogramme obtenu peut être affiché simplement avec `plot`{data-pkg="stats" data-rdoc="hclust"}.
Lorsque le nombre d'individus est important, il peut être utile de ne pas afficher les étiquettes des individus
avec `labels=FALSE`.
<figure>
```{r}
plot(arbre, labels = FALSE, main = "Dendrogramme")
```
<figcaption>Dendrogramme obtenu avec hclust</figcaption>
</figure>
Pour afficher un dendrogramme via `ggplot2`{.pkg}, on pourra avoir recours à la fonction `ggdendrogram`{data-pkg="ggdendro"} de l'extension `ggdendro`{.pkg}.
<figure>
```{r}
library(ggdendro)
ggdendrogram(arbre, labels = FALSE)
```
<figcaption>Dendrogramme obtenu avec ggdendrogram</figcaption>
</figure>
La fonction `agnes`{data-pkg="cluster"} de l'extension `cluster`{.pkg} peut également
être utilisée pour calculer le dendrogramme. Cependant, à l'usage, elle semble être un peu plus lente que
`hclust`{data-pkg="stats"}.
```{r, eval=FALSE}
library(cluster)
arbre2 <- agnes(md, method = "ward")
```
ATTENTION : la méthode implémentée dans la fonction `agnes`{data-pkg="cluster"} correspond à l'option
`method = "ward.D2"` de `hclust`{data-pkg="stats"}.
Le résultat obtenu n'est pas au même format que celui de `hclust`{data-pkg="stats"}. Il est possible de
transformer un objet `agnes`{data-pkg="cluster" data-rdoc="agnes.object"} au format
`hclust`{data-pkg="stats"} avec `as.hclust`{data-pkg="cluster" data-rdoc="agnes.object"}.
```{r, eval=FALSE}
as.hclust(arbre2)
```
## Découper le dendrogramme
Pour obtenir une <dfn>partition</dfn> de la population, il suffit de découper le dendrogramme obtenu à une
certaine hauteur. En premier lieu, une analyse de la forme du dendrogramme pourra nous donner une indication
sur le nombre de classes à retenir. Dans notre exemple, deux branches bien distinctes apparaissent
sur l'arbre.
Pour nous aider, nous pouvons représenter les
<dfn data-index="saut d'inertie">sauts d'inertie</dfn><dfn data-index="inertie, saut"></dfn>
du dendrogramme selon le nombre de classes retenues.
<figure>
```{r}
inertie <- sort(arbre$height, decreasing = TRUE)
plot(inertie[1:20], type = "s", xlab = "Nombre de classes", ylab = "Inertie")
```
<figcaption>Inertie du dendrogramme</figcaption>
</figure>
On voit trois sauts assez nets à 2, 5 et 8 classes, que nous avons représentés ci-dessous
respectivement en vert, en rouge et en bleu.
<figure>
```{r}
plot(inertie[1:20], type = "s", xlab = "Nombre de classes", ylab = "Inertie")
points(c(2, 5, 8), inertie[c(2, 5, 8)], col = c("green3", "red3", "blue3"), cex = 2, lwd = 3)
```
<figcaption>Sauts d'inertie du dendrogramme</figcaption>
</figure>
La fonction `rect.hclust`{data-pkg="stats"} permet de visualiser les différentes partitions
directement sur le dendrogramme.
<figure>
```{r}
plot(arbre, labels = FALSE, main = "Partition en 2, 5 ou 8 classes", xlab = "", ylab = "", sub = "", axes = FALSE, hang = -1)
rect.hclust(arbre, 2, border = "green3")
rect.hclust(arbre, 5, border = "red3")
rect.hclust(arbre, 8, border = "blue3")
```
<figcaption>Différentes partitions du dendrogramme</figcaption>
</figure>
On peut également avoir recours à l'extension `dendextend`{.pkg} et sa fonction `color_branches`{data-pkg="dendextend"}. À noter que `dendextend`{.pkg} fournit une méthode permettant de passer un dendrogramme à `ggplot`{data-pkg="ggplot2"}.
<figure>
```{r}
library(dendextend)
library(ggplot2)
ggplot(color_branches(arbre, k = 5), labels = FALSE)
```
<figcaption>Un dendrogramme coloré avec dendextend</figcaption>
</figure>
On peut aussi avoir recours à la fonction `fviz_dend`{data-pkg="factoextra"} de l'extension `factoextra`.
<figure>
```{r}
library(factoextra)
fviz_dend(arbre, k = 5, show_labels = FALSE, rect = TRUE)
```
<figcaption>Un dendrogramme coloré avec factoextra</figcaption>
</figure>
L'extension `FactoMineR`{.pkg} (que nous aborderons
[dans une section dédiée ci-après](#factominer)) suggère d'utiliser la partition
ayant la plus grande <dfn>perte relative d'inertie</dfn><dfn data-index="indertie, perte relative"></dfn>.
L'extension `JLutils`{.pkg}
(disponible sur [GitHub](https://github.com/larmarange/JLutils)) propose une fonction
`best.cutree`{data-pkg="JLutils"} qui permet de calculer cette indicateur à partir de n'importe
quel dendrogramme calculé avec `hclust`{data-pkg="stats"} ou `agnes`{data-pkg="cluster"}.
Pour installer `JLutils`{.pkg}, on aura recours au package
`devtools`{.pkg} et à sa fonction `install_github`{data-pkg="devtools"} :
```{r, eval=FALSE}
library(devtools)
install_github("larmarange/JLutils")
```
Pour installer `JLutils`{.pkg} sur un PC sous **Windows**, vous aurez également besoin de **Rtools**, téléchargeable sur <https://cran.r-project.org/bin/windows/Rtools/>. Une fois installée, pensez à charger l'extension.
```{r}
library(JLutils)
```
Si vous rencontrez des difficultés avec l'installation de `JLutils`{.pkg} et si vous avez seulement besoin de `best.cutree`{data-pkg="JLutils"}, vous pouvez avoir recours à la commande suivante.
```{r, eval=FALSE}
source(url("https://raw.githubusercontent.com/larmarange/JLutils/master/R/clustering.R"))
```
Par défaut, `best.cutree`{data-pkg="JLutils"} regarde quelle serait la meilleure partition entre 3
et 20 classes.
```{r}
best.cutree(arbre)
```
En l'occurence il s'agirait d'une partition en 5 classes. Il est possible de modifier le minimum et le maximum
des partitions recherchées avec `min` et `max`.
```{r}
best.cutree(arbre, min = 2)
```
On peut également représenter le graphique des pertes relatives d'inertie avec `graph=TRUE`. La meilleure
partition selon ce critère est représentée par un point noir et la seconde par un point gris.
<figure>
```{r}
best.cutree(arbre, min = 2, graph = TRUE, xlab = "Nombre de classes", ylab = "Inertie relative")
```
<figcaption>Perte relative d'inertie selon le nombre de classes</figcaption>
</figure>
Un découpage en deux classes minimise ce critère. Cependant, si l'on souhaite réaliser
une analyse un peu plus fine, un nombre de classes plus élevé serait pertinent. Nous allons donc retenir
un découpage en cinq classes. Le découpage s'effectue avec la fonction `cutree`{data-pkg="stats"}.
```{r}
typo <- cutree(arbre, 5)
freq(typo)
```
<div class="important">
Je peux ajouter directement ma typologie à mon objet `d2` ou même `d` dans la mesure où je n'ai pas modifié depuis le début du script l'ordre de mes observations. Dès lors, l'ordre du résultat renvoyé par `cutree`{data-pkg="stats"} correspond à l'ordre de ma matrice de distance qui elle-même est ordonnée selon les observations de l'ACM qui est ordonnée selon l'ordre des observations du tableau de données initial.
```{r}
d2$typo <- cutree(arbre, 5)
```
</div>
<div class="note">
Il existe de multiples autres indicateurs statistiques cherchant à mesurer la <q>qualité</q> de chaque partition. Pour cela, on pourra par exemple avoir recours à la fonction `as.clustrange`{data-pkg="WeightedCluster"} de l'extension `WeightedCluster`{.pkg}.
Pour plus d'informations, voir le [*manuel de la librairie WeightedCluster*](https://cran.r-project.org/web/packages/WeightedCluster/vignettes/WeightedClusterFR.pdf), chapitre 7.
```{r}
library(WeightedCluster)
plot(as.clustrange(arbre, md))
```
</div>
La typologie obtenue peut être représentée dans le plan factoriel avec `s.class`{data-pkg="ade4"}.
<figure>
```{r}
par(mfrow = c(1, 2))
library(RColorBrewer)
s.class(acm$li, as.factor(typo), col = brewer.pal(5, "Set1"), sub = "Axes 1 et 2")
s.class(acm$li, as.factor(typo), 3, 4, col = brewer.pal(5, "Set1"), sub = "Axes 3 et 4")
par(mfrow = c(1, 1))
```
<figcaption>Projection de la typologie obtenue par CAH selon les 4 premiers axes</figcaption>
</figure>
<div class="note">
De nombreuses possibilités graphiques sont possibles avec les dendrogrammes. Des exemples documentés
sont disponibles à cette adresse : <http://rpubs.com/gaston/dendrograms>.
Romain François a developpé une fonction `A2Rplot`{data-pkg="JLutils"} permettant de réaliser
facilement un dendrogramme avec les branches colorées^[Voir
<http://addicted2or.free.fr/packages/A2R/lastVersion/R/code.R>.].
Par commodité, cette fonction est disponible directement au sein de l'extension
`JLutils`{.pkg}.
Si vous rencontrez des difficultés à installer `JLutils`{.pkg}, vous pouvez également charger seulement `A2Rplot`{data-pkg="JLutils"}source() avec la commande :
```{r eval=FALSE}
source(url("https://raw.githubusercontent.com/larmarange/JLutils/master/R/A2Rplot.R"))
```
Pour réaliser le graphique, on indiquera le nombre de classes et les couleurs à utiliser pour chaque
branche de l'arbre :
```{r}
A2Rplot(arbre, k = 5, boxes = FALSE, col.up = "gray50", col.down = brewer.pal(5, "Dark2"), show.labels = FALSE)
```
</div>
<div class="note">
Pour plus d'options graphiques concernant les dendrogrammes en général, on pourra se référer à l'extension `dendextend`{.pkg} : <https://talgalili.github.io/dendextend/>.
</div>
## Caractériser la typologie
Reste le travail le plus important (et parfois le plus difficile) qui consiste à catégoriser la typologie obtenue et le cas échéant à nommer les classes.
En premier lieu, on peut croiser la typologie obtenue avec les différentes variables inclues dans l'ACM. Le plus simple est d'avoir recours à `tbl_summary`{data-pkg="gtsummary"} de `gtsummary`{.pkg}.
```{r}
library(gtsummary)
d2 %>%
tbl_summary(by = typo)
```
On peut également avoir recours à `ggtable`{data-pkg="GGally"} de `GGally`{.pkg} pour représenter les résidus du Chi² et mieux repérer les différences.
<figure>
```{r fig.height=10, fig.width=8}
library(GGally)
d2$typo <- factor(d2$typo)
ggtable(
d2,
columnsX = "typo",
columnsY = names(d2)[1:9],
cells = "col.prop",
fill = "std.resid"
) +
labs(fill = "Résidus standardizés du Chi²") +
theme(legend.position = "bottom")
```
<figcaption>Résidus du Chi²</figcaption>
</figure>
## CAH avec l'extension FactoMineR{#factominer}
L'extension `FactoMineR`{.pkg} fournit une fonction `HCPC`{data-pkg="FactoMineR"}
permettant de réaliser une classification hiérarchique à partir du résultats d'une analyse factorielle réalisée
avec la même extension (voir la [section dédiée du chapitre sur l'ACM](#factominer)).
`HCPC`{data-pkg="FactoMineR"} réalise à la fois le calcul de la matrice des distances,
du dendrogramme et le partitionnement de la population en classes.
Par défaut, `HCPC`{data-pkg="FactoMineR"} calcule le dendrogramme à partir du carré des distances du Φ²
et avec la méthode de Ward.
Par défaut, l'arbre est affiché à l'écran et l'arbre sera coupé selon la partition ayant la plus
grande perte relative d'inertie (comme avec `best.cutree`{data-pkg="JLutils"}). Utilisez `graph=FALSE`
pour ne pas afficher le graphique et l'argument `nb.clust` pour indiquer le nombre de classes
désirées.
```{r, message=FALSE, warning=FALSE}
library(FactoMineR)
acm2 <- MCA(d2[complete.cases(d2), ], ncp = 5, graph = FALSE)
cah <- HCPC(acm2, graph = FALSE)
```
On pourra représenter le dendrogramme avec `plot`{data-pkg="FactoMineR" data-rdoc="plot.HCPC"}
et l'argument `choice="tree"`.
<figure>
```{r, message=FALSE, warning=FALSE}
plot(cah, choice = "tree")
```
<figcaption>Dendrogramme obtenu avec HCPC (5 axes)</figcaption>
</figure>
Il apparait que le dendrogramme obtenu avec `HCPC`{data-pacakge="FactoMineR"} diffère
de celui que nous avons calculé précédemment en utilisant la matrice des distances fournies
par `dist.dudi`{data-pkg="ade4"}. Cela est dû au fait que `HCPC`{data-pkg="FactoMineR"}
procède différement pour calculer la matrice des distances en ne prenant en compte que les axes
retenus dans le cadre de l'ACM. Pour rappel, nous avions retenu que 5 axes dans le cadre de notre ACM :
```{r}
acm2 <- MCA(d2[complete.cases(d2), ], ncp = 5, graph = FALSE)
```
`HCPC`{data-pkg="FactoMineR"} n'a donc pris en compte que ces 5 premiers axes pour calculer les
distances entre les individus, considérant que les autres axes n'apportent que du « bruit » rendant
la classification instable. Cependant, comme le montre `summary(acm2)`, nos cinq premiers axes n'expliquent
que 54 % de la variance. Il usuellement préférable de garder un plus grande nombre d'axes afin de couvrir
au moins 80 à 90 % de la variance^[Voir
<http://factominer.free.fr/classical-methods/classification-hierarchique-sur-composantes-principales.html>].
De son côté, `dist.dudi`{data-pkg="ade4"} prends en compte l'ensemble des axes pour calculer la matrice
des distances. On peut reproduire cela avec `FactoMineR`{.pkg} en indiquant
`ncp=Inf` lors du calcul de l'ACM.
```{r}
acm2 <- MCA(d2[complete.cases(d2), ], ncp = Inf, graph = FALSE)
cah <- HCPC(acm2, nb.clust = -1, graph = FALSE)
```
On obtient bien cette fois-ci le même résultat.
<figure>
```{r, message=FALSE, warning=FALSE}
plot(cah, choice = "tree")
```
<figcaption>Dendrogramme obtenu avec HCPC (tous les axes)</figcaption>
</figure>
D'autres graphiques sont disponibles, en faisant varier la valeur de l'argument `choice` :
<figure>
```{r, message=FALSE, warning=FALSE}
plot(cah, choice = "3D.map")
```
<figcaption>Représentation en 3 dimensions du dendrogramme</figcaption>
</figure>
<figure>
```{r, message=FALSE, warning=FALSE}
plot(cah, choice = "bar")
```
<figcaption>Gains d'inertie</figcaption>
</figure>
<figure>
```{r, message=FALSE, warning=FALSE}
plot(cah, choice = "map")
```
<figcaption>Projection des catégories sur le plan factoriel</figcaption>
</figure>
L'objet renvoyé par `HCPC`{data-pkg="FactoMineR"} contient de nombreuses informations.
La partition peut notamment être récupérée avec `cah$data.clust$clust`.
Il y a également diverses statistiques pour décrire les catégories.
```{r}
cah
freq(cah$data.clust$clust)
```