Résumé | L'arbre naïf de Bayes est constitué d'un arbre de décision qui lui sert de structure générale et de classifieurs bayésiens naïfs déployés au niveau des feuilles. Nous présumons que les classifieurs bayésiens naïfs conviennent mieux que les arbres de décision lorsque l'ensemble de données est de petite taille. Par conséquent, après plusieurs fragmentations par attributs lors de l'élaboration de l'arbre de décision, il est préférable d'utiliser des classifieurs bayésiens naïfs au niveau des feuilles, plutôt que de poursuivre la fragmentation par attributs. Dans le présent article, nous proposons un algorithme d'apprentissage pour améliorer l'estimation de la probabilité conditionnelle dans le diagramme de l'arbre naïf de Bayes. Ces travaux ont pour but de démontrer que, pour un apprentissage sensible aux coûts auxquels des probabilités conditionnelles sont associées, la fonction de caractérisation est optimale lorsque les estimations des probabilités conditionnelles sont exactes. La possibilité d'améliorer l'exactitude de la classification et de l'aire sous la courbe (ASC) constitue un avantage supplémentaire. Nos expériences sur une grande série d'ensembles de données de contrôle ont démontré que l'arbre CLL (<em>Conditional Log Likelihood</em>, logarithme de la fonction de vraisemblance conditionnelle) surpasse les plus récents algorithmes d'apprentissage, tels que l'arbre naïf de Bayes et le bayésien naïf en donnant une estimation exacte de la probabilité conditionnelle et en améliorant l'exactitude de la classification et de l'aire sous la courbe. |
---|