Keyboard shortcuts

Press or to navigate between chapters

Press S or / to search in the book

Press ? to show this help

Press Esc to hide this help

Naive Bayes

Naive Bayes classifiers apply Bayes' theorem with the assumption that features are conditionally independent given the class. Despite this strong assumption, they are fast, interpretable, and surprisingly effective for text and categorical data.

ModelBest forDescription
GaussianNBContinuous featuresAssumes Gaussian (normal) distribution per feature per class
MultinomialNBCount / frequency dataModels feature counts (e.g., word frequencies in text)
BernoulliNBBinary featuresModels binary presence/absence of features

All three are documented on the same page: GaussianNB / MultinomialNB / BernoulliNB.

Key properties

  • Extremely fast to train — $O(nd)$ time.
  • Works well with small datasets.
  • Naturally handles multi-class classification.
  • Requires feature scaling only for GaussianNB with very different variance ranges.

Les classifieurs Naive Bayes appliquent le théorème de Bayes en supposant que les variables sont conditionnellement indépendantes sachant la classe. Malgré cette hypothèse forte, ils sont rapides, interprétables et étonnamment efficaces pour les données textuelles et catégorielles.

ModèleIdéal pourDescription
GaussianNBVariables continuesSuppose une distribution gaussienne par variable par classe
MultinomialNBDonnées de comptage / fréquenceModélise les comptages de variables (ex. : fréquences de mots)
BernoulliNBVariables binairesModélise la présence/absence binaire de variables

Les trois sont documentés sur la même page : GaussianNB / MultinomialNB / BernoulliNB.

Propriétés clés

  • Très rapide à entraîner — temps $O(nd)$.
  • Fonctionne bien avec de petits ensembles de données.
  • Gère nativement la classification multi-classe.
  • La normalisation des variables n'est nécessaire que pour GaussianNB avec des plages de variance très différentes.