Bref aperçu
Chapitre 1 : Réduction de la dimensionnalité : Ce chapitre introduit le concept fondamental de réduction de la dimensionnalité, expliquant son importance dans la simplification des données complexes tout en préservant les structures clés. Il couvre les différentes techniques et leurs applications dans des domaines tels que la science des données, l'apprentissage automatique et la robotique. Ce chapitre jette les bases pour comprendre comment la réduction de la dimensionnalité peut améliorer l'efficacité du calcul et l'interprétation des données.
Chapitre 2 : Analyse en composantes principales : Ce chapitre se penche sur l'analyse en composantes principales (ACP), l'une des techniques de réduction de la dimensionnalité linéaire les plus utilisées. Il explore comment l'ACP identifie les principaux composants d'un ensemble de données, réduisant sa dimensionnalité en le projetant sur un sous-espace de dimension inférieure qui capture la variance maximale. Le chapitre fournit des informations à la fois théoriques et pratiques sur l'application de l'ACP dans des problèmes du monde réel.
Chapitre 3 : Réduction de la dimensionnalité non linéaire : Les méthodes non linéaires sont essentielles lorsque la structure des données ne peut pas être capturée de manière adéquate par des transformations linéaires. Ce chapitre présente des techniques telles que l'isomap, la LLE et l'intégration linéaire locale, en mettant l'accent sur la façon dont ces méthodes préservent des structures complexes dans les données. Il oppose les approches non linéaires aux méthodes linéaires et discute de leurs applications dans des ensembles de données de grande dimension.
Chapitre 4 : Visage propre : Le concept de visages propres est présenté dans ce chapitre en tant que technique de reconnaissance faciale. En appliquant l'ACP aux images faciales, les visages propres réduisent la dimensionnalité des données d'image tout en préservant les caractéristiques faciales significatives. Ce chapitre couvre l'application des Eigenfaces dans les systèmes biométriques et les techniques de calcul impliquées.
Chapitre 5 : Fonctions orthogonales empiriques : Ce chapitre explore l'utilisation des fonctions orthogonales empiriques (EOF) dans l'analyse des données spatiales et temporelles. Les EOF sont utilisés pour identifier des modèles dans les données qui peuvent être utilisés pour la réduction de la dimensionnalité, en particulier dans les sciences de l'environnement et de l'atmosphère. Le chapitre explique comment les EOFs sont liés à l'ACP et leur application dans la construction de modèles pilotés par les données.
Chapitre 6 : Plongement semi-défini : L'intégration semi-définie est une technique qui mappe des données de haute dimension dans un espace semi-défini afin de préserver les propriétés géométriques des données. Ce chapitre traite du fonctionnement de cette technique d'intégration, de ses fondements théoriques et de ses applications dans des domaines tels que les méthodes de noyau et l'apprentissage multiple.
Chapitre 7 : Analyse discriminante linéaire : L'analyse discriminante linéaire (LDA) est une méthode supervisée utilisée pour trouver une combinaison linéaire de caractéristiques qui sépare le mieux deux ou plusieurs classes de données. Ce chapitre explique comment la LDA est utilisée pour la réduction de la dimensionnalité dans les tâches de classification et sa relation avec l'ACP. Il couvre également ses avantages dans l'amélioration des performances de classification.
Chapitre 8 : Factorisation matricielle non négative : La factorisation matricielle non négative (NMF) est présentée dans ce chapitre comme méthode de factorisation des matrices de données en composants non négatifs. NMF est utilisé dans des applications telles que le traitement d'images, la reconnaissance vocale et le filtrage collaboratif. Le chapitre met en évidence sa capacité à extraire des représentations de données interprétables basées sur des parties.
Chapitre 9 : Analyse en composantes principales du noyau : L'ACP du noyau étend le concept de PCA aux données non linéaires grâce à l'utilisation de méthodes de noyau. Ce chapitre couvre la formulation mathématique de l'ACP du noyau, son application à des types de données complexes et ses avantages par rapport à l'ACP traditionnelle, en particulier dans les espaces de caractéristiques induits par le noyau.
Chapitre 10 : Shogun (boîte à outils) : Shogun est une boîte à outils d'apprentissage automatique open source, et ce chapitre fournit un aperçu détaillé de ses capacités. Il se concentre sur la façon dont Shogun met en ouvre des techniques de réduction de dimensionnalité telles que PCA, LDA et Kernel PCA, offrant un guide pratique sur l'utilisation de Shogun pour l'analyse de données de haute dimension.
Chapitre 11 : Clustering spectral : Le clustering spectral est une technique qui utilise les valeurs propres d'une matrice de similarité pour partitionner les données en clusters. Ce chapitre explique comment le clustering spectral est appliqué à la réduction de dimensionnalité et au clustering, sa relation avec la théorie des graphes et son efficacité dans le traitement de structures de données complexes et non linéaires.
Chapitre 12 : Isomap : L'isomap est une technique de réduction de la dimensionnalité non linéaire qui préserve les propriétés géométriques globales des données. Ce chapitre décrit l'algorithme Isomap, ses fondements mathématiques et sa capacité à gérer des ensembles de données avec des distances non euclidiennes. Il comprend des exemples pratiques des applications d'Isomap dans l'apprentissage multiple.
Chapitre 13 : Régression en composantes principales : La régression en composantes principales (PCR) combine l'ACP et la régression linéaire pour créer un modèle qui réduit la multicolinéarité et améliore la précision de prédiction des modèles de régression. Ce chapitre couvre la théorie derrière la PCR, son application dans les tâches de régression et son efficacité dans la gestion d'ensembles de données de grande dimension.
Chapitre 14 : Apprentissage du sous-espace multilinéaire : Ce chapitre présente l'apprentissage du sous-espace multilinéaire (MSL), qui généralise les méthodes traditionnelles de sous-espace en considérant les relations d'ordre supérieur entre les caractéristiques. MSL est particulièrement utile pour analyser des données avec des structures plus complexes, telles que les données tensorielles, et est appliqué dans des domaines tels que la vision par ordinateur et la robotique.
Chapitre 15 : Mlpy : Mlpy est une bibliothèque Python qui fournit une suite d'algorithmes d'apprentissage automatique, y compris des méthodes de réduction de la dimensionnalité. Ce chapitre présente Mlpy et sa mise en ouvre de techniques telles que PCA, LDA et NMF, en démontrant comment ces outils peuvent être utilisés pour un traitement et une analyse efficaces des données.
Chapitre 16 : Carte de diffusion : Les cartes de diffusion sont une technique de réduction de dimensionnalité non linéaire qui utilise le concept de distances de diffusion pour découvrir la géométrie intrinsèque des données. Ce chapitre explique les principes mathématiques des cartes de diffusion, leurs avantages dans l'analyse de structures de type varié et leurs applications en science des données et en apprentissage automatique.
Chapitre 17 : Apprentissage des fonctionnalités : L'apprentissage des fonctionnalités est un processus dans lequel un algorithme apprend les caractéristiques les plus informatives à partir de données brutes. Ce chapitre traite de diverses techniques d'apprentissage de fonctionnalités, y compris les auto-encodeurs et les approches d'apprentissage profond, et de leur rôle dans la réduction de la dimensionnalité tout en améliorant la représentation des données.
Chapitre 18 : Filtre adaptatif du noyau : Le filtre adaptatif du noyau (KAF) est une méthode qui étend le filtrage adaptatif à des paramètres non linéaires à l'aide de méthodes de noyau. Ce chapitre donne un aperçu de KAF et de son application dans la réduction de la dimensionnalité, en particulier dans les tâches d'apprentissage en ligne et de traitement du signal.
Chapitre 19 : Projection aléatoire : La projection aléatoire est une technique de réduction de la dimensionnalité qui consiste à projeter des données de haute dimension sur un espace de dimension inférieure à l'aide de matrices aléatoires. Ce chapitre explore les bases mathématiques de la projection aléatoire, ses avantages en termes d'efficacité de calcul et ses applications pratiques dans l'analyse de données à grande échelle.
Chapitre 20 : Ingénierie des fonctionnalités : L'ingénierie des fonctionnalités est le processus de transformation des données brutes en fonctionnalités significatives pour les modèles d'apprentissage automatique. Ce chapitre explique comment les techniques de réduction de la dimensionnalité peuvent faciliter l'ingénierie des caractéristiques en identifiant les caractéristiques les plus pertinentes et en éliminant celles qui sont redondantes ou non pertinentes.
Chapitre 21 : Distribution normale multivariée : Ce chapitre couvre le concept de distribution normale multivariée, un modèle statistique fondamental utilisé dans de nombreuses techniques de réduction de dimensionnalité. Il explique les propriétés de cette distribution, son rôle dans l'analyse de données multivariées et ses applications dans les modèles probabilistes et l'apprentissage...