Ma réponse est techniquement plus pertinente pour les ensembles flous que pour la logique floue, mais les deux concepts sont pratiquement inséparables. J'ai fouillé dans les articles de revues universitaires sur la logique floue il y a quelques années afin d'écrire une série de tutoriels sur l' implémentation d'ensembles flous dans SQL Server . Bien que je puisse difficilement être considéré comme un expert, je connais assez bien la littérature et j'utilise régulièrement les techniques pour résoudre des problèmes pratiques. La forte impression que j'ai tirée des recherches publiées est que le potentiel pratique des ensembles flous est encore inexploité, principalement en raison d'un déluge de recherches sur des dizaines d'autres familles de techniques qui peuvent résoudre des ensembles de questions complémentaires.
Le marché bondé d'idées en science des données / apprentissage automatique, etc.
Il y a eu des progrès si rapides dans les machines à vecteurs de support, les réseaux de neurones, les forêts aléatoires, etc. qu'il est impossible pour les spécialistes, les analystes, les scientifiques des données, les programmeurs ou les consommateurs de leurs produits de suivre tout cela. Dans ma série d'articles de blog, je parle longuement de la façon dont le développement d'algorithmes pour les ensembles flous et logiques a généralement plus de 20 ans d'avance sur les logiciels disponibles, mais on peut en dire autant de nombreux domaines connexes; Je lis intensément sur les réseaux neuronaux et je pense à des dizaines d'architectures neuronales intéressantes qui ont été développées il y a des décennies mais qui n'ont jamais été largement mises en pratique, et encore moins codées dans des logiciels facilement disponibles. Cela étant dit, la logique floue et les décors sont désavantagés dans ce marché d'idées bondé, principalement en raison de leur surnom, qui était controversé à l'époque où Lofti A. Zadeh l'a inventé. Le but des techniques floues est simplement d'approximer certaines classes de données discrètement évaluées sur des échelles continues, mais des termes comme «logique approximative à valeur continue» et «ensembles gradués» ne sont pas exactement accrocheurs. Zadeh a admis qu'il avait utilisé le terme "flou" en partie parce qu'il attirait l'attention, mais en y repensant, cela peut avoir subtilement attiré le mauvais type d'attention.
Comment le terme "Fuzz" se retourne contre
Pour un data scientist, analyste ou programmeur, c'est un terme qui peut évoquer une ambiance de "cool tech"; à ceux intéressés par l'IA / l'exploration de données / etc. etc. uniquement dans la mesure où il peut résoudre des problèmes commerciaux, "flou" sonne comme un tracas peu pratique. Pour un chef d'entreprise, un médecin impliqué dans la recherche médicale ou tout autre consommateur non averti, cela peut évoquer des images d'animaux en peluche, des émissions de flics des années 70 ou quelque chose du réfrigérateur de George Carlin. Il y a toujours eu une tension dans l'industrie entre les deux groupes, ces derniers s'empêchant souvent d'écrire du code et de faire des recherches simplement pour la curiosité intellectuelle plutôt que pour le profit; à moins que le premier groupe ne puisse expliquer pourquoi ces techniques floues sont rentables, la méfiance du premier empêchera leur adoption.
Gestion de l'incertitude et la famille d'applications d'ensemble flou
Le point des techniques d'ensemble floue est de supprimerfuzz qui est déjà inhérent aux données, sous la forme de valeurs discrètes imprécises qui peuvent être mieux modélisées sur des échelles continues approximatives, contrairement à la perception erronée répandue que le "fuzz" est quelque chose que vous ajoutez, comme un nappage spécial sur une pizza. Cette distinction peut être simple mais elle englobe une grande variété d'applications potentielles, allant du traitement du langage naturel à la théorie de la décision en passant par le contrôle des systèmes non linéaires. La probabilité n'a pas absorbé la logique floue comme Cliff AB l'a suggéré principalement parce que ce n'est qu'un petit sous-ensemble des interprétations qui peuvent être attachées aux valeurs floues. Les fonctions d'appartenance floues sont assez simples en ce qu'elles notent simplement à quel point un enregistrement appartient à un ensemble particulier en attribuant une ou plusieurs valeurs continues, généralement sur une échelle de 0 à 1 (bien que pour certaines applications, je ' ai trouvé que -1 à 1 peut être plus utile). La signification que nous attribuons à ces nombres dépend de nous, car ils peuvent signifier tout ce que nous voulons, tels que les degrés de croyance bayésienne, la confiance dans une décision particulière, les distributions de possibilités, les activations du réseau neuronal, la variance à l'échelle, la corrélation, etc., etc., pas seulement les valeurs PDF, EDF ou CDF. Je vais beaucoup plus en détail dans ma série de blogs etce poste de CV , dont une grande partie a été dérivée en travaillant à travers ma ressource floue préférée, George J. Klir, et les ensembles flous et la logique floue de Bo Yuan: théorie et applications (1995). Ils expliquent plus en détail comment dériver des programmes entiers de «gestion de l'incertitude» à partir d'ensembles flous.
Si la logique floue et les décors étaient un produit de consommation, nous pourrions dire qu'il n'a pas réussi à ce jour en raison d'un manque de marketing et d'évangélisation des produits, ainsi que d'un choix paradoxal de nom de marque. Pendant mes recherches, je ne me souviens pas avoir rencontré un seul article de journal universitaire qui a tenté de démystifier l'une de ces applications d'une manière similaire à l'article tristement célèbre de Minksy et Papert sur les perceptrons. Il y a juste beaucoup de concurrence sur le marché des idées ces jours-ci à l'attention des développeurs, des théoriciens, des scientifiques des données et autres pour les produits qui sont applicables à des ensembles de problèmes similaires, ce qui est un effet secondaire positif d'un progrès technique rapide. L'inconvénient est qu'il y a beaucoup de fruits bas qui ne sont pas cueillis, en particulier dans le domaine de la modélisation des données où ils sont les plus applicables.