Comment une IA apprendrait-elle une langue?


11

Je pensais aux IA et à leur fonctionnement, quand je me suis rendu compte que je ne pouvais pas penser à une façon d'apprendre l'IA à une langue. Un enfant a tendance à apprendre la langue en associant le langage et les images à un objet (par exemple, les gens qui disent le mot "chien" en compagnie d'un chien, et qui se rendent compte plus tard que les gens disent "un chien" et "une voiture" et apprennent ce que "un "signifie, etc.). Cependant, une IA basée sur du texte ne pouvait pas utiliser cette méthode pour apprendre, car elle n'aurait accès à aucune sorte de périphérique d'entrée.

La seule façon de trouver une programmation dans chaque mot et règle en anglais (ou quelle que soit la langue dans laquelle il est censé «parler»), mais cela prendrait potentiellement des années.

Quelqu'un at-il des idées sur la façon dont cela pourrait être fait? Ou si cela a déjà été fait, si oui, comment?

Soit dit en passant, dans ce contexte, j'utilise l'IA pour désigner un système d'intelligence artificielle avec une intelligence presque humaine et aucune connaissance préalable du langage.

Réponses:


12

Le domaine de recherche général est connu sous le nom d' induction grammaticale .

Il est généralement présenté comme un problème d'apprentissage supervisé, avec l'entrée présentée sous forme de texte brut et la sortie souhaitée l' arborescence d'analyse correspondante . L'ensemble de formation se compose souvent d'exemples positifs et négatifs.

Il n'y a pas de meilleure méthode pour y parvenir, mais certaines des techniques qui ont été utilisées à ce jour comprennent:


6

Le terme générique pour votre problème est appelé traitement du langage naturel (PNL) - un sujet sous l'intelligence artificielle.

Il existe de nombreux sous-thèmes dans ce domaine, y compris la sémantique des langues, l'analyse grammaticale, certaines parties du balisage vocal, l'analyse de contexte spécifique au domaine, etc.


5

Juste pour être complet, je soulignerai que les réseaux neuronaux récurrents (c'est-à-dire les réseaux neuronaux avec des connexions en arrière) sont fréquemment utilisés pour le traitement du langage naturel (NLP). Cela inclut des variantes comme Bidirectional, Jordan et Elman Networks. La mémoire à court terme à long terme (LSTM) est un algorithme de réseau neuronal plus sophistiqué qui peut accomplir le même temps et les tâches basées sur la séquence, mais qui peut tirer parti des méthodes d'apprentissage standard comme backprop car il ne souffre pas du «problème de gradient de fuite». En effet, les LSTM ont été brillamment conçus comme des «intégrateurs parfaits», ce qui facilite beaucoup le calcul des gradients d'erreur, etc. sur de longues périodes. En revanche, l'apprentissage avec les RNN n'est pas encore théoriquement bien fondé et est difficile à calculer à l'aide de méthodes existantes telles que la rétropropagation dans le temps (BPTT). Dans les réseaux neuronaux temporels (TDNN), l'idée est d'ajouter de nouveaux neurones et connexions avec chaque nouvel exemple d'entraînement sur une période de temps ou une séquence d'entraînement; malheureusement, cela place une limitation pratique sur le nombre d'exemples que vous pouvez introduire dans le réseau avant que la taille du réseau ne devienne incontrôlable ou qu'il commence à oublier, tout comme avec les RNN. Les LSTM ont des souvenirs beaucoup plus longs (en particulier lorsqu'ils sont augmentés avec des machines de neurones), donc ce serait mon premier choix, en supposant que je voulais utiliser des réseaux de neurones à des fins de PNL. Ma connaissance du sujet est cependant limitée (j'essaie toujours d'apprendre les cordes) donc il peut y avoir d'autres algorithmes de réseau neuronal importants que je néglige ...

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.