Skip links
Published on: Presse

Généraliser ou discriminer ? That is the question.

En 1958 dans une remarquable publication en 3 parties intitulée « experimental studies of mimicrity in some north america butterflies » (Van Zandt Brower, 1958), l’entomologiste Jane Van Zandt Brower observe que si un oiseau mange une espèce de papillon toxique ou peu appétissante, il apprendra rapidement à éviter de s’attaquer à des papillons qui lui ressemblent visuellement.

Cette remarquable observation contient l’essence d’un mécanisme cognitif capital que l’on retrouve dans de très nombreuses espèces : la généralisation perceptive.

L’oiseau observe les motifs des ailes des papillons pour les identifier. Or, deux papillons ne pouvant exhiber des motifs strictement identiques, il faut admettre que les oiseaux prédateurs soient capables de généraliser à partir de quelques exemples. Et notamment si l’ingestion des papillons est toxique pour les oiseaux.

Mais tout n’est pas si simple. Si la généralisation est trop étroite, les oiseaux n’apprennent à distinguer que des espèces de papillons très précises. Ils augmentent donc leur risque de manger des papillons toxiques. Il suffit en effet que d’autres papillons toxiques exhibent des motifs proches pour qu’ils soient considérés par les oiseaux comme non toxiques.

A contrario si la généralisation est trop large les oiseaux risquent d’éliminer des papillons comestibles et, partant, de mourir de faim.

De plus, si deux espèces de papillons dont l’une est comestible et l’autre toxique arborent des motifs proches, il faudra que l’oiseau soit aussi capable de les discriminer.

C’est donc un équilibre subtil que le système nerveux des oiseaux doit trouver pour assurer sa survie.

S’appuyant sur ces observations, Roger Shepard en 1987 émet l’hypothèse selon laquelle la probabilité qu’une réponse à un stimulus soit généralisée à un autre sera fonction de la distance entre les deux stimuli : « A psychological space is established for any set of stimuli by determining metric distances between the stimuli such that the probability that a response learned to any stimulus will generalize to any other is an invariant of the distance between them  » (Shepard, 1987).

C’est un des principes fondateurs de la cognition qui est ainsi mis en lumière par Shepard, principe qu’il nomme la « règle universelle de la généralisation ». L’universalité de cette règle pour tous les organismes sensibles repose sur le fait qu’elle serait le seul produit de l’évolution.

Partant de cette conclusion théorique, pourrait-on construire un système artificiel capable de manifester un comportement similaire ?

Dans un monde imaginaire, nous avons relevé les tailles et poids d’individus rencontrés lors d’une exploration et nous avons reporté nos mesures sur un schéma.

Avec cette représentation toute simple, nous voyons clairement que deux groupes d’individus apparaissent : les individus « marginaux » à la périphérie et les individus « normaux » au centre. Les normaux sont de poids et taille qui varie peu par rapport à la moyenne (50 kg pour 100 cm). Les « marginaux » sont petits, grands, légers ou lourds. Mais ils ont au moins une de ces grandeurs loin de la moyenne. 

Aucun texte alternatif pour cette image

Il y a manifestement 2 groupes d’individus lorsqu’on les représente par leur relation taille/poids. Peu de doutes sur ce point et notre cerveau est très fort pour « voir » ce regroupement.

Maintenant imaginons que pour survivre dans ce monde inconnu nous devions manger un de ces individus. Lequel choisirions-nous ?

Sans expérience, impossible de le savoir mais en prenant le risque d’en manger un premier, nous aurions une information capitale. S’il est comestible, nous accroissons notablement nos chances de rester en vie car il est fort probable que les individus qui appartiennent au même groupe soient aussi comestibles. Dans l’autre cas et pour autant que l’expérience ne nous soit pas fatale nous apprenons qu’il faut éviter ces individus à tout prix.

Lançons-nous et mangeons un individu qui appartient au groupe périphérique : il est petit et pas bien gros. Horreur : il est toxique. Après deux jours de souffrances nous reprenons nos esprits mais nous avons toujours faim. Nous repartons en chasse et nous tombons nez à nez avec un individu qui appartient encore au groupe périphérique, les toxiques. Il est facile d’imaginer que nous partirons en courant pour éviter l’intoxication. Toujours affamés mais en vie.

Aucun texte alternatif pour cette image

Ce qui est remarquable dans cette histoire est que nous sommes parvenus à passer d’un ensemble de stimuli à un niveau symbolique : le groupe des individus toxiques. En appliquant la règle universelle de la généralisation nous avons obtenu cette représentation mentale.

Il nous a suffi pour cela de connaître un seul exemple d’individu toxique pour propager cet attribut à toute la population d’individus semblables. Et munis de cette information nous pouvons maintenant inférer qu’un nouvel individu est toxique par sa seule appartenance au groupe ainsi identifié.

Cette dernière tâche peut être considérée comme une inférence probabiliste. Plusieurs chercheurs dont notamment Josh Tenenbaum (Tenenbaum & Griffiths, 2001) ont développé l’idée de la généralisation en tant qu’inférence probabiliste.

Ce que nous ne savons pas encore faire c’est désigner les autres individus, ceux qui appartiennent au groupe central. Nous ne savons pas encore s’ils sont toxiques ou pas. Il nous faudra une autre expérience pour déterminer cet attribut.

En résumé,

  • Nous avons élaboré une hypothèse à partir de stimuli qui se regroupent : il y a ceux « du centre » et ceux « de la périphérie » et ils partagent quelque chose entre eux : la similitude.
  • A partir d’une seule expérience et avec la règle de généralisation, nous avons affecté un attribut aux individus de la « périphérie » : ils sont toxiques
  • Enfin, par inférence probabiliste, nous avons pu très rapidement décider de l’attribut d’un nouvel individu à partir de sa seule appartenance à l’hypothèse considérée.

Pas besoin de milliers d’exemples pour effectuer cela. Vous me voyez venir ?

Il reste à aborder la question du comment : comment peut-on créer ces groupes d’individus sans connaissance a priori ? Ce qui revient à dire : comment construit-on techniquement des hypothèses sans superviseur ? Pas évident de prime abord mais…

La suite au prochain article où nous retrouverons les principes d’auto-organisation, d’émergence et de cartographie mis en pratique. Emerveillement garanti.

Travaux cités

Shepard, R. N. (1987). Toward a universal generalization for psychological science. Science, 237(4820), 1317-1323.

Tenenbaum, J. B., & Griffiths, T. L. (2001). Generalization, similarity and bayesian inference. Behavioral and brain sciences, 24, 629-640.

Van Zandt Brower, J. (1958). Experimental studies of mimicrity in some North America butterflies. Evolution, 12.