Illusion mnésique ou faux souvenirs ?

Illusion mnésique ou faux souvenirs ?

Le faux souvenir parfois appelé illusion mnésique est un phénomène lié à la structuration et au fonctionnement normal du cerveau. C’est un incident très répandu et commun dans la population. Un faux souvenir se définit comme la mémorisation à tort d’un élément qui n’a pas été exposé. Ceci peut être le résultat de plusieurs défaillances dans le processus de mémorisation comme par exemple, l’encodage partiel d’un élément ou une erreur lors du processus de construction du souvenir.

Le faux souvenir doit être étudié de manière macroscopique puisqu’il fait intervenir des processus variés impactant la mémoire épisodique, la mémoire de travail, mais aussi la mémoire sémantique. Par ailleurs, l’apparition de faux souvenirs est également fortement impactée par des facteurs environnementaux tels que les facteurs sociaux et culturels, mais également par les mécanismes bottom-up en lien avec la perception.

Le faux souvenir est un événement ayant des conséquences mesurables. À titre d’exemple, plusieurs études ont remarqué la hausse d’activité du cortex préfrontal et frontal lors de l’apparition de faux souvenirs. Par ailleurs, de manière indissociable, les souvenirs faux et vrais semblent activer les mêmes zones du cortex préfrontal supérieur médian, précentral gauche et pariétal inférieur gauche.

Prévalence des illusions mnésiques.

Prédisposition à l’émergence de faux souvenirs.

En tant que phénomène non pathologique, le faux souvenir peut être expérimenté par n’importe qui. On retrouve des occurrences peu importe l’âge, les pathologies et le développement intellectuel. Par ailleurs, il semblerait que le faux souvenir puisse même être transmis par contagion sociale.

Le faux souvenirs avec l’âge.

Cependant, des études comparatives ont montré une certaine prédisposition de certains sujets à émettre de faux souvenirs. Lors d’un déclin cognitif, notamment lié à l’âge, il y a une redistribution des facultés cognitives dans d’autres régions du cerveau. Ceci ne vient pas sans quelques faiblesses dans les facultés cognitives qui deviennent plus sujettes à l’émergence de faux souvenirs. C’est pourquoi plusieurs études mettent en avant la croissance des faux souvenirs liés à l’âge et le handicap associé. Cela devient même dans certains cas, un élément révélateur de défaillance de la mémoire. 

Lors du vieillissement, l’émergence de faux souvenirs est davantage liée aux intrusions en rappel libre que la fausse reconnaissance des items présentés. Les études actuelles semblent montrer qu’avec l’âge, les participants utiliseraient plus le gist que le verbatim lors selon la théorie de la trace flou du DRM. Ceci expliquerait l’augmentation de fausse reconnaissance par augmentation du nombre de répétitions uniquement dans les groupes des personnes âgées. D’autant plus que les FM sont souvent expliqués par une défaillance du contrôle de la source à cet âge.

On constate également une difficulté liée à l’âge à dissocier des items avec des similarités sémantiques ou perceptives. Cette situation fait écho au résultat d’études mettant en avant que le binding est de plus haut niveau chez les jeunes avec 3 informations contextuelles contre 1 pour les personnes âgées. Par conséquent, les anciens n’emploient pas les détails aussi efficacement que les jeunes. Finalement, les anciens encodent l’information et les détails, mais n’arrivent pas à les exploiter. L’usage de stratégie mémoriel est moins présent chez les anciens.

Par ailleurs, c’est là d’ailleurs que l’accroissement des faux souvenirs pose problème, les groupes d’études âgés sont majoritairement plus confiants quant à la véracité des faux souvenirs. Néanmoins, ceci est moins évident quand ils sont encouragés à se concentrer même si la fréquence de faux souvenirs reste supérieure au jeune.

Le cas particulier des illusions mnésiques et maladies neurodégénératives.

La mémoire sémantique est majoritairement plus stable lors du déclin cognitif lié à l’âge comparativement à la mémoire épisodique. Ce constat est moins évident concernant les individus souffrant de troubles Alzheimer (AD). Les individus AD comme les anciens dits sains ont un déclin dans la mémoire épisodique. Mais la mémoire sémantique semble mieux préserver chez les individus sains.

Apparition de faux souvenirs et milieu contingent ?

Il y a plusieurs situations qui impactent l’émergence de faux souvenirs. Ceux-ci peuvent être définis selon : caractéristique du stimulus, les conditions liées à la perception et les capacités du sujet (encodage, stockage, conditions de rappel et récupération).

L’apparition de faux souvenirs suivant la cible.

De manière générale, plus il y a de caractéristiques distinctives dans les éléments présentés, plus la détection des faux souvenirs sera facile pour le sujet. Parmi les caractéristiques ayant une forte efficacité, on retrouve les couleurs et la richesse de l’arrière-plan pour les images ainsi que la structure et la sémantique pour les mots. 

Mais il faut être en mesure d’assimiler les caractéristiques distinctives, situation qui n’est pas toujours possible comme vu précédemment. Néanmoins, les éléments sémantiques sont généralement mieux mémorisés que les éléments perceptifs. Les images par exemple apportent des stimulus et des caractéristiques facilitant la surveillance diagnostique, mais leur effet est considérablement réduit si présentés dans un ensemble d’images similaires.

Le contexte impacte la recrudescence d’illusions mnésiques.

À première vue, les relations sociales sont bénéfiques face aux faux souvenirs puisque de meilleures performances ont été enregistrées en groupe qu’individuel. Les méthodes d’attribution des expérimentations sur les faux souvenirs ont également mis en évidence que travailler en environnement non supervisé apporte plus de distraction impactant impactant l’apparition de faux souvenir.

Par ailleurs, les faux souvenirs  autour d’action liste de la vie quotidienne a montré que par la répétition d’imaginer faire une action, un individu sera plus enclin  à générer un faux souvenir.

Les faux souvenirs selon les individus.

En premier lieu, l’apparition de faux souvenirs dépend fortement des capacités de l’individu à utiliser certains pans de sa mémoire. Une faible capacité à utiliser la mémoire épisodique et le besoin de recourir à la mémoire sémantique est une conséquence probable de la recrudescence de faux souvenirs. Il en va de même de la capacité à déterminer de fausse reconnaissance à l’aide de processus comme le contrôle de disqualification, la surveillance diagnostic et le rappel-rejet

D’une autre façon, la relation avec les informations présentées joue un rôle important dans la création de faux souvenirs. Les informations émotionnellement chargées se retiennent mieux. Les émotions semblent accentuer les informations dites centrales et omettre les informations de second ordre.

De ce point de vue, les souvenirs émotionnels sont plus souvent soumis à un phénomène de reconstruction et peuvent en effet s’éloigner de la mémoire source et créer des faux souvenirs. L’imagination peut aussi causer une distorsion de la mémoire appelée Inflation de l’imagination.

Concernant les facultés préalables de l’individu, plus de connaissance objective autour d’un sujet est exploitable par l’individu moins de faux souvenirs pourront apparaître. Cependant, l’intérêt nouveau pour le sujet n’a pas été corrélé à l’émergence ou non de faux souvenirs. Au même titre qu’avoir une pensée analytique permet de distinguer plus efficacement les vrais souvenirs des faux. Enfin, nous sommes plus aptes à nous faire avoir par de la désinformation quand on va dans le sens de nos croyances.

Paradigme et recherche autour des faux souvenirs

Théories et fondements sous-jacents.

Les faux souvenirs sont souvent étudiés par le prisme des similarités sémantiques à l’aide du paradigme DRM. Ce premier paradigme, mis en évidence par Roediger & McDermott a permis l’étude supervisée des faux souvenirs. Ce paradigme ainsi que les résultats sous-jacents sont interprétables principalement par deux théories que sont la théorie de la trace floue et la théorie de l’activation du contrôle de la source

La théorie de la trace floue.

Dans la théorie de la trace floue, le faux souvenir est causé lors de l’encodage des informations ou lors du rappel général des items (Gist) lorsque les éléments distinctifs (Verbatim) sont non sollicités. Le Gist peut se définir comme la faculté de la cognition humaine à saisir une idée générale dans une scène. Le Gist est un phénomène qui apparaît très rapidement lors de la perception visuelle, car présenté avant la première saccade oculaire (environ 200 ms). 

Ceci rend l’étude de son origine et de son importance difficile. Le Verbatim quant à lui joue un rôle essentiel pour unifier et reconnaître l’information. Finalement, dans la théorie de la trace floue, le Gist et le Verbatim doivent être utilisés de pair pour estimer les vrais souvenirs des faux. On constate généralement que le faux souvenir émerge par un défaut des traces Verbatim par rapport au Gist.

La théorie de l’activation et du contrôle de la source.

Dans la théorie de l’activation et du contrôle de la source, le faux souvenir apparaît à cause de deux processus distincts que sont l’activation et le contrôle. Le faux souvenir est la conséquence d’une association abusive entre l’association interne sur l’élément leurre et l’activation associative externe sur les items du DRM. On peut entendre ceci comme une erreur de diagnostic sur la source. En règle générale, une diminution du contrôle de la source augmente l’apparition de faux souvenirs. 

Le processus d’activation intervient plusieurs fois lors de la présentation d’items, ce qui augmente le sentiment de familiarité et inhibe la source de l’activation. Ceci présente la principale différenciation avec la théorie de la trace floue en explicitant pourquoi des faux souvenir peuvent apparaître lors du processus de récollection et non plus que par familiarité.

Le paradigme de la désinformation.

En dehors de l’étude ontologique du faux souvenir, le paradigme de la désinformation travaille activement sur le phénomène du faux souvenir. Dans ce cadre, la désinformation représente la conséquence de faux souvenirs apparaissant dans des conditions spécifiques. Ici, un individu est sujet aux faux souvenirs à la suite d’un événement vécu dont il est témoin et dont ultérieurement des informations supplémentaires seront induites et supposées vrai après coup. 

Le paradigme de la désinformation est moins consensuel en ce qui concerne l’émergence accrue de faux souvenirs liés à l’âge. Il n’y a pas  de variation significative sur le paradigme de désinformation entre jeunes à l’étude et ancien. Néanmoins, il est nécessaire de recourir à plus de données pour faire une méta-analyse à ce sujet, car la valeur statistique p dans ce cas, n’est pas assez sensible sur les échantillons actuels.

Les paradigmes de contingence sociale des faux souvenirs.

Enfin, d’autres paradigmes autour du faux souvenir traitent de l’apparition de faux souvenirs collectifs. Le paradigme de la contagion sociale semble suggérer la possibilité de transmettre de faux éléments par interactions sociales. À l’inverse, la retrieval disruption hypothesis suggère que chaque individu utilise une stratégie qui lui est proposée lors de l’étude d’items. La mise en commun en groupe semble éviter l’émergence de faux souvenirs.

Recherche et outils expérimentaux pour les illusions mnésiques.

Lors des expérimentations scientifiques, les faux souvenirs sont souvent étudiés dans le cadre de rappel libre ou de reconnaissance. Souvent, les protocoles expérimentaux emploient un items critique appelé leurre qui sert d’élément déclencheur du faux souvenir. Les caractéristiques du leurre sont des paramètres modifiables ayant un impact sur son efficacité. Par ailleurs, l’intensité des leurres au sein d’une liste est également un facteur aggravant l’émergence de faux souvenirs.

Plusieurs modèles sémantiques sont employés dans les études supervisées, le plus commun probablement est le modèle word2vec, mais il existe également le TCC Lexical souvent mise en avant.

Des études sur les stratégies mnésiques ont montré une efficacité sur la capacité d’un individu à discriminer les vrais et faux souvenirs. La Retrieval-based monitoring strategy (RBMS) est l’une des plus citées. Elle peut être implémentée dans des programmes d’entraînement cognitifs pour mesurer son efficacité. 

Albert Camus livre et philosophie de l’absurde

Albert Camus livre et philosophie de l’absurde

L’Étranger (1942) – Albert Camus (Senscritique, Amazon)

Albert Camus dans cet ouvrage nous emporte dans une période majeure de la vie de son personnage, la mort de sa mère. Ceci l’amène à remettre en cause les pré-conceptions morales et les conditions de son existence. C’est une œuvre fictionnelle intéressante pour appréhender la philosophie de l’auteur. Mention spéciale sur le chapitre sous le soleil dont la description bien amenée regorge de sensations. 


L’étranger a un statut à part entière dans la bibliographie de Camus. A la fois premier roman publié par l’auteur, l’ouvrage est le premier du cycle de l’absurde, ensemble d’écrits retranscrivant la philosophie de Camus.

Les Justes (1949) – Albert Camus (Senscritique, Amazon)

Cette pièce en cinq actes fait écho sans équivoque à la pièce de Sartre “Les mains sales” dont la trame narrative est très similaire. L’enjeu de l’œuvre tourne autour de l’assassinat d’un représentant d’un parti politique adversaire par une assemblée de révolutionnaires socialiste.

La pièce est l’occasion pour A. Camus de mettre en avant les sujets philosophiques que sont la responsabilité individuelle, l’acte engagé et le monopole de la violence. Au dire de Camus, la pièce se base sur des événements réels ayant eu cours au début du XXe siècle. La pièce, dans les thématiques abordées, s’ancre parfaitement dans les débats de la philosophie politique du siècle dernier.

Jonas ou l’artiste au travail (1953) – Albert Camus (Senscritique, Amazon)

Jonas ou l’artiste au travail est une petite nouvelle d’Albert Camus autour du sujet de l’artiste et de sa mise en abîme face à l’exercice de son Art. Une critique est également faite entre le caractère professionnel de l’acte créatif et l’expression de la création. Camus présente dans cette courte nouvelle, sa vision de la carrière d’un artiste et la conclusion de celle-ci qui laisse à penser.

Caligula (1944) – Albert Camus (Senscritique, Amazon)

Cette pièce de théâtre en quatre actes traite de la vie tonitruante de l’empereur éponyme, dont les vices seront mis en exergue et commentés par le personnage sous la plume de l’auteur. La quête de l’empereur à la recherche de l’impossible révolte face à la destinée et à la mort. Le personnage met en avant une espèce de suicide par le prisme de l’autodestruction dévastateur. 

La pièce est l’un des quatre ouvrages du cycle de l’absurde d’Albert Camus. C’est pourquoi, de nombreux parallèles peuvent être fait entre la psyché de Caligula présenté lors de ces monologues et ceux du personnage principal de l’Étranger. La pièce de théâtre représente peut être de manière plus accessible que l’est l’Étranger, la philosophie de l’absurde que Camus met en avant dans l’essai Le Mythe de Sisyphe. 

Le Malentendu (1944) – Albert Camus (Senscritique, Amazon)

Le Malentendu est la dernière œuvre de fiction s’inscrivant dans le cycle de l’absurde. Dans cette pièce plus courte en trois actes, l’absurde se manifeste par l’incongruité des événements qui amènent la mort du personnage principal par sa propre famille.

Le thème des relations familiales, de l’amour et de l’abandon sont mis sur les devants de la scène avec le propos peu reluisant et franchement pessimiste de l’absurde camusien. Les personnages, autant qu’ils sont, sont à la fois responsables des actes qui mènent au dénouement final sont également victime de bouleversement qui les dépasse. C’est dans cette dernière nuance que l’œuvre se sépare de l’existentialisme mis en avant par Sartre et apporte un élan dramatique à la pièce.

La Peste (1947) – Albert Camus (Senscritique, Amazon)

Ce récit sera signé dans l’Histoire comme l’œuvre consacrée d’Albert Camus et lui vaudra le prix Nobel de Littérature en 1957. Cette œuvre rejoint la pièce Les Justes en tant que second ouvrage du “cycle de la révolte”

Dans ce roman à la structure narrative proche de la pièce de tragédie classique, Camus propose une peste, allégorie évocatrice de l’occupation française sous le régime de Vichy, dont le contexte de menace ténue dans l’ombre et impactant le quotidien n’est pas sans rappeler les événements contemporains ayant eu cours durant l’épidémie de covid-19.

Propos sur l’auteur

Albert Camus, d’origine algérienne, est un écrivain essayiste ayant également œuvré du côté de la littérature fictionnelle avec des romans et nouvelles emblématiques. Il prendra également le rôle d’intellectuel engagé, notamment en tant que journaliste militant. Proche d’une philosophie humaniste, il s’oppose à plusieurs courants de pensée dominant de l’époque comme l’existentialisme de Jean-Paul Sartre, le marxisme et le libéralisme. Camus est également à l’origine d’une œuvre philosophique majeure autour de son “cycle de l’absurde” où il présente un rapport au monde athée où il faut apprendre à vivre.

Franz Kafka livres et critique d’une société procédurière.

Franz Kafka livres et critique d’une société procédurière.

La Métamorphose (1915) – Franz Kafka (Senscritique, Amazon)

L’une des œuvres majeures de Franz Kafka qui en tant que roman court est une bonne introduction pour découvrir l’auteur. Celle-ci fut écrite en 1912 et publiée la première fois seulement trois ans après.

La Métamorphose est une œuvre à l’esthétique prononcée avec un parti-pris morbide rappelant rétrospectivement la mouvance cinématographique du body horror. Le récit présente le quotidien de Gregor Samsa, produit de sa société qui se doit de suivre les impératifs de son travail en tant que représentant du commerce au détriment de lui-même. 

Son refus face à cette situation lui sera reproché par la sphère familiale qui vient prendre parti pour la société au détriment du fils. Il s’agit d’une œuvre poignante bien ancrée dans son époque et dont de nombreux échos font référence à notre situation contemporaine. 

Éminemment sociale, l’œuvre propose une critique interprétable de différentes façons.  Finalement, la question de la métamorphose est laissée libre à l’appréciation du lecteur. Qui de Gregor ou de sa famille a finalement le plus changé durant le court instant d’un récit.

Le Procès (1925) – Franz Kafka (Senscritique, Amazon)

Kafka dans son œuvre probablement la plus connue malgré une parution à titre posthume présente une inquiétude, une peur, présente chez beaucoup d’individus concernant les puissances administratives et sociales des civilisations modernes. Le personnage principal, Joseph K se voit, un matin parmi tant d’autres, affublé d’un faire-part de la justice sans objet. Il sera traîné de toute part dans plus de cercles de l’administration, écho des enfers de Dantès où le personnage trouvera sa salvation de la pire des manières.

À l’instar de l’œuvre La métamorphose, Kafka creuse également le sujet de la dichotomie entre les aspirations personnelles et les impératifs sociaux qui l’ont tourmenté durant sa vie. Le dernier chapitre, assez confus, propose esthétiquement une image intéressante à analyser. Néanmoins, cette partie comme plusieurs autres du livre restent obscures car inachevées par l’auteur. Si bien que la disposition du récit à été réalisée par son testamentaire Max Brod. Pour autant, ce manque de propos déroutant dans l’œuvre a sûrement joué sa part dans l’esthétique de l’étrange et du malaise qu’elle procure. 

La Colonie pénitentiaire (1919) – Franz Kafka (Senscritique, Amazon)

Toujours autour du sujet qui domine les œuvres de Kafka à savoir le système judiciaire, La Colonie pénitentiaire dépeint dans une satire narrative, les conditions abominables des détenus d’une prison coloniale. Le personnage principal, dont l’origine est soigneusement mise de côté, découvre comme le lecteur, les aberrations ignominieuses du système carcéral. 

Une bonne partie de l’œuvre décrit le mécanisme inhumain, permettant à la machine d’exécution de réaliser son dessein de mort. Mais l’étude sous-jacente est celle de l’officier qui après la mort du général essaye de perpétuer la part la plus sombre du système que le défunt militaire avait mis en place. Comme si le destin de chaque entreprise humaine était la perversion jusqu’à la destruction. 

Propos sur l’auteur

Franz Kafka est un auteur austro-hongroie d’obédience juive ayant vécu de 1883 à 1924 et devenu rapidement l’un des écrivains majeurs du XXe siècle. Ces œuvres majeures sont au nombre de quatre et comprennent Le Procès, La Métamorphose, Le Château et la Colonie Pénitentiaire. Les œuvres de Kafka présentent des tableaux sombres ou l’administration froide ronge petit à petit l’individu qui ne peut rivaliser avec cette machine bureaucratique. 

Les types de machine learning et leur différences.

Les types de machine learning et leur différences.

Le domaine de l’apprentissage est vaste et les approches multiples, il en va de même pour les modèles de Machine Learning. L’apprentissage automatique se divise en plusieurs grandes approches en fonction des tâches à réaliser, mais également des éléments dont nous disposons à l’étude.

Pour préparer un modèle de ML, plusieurs étapes sont nécessaires. La première étape consiste à définir la problématique que nous souhaitons résoudre. En parallèle, il est également nécessaire de bien analyser les données que nous avons à disposition ainsi que de les préparer pour notre contexte. A partir de ce moment, plusieurs modèles d’apprentissage automatique peuvent être sollicités en fonction de leurs avantages et de leurs inconvénients aux eus et regards des données. 

S’ensuit la seconde étape, dans laquelle nous pouvons évaluer les résultats de plusieurs modèles et améliorer les algorithmes par de l’optimisation et du paramétrage. C’est donc après cette phase d’étude préliminaire que nous pouvons exploiter un modèle.

Une grande force de l’apprentissage automatique se trouve être la richesse de ces approches permettant d’en de nombreux cas de trouver un modèle pour répondre à une tâche. Dans la pléthore des modèles qui ont été découverts, plusieurs éléments distinctifs permettent de catégoriser les modèles. 

Premier élément distinctif, l’apprentissage supervisé et l’apprentissage non supervisé.

Selon la nature des données disponibles pour le modèle, on distingue trois grandes familles qui sont régulièrement employées comme base pour dissocier les approches.

Le premier principe qui divise les processus de ML est l’aspect prédictif (supervised) ou à l’inverse unsupervised des jeux de données en entrée. L’apprentissage consiste à emmagasiner de l’expérience et à l’utiliser pour faire émerger des connaissances. Mais cette expérience peut varier selon la situation. Parfois, l’expérience consiste à regarder une situation se dérouler à laquelle une réponse est donnée, parfois la réponse n’est pas fournie.

Les rudiments de l’apprentissage supervisé.

Dans le cas où une réponse serait donnée pour un nombre suffisant de cas, nous sommes dans le cadre de l’apprentissage supervisé. Finalement, lorsqu’une réponse est donnée, c’est comme si un superviseur avait apporté une information supplémentaire. Il y a un ensemble d’éléments dont on connaît la réponse, on a un jeu de données dit de test pour valider notre futur modèle.

Lorsque les données sont fournies avec une valeur de sortie attendue, au moins pour une partie des données, l’objectif est de définir une règle générale permettant de faire concorder les données avec celle de sortie. Les données de sortie, quand elles sont définies, indiquent que l’échantillon est labellisé ou étiqueté. La part des données labellisées est généralement fournie par une captation du réel sous la forme de données ou par une labellisation dans un second temps par des experts du domaine d’étude ou un ensemble d’individus labellisant à la main des données à grande échelle.

En d’autres termes, le but est de définir un modèle prédictif qui pour un ensemble d’éléments (X; y) où X est un ensemble de données et y, la réponse apportée pour l’ensemble X permet de trouver plus tard la valeur y inconnus pour un nouvel élément X. Les éléments de X,  sont appelés généralement les features ou les attributs. Ils peuvent être de plusieurs formes allant de données numériques à des images ou des textes. Evidemment, dans un ensemble de données X, il peut y avoir un mélange de différentes formes de données. 

L’élément y peut aussi être de plusieurs formes, mais généralement, il s’agit d’une donnée dite catégoriel se définissant par un format texte ou numérique. On parle dans ce cas de problème de classification, on cherche à définir la classe dans laquelle se situe un ensemble X. Quand y est une valeur non-catégorielle comme un réel par exemple, on parle de problème de régression. On cherche à déterminer la valeur de y en se basant sur les relations d’autres couples (X; y) connus, on fait une régression à ce qu’on sait du comportement mis en avant par le jeu de données.

Dans le champ de l’apprentissage supervisé, on retrouve plusieurs méthodes pour la reconnaissance vocale, les recommandations ou encore la détection de spam. 

Les fondements de l’apprentissage non supervisé.

Dans le cas où nous aurions des données, mais aucune réponse n’a été donnée, la situation devient de plus délicate pour définir une règle. Malheureusement, c’est le cas le plus récurrent. On fait alors intervenir des modèles non supervisés.

Ici, nous n’avons plus de couple (X; y) mais seulement plusieurs éléments X sans la partie y. Des données sont bien présentes mais elles sont transmises sans structure définie et aucune valeur y n’est proposée. C’est au modèle de définir des valeurs y qui lui semblent efficaces pour définir des ensembles. Par ailleurs, les données présentées sans élément de catégorisation sont dites non-étiquetées.

Évidemment, l’analyse de pertinence du modèle est plus difficile car nous ne possédons pas de données de référence pour valider le travail de l’algorithme. Dans cette situation, le modèle doit proposer une structure des données pertinente aux eus et regards des données fournies.

L’apprentissage non supervisé est très souvent employé pour la détection de phénomènes anormaux comme dans le cas de fraude ou de maladies rares. Le fait d’améliorer la compréhension des données d’entrée en employant des techniques de réduction des dimensions ou de nettoyage du bruit est souvent nécessaire.

Pour conclure sur les deux grandes familles supervisées et non supervisées, il est important de préciser qu’il existe des approches hybrides notamment le semi-supervised learning lorsque le volume de données étiquetées est jugé insuffisant pour les modèles d’apprentissage supervisé. Ceci est très récurrent lorsqu’il est coûteux de faire intervenir des experts pour labelliser les jeux de données. Il s’agit souvent d’une alternative efficace face aux difficultés réelles de la récolte d’information ainsi que son traitement.

Le cas particulier de l’apprentissage par renforcement.

Le dernier champ majeur en apprentissage machine est l’apprentissage par renforcement qui utilise un tout autre paradigme. Cette approche est moins mise en avant, mais qui connaît un gain d’intérêt notamment grâce à de nombreux usages ces derniers temps. Ici, à chaque étape, le modèle ML va apprendre si une action menée est positive ou négative à l’aide d’une politique de distribution de récompense. Le modèle va adapter son comportement grâce aux retours que donne une action de sa part sur les données. Le modèle essayant de suivre par lui-même les objectifs que l’on a définis. Dans ce champ, on retrouve la robotique ou les transports autonomes. La grande différence de cette famille de modèles, c’est que l’algorithme interagit directement avec l’environnement.

Les différences liées à l’usage de l’apprentissage automatique.

L’apprentissage actif et l’apprentissage passif.

La question se pose dans cette section, sur l’action menée par le modèle. Si celui-ci lors de son entraînement vient agrémenter les informations mis initialement à disposition en agissant sur les données initiales, on est dans le cadre d’un apprentissage actif. Si le modèle reste dans une lecture stricte des données d’entrée, il est dit passif.

L’apprentissage en ligne et l’apprentissage hors ligne.

Une autre distinction importante concerne le contexte d’apprentissage et distingue les modèles qui doivent analyser la situation en ligne, c’est-à-dire en fournissant un résultat en même temps que d’apprendre, et ceux qui ont le temps en amont (hors-ligne) d’analyser un volume de données d’entraînement et ne se base que sur l’entraînement préalable pour fournir les résultats a posteriori. Dans l’apprentissage en ligne, on imagine bien qu’une courbe de progression est nécessaire pour que le modèle apporte des résultats concluants. Il existe donc des approches hybrides ou le modèle en ligne ne démarre pas totalement sans expérience (démarrage à froid).

Des différences dans les actions à réaliser sur les modèles d’apprentissage machine.

Le modèle a-t-il besoin d’un agent extérieur ?

Une distinction majeure concerne l’accompagnement ou non du modèle. Ceci peut se faire en faisant collaborer un expert humain ou un autre algorithme pour aider le modèle à atteindre ses objectifs. Il est également possible d’utiliser un acteur adversaire du modèle cherchant à l’induire en erreur pour qu’il s’améliore.

Le paramétrage des algorithmes de Machine Learning.

On peut également dissocier les approches de machine learning en fonction que le modèle soit paramétrable ou non-paramétrable. Un modèle paramétrable pourra être optimisé en trouvant la bonne configuration de paramètre et ses performances peuvent être analysées à l’aide d’une fonction.

Le point majeur qui permet de définir la configuration optimale est la nature du jeu de données mis à disposition. Souvent, les jeux de données sont limités en volume. Parfois, et c’est plus grave, les jeux de données ne sont pas représentatif de l’ensemble d’études (surgénéralisation). Il est possible dans ce cas, pour les algorithmes de Machine Learning paramétrable de pallier ce défaut partiellement. 

Des divergences dans le choix des techniques employés par les algorithmes.

Enfin, en plus des différenciations susnommées, les algorithmes de ML sont aussi divisés en plusieurs familles suivant les techniques employés. On peut en présenter quatre principales.

L’apprentissage logique

Il s’agit sûrement de l’approche la plus rapidement mise en avant. Ici, l’humain vient proposer des règles à l’algorithme que celui-ci doit suivre pour suivre un raisonnement logique et émettre des hypothèses. Nous sommes proches ici des fondamentaux de l’automatisation.

L’apprentissage statistique

Les données pour ces algorithmes d’apprentissage jouent un rôle majeur, puisque leur nature va orienter la recherche autour d’une fonction permettant de faire la liaison entre les données d’entrée et les données de sortie. Pour ce faire, les modèles utilisent des notions venant des mathématiques et plus communément des statistiques. 

L’apprentissage par réseaux de neurones artificiels

Les ANN (Artificial Neural Network) se basent sur la structure des neurones en biologie animale pour déterminer des relations complexes entre les données d’entrée et de sortie. Ce groupe a été décliné par la suite en une nouvelle sous-branche appelée le deep learning, consistant à employer les capacités de calcul des machines modernes pour concevoir des réseaux de plus en plus étendus (profond) pour répondre à des problèmes complexes.

Les algorithmes génétiques

Pour terminer, les algorithmes génétiques imitent également un concept biologique, celui de la théorie de l’évolution avec des événements comme les mutations et les croisement pour faire apparaître des modèles optimisés pour une situation précise.

Pour conclure sur cette première introduction autour des différenciations marquantes entre les différentes approches d’apprentissage automatique, il est important de retenir que le Machine Learning propose des solutions variées et que choisir la bonne méthode en amont est la clé de la réussite. Nous ne sommes pas rentrés dans les détails de quelles familles est la meilleure pour tel ou tel problème, tout simplement parce que cette question dépend énormément du contexte et des cas particuliers. Finalement, ce n’est qu’en ayant une culture globale sur les différentes techniques que l’ingénieur IA peut proposer un modèle après avoir analysé dans quel cadre il doit travailler. 

Qu’est ce que l’apprentissage automatique ?

Qu’est ce que l’apprentissage automatique ?

Le Machine Learning parfois appelé Automated Learning est une vieille terminologie datant de 1960. Il s’agit de la contraction du terme machine faisant référence aux interfaces informatiques et le mot learning qui définit la faculté de découvrir et de reconnaître des schémas structurants dans un ensemble de données. L’apparition du terme Machine Learning et de son abréviation ML tend à dissocier les nouveaux modèles des processus d’automatisation plus courants au XXe siècle. 

La différence entre ML et l’automatisation se base sur la nécessité dans l’automatisation de faire une énumération exhaustive des règles de prise de décision. Les ML n’en ont pas besoin car l’ensemble des décisions s’extraient des jeux de données et de parfois quelques directives présentées en amont. Ceci permet au modèle de ML de répondre à des problèmes nouveaux où les anciens modèles sont soit limités, soit incapable de répondre. C’est le cas notamment dans les situations avec une haute complexité ou lorsque le problème nécessite une adaptabilité des algorithmes. En effet, un processus ML peut aussi s’adapter contrairement à un programme standard pour répondre à des variations de contexte. Ceci n’est pas réalisable pour un système automatisé sans la contribution d’un expert extérieur. 

Dans le secteur du Machine Learning, l’objectif principal est de concevoir des systèmes permettant aux ordinateurs de comprendre des structures et d’assimiler des connaissances à partir de données. Pour ce faire, le machine learning englobe un ensemble d’outils mathématiques vaste. Le milieu du Machine Learning englobe plusieurs champs des sciences en s’inspirant des connaissances notamment en  statistiques, mais aussi en théorie de l’information, en théorie des jeu, en optimisation… Enfin, en tant que domaine des sciences de l’informatique, une part importante est adressée à l’usage d’algorithme et de notion de science de l’informatique. 

A quoi sert le Machine Learning ?

Les modèles de machine learning sont variés mais tous se rejoignent autour de l’usage de données pour répondre à une tâche précise. De façon générale, l’objectif est de faire une analyse approfondie mettant en avant de nouvelles connaissances à partir d’un ensemble de données et d’un objectif ciblé au préalable. Pour ce faire, les modèles ML font des relations, définissent des schémas et construisent des échantillons représentatifs d’événement réel mesurable. 

D’un point de vue industriel, le ML suit une tendance consistant à automatiser les processus réalisés par l’Homme et devenus coûteux, dont nous souhaitons soustraire les individus. Dans le champ spécifique du ML, ce sont les processus d’analyse d’information qui sont visés. Cette analyse virtuelle permet entre autres une meilleure compréhension des données, et peut permettre d’aider à la prise de décision en émettant des prédictions plus ou moins fiables à l’aide du contexte représenté par les données.

Rappelons que nous entrons dans la période des big data pour l’Homme et son industrie. Cette période se définit par l’émergence d’un écosystème enrichi en données avec des volumes considérables. Pour pouvoir analyser les données malgré l’accroissement de celle-ci dans l’écosystème numérique, il faut des outils pour automatiser les méthodes d’analyse comme ce que propose la ML. Le fait que le ML permettent d’automatiser les analyses de ces jeux de données témoigne à mon sens de sa force dans les enjeux du siècle.

Quelles sont les performances marquant du Machine Learning ?

L’émergence et l’usage du ML dans la vie quotidienne bouleverse plusieurs secteurs et les usages associées deviennent de plus en plus indispensables pour le développement de plusieurs secteurs. Dans la vie quotidienne, les algorithmes de Machine Learning sont souvent mis en avant par leur capacité à reproduire des comportements humains comme le langage, la reconnaissance visuelle, la création, la traduction, la conversation et la prise de décision analytique. Comportement qui sont fortement ancrés comme inhérent à la condition humaine et animale. Chaque avancée dans ce secteur pose indubitablement des questions philosophiques et humaines sur notre condition et peut susciter la crainte. 

ML est souvent défini comme une branche de l’AI (Artificial Intelligence). Mais dans le cas du ML on étend souvent l’exercice à d’autres objectifs que de simplement reproduire une intelligence animale artificiellement. Il s’agit également de parfaire certains raisonnement et d’en accompagner d’autres pour la prise de décision. L’acteur humain extérieur est complémentaire et essentiel.

Il est important de rappeler que le ML est un outil parmi tant d’autres et qu’il ne se limite pas à l’imitation des processus humains. La force même du ML est la capacité de ses modèles à extraire dans de grand volume de données des informations nouvelles. Par ailleurs, plus une tâche ou une question est fine, plus l’usage de données réelles et riches améliore les performances. Cependant, l’analyse est rendue difficile par le temps que nécessite les tâches intermédiaires de manipulation et de compréhension des données, notamment quand la quantité de données est gigantesque. C’est ici que le ML est un outil formidable, puisque permettant à moindre côut, d’automatiser la plupart des sous-tâches d’analyse des données par un acteur virtuel.

Par sa condition de machine, le modèle ML peut performer plus longtemps, parfois de manière plus optimisé et de manière plus fine que l’humain. La force des modèles de ML est également d’avoir les ressources nécessaires pour minimiser les erreurs de raisonnement en parallélisant les analyses en plusieurs experts virtuels, ce que nous ne pouvons pas faire aussi simplement avec des experts humains. 

Malgré tout, il ne faut pas concevoir directement les modèles ML comme des concurrents des humains mais bien comme des outils d’aide à la décision pratique. La machine ne peut apporter de jugement en dehors de l’analyse des faits, l’humain reste le seul apte à choisir en fonction des informations données. A titre d’exemple, le filtre de spam des emails et les moteurs de recherche sont deux principaux cas d’usages du ML déjà présent dans le quotidien en tant qu’assistant laissant libre cours aux choix de l’humain.

Ceci donne une idée des tâches que les humains peuvent faire (trier ses mails) et dont on veut déléguer à des machines et les tâches que l’humain ne peut pas faire car limité par ses capacité (proposer le contenu le plus pertinent du vaste internet). 

Le Machine Learning, une grande famille d’algorithmes.

Comme dans tout domaine de l’informatique, il y a plusieurs façons de réaliser les mêmes choses en ML. Il arrive même assez régulièrement que deux approches se valent pour répondre à une problématique. 

Le fait qu’Il existe plusieurs façon de faire du Machine Learning, à la fois pour répondre différemment et subtilement à des problèmes qui varient légèrement dans les conditions initiales mais aussi pour optimiser ces résultats fait que la discipline est riche et difficile à appréhender dans son ensemble. 

Il y a plusieurs sous branches de ML suivant les approches de l’apprentissage mis en avant. Mais cela ne doit pas vous décourager pour autant, chaque famille en ML à son propre univers et il n’est pas nécessaire de maîtriser l’ensemble. Dans un article sur le blog, nous revenons sur les différentes approches et en quoi elle diffère pour répondre à des tâches spécifiques. Enfin, un élément majeur en ML concerne le fameux théorème au nom évocateur “There is no free lunch”, qui rappelle à tous les enthousiastes en ML qu’il n’existe pas de solution miracle en ML. Chaque approche répond à des problématiques précises de façon plus ou moins pertinente. 

CV Ingénieur développeur informatique

CV Étudiant PhD Artificial Intelligence

Portfolio Artist designer