Transitional Probabilities, Prediction and Backward Associations in Language
Résumé
A typical cognitive mechanism involved in language comprehension relates to the processing of sequences of stimuli. To learn sequences, statistical learning enables the computation of transitional probabilities (TP). A TP corresponds to the probability to encounter successive events in a sequence. While forward TP (FTP: probability to encounter B after A in an AB sequence) have been studied extensively, backward TP (BTP, probability to encounter A before B) remain elusive, as few studies have investigated how they are learned. Moreover, these investigations were based only on offline measures, thus leaving aside the issue of how BTP are used in real-time sequential processing, such as in language. We therefore attempted to synthesize the evolution of various statistical concepts in language processing, from cooccurrences in semantic priming to TP, and to highlight the lack of studies on BTP in the context of sequential processing.
Le traitement de séquences de stimuli apparaît comme étant central dans la compréhension du langage. Au sein de séquences, l’apprentissage statistique permet de calculer des probabilités transitionnelles (PT). Une PT correspond à la probabilité de rencontrer successivement deux stimuli dans une séquence. Alors que les PT prospectives (PTP : probabilité de rencontrer B après A dans AB) ont été largement étudiées, les PT rétrospectives (PTR, probabilité de rencontrer A avant B) restent méconnues. De plus, les quelques études portant sur les PTR ne se sont basées que sur des mesures hors ligne, laissant ainsi de côté la question de leur utilisation dans le traitement séquentiel. Dans cet article, nous synthétisons l’évolution de divers concepts statistiques dans le traitement du langage, des cooccurrences dans l’amorçage sémantique jusqu’au PT, afin de mettre en évidence le manque d’études sur les PTR dans le contexte du traitement séquentiel.