La définition de Information

Une information correspond à une séquence de signaux combinés selon des règles précises qui, transmise d'un émetteur à un récepteur, modifie l'état de ce dernier.


La théorie de l'information

La théorie de l'information, également appelée théorie de la communication, a introduit, à la fin des années 1940, une notion très abstraite, strictement mathématique, de l'information. Elle a été orientée vers les applications en matière de télécommunication. Elle a ensuite été étendue au fonctionnement des ordinateurs, puis au langage naturel et à des champs à première vue plus éloignés comme la génétique et la psychologie.
Dans la théorie de l'information, on considère des messages, mais on ne prend pas leur sens en considération. Une source d'information émet des messages en choisissant des symboles discrets dans un répertoire fini tel que les lettres de l'alphabet, les mots d'un dictionnaire, les notes d'une échelle musicale ou, dans le cas le plus simple, les deux symboles de l'alphabet Morse. Un message particulier est un échantillon de l'ensemble de tous les messages possibles formés de suites de symboles du répertoire. L'information est donc une mesure de la liberté de choix quand on choisit un message dans l'ensemble, indépendamment du sens qui y est attaché.
Elle représente la résolution de l'incertitude ou du désordre qui régnait avant le choix, d'où le nom d'entropie négative (ou néguentropie), qu'on lui donne encore. Tout message possible peut être ramené à une suite de choix à l'intérieur d'une opposition binaire (ou bit), c'est-à-dire, dans la pratique, à une suite de 0 ou de 1. Cela définit ce que l'on appelle le codage numérique (ou digital). Cette possibilité universelle de réduction est ce qui fait la puissance de la théorie de l'information.


L'information transmise

On appelle information transmise une quantité qui se mesure par le changement de l'incertitude existant chez le récepteur, que l'on décrit en termes de probabilité. Intuitivement, cela correspond à ce qu'il y a de nouveau, d'imprévu dans le message.
Au début de l'assimilation de la théorie de l'information par la psychologie, ce sont ses aspects numériques qui ont été mis au premier plan et on a cherché à déterminer, dans une série de domaines, des quantités d'information.
Par la suite, on s'est aperçu de la vanité de ces efforts. Mais des notions dérivées ont joué, parfois métaphoriquement, un rôle important en psychologie cognitive. Par exemple, celle que tout canal de communication (en psychologie, la perception, l'attention ou la mémoire à court terme) a nécessairement une capacité limitée, ou encore celle de bruit, liée à l'idée que, normalement, toute information se dégrade en étant transmise (également dans la perception et la mémoire).


L'information en termes de différences

L'information désigne également toute différence qui produit une différence. La définition en termes de différences est équivalente à la précédente, mais elle rend mieux compte de la façon dont l'information est conçue dans les théories cognitives du traitement de l'information. Dans ce cas, ce sont les modalités de transformation de l'information, de structuration et de conservation, de formation de représentations, et, le cas échéant, de traitements simultanés (parallèles), plutôt que de transmission dans un canal unique, fonctionnant de façon successive (sérielle), qui sont mises en avant.

Autres termes psychologiques :

Redondance
Message
Code
Processeur
Dichotique

Utilisation des cookies

carnets2psycho souhaite utiliser des cookies.

Vous pourrez à tout moment modifier votre choix en cliquant sur Gestion des cookies en bas de chaque page.