La théorie de l'information et de la communication interroge les systèmes d'information et les systèmes de communication, donc leurs acteurs, leurs rapports, leurs outils et leur efficacité. La notion de système d'information ou de communication étant large, la théorie de l'information et de la communication est elle-même vaste et multiple. Ce domaine trouve son origine scientifique dans l’article de Claude Shannon « A Mathematical Theory of Communications », publié en 1948. Parmi les branches importantes, on peut citer :
- le codage de l'information ;
- la mesure quantitative de redondance d'un texte ;
- la compression de données ;
- la cryptographie.
L'apparition de la théorie de l'information-communication va de pair avec celle de la psychologie cognitive dans les années 1940 et 1950. On admet notamment que la valeur d'une information est proportionnelle à la faible variabilité des conclusions résultantes. Dans ce cadre, différents modèles mathématiques ont été utilisés. Deux ingénieurs en télécommunications, Claude Shannon et Warren Weaver, par exemple, ont cherché à mesurer l'information. Dans Théorie Mathématique de la Communication, en 1948, ils modélisent l'information pour étudier les lois correspondantes : bruit, entropie et chaos, par analogie générale aux lois d'énergétique et de thermodynamique. Leurs travaux complétant ceux d'Alan Turing, de Norbert Wiener et de John von Neumann, constituent le socle initial de la théorie du signal et des sciences de l'information.