A entropia da informação, introduzida por Claude Shannon, é uma medida da incerteza média em um conjunto de dados ou de uma fonte de informação. Ela quantifica o quão aleatória ou previsível é uma mensagem, sendo máxima quando todos os resultados possíveis são igualmente prováveis. O conceito é usado para entender a quantidade de informação, que é diretamente relacionada com a surpresa ou imprevisibilidade.