Vocabulário Controlado Básico (VCB)

Entropia da informação

Entropia da informação

A entropia da informação, introduzida por Claude Shannon, é uma medida da incerteza média em um conjunto de dados ou de uma fonte de informação. Ela quantifica o quão aleatória ou previsível é uma mensagem, sendo máxima quando todos os resultados possíveis são igualmente prováveis. O conceito é usado para entender a quantidade de informação, que é diretamente relacionada com a surpresa ou imprevisibilidade. 

=900 \$aVCB$9tci-ibict
=901 SEN10000000000000000205769
=908 180920da|azn||babn\\\\\ ana\\d
=BAS \$aCAT: 1 Epistemologia da Ciência da Informação
=CAT \$aSENGER1$b30$c20200916$lSEN10$h2037

Termos genéricos

Data de criação
18-Set-2020
Termo aceito
18-Set-2020
Termos descendentes
0
ARK
ark:/99152/t36qm1zoq0y07n
Termos específicos
0
Termos não preferenciais
0
Termos relacionados
0
Notas
6
Metadados
Busca
  • Buscar Entropia da informação  (Wikipedia (ES))
  • Buscar Entropia da informação  (Google búsqueda exacta)
  • Buscar Entropia da informação  (Google scholar)
  • Buscar Entropia da informação  (Google images)
  • Buscar Entropia da informação  (Google books)