EstatísticaCálculo
- (CESPE 2018)
Considerando 1,6 como valor aproximado para log 2 3, julgue o próximo item, a respeito de entropia na teoria da informação.
A entropia relativa, ou divergência de Kullback-Leibler, é uma
medida para a distância de duas distribuições de um conjunto
de dados, uma correta e outra incorretamente assumida,
e é sempre um número positivo.
C) Certo
E) Errado
Próximo:
EXERCÍCIOS - Exercício 2
VOLTAR ao índice: Estatística