Procura

EstatísticaCálculo


EXERCÍCIOS - Exercício 1

  • (CESPE 2018)

Considerando 1,6 como valor aproximado para log 2 3, julgue o próximo item, a respeito de entropia na teoria da informação.

A entropia relativa, ou divergência de Kullback-Leibler, é uma medida para a distância de duas distribuições de um conjunto de dados, uma correta e outra incorretamente assumida, e é sempre um número positivo.




C) Certo

E) Errado


Próximo:
EXERCÍCIOS - Exercício 2

VOLTAR ao índice: Estatística






Cadastre-se e ganhe o primeiro capítulo do livro.
+
((ts_substr_ig=0.00ms))((ts_substr_id=12.86ms))((ts_substr_m2=0.00ms))((ts_substr_p2=0.44ms))((ts_substr_c=0.45ms))((ts_substr_im=0.76ms))
((total= 15ms))