Exercices de théorie de l'information ? entropie et codage
L'entropie conditionnelle est la moyenne sur X de cette valeur (constante), et donc. H(YX) = Ex [log 4] = log 4 = 2 bits. Finalement, l'information mutuelle est.
L'entropie conditionnelle est la moyenne sur X de cette valeur (constante), et donc. H(YX) = Ex [log 4] = log 4 = 2 bits. Finalement, l'information mutuelle est.