Cette UE fait suite au cours de probabilité du M1. L’objectif de l’UE est d’aborder la notion d’information de Fisher dans le contexte de l’estimation ainsi que la notion d’entropie dans les problèmes de codage. Ces deux notions seront ensuite reliées. Mots clés :
-Information de Fisher
-Borne de Cramer Rao
-Entropie
-Premier théorème de Shannon
-Divergence de Kullbach-Leibler