Cet article explore une nouvelle méthode d'application de modèles d'apprentissage directement sur des images compressées. Les méthodes usuelles de codage entropique comme Huffman et Arithmetique perturbent la structure semantique des données après compression, rendant l'apprentissage sans decompression préalable difficile. Cet article propose d'utiliser des codes LDPC comme codeurs entropiques, en hypothétisant que leur structure interne pourra être efficacement exploitée par les modèles d'apprentissage. L'utilisation des réseaux de neurones récurrents (RNN) de type Gated Recurrent Unit (GRU) pour la classification d'images, permet d'obtenir des performances de classification supérieures par rapport à l'état de l'art de l'apprentissage sur codées compressées, avec des modèles plus simples.