[:fr]Codage vidéo distribué[:en]Distributed video coding[:it]Codifica video distribuita[:]

[:fr]Le codage vidéo distribué est un cas particulier du codage de source distribué.
Ce dernier consiste à coder séparément plusieurs sources corrélées (p.ex., les trames paires et impaires d’une vidéo). La théorie de l’information assure que dans ce cas on a les mêmes bornes théoriques des performances RD qu’on aurait dans le cas de codage conjoint, pourvu que certains faibles hypotheses sur les données soient satisfaites et que le décodage soit effectué conjointement.

Un schéma typique de codage vidéo distribué est celui en figure, appelé codeur de Stanford.
Les images du flux vidéo d’entrée sont divisées en deux groupes : les trames clé (Key Frames, KF) et les trames Wyner-Ziv (WZF). Les KF sont codées et décodées individuellement et indépendamment des WZF. Au décodeur elles sont utilisées pour créer une estimation des images « manquantes », les WZF. Cette approximation, aussi dite information adjacente (side information, SI) peut être vue comme une version bruitée de la WZF originale. Pour l’améliorer sans pourtant la connaitre au codeur, il suffit de calculer des bits d’un code correcteur d’erreur : en envoyant ces bits de parité, on pourra corriger la SI indépendamment de comment on a crée cette SI.

Notre travail est focalisé sur la partie de création de la SI, aussi dit interpolation d’image. Nous avons des contributions sur:

  • La création de SI avec interpolation de trajectoire non-linéaire et champs denses
  • La fusion d’interpolations temporelles et inter-vue pour le codage vidéo distribue multi-vue
  • L’évaluation de l’efficacité de la SI

[:en]
[:it][:]