[:fr]Ouvrez une session Windows XP
- Téléchargez et installez le logiciel VC Demo : voir ici
- Séquences vidéo
[:]
[:fr]Ouvrez une session Windows XP
[:]
[:fr]TP pour le cours d’Estimation non paramétrique SD205
[:]
[:fr]Tutoriel OpenCV-Python
Scripts Python[:en]Find here the link to OpenCV-Python tutorials
The slides of the lesson are here
Images for the practical works
Python scripts[:it]Tutorial OpenCV-Python
[:fr]Antoine Dricot a obtenu aujourd’hui son diplôme de docteur de Telecom-ParisTech, en défendant une thèse dont le titre est : « Light-field image and video compression for future immersive applications ». Félicitations ![:en]Antone Dricot achieved its PhD degree defending a thesis entitled: « Light-field image and video compression for future immersive applications ».[:it]Antone Dricot ha ottenuto il titolo di dottore di ricerca con una tesi intitolata « Light-field image and video compression for future immersive applications ».[:]
[:fr]Nello Fiengo a obtenu aujourd’hui son diplôme de docteur de Telecom-ParisTech, en défendant une thèse dont le titre est : « Recursive bit-rate allocation using a convex optimization approach ». Félicitations ![:en]Nello Fiengo achieved its PhD degree defending a thesis entitled: « Recursive bit-rate allocation using a convex optimization approach ». Congrats ![:it]Nello Fiengoha ottenuto il titolo di dottore di ricerca di Telecom-ParisTech, presentando la sua tesi intitolata : « Recursive bit-rate allocation using a convex optimization approach ». Congratulazioni![:]
[:fr]MàJ Cette thèse a été attribué, ce n’est plus disponible
Après les progrès notables quant à l’élargissement de la dynamique des images numériques, des efforts importants de recherche se portent aujourd’hui sur l’enrichissement des informations liées à la géométrie de la lumière de la scène capturée. Nous faisons référence ici à deux approches complémentaires : premièrement aux systèmes composés de multiples caméras (dit système multi-caméras, y compris les caméras à 360° ou les systèmes de captation « multivues ») permettant d’acquérir la scène sous différents points de vue, et deuxièmement aux systèmes dit « light-field » qui capture en un endroit le champ de lumière et non seulement l’intensité de la lumière. Ces deux approches permettent de proposer les mêmes types de fonctionnalités :
Toutes ces nouvelles approches peuvent s’unifier sous la notion d’images plénoptiques, [2] définies par la fonction plénoptique :
qui fournit l’intensité de la lumière (et éventuellement la phase) pour tous les points de la scène , pour toutes les directions , pour toutes les longueurs d’onde et en fonction du temps
Le sujet de thèse proposée ici porte sur trois des problématiques clés des images plénoptiques : l’acquisition, la visualisation et la synthèse de vues intermédiaires.
Les outils d’acquisition dont on dispose aujourd’hui ne permettent pas une acquisition de la fonction plénoptique complète, mais correspondent à un échantillonnage de celle-ci. Par exemple, un système d’acquisition multivues classique permet d’effectuer l’acquisition avec y et z constantes, et en échantillonnant x à pas régulier. Un système Super Multiview (c’est-à-dire, avec parallaxe horizontale et verticale [3]) échantillonne sur x et y. D’autre part, dans ce projet nous somme également intéressé par des cas plus complexes, ou le positionnement et l’orientation des caméras entrainent un échantillonnage de la fonction plénoptique sur une grille irrégulière.
Plus en général, un des problèmes fondamentales liés à l’utilisation des images plénoptiques, consiste à reconstruire la fonction à partir d’un ensemble limité d’échantillons, qui à leur tour, peuvent appartenir à une grille régulière ou irrégulière.
Du fait de la richesse des informations capturées, les images plénoptiques proposent un certain nombre d’interactions à l’utilisateur, notamment :
Ces éléments, dans l’image classique, sont fixés lors de la prise de vue par le photographe (ou le chef opérateur dans le domaine de la cinématographie) afin de transmettre au mieux le message (forme de l’objet photographié, ambiance, etc.). Dans le contexte des images plénoptiques ces éléments sont déterminés (totalement ou en partie) lors de la visualisation par l’utilisateur. De nouvelles métaphores de visualisation peuvent alors être proposées. Par exemple l’application Fyuse [4] associe le choix de l’angle de vue au temps, alors que l’outil de visualisation de Lytro [5] propose de choisir la zone nette par un clic de souris.
Tous ces opérations nécessitent d’une façon ou d’une autre, d’avoir accès à la fonction plénoptique
Dans le cadre de cette thèse, les travaux de recherche porteront sur la proposition de nouvelles métaphores génériques de visualisation interactives d’images plénoptiques avec la triple contrainte de :
Les domaines scientifiques qui sont utiles à ces travaux viennent de différents domaines tels que :
Ces domaines interagissent les uns avec les autres : la synthèse (ou interpolation) de vue est préalable à la cinématographie virtuelle et peut exploiter les informations d’attention visuelle pour optimiser le processus là où l’utilisateur regarde : tout cela impacte évidemment l’esthétique et la qualité du résultat.
La synthèse d’image intermédiaire joue un rôle clé dans le système que nous voulons réaliser. En effet, on peut voir ce problème comme celui de reconstruire (en tout ou en partie) la fonction plénoptique à partir d’un ensemble d’échantillons [12]. Cette reconstruction est basée sur la géométrie de la scène et utilise souvent des opérations de post-traitement pour pallier aux artefacts de l’interpolation.
La synthèse d’image a été longuement étudie par les communautés de la Computer Vision et de la compression, même en dehors du cadre de la reconstruction de la fonction plénoptique. Les premières méthodes proposées en synthèse de vue s’appuient uniquement sur l’information visuelle : on parle alors de Image-Based Rendering (IBR) [13]. L’estimation de la disparité et la détection des occlusions (comme par exemple en [14]) sont des outils très importants pour que cette synthèse soit efficace. Ces outils seront testés dans le cadre de la thèse.
Quand, en plus des informations visuelles, on connait également la géométrie de la scène, on peut utiliser la synthèse d’image aidé par la profondeur, Depth Image-Based Rendering (DIBR) [15]. Même si le DIBR a été proposé dans les années 2000, la qualité des reconstructions qu’on peut obtenir n’est pas toujours satisfaisante, comme montré notamment lors des études de qualité perçue [16]. Néanmoins, des méthodes récentes semblent pouvoir combler ce fossé [17] grâce à l’utilisation conjointe de l’information spatiale et temporelle. Il s’agit ici d’une autre piste de développement possible. En plus, les techniques de détection d’occlusions peuvent bénéficier de l’information de profondeur.
Une autre source de difficulté est le positionnement des caméras utilisées pour acquérir la scène [18]. Une phase préalable de synchronisation et calibration est nécessaire pour que la synthèse puisse se faire correctement [19] [20] [21]. A cette fin, les outils de mise en correspondance de features comme SIFT [22], SURF [23] ou autres, semblent indispensables pour aboutir à une compréhension de la géométrie de la scène [14] [18] .
La thèse débutera avec une étude approfondie de l’état de l’art dans des différents domaines : la synthèse d’image, (avec et sans profondeur), calibration de caméras, la géométrie 3D appliqué à la vision (en particulier, estimation de disparité et détection d’occlusions), les features visuelles et leur mise en correspondance, ainsi que les aspects physiologique de la vision par rapport à la synthèse d’image.
A niveau pratique, le doctorant pourra prendre en main les systèmes d’acquisition d’images plénoptiques maitrisés par l’équipe b<>com.
Avec ces outils, le doctorant pourra tester des méthodes de synthèse d’images : d’abord dans des cas simples (grille régulière, systèmes super-multivues), en suite dans des configurations plus complexes. Les principes liés à la vision humaine seront graduellement intégrés dans le système, ce qui permettrait par exemple de synthétiser uniquement (ou avec une meilleure qualité) les parties saillantes de la scène.
Au même temps, l’impact des outils de synthèse (simples ou complexes) sur la visualisation, navigation, la cinématographie virtuelle, l’esthétisme, seront évalués, en sorte d’avoir toujours en vue la chaine complète de traitement. A ce propos, l’objectif final est la mise en place de cette chaine, qui permette la reconstruction des images plénoptique et leur pleine utilisation.
Rémi Cozot, Maître de Conférences, Habilité à Diriger des Recherches, IRT b<>com, IRISA/Université de Rennes 1 – cozot@irisa.fr
Marco Cagnazzo, Maître de Conférences, Habilité à Diriger des Recherches, IRT b<>com, Telecom-ParisTech/Institut Mines-Télécom– cagnazzo@telecom-paristech.fr
[:en]Update: this position is no longer available
There is an increasing interest towards the applications that allow Free Navigation Video Services [1], where users can modify the viewpoint on a scene while receiving a video. These services try to provide the user with the so-called Plenoptic function of the scene [2], defined as:
P_f(x,y,z,theta,phi,lambda,t)
It gives the light intensity at each position for any incident angle , for any wavelength and at any time. This doctoral project is focused on three key problems related to the use of the Plenoptic function : its acquisition, synthesis and visualization.
Current tools for acquisition do not allow collecting the whole Plenoptic function; on the contrary, they allow a sampling of it. For example, in Super-MultiView video[3], the plane (z=z_0) is fixed, and only the forward scene, i.e. when the polar angle comprised , is between -pi/2 and pi/2, is acquired. Moreover, the plane is sampled at the position of each camera.
In this project we are interested in the interpolation of the Plenoptic function, i.e. in the synthesis of virtual viewpoints that were not acquired by real cameras. Moreover, we also want to explore the case of irregular sampling position of P_f.
Access to the Plenoptic function would allow new ways to create and consume visual contents. For example, the Fyuse application [4] allows to change the view angle during the reproduction, while the Lytro system [5] allows post-acquisition refocusing.
Several scientific fields are concerned by this approach :
These items interact one with the other : view synthesis is preliminary for virtual cinema and may benefit from visual attention and perception information ; the whole process impacts on the quality and the aesthetics of the resulting image.
Image synthesis plays a key role in the system that we want to implement. We can see the problem as the interpolation of the Plenoptic function from a set of samples [12]. This reconstruction is based on the scene geometry and often uses post-processing for alleviating the synthesis artifacts.
Image synthesis and rendering have been long studied by the Computer Vision community and the Compression community, even outside the context of Plenoptic function interpolation. The first methods only used the images for the synthesis: they fall into the Image-Based Rendering (IBR) [13] family. Disparity estimation and occlusion detection are typical tools used to improve the synthesis for this case[14], and may prove useful in this doctoral project.
When the depth information is also available, we have the Depth Image-Based Rendering (DIBR) [15] family. Even though DIBR is known since the first 2000’s, the quality of synthesis is not fully satisfying yet [16]. Nevertheless, some promising methods have been proposed recently [17]. They combine temporal and inter-view redundancy to improve the synthesis.
Another difficulty may come from the camera positioning [18]. A preliminary calibration and synchronization phase are needed in order to have a high quality synthesis [19] [20] [21]. To this end, feature matching tools could be employed, such as SIFT [22], SURF [23]. This look necessary in order to achieve the 3D scene understanding [1][18] .
This doctoral project will start with a deep and accurate study of the state of the art in the different concerned domains : image synthesis, camera calibration, 3D geometry, feature matching, visual attention. From a practical point of view, the PhD candidate may use the facilities at b<>com to test the acquisition of the Plenoptic function and to perform camera calibration and synchronization.
Then, the PhD candidate will test and implement different synthesis methods, starting from the state of the art, and then proposing more complex and effective solutions. Human vision principles should be integrated into the new approaches.
At the same time, the impact of the synthesis methods on such practical applications as visualization, free navigation, virtual cinema, …, will be taken into account. The final target of the doctoral project is the mastering of the complete system from acquisition to visualization.
Rémi Cozot, Maître de Conférences, Habilité à Diriger des Recherches, IRT b<>com, IRISA/Université de Rennes 1 – cozot@irisa.fr
Marco Cagnazzo, Maître de Conférences, Habilité à Diriger des Recherches, IRT b<>com, Telecom-ParisTech/Institut Mines-Télécom– cagnazzo@telecom-paristech.fr
[:it]Aggiornamento: la borsa è stata attribuita.
La descrizione del progetto di ricerca è disponibile nella versione francese o inglese di questo sito.
Per candidarsi, è sufficiente scrivermi o effettuare la candidatura sul sito della scuola di dottorato.[:]
[:fr]L’article de Nello Fiengo sur l’allocation et le contrôle de débit pour le codeur vidéo HEVC a été accepté sur IEEE Transactions on Image Processing. Félicitations à Nello !
A. Fiengo, G. Chierchia, M. Cagnazzo, B. Pesquet-Popescu. « Rate Allocation in predictive video coding using a Convex Optimization Framework ». In IEEE Transactions on Image Processing, vol. 21, 2016.
[:en]Our paper about rate control and allocation for HEVC (first author: N. Fiengo) has been accepted into IEEE Trans. on Image Processing. Congrats, Nello!
A. Fiengo, G. Chierchia, M. Cagnazzo, B. Pesquet-Popescu. « Rate Allocation in predictive video coding using a Convex Optimization Framework ». In IEEE Transactions on Image Processing, vol. 21, 2016.[:it]Il nostro articolo sull’allocazione di risorse per HEVC (primo autore, Nello Fiengo) è stato accettato in IEEE Trans. on Image Proc. Bravo Nello!
A. Fiengo, G. Chierchia, M. Cagnazzo, B. Pesquet-Popescu. « Rate Allocation in predictive video coding using a Convex Optimization Framework ». In IEEE Transactions on Image Processing, vol. 21, 2016.[:]
[:fr]Les articles acceptés dans ICIP sont disponbiles en accès libre sur IEEExplore jusqu’à la fin de la conférence :
Depth map coding with elastic contours and 3D surface prediction
Softcast with per-carrier power-constrained channels
Convex optimization for frame-level rate allocation in MV-HEVC
[:en]ICIP accepted articles are available on IEEExplore until the end of the conference:
Depth map coding with elastic contours and 3D surface prediction
Softcast with per-carrier power-constrained channels
Convex optimization for frame-level rate allocation in MV-HEVC
[:it]Gli articoli di ICIP sono in libero accesso su IEEExplore fino alla fine della conferenza:
Depth map coding with elastic contours and 3D surface prediction
Softcast with per-carrier power-constrained channels
Convex optimization for frame-level rate allocation in MV-HEVC
[:]
[:fr]Avec la rentrée, nous allons inaugurer un cycle de séminaires du groupe Multimédia. Le calendrier des prochaines interventions est disponible ici :
http://www.tsi.telecom-paristech.fr/mm/seminaires/[:en]A cycle of seminars is organized by the Multimedia group. The calendar is available here:
http://www.tsi.telecom-paristech.fr/mm/seminaires/[:it]A partire da settembre 2016, un ciclo di seminairi mensili è organizzato dal gruppo Multimedia.
Il calendario dei prossimi interventi è disponibile qui:
http://www.tsi.telecom-paristech.fr/mm/seminaires/[:]