Comment fusionner les images des télescopes spatiaux

Résultats scientifiques Image

Les données transmises par les sondes et les télescopes orbitaux doivent être traitées pour être exploitées par les scientifiques, et leurs capteurs fournissent plusieurs types d’images aux propriétés différentes. Nicolas Dobigeon, spécialiste de la fusion de ces images à l’Institut de Recherche en Informatique de Toulouse (IRIT - CNRS/Université Toulouse 3 Paul Sabatier/INP Toulouse), a été sollicité par les équipes de recherche toulousaines impliquées dans le télescope spatial James-Webb. En ligne de mire, la nébuleuse d’Orion et sa pouponnière d’étoiles.

Lancé dans l’espace le 25 décembre 2021, le télescope spatial James-Webb (JWST) est le plus grand et le plus perfectionné des observatoires jamais placés en orbite. De nombreux groupes de recherche se sont investis dans cette mission internationale, de sa conception au traitement des données envoyées par le télescope, dont plusieurs équipes toulousaines. L’équipe Signal et Communications de l'IRIT est notamment impliquée dans le programme scientifique prioritaire PDRs4all.

« Ce projet vise à étudier la naissance des étoiles dans la nébuleuse d’Orion, une véritable pouponnière qui nous aidera à mieux comprendre la formation des astres », détaille Nicolas Dobigeon, professeur à Toulouse INP et membre de l’IRIT. « PDRs4all est dirigé par Olivier Berné, chargé de recherche CNRS à l’IRAP1 , qui m’a sollicité pour mon expertise en traitement de signal et en fusion d’images. » Le projet international PDRs4all2  regroupe des scientifiques de 19 pays et compte parmi les 13 programmes prioritaires du télescope James Webb. 40 heures d’observations lui sont dédiées, ce qui est suffisant pour fournir de prodigieuses quantités de données brutes.

Or ces dernières ne sont généralement pas utilisables telles quelles, différents procédés doivent être déployés pour que les chercheurs puissent s’en emparer, surtout si l’on souhaite ensuite partager ces résultats et ces images avec le grand public. Nicolas Dobigeon connaît bien ces questions puisqu’il a travaillé sur des images de télédétection qui, si elles visaient la Terre plutôt que les étoiles, reposent sur les mêmes principes scientifiques.

  • 1Institut de recherche en astrophysique et planétologie (IRAP - CNRS/CNES/Université Toulouse 3 Paul Sabatier).
  • 2Outre l’IRAP et l’IRIT, un troisième institut de recherche toulousain est impliqué : le Laboratoire de chimie et physique quantique (LCPQ - CNRS/Université Toulouse 3 Paul Sabatier).
Le traitement du signal et des images est une discipline hybride, à cheval entre les mathématiques appliquées, l’informatique et le domaine d’où sont issues les données.

« Quand on prend une photographie avec un appareil classique, on obtient une image à partir d’un mélange de trois couleurs : rouge, vert et bleu (RVB), explique Nicolas Dobigeon. Dans de nombreux domaines applicatifs, comme l’observation de la Terre, la biologie ou l’astronomie, des spectro-imageurs acquièrent des images hyperspectrales, aussi appelées multibandes, composées de centaines de couleurs de base. Elles doivent être traitées pour qu’on puisse extraire les nombreuses informations qu’elles contiennent. »

Le matériel de pointe à bord de télescopes comme le JWST est très spécialisé et repose sur différents capteurs, ce qui fait que l’on obtient d’un côté des images hyperspectrales à faible résolution spatiale, et de l’autre des images multispectrales composées de moins de couleurs, mais possédant une bien meilleure résolution spatiale. La fusion consiste à les combiner en une seule image qui conserve les avantages des deux. C’est ainsi que sont façonnées d’immenses et superbes photographies de notre planète.

Les algorithmes que j’ai développés pour fusionner les images d’observation de la Terre peuvent être adaptés pour traiter des données astrophysiques fournies par le JWST.

Nicolas Dobigeon conçoit depuis huit ans des méthodes de fusion rapides, efficaces et peu chères, basées sur une formulation inverse du problème. « Notre spécificité vient de l’idée d’exploiter les caractéristiques complémentaires des capteurs, précise le chercheur toulousain. Nous décrivons mathématiquement les processus d’acquisition des capteurs, qui introduisent des dégradations. Nous essayons ensuite d’inverser ces processus pour en atténuer les effets. On peut alors surmonter les difficultés liées à la mauvaise résolution spatiale des images hyperspectrales. »

Les observations de PDRs4all n’ont pas encore commencé, mais les chercheurs ont mené avec succès des tests sur des images artificielles imitant celles que le JWST fournira, se tenant aussi prêts en attendant leur tour.

Principe de la fusion d’images © Nicolas Dobigeon

Publications :

Contact

Nicolas Dobigeon
Professor at Toulouse INP, member of IRIT