<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:a10="http://www.w3.org/2005/Atom" version="2.0">
  <channel>
    <title>Export RSS des offres - Seulement les offres à la une : Non / Site : Saclay</title>
    <link>https://www.theses-postdocs.cea.fr/handlers/offerRss.ashx?lcid=1036&amp;Rss_Location_CustomCodeTableValue1=2026</link>
    <description />
    <language>fr-FR</language>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=39790&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DRT-26-0680</link>
      <category>Défis technologiques</category>
      <category>Thèse</category>
      <title>SL-DRT-26-0680 - DevOps piloté par les modèles pour l'orchestration cloud : Relier les garanties de conception et d'exécu</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Défis technologiques&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
L'ingénierie dirigée par les modèles (MDE) repose traditionnellement sur une séparation nette entre conception et exécution, mais cette frontière ne tient plus dans les environnements cloud natifs et edge actuels, où les infrastructures sont hétérogènes, dynamiques et en constante évolution. Les hypothèses validées à la conception peuvent devenir invalides à l'exécution, et les plateformes d'orchestration modernes comme Kubernetes ou OpenStack, bien qu'efficaces, restent faiblement connectées aux environnements de modélisation architecturale. Il en résulte un écart structurel entre la spécification architecturale et le comportement opérationnel réel. Pour combler ce fossé, cette thèse propose de développer un cadre formel de modélisation des contraintes de placement sur des plateformes d'orchestration hétérogènes, en assurant une continuité entre la validation à la conception et les garanties à l'exécution. Ce cadre élèverait les contraintes de placement — localité des ressources, affinité, latence réseau, isolation sécurité, objectifs de qualité de service — au rang de construits de modélisation de premier ordre. À la conception, il permettrait une analyse statique de faisabilité et la génération automatisée d'artefacts de déploiement ; à l'exécution, il assurerait une surveillance continue de la conformité et une reconfiguration adaptative en cas de violation. Les contributions attendues incluent un langage formel de modélisation, des transformations bidirectionnelles entre modèles de conception et représentations d'exécution, ainsi qu'une intégration avec l'outillage Papyrus. L'objectif final est de garantir que l'intention architecturale reste cohérente et vérifiable tout au long du cycle de vie du système, de sa conception jusqu'à son exploitation en production.
&lt;br /&gt;&lt;br /&gt;
DevOps piloté par les modèles pour l'orchestration cloud : Relier les garanties de conception et d'exécution&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:47 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=39765&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DRT-26-0674</link>
      <category>Sciences pour l'ingénieur</category>
      <category>Thèse</category>
      <title>SL-DRT-26-0674 - Apprentissage multimodal distribué pour la localisation et la classification coopératives de sources aco</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Sciences pour l'ingénieur&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
Dans de nombreux environnements complexes, tels que les sites industriels, bâtiments sinistrés, espaces publics, il est nécessaire de détecter et localiser automatiquement des événements sonores (chutes, alarmes, voix, pannes mécaniques). Les plateformes mobiles équipés de caméras et de microphones constituent une solution prometteuse, mais une seule plateforme reste limité : son réseau de microphone donne une direction approximative vers la source, mais pas une position précise dans l'espace, et sa caméra peut être obstruée. Ce sujet propose d'étudier comment des multi-plateformes, chacune portant une unité audio-visuelle calibrée, peuvent collaborer pour localiser et classifier ces événements en 3D. Chaque plateforme analyse ses propres observations audio-visuelles et partage une estimation de la direction de la source avec ses voisines ; le réseau combine ensuite ces estimations pour reconstruire la position de l'événement et l'identifier. Les résultats attendus sont un système de localisation coopérative robuste aux occultations et aux défaillances partielles.&lt;br /&gt;&lt;br /&gt;
Apprentissage multimodal distribué pour la localisation et la classification coopératives de sources acoustiques&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:47 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=40050&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DRT-26-0658</link>
      <category>Défis technologiques</category>
      <category>Thèse</category>
      <title>SL-DRT-26-0658 - Approche multi-échelle pour la propagation des ultrasons en milieux multi-diffusifs inhomogènes</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Défis technologiques&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
Les ondes ultrasonores sont fortement influencées par la microstructure des matériaux, ce qui entraîne atténuation, dispersion, et bruit. La modélisation de ces effets est essentielle, notamment pour le contrôle non destructif, où ils peuvent soit gêner la détection de défauts, soit fournir des informations sur le matériau. Des modèles analytiques et numériques permettent de mieux prédire et interpréter ces phénomènes. Des propriétés statistiques homogènes sont généralement supposées. En pratique, les microstructures présentent souvent des variations spatiales importantes, liées par exemple aux procédés de fabrication. Selon l’échelle de ces variations par rapport à la longueur d’onde, elles peuvent induire des changements abrupts ou progressifs de propriétés effectives. Cette thèse vise à établir un cadre théorique intégrant à la fois l’aléa microstructural et ses variations spatiales, afin de proposer des stratégies de simulation pertinentes selon les échelles considérées. L’approche sera d’abord développée en 1D, puis étendue aux cas 2D et 3D en s’appuyant sur des outils développés au laboratoire, avec des validations numériques et éventuellement expérimentales.&lt;br /&gt;&lt;br /&gt;
Approche multi-échelle pour la propagation des ultrasons en milieux multi-diffusifs inhomogènes&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:47 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=39555&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DRF-26-0634</link>
      <category>Sciences du vivant</category>
      <category>Thèse</category>
      <title>SL-DRF-26-0634 - Rôle de la protéine JMY dans le développement cérébral humain et la radiorésistance des cellules souches</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Sciences du vivant&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
La protéine JMY est un régulateur important du cytosquelette d’actine, impliqué dans la migration et la morphogenèse cellulaires. Exprimée dans le cerveau en développement, elle est associée à plusieurs processus clés de la neurogenèse, tels que la formation des neurites, la dendritogenèse, la myélinisation et la migration neuronale. Toutefois, son rôle spécifique dans le développement cérébral humain demeure mal caractérisé

Par ailleurs, nos travaux montrent que JMY joue un rôle central dans la physiopathologie du glioblastome, une tumeur cérébrale très agressive. Après irradiation, les cellules souches de glioblastome augmentent leur capacité de migration et d’invasion via une voie impliquant HIF1a et JMY. Cette activation favorise la formation de structures riches en actine appelées microtubes tumoraux, associées à la résistance thérapeutique.

Ce projet vise à étudier JMY comme un régulateur commun du neurodéveloppement et de la plasticité tumorale.

Dans un premier axe, nous analyserons l’impact de sa déficience dans des organoïdes cérébraux humains dérivés de cellules iPS, afin d’évaluer ses effets sur la prolifération, la différenciation et l’organisation corticale. son impact sur la neurogenèse et l’organisation corticale.
Dans un second axe, un criblage pharmacologique à haut débit sera réalisé pour identifier des inhibiteurs capables de bloquer la migration radio-induite des cellules souches tumorales de glioblastome. 

Les résultats attendus permettront de mieux comprendre le rôle de JMY dans le cerveau humain et de proposer de nouvelles stratégies visant à limiter les récidives du glioblastome après radiothérapie.
&lt;br /&gt;&lt;br /&gt;
Rôle de la protéine JMY dans le développement cérébral humain et la radiorésistance des cellules souches de glioblastome : des organoïdes cérébraux au criblage thérapeutique&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:47 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=39380&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DRF-26-0618</link>
      <category>Physique corpusculaire et cosmos</category>
      <category>Thèse</category>
      <title>SL-DRF-26-0618 - De la physique Few-Body aux collisions d'antinoyaux</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Physique corpusculaire et cosmos&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
Sachant que les rares antinoyaux présents dans l'espace pourraient contenir des informations sur des mécanismes de production exotiques (e.g. annihilation ou désintégration de la matière noire), leur étude est devenue un domaine à fort impact, reliant physique nucléaire, astroparticule et mesures (accélérateurs). Cependant, l'interprétation des recherches actuelles et futures sur les antinoyaux est limitée par le manque de données nucléaires : les processus de diffusion à basse énergie, d'annihilation et de désintégration des antinoyaux sur la matière ordinaire sont difficiles à mesurer directement. Cela motive une stratégie fondée sur la théorie. Notre projet adopte une approche 'bottom-up' : description ab initio des systèmes nucléaires et des collisions d'antimatière les plus simples à basse énergie, identification des mécanismes sous-jacents d'annihilation à plusieurs corps, puis propagation de ces contraintes à la modélisation des interactions à l'échelle du noyau et à des énergies plus élevées. Nous visons à la fois à approfondir notre compréhension des interactions matière-antimatière au niveau nucléaire et à fournir des données validées pour les outils de simulation utilisés en astroparticules et pour les accélérateurs.
Transfert entre les deux champs : nous simplifions le problème pour le ramener au cas le plus simple pouvant être traité par la méthode ab initio, car dans INCL (Intra NuclearCascade of Liège), l'annihilation de l'antideuton est identifiée comme une annihilation avec un quasi-deuton dans un noyau cible. Deux questions clés doivent être abordées en partie à l'aide de calculs ab initio : 1.    Quel quasi-deutéron interagira ? 2.    Quel canal de sortie en résultera ?
&lt;br /&gt;&lt;br /&gt;
De la physique Few-Body aux collisions d'antinoyaux&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:47 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=39406&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DRF-26-0622</link>
      <category>Autre</category>
      <category>Thèse</category>
      <title>SL-DRF-26-0622 - Roles de la cohésine dans la stabilité du génome</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Autre&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
La cohésine, un complexe protéique en forme d'anneau, est essentielle à la stabilité du génome, à l'expression des gènes, à la cohésion des chromatides soeurs et la réparation de l'ADN. Elle forme des boucles intrachromosomiques pendant l'interphase, contribuant à l'organisation de la chromatine en rapprochant enhancers et promoteurs. La cohésine maintient également la cohésion des chromatides soeurs pendant la réplication de l'ADN et est impliquée dans la réparation des cassures double brin (DSB). En réponse aux dommages à l'ADN, la cohésine se lie aux DSB et renforce la cohésion induite par les cassures (DI-cohésion). De plus, nos travaux récents ont montré que la cohésine lie les extrémités des DSB sous forme d'oligomères (Phipps et al., 2025).
Ce projet de recherche s’inscrit dans le cadre d’un projet ANR qui explorera comment les dommages à l'ADN influencent les rôles de la cohésine dans la stabilité du génome. L’hypothèse centrale est que ces dommages activent des populations distinctes de cohésine avec des fonctions spécifiques, essentielles pour l’intégrité du génome. En utilisant Saccharomyces cerevisiae comme modèle, le projet vise trois objectifs : analyser l'impact des dommages sur la composition de la cohésine, étudier son oligomérisation dans l'attachement des DSB, et identifier les populations de cohésine impliquées dans la DI-cohésion.
La méthodologie combine approches biochimiques, génétiques et génomiques. Les tâches clés incluent l’identification de nouveaux interacteurs de la cohésine, l’étude des complexes dans des mutants spécifiques, et l’analyse des modifications post-traductionnelles.
Ce projet fournira une compréhension approfondie des multiples rôles multiples de la cohésine dans la stabilité du génome, au-delà de sa fonction classique de cohésion des chromatides soeurs.&lt;br /&gt;&lt;br /&gt;
Roles de la cohésine dans la stabilité du génome&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:47 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=39379&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DRF-26-0616</link>
      <category>Physique corpusculaire et cosmos</category>
      <category>Thèse</category>
      <title>SL-DRF-26-0616 - Modélisation de la distribution du redshift des galaxies lentillées d'Euclid pour des analyses au niveau</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Physique corpusculaire et cosmos&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
La mission Euclid fournira des données sur les lentilles gravitationnelles faibles avec une précision sans précédent, ce qui pourrait révolutionner notre compréhension de l'énergie noire et de la croissance des structures cosmiques. Pour en extraire toute la richesse informative, il faut aller au-delà des analyses standard. Afin d'exploiter au mieux ces données, le projet OCAPi analysera les cartes de lentille gravitationnelle d'Euclid directement au niveau des pixels. Cette approche, connue sous le nom d'inférence au niveau du champ, permet de capturer toutes les informations et d'obtenir des contraintes jusqu'à 5 fois plus précises sur les paramètres cosmologiques (Porqueres et al. 2022, 2023).

Cette précision accrue nécessite toutefois une modélisation précise des données. L'un des principaux défis de l'étalonnage dans les relevés de lentilles gravitationnelles faibles est la distribution des galaxies lentillées en fonction du redshift. Les méthodes d'étalonnage actuelles ont été conçues pour les analyses standard et peuvent ne pas être suffisamment précises pour les techniques au niveau du champ. Il est essentiel de quantifier les exigences de précision et de développer des méthodes capables de les atteindre afin de permettre l'analyse au niveau du champ des données d'Euclid et de libérer tout le potentiel scientifique.

L'objectif de ce projet de doctorat est de développer un nouvel échantillonneur de redshifts pour la lentille gravitationnelle faible, conçu pour répondre aux exigences de précision de l'inférence au niveau du champ. Cet échantillonneur combinera des modèles physiques de populations de galaxies avec des techniques d'apprentissage automatique flexibles. La thèse contribuera à maximiser le potentiel des données de lentille gravitationnelle faible d'Euclid et à faire progresser notre compréhension de la formation des structures cosmiques.&lt;br /&gt;&lt;br /&gt;
Modélisation de la distribution du redshift des galaxies lentillées d'Euclid pour des analyses au niveau du champ&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:47 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=39876&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DRT-26-0583</link>
      <category>Défis technologiques</category>
      <category>Thèse</category>
      <title>SL-DRT-26-0583 - Génération assistée par LLM de modèles matériels fonctionnels et formels</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Défis technologiques&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
Les systèmes matériels modernes, comme les processeurs RISC-V ou les accélérateurs matériels, reposent sur des simulateurs fonctionnels et des modèles de vérification formelle pour garantir leur bon fonctionnement, leur fiabilité et leur sécurité. Aujourd’hui, ces modèles sont majoritairement développés manuellement à partir des spécifications, ce qui demande beaucoup de temps et devient de plus en plus complexe à mesure que les architectures évoluent.

Cette thèse propose d’explorer l’utilisation des grands modèles de langage (LLMs) pour automatiser la génération de modèles matériels fonctionnels et formels à partir de spécifications de conception. Le travail consistera à concevoir une méthodologie permettant de produire des modèles exécutables (par exemple des simulateurs) et des modèles formels cohérents, tout en augmentant la confiance dans leur correction. Pour cela, la thèse s’appuiera sur des boucles de retour issues des outils de simulation et de vérification formelle, combinées à des techniques d’apprentissage par renforcement.

Les résultats attendus sont une réduction significative de l’effort de modélisation manuelle, une meilleure cohérence entre les différents modèles, et une validation de l’approche sur des cas d’étude réalistes, notamment autour des architectures RISC-V et des accélérateurs matériels.&lt;br /&gt;&lt;br /&gt;
Génération assistée par LLM de modèles matériels fonctionnels et formels&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:46 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=39069&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DES-26-0566</link>
      <category>Sciences pour l'ingénieur</category>
      <category>Thèse</category>
      <title>SL-DES-26-0566 - Préconditionnement hybride CPU–GPU pour les simulations éléments finis sur architectures exascale</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Sciences pour l'ingénieur&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
Les supercalculateurs exascale reposent sur des architectures hétérogènes combinant des CPU et des GPU, ce qui rend nécessaire une refonte des algorithmes numériques afin d’exploiter pleinement l’ensemble des ressources disponibles. Dans les simulations par éléments finis à grande échelle, la résolution des systèmes linéaires au moyen de solveurs itératifs et de préconditionneurs de type multigrille algébrique (AMG) constitue encore un goulet d’étranglement majeur en termes de performance.

L’objectif de cette thèse est d’étudier et de développer des stratégies de préconditionnement hybrides adaptées à ces systèmes hétérogènes. Le travail visera à analyser comment les techniques multiniveaux et AMG peuvent être structurées pour utiliser efficacement à la fois les CPU et les GPU, sans restreindre les calculs à un seul type de processeur. Une attention particulière sera portée à la distribution des données, au placement des tâches et aux interactions CPU–GPU au sein des solveurs multiniveaux.

D’un point de vue numérique, la recherche portera sur l’analyse et la construction des opérateurs multiniveaux, incluant les hiérarchies de grilles, les opérateurs de transfert inter-niveaux et les procédures de lissage, exécutés sur les CPU et les GPU disponibles. L’impact de ces choix sur la convergence, les propriétés spectrales et la robustesse des méthodes itératives préconditionnées sera étudié. Des critères mathématiques guidant la conception de préconditionneurs hybrides efficaces seront établis et validés sur des problèmes représentatifs en éléments finis, par exemple pour des applications en sismologie à l’échelle régionale.

Ces développements seront couplés à des stratégies de décomposition de domaine et de parallélisation adaptées aux architectures hétérogènes. Une attention particulière sera accordée aux transferts de données CPU–GPU, à l’utilisation de la mémoire et à l’équilibre entre noyaux liés au calcul et liés à la bande passante mémoire. L’interaction entre les choix numériques et les contraintes matérielles, telles que les hiérarchies mémoire CPU et GPU, sera conçue et développée afin d’assurer des implémentations scalables et efficaces.&lt;br /&gt;&lt;br /&gt;
Préconditionnement hybride CPU–GPU pour les simulations éléments finis sur architectures exascale&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:46 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=38551&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DRF-26-0543</link>
      <category>Physique de l'état condensé, chimie et nanosciences</category>
      <category>Thèse</category>
      <title>SL-DRF-26-0543 - Caractérisation in situ et en temps réel de nanomatériaux par spectroscopie de plasma</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Physique de l'état condensé, chimie et nanosciences&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
L'objectif de cette thèse est de développer un dispositif expérimental permettant de réaliser l'analyse
élémentaire in situ et en temps réel de nanoparticules lors de leur synthèse (par pyrolyse laser ou pyrolyse
par flamme). La spectrométrie d'émission optique de plasma induit par laser (Laser-Induced Breakdown
Spectroscopy: LIBS) sera utilisée pour identifier les différents éléments présents et de déterminer leur
stoechiométrie.
Les expériences préliminaires menées au LEDNA ont montré la faisabilité d'un tel projet et en particulier
l'acquisition d'un spectre LIBS d'une nanoparticule unique. Néanmoins le dispositif expérimental doit être
développé et amélioré afin d'obtenir un meilleur rapport signal sur bruit, de diminuer la limite de détection, de
tenir compte des différents effets sur le spectre (effet de taille des nanoparticules, de composition ou de
structure complexe), d'identifier et de quantifier automatiquement les éléments présents.
En parallèle, d'autres informations pourront être recherchées (via d'autres techniques optiques) comme la
densité de nanoparticules, la distribution de taille ou de forme.&lt;br /&gt;&lt;br /&gt;
Caractérisation in situ et en temps réel de nanomatériaux par spectroscopie de plasma&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:46 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=38687&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DRF-26-0534</link>
      <category>Physique corpusculaire et cosmos</category>
      <category>Thèse</category>
      <title>SL-DRF-26-0534 -  Étude de l’écoulement elliptique des hadrons charmés dans les collisions ions lourds avec LHCb?</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Physique corpusculaire et cosmos&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
Le projet FLOALESCENCE s’inscrit dans le cadre de l’étude expérimentale de la matière de QCD et de la transition de phase entre plasma de quarks et de gluons (QGP) et matière hadronique.?Ce plasma, formé quelques microsecondes après le Big Bang, peut être recréé aujourd’hui dans les collisions plomb-plomb ultra-relativistes au Grand collisionneur de hadrons (LHC).
L’objectif du projet est de comprendre comment les quarks charmés se hadronisent lorsque le QGP se refroidit. Le doctorant travaillera au sein de l’expérience LHCb, un détecteur unique par sa couverture en rapidité avant, permettant d’explorer une région de l’espace des phases encore inexplorée.
Le travail consistera à mesurer pour la première fois à LHCb l’écoulement elliptique (v2) des baryons charmés (?c+) et des mésons (D0), afin de tester les modèles de coalescence et de caractériser le degré de thermalisation des quarks charmés dans le milieu QGP.

Objectifs et missions:
- Extraire et analyser les signaux ?c+ et D0 dans les nouvelles données Pb–Pb enregistrées par LHCb (2024–2025).
- Développer et appliquer une méthode d’analyse innovante de l’écoulement elliptique, fondée sur la reformulation de la méthode des Zéros de Lee–Yang.
- Mettre en place une métrique de multiplicité d’événement pour relier les observables de flux à la densité d’énergie du système.
- Comparer les résultats aux prédictions théoriques et aux mesures des autres expériences du LHC (ALICE, CMS).
Rédiger des publications scientifiques et présenter les résultats lors de conférences internationales.


Le/la doctorant.e acquerra :
- Une maîtrise avancée des outils d’analyse de données du LHCb (ROOT, Python, C++), y compris les techniques de classification par apprentissage automatique.
- Une expertise en physique des hautes énergies et en QCD, notamment sur les propriétés du plasma de quarks et de gluons et les phénomènes collectifs.
- Des compétences en analyse statistique et traitement de grands volumes de données.
- Une solide expérience du travail collaboratif international (au sein de la collaboration LHCb).
- Une formation polyvalente valorisable tant dans la recherche académique que dans les domaines de la data science, de l’ingénierie ou de la modélisation physique.&lt;br /&gt;&lt;br /&gt;
 Étude de l’écoulement elliptique des hadrons charmés dans les collisions ions lourds avec LHCb?&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:46 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=38964&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DES-26-0548</link>
      <category>Sciences pour l'ingénieur</category>
      <category>Thèse</category>
      <title>SL-DES-26-0548 - Développement d'un nouveau schéma, basé sur la T-coercivité, pour discrétiser les équations de Navier-St</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Sciences pour l'ingénieur&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
Dans le code TrioCFD, la discrétisation des équations de Navier-Stokes conduit à une résolution en trois étapes (cf. Chorin'67, Temam'68) : prédiction de la vitesse, résolution de la pression, correction de la vitesse. Si on veut utiliser un schéma de discrétisation en temps implicite, l'étape de résolution de la pression est particulièrement coûteuse. Ainsi, la plupart des simulations sont effectuées à l'aide d'un schéma en temps explicite, pour lequel le pas de temps dépend du pas du maillage, ce qui peut être fortement contraignant. On aimerait élaborer un schéma de discrétisation en temps implicite, en utilisant une formulation stabilisée du problème de Navier-Stokes basée sur la T-coercivité explicite (cf. Ciarlet-Jamelot'25). Il serait alors possible de résoudre directement un schéma implicite sans étape de correction, ce qui pourrait améliorer notablement les performances des calculs. Cela permettrait également d'utiliser la paire éléments finis P1-P0, économe en terme de degrés de liberté, mais instable pour une formulation classique. 
&lt;br /&gt;&lt;br /&gt;
Développement d'un nouveau schéma, basé sur la T-coercivité, pour discrétiser les équations de Navier-Stokes.&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:46 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=38506&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DRF-26-0547</link>
      <category>Physique corpusculaire et cosmos</category>
      <category>Thèse</category>
      <title>SL-DRF-26-0547 - Sonder l’information quantique avec le quark top au LHC</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Physique corpusculaire et cosmos&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
Ce projet de doctorat vise à explorer la nature quantique de la production de paires de quarks top au LHC, en étudiant les corrélations de spin et les observables liées à l’intrication quantique dans les données enregistrées par l’expérience ATLAS. Les récentes avancées ayant permis d’observer l’intrication dans les événements top–antitop ont ouvert une nouvelle fenêtre sur l'étude de la structure quantique des interactions fondamentales, faisant du LHC une machine capable de sonder l’information quantique à l’échelle du TeV. La thèse se concentrera sur la reconstruction de l’état quantique des paires de quarks top à partir des données du Run 3 d’ATLAS, avec une attention particulière portée à l’extraction des corrélations de spin et des observables sensibles à l’intrication quantique dans des topologies à haute impulsion. En améliorant les stratégies de reconstruction et en évaluant soigneusement les effets du détecteur, l’objectif est de déterminer les propriétés quantiques de la paire de quarks top avec précision et ainsi de contribuer à comprendre ce que l’information quantique peut apporter à notre connaissance des particules élémentaires.&lt;br /&gt;&lt;br /&gt;
Sonder l’information quantique avec le quark top au LHC&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:46 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=38490&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DRF-26-0531</link>
      <category>Physique de l'état condensé, chimie et nanosciences</category>
      <category>Thèse</category>
      <title>SL-DRF-26-0531 - Synthèse « bottom-up » de nanographène et étude de leurs propriétés optiques et électroniques</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Physique de l'état condensé, chimie et nanosciences&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
Ce projet s’inscrit dans le cadre d’un projet ANR, qui vise à synthétiser des nanoparticules de graphène parfaitement solubles et individualisées en solution et à les incorporer dans des dispositifs à électronique de spins. Pour cela, nous nous baserons sur l’expérience du laboratoire sur la synthèse et l’études des propriétés optiques des nanoparticules de graphène pour proposer des structures originales à plusieurs groupes de physiciens qui seront en charges de l’étude des propriétés optiques et électroniques et de la fabrication de dispositifs de type valve de spin.&lt;br /&gt;&lt;br /&gt;
Synthèse « bottom-up » de nanographène et étude de leurs propriétés optiques et électroniques&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:46 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=38963&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DES-26-0518</link>
      <category>Sciences pour l'ingénieur</category>
      <category>Thèse</category>
      <title>SL-DES-26-0518 - Impact de la microstructure dans le dioxyde d’uranium sur de l’endommagement balistique et électronique</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Sciences pour l'ingénieur&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
Au-delà de 40 GWd/tU, la périphérie des pastilles développe une microstructure spécifique appelée High Burnup Structure (HBS), caractérisée par la subdivision des grains initiaux en grains très fins d’environ 0,2 µm. À plus fort burnup, des sous-grains apparaissent également au centre, où la température est plus élevée. Ces transformations résultent de l’action combinée des dommages produits par les produits de fission, dont les pertes d’énergie varient entre contributions électroniques et nucléaires. Les pertes électroniques peuvent générer des traces et des réarrangements de dislocations, tandis que les pertes nucléaires créent des défauts interstitiels et lacunaires tels que boucles de dislocations ou bulles. L’effet couplé de ces mécanismes entraîne notamment un grossissement plus rapide des boucles et une diminution du dommage mesuré en spectroscopie Raman, dépendant possiblement de l’orientation cristalline.

Pour mieux comprendre ces phénomènes, des irradiations par faisceaux d’ions sur matériaux modèles, UO2 monocristallin, seront réalisées afin de déterminer le rôle de l’orientation cristalline. Les plateformes JANNuS-Saclay et MOSAIC permettront des irradiations en simple ou double faisceau afin d’étudier séparément et conjointement les pertes d’énergie nucléaire et électronique. Les échantillons seront caractérisés par RBS, NRA en mode canalisé, spectroscopie Raman (in situ et ex situ), ainsi que ponctuellement par microscopie électronique en collaboration avec le CEA Cadarache. Des expériences sur synchrotron pourront compléter l’étude pour analyser l’évolution des contraintes. &lt;br /&gt;&lt;br /&gt;
Impact de la microstructure dans le dioxyde d’uranium sur de l’endommagement balistique et électronique&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:46 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=39353&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DRT-26-0507</link>
      <category>Défis technologiques</category>
      <category>Thèse</category>
      <title>SL-DRT-26-0507 - Développement d’une analyse automatique des spectres gamma à l’aide d’un algorithme hybride machine lear</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Défis technologiques&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
L’application de la spectrométrie gamma à la caractérisation radiologique dans le cadre du démantèlement des installations nucléaires, nécessite le développement d’algorithmes spécifiques pour l’analyse automatique des spectres. En particulier, la classification des déchets en béton, suivant leur niveau de contamination, représente un enjeu crucial pour le contrôle du coût de démantèlement. 
Au sein du CEA/List, le LNHB en collaboration avec le CEA/DEDIP, est impliqué depuis quelques années dans le développement d’outils d’analyse automatique des spectres gamma à faible statistique, pouvant notamment être appliqués aux détecteurs scintillateurs (NaI(Tl), plastiques). Dans ce contexte, une approche originale fondée sur un algorithme hybride machine learning/statistique de démélange spectral, a été développée pour l’identification et la quantification de radionucléides en présence de fortes déformations du spectre mesuré, dues notamment aux interactions de l’émission gamma de la source radioactive avec son environnement. 
Le sujet proposé fait suite aux travaux de thèse ayant permis le développement l’algorithme hybride dans le but d’étendre cette approche à la caractérisation radiologique des surfaces en béton. Le candidat sera impliqué dans l’évolution de l’algorithme hybride machine learning/statistique pour la caractérisation de béton pour le classement en déchets conventionnels. Le travail comprendra une étude de faisabilité de la modélisation des écarts du modèle appris pour optimiser la robustesse de la prise de décision. 
&lt;br /&gt;&lt;br /&gt;
Développement d’une analyse automatique des spectres gamma à l’aide d’un algorithme hybride machine learning pour la caractérisation radiologique des installations nucléaires en cours de démantèlement. &lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:46 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=38962&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DES-26-0470</link>
      <category>Sciences pour l'ingénieur</category>
      <category>Thèse</category>
      <title>SL-DES-26-0470 - Développement d’outil de modélisation pour la corrosion en milieu poreux</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Sciences pour l'ingénieur&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
Dans un contexte où la durabilité des matériaux s’avère fondamentale pour la sécurité des
installations et la promotion d’une transition énergétique durable, la maîtrise des phénomènes
de corrosion constitue un enjeu majeur pour des secteurs clés tels que le transport d’énergie
décarbonée via des conduites enterrées et le génie civil (hydrogène, nucléaire, infrastructures
souterraines). Le projet CORPORE s’inscrit dans cette problématique en proposant de
développer des modèles avancés de simulation numérique pour étudier la corrosion en milieu
poreux à l’aide de COMSOL Multiphysics. L’objectif scientifique et technologique principal consiste à élaborer une modélisation multiphysique intégrée des mécanismes électrochimiques et de transport au sein de matériaux
poreux : étude de l’influence couplée de la chimie, des propriétés du réseau poreux et des
interactions matériau-environnement sur l’initiation et la propagation de la corrosion. Cette
démarche permettra d’optimiser les stratégies de protection anticorrosion, de réduire les coûts
de maintenance et d’accroître la durée de vie des structures. Sur le plan de l’état de l’art, la
plupart des modèles se focalisent aujourd’hui sur des milieux homogènes et des approches compartimentées. Notre projet se démarque par l’intégration d’une modélisation mécanistique multi-échelles alliée à l’exploitation de données archéologiques pour une validation sur le long terme. &lt;br /&gt;&lt;br /&gt;
Développement d’outil de modélisation pour la corrosion en milieu poreux&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:46 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=38305&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DRF-26-0480</link>
      <category>Physique corpusculaire et cosmos</category>
      <category>Thèse</category>
      <title>SL-DRF-26-0480 - RECHERCHES D’EMISSION DIFFUSES EN RAYONS GAMMA DE TRES HAUTE ENERGIE ET PHYSIQUE FONDAMENTALE AVEC H.E.S</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Physique corpusculaire et cosmos&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
Les observations en rayons gamma de très hautes énergies (THE, E&amp;gt;100 GeV) sont cruciales pour la compréhension des phénomènes non-thermiques les plus violents à l’œuvre dans l’Univers. La région centre de la Voie Lactée est une région complexe et active en rayons gamma de THE. Parmi les sources gamma de THE se trouvent le trou noir supermassif Sagittarius A* au coeur de la Galaxie, des vestiges de supernova ou encore des régions de formation d'étoiles. Le centre Galactique (CG) abrite un un accélérateur de rayons cosmiques jusqu’à des énergies du PeV, des émissions diffuses du GeV au TeV dont le « Galactic Center Excess » (GCE) dont l’origine est encore inconnue, de potentielles sources variables au TeV, ainsi que possibles populations de sources non encore résolues (pulsars millisecondes, trous noirs de masses intermédiaires). Le CG devrait être la source la plus brillante d’annihilations de
particules massives de matière noire de type WIMPs. Des candidats matière noire plus légers, les particules de type axions (ALP), pourraient se convertir en photons, et vice versa, dans les champs magnétiques laissant une empreinte d’oscillation dans les spectres gamma de noyaux actifs de galaxies (AGN).
L'observatoire H.E.S.S. situé en Namibie est composé de cinq télescopes imageurs à effet Cherenkov atmosphérique. Il est conçu pour détecter des rayons gamma de quelques dizaines de GeV à plusieurs dizaines de TeV. La région du Centre Galactique est observée par H.E.S.S. depuis vingt ans. Ces observations ont permis de détecter le premier Pevatron Galactique et de poser les contraintes les plus fortes à ce jour sur la section efficace d'annihilation de particules de matière noire dans la plage en masse du TeV. Le futur observatoire CTA sera déployé sur deux sites, l'un à La Palma et l'autre au Chili. Ce dernier composé de plus de 50 télescopes permettra d'obtenir un balayage sans précédent de la région sur Centre Galactique.
Le travail proposé portera sur l'analyse et l'interprétation des observations H.E.S.S. conduites dans la région du Centre Galactique pour la recherche d'émission diffuses (populations de sources non résolues, matière noire massive) ainsi que des observations menées vers un sélection de noyaux actifs de galaxie pour la recherche d'ALPs constituant la matière noire. Ces nouveaux cadres d'analyses seront implémentés pour les analyses CTA à venir. Une implication dans la commissioning des premiers MSTs au Chili ainsi que dans l’analyse des premières données scientifiques sont attendues.
&lt;br /&gt;&lt;br /&gt;
RECHERCHES D’EMISSION DIFFUSES EN RAYONS GAMMA DE TRES HAUTE ENERGIE ET PHYSIQUE FONDAMENTALE AVEC H.E.S.S. ET CTAO&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:46 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=38961&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DES-26-0467</link>
      <category>Sciences pour l'ingénieur</category>
      <category>Thèse</category>
      <title>SL-DES-26-0467 - Evaluation de méthodes polytopales pour la CFD sur architecture GPU</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Sciences pour l'ingénieur&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
Cette proposition de recherche se place dans le cadre de l’étude et de l’implémentation de méthodes polytopales pour résoudre les équations de la mécanique des fluides. Ces méthodes ont pour but de traiter des maillages les plus généraux possibles permettant de s’affranchir de contraintes géométriques de forme ou héritées de manipulations CAO comme des extrusions ou des assemblages faisant apparaître des non-conformités. Ces travaux se placent également dans le cadre du calcul intensif en vue de répondre à l’augmentation des moyens de calcul et en particulier du développement du calcul massivement parallélisé sur GPU.

L’objectif de cette thèse est donc de reprendre les travaux réalisés sur les méthodes de type polytopales existantes dans le logiciel TRUST que sont les méthodes 'Compatible Discrete Operator' (CDO) et'Discontinuous Galerkin' (DG), de compléter leur étude notamment pour les opérateurs de convection et d’investiguer d’autres méthodes existantes dans la littérature comme les méthodes 'Hybrid High Order'(HHO), 'Hybridizable Discontinuous Galerkin' (HDG) ou 'Virtual Element Method' (VEM).

Les objectifs principaux sont d’évaluer :
1. le comportement numérique de ces différentes méthodes sur les équations de Stokes/Navier-Stokes,
2. l’adaptabilité de ces méthodes à des architectures hétérogène telles que les GPU. &lt;br /&gt;&lt;br /&gt;
Evaluation de méthodes polytopales pour la CFD sur architecture GPU&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:46 Z</pubDate>
    </item>
    <item>
      <link>https://www.theses-postdocs.cea.fr/Pages/Offre/detailoffre.aspx?idOffre=38213&amp;idOrigine=1858&amp;LCID=1036&amp;offerReference=SL-DRF-26-0414</link>
      <category>Physique corpusculaire et cosmos</category>
      <category>Thèse</category>
      <title>SL-DRF-26-0414 - Modélisation de la réponse instrumentale des télescopes spatiaux avec un modèle optique différentiable</title>
      <description>&lt;b&gt;Domaine : &lt;/b&gt;Physique corpusculaire et cosmos&lt;br /&gt;
&lt;b&gt;Contrat : &lt;/b&gt;Thèse&lt;br /&gt;
&lt;b&gt;Description du sujet de thèse : &lt;/b&gt;&lt;br /&gt;
Contexte

L'effet de lentille gravitationnelle faible [1] est une sonde puissante de la structure à grande échelle de notre univers. Les cosmologistes utilisent l'effet de lentille faible pour étudier la nature de la matière noire et sa distribution spatiale. Les missions d'observation de l'effet de lentille faible nécessitent des mesures très précises de la forme des images de galaxies. La réponse instrumentale du télescope, appelée fonction d'étalement du point (PSF), produit une déformation des images observées. Cette déformation peut être confondue avec les effets d'un faible effet de lentille sur les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique lors de la recherche sur les faibles effets de lentille. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de faible lentille [2]. Le champ de la PSF peut être interprété comme un noyau convolutionnel qui affecte chacune de nos observations d'intérêt, qui varie spatialement, spectralement et temporellement. Le modèle de la PSF doit être capable de gérer chacune de ces variations. Nous utilisons des étoiles spécifiques considérées comme des sources ponctuelles dans le champ de vision pour contraindre notre modèle PSF. Ces étoiles, qui sont des objets non résolus, nous fournissent des échantillons dégradés du champ de la PSF. Les observations subissent différentes dégradations en fonction des propriétés du télescope. Ces dégradations comprennent le sous-échantillonnage, l'intégration sur la bande passante de l'instrument et le bruit additif. Nous construisons finalement le modèle de la PSF en utilisant ces observations dégradées et utilisons ensuite le modèle pour déduire la PSF à la position des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Voir [3] pour un article récent sur la modélisation de la PSF.

La mission Euclid récemment lancée représente l'un des défis les plus complexes pour la modélisation de la PSF. En raison de la très large bande passante de l'imageur visible (VIS) d'Euclid, allant de 550 nm à 900 nm, les modèles de PSF doivent capturer non seulement les variations spatiales du champ de PSF, mais aussi ses variations chromatiques. Chaque observation d'étoile est intégrée avec la distribution d'énergie spectrale (SED) de l'objet sur l'ensemble de la bande passante du VIS. Comme les observations sont sous-échantillonnées, une étape de super-résolution est également nécessaire. Un modèle récent appelé WaveDiff [4] a été proposé pour résoudre le problème de modélisation de la PSF pour Euclid et est basé sur un modèle optique différentiable. WaveDiff a atteint des performances de pointe et est en train d'être testé avec des observations récentes de la mission Euclid.

Le télescope spatial James Webb (JWST) a été lancé récemment et produit des observations exceptionnelles. La collaboration COSMOS-Web [5] est un programme à grand champ du JWST qui cartographie un champ contigu de 0,6 deg2. Les observations de COSMOS-Web sont disponibles et offrent une occasion unique de tester et de développer un modèle précis de PSF pour le JWST. Dans ce contexte, plusieurs cas scientifiques, en plus des études de lentille gravitationnelle faible, peuvent grandement bénéficier d'un modèle PSF précis. Par exemple, l'effet de lentille gravitationnel fort [6], où la PSF joue un rôle crucial dans la reconstruction, et l'imagerie des exoplanètes [7], où les speckles de la PSF peuvent imiter l'apparence des exoplanètes, donc la soustraction d'un modèle de PSF exact et précis est essentielle pour améliorer l'imagerie et la détection des exoplanètes.


Projet de doctorat

Le candidat visera à développer des modèles PSF plus précis et plus performants pour les télescopes spatiaux en exploitant un cadre optique différentiable et concentrera ses efforts sur Euclid et le JWST.

Le modèle WaveDiff est basé sur l'espace du front d'onde et ne prend pas en compte les effets au niveau du pixel ou du détecteur. Ces erreurs au niveau des pixels ne peuvent pas être modélisées avec précision dans le front d'onde car elles se produisent naturellement directement sur les détecteurs et ne sont pas liées aux aberrations optiques du télescope. Par conséquent, dans un premier temps, nous étendrons l'approche de modélisation de la PSF en tenant compte de l'effet au niveau du détecteur en combinant une approche paramétrique et une approche basée sur les données (apprises). Nous exploiterons les capacités de différenciation automatique des cadres d'apprentissage automatique (par exemple TensorFlow, Pytorch, JAX) du modèle WaveDiff PSF pour atteindre l'objectif.

Dans une deuxième direction, nous envisagerons l'estimation conjointe du champ de la PSF et des densités d'énergie spectrale (SED) stellaires en exploitant des expositions répétées ou des dithers. L'objectif est d'améliorer et de calibrer l'estimation originale de la SED en exploitant les informations de modélisation de la PSF. Nous nous appuierons sur notre modèle PSF, et les observations répétées du même objet changeront l'image de l'étoile (puisqu'elle est imagée sur différentes positions du plan focal) mais partageront les mêmes SED.

Une autre direction sera d'étendre WaveDiff à des observatoires astronomiques plus généraux comme le JWST avec des champs de vision plus petits. Nous devrons contraindre le modèle de PSF avec des observations de plusieurs bandes pour construire un modèle de PSF unique contraint par plus d'informations. L'objectif est de développer le prochain modèle de PSF pour le JWST qui soit disponible pour une utilisation généralisée, que nous validerons avec les données réelles disponibles du programme COSMOS-Web JWST.

La direction suivante sera d'étendre les performances de WaveDiff en incluant un champ continu sous la forme d'une représentation neuronale implicite [8], ou de champs neuronaux (NeRF) [9], pour traiter les variations spatiales de la PSF dans l'espace du front d'onde avec un modèle plus puissant et plus flexible.

Enfin, tout au long de son doctorat, le candidat collaborera à l'effort de modélisation de la PSF par les données d'Euclid, qui consiste à appliquer WaveDiff aux données réelles d'Euclid, et à la collaboration COSMOS-Web pour exploiter les observations du JWST.


Références

[1] R. Mandelbaum. “Weak Lensing for Precision Cosmology”. In: Annual Review of Astronomy and Astro- physics 56 (2018), pp. 393–433. doi: 10.1146/annurev-astro-081817-051928. arXiv: 1710.03235.
[2] T. I. Liaudat et al. “Multi-CCD modelling of the point spread function”. In: A&amp;A 646 (2021), A27. doi:10.1051/0004-6361/202039584.
[3] T. I. Liaudat, J.-L. Starck, and M. Kilbinger. “Point spread function modelling for astronomical telescopes: a review focused on weak gravitational lensing studies”. In: Frontiers in Astronomy and Space Sciences 10 (2023). doi: 10.3389/fspas.2023.1158213.
[4] T. I. Liaudat, J.-L. Starck, M. Kilbinger, and P.-A. Frugier. “Rethinking data-driven point spread function modeling with a differentiable optical model”. In: Inverse Problems 39.3 (Feb. 2023), p. 035008. doi:10.1088/1361-6420/acb664.
[5] C. M. Casey et al. “COSMOS-Web: An Overview of the JWST Cosmic Origins Survey”. In: The Astrophysical Journal 954.1 (Aug. 2023), p. 31. doi: 10.3847/1538-4357/acc2bc.
[6] A. Acebron et al. “The Next Step in Galaxy Cluster Strong Lensing: Modeling the Surface Brightness of Multiply Imaged Sources”. In: ApJ 976.1, 110 (Nov. 2024), p. 110. doi: 10.3847/1538-4357/ad8343. arXiv: 2410.01883 [astro-ph.GA].
[7] B. Y. Feng et al. “Exoplanet Imaging via Differentiable Rendering”. In: IEEE Transactions on Computational Imaging 11 (2025), pp. 36–51. doi: 10.1109/TCI.2025.3525971.
[8] Y. Xie et al. “Neural Fields in Visual Computing and Beyond”. In: arXiv e-prints, arXiv:2111.11426 (Nov.2021), arXiv:2111.11426. doi: 10.48550/arXiv.2111.11426. arXiv: 2111.11426 [cs.CV].
[9] B. Mildenhall et al. “NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis”. In: arXiv e-prints, arXiv:2003.08934 (Mar. 2020), arXiv:2003.08934. doi: 10.48550/arXiv.2003.08934. arXiv:2003.08934 [cs.CV].&lt;br /&gt;&lt;br /&gt;
Modélisation de la réponse instrumentale des télescopes spatiaux avec un modèle optique différentiable&lt;br /&gt;
</description>
      <pubDate>Fri, 17 Apr 2026 02:15:46 Z</pubDate>
    </item>
  </channel>
</rss>