N’hésitez pas à déposer vos offres d’emploi en apprentissage automatique (machine learning) en cliquant ici.
Intitulé: | Chaire Professeur Junior a Inria Lyon, en Sciences des Données et Bio-Informatique |
Type d’offre d’emploi: | Offre de poste dans l’académique |
Détails de l’offre: |
Ouverture d’une Chaire de Professeur Junior en Sciences des Données appliquées à la bio-informatique: CAIMAN [Cancer : Artificial Intelligence for Multiomics Analyses] Le centre Inria de Lyon, en partenariat avec le Centre Léon Bérard et l’Université Claude Bernard Lyon 1, propose une Chaire de Professeur Junior en Sciences des Données appliquées a la bio-informatique: CAIMAN [Cancer: Artificial Intelligence for Multiomics Analyses] Description du poste et candidature via le lien : https://www.inria.fr/fr/chaires-professeur-junior-recrutement-emploi Pour toute information, vous pouvez contacter Alain Viari (alain.viari@inria.fr), Stéphane Ubeda (stephane.ubeda@inria.fr) ou Paulo Gonçalves (paulo.goncalves@inria.fr). |
Date limite de candidature: | 2023-05-21 |
Mail de contact: | alain.viari@inria.fr |
Intitulé: | Frugal and Robust Incremental Learning |
Type d’offre d’emploi: | Offre de thèse |
Détails de l’offre: |
Keywords: Incremental learning; Deep learning; Frugal AI; Action recognition; Geometrical transformation invariance; Real conditions; Robustness. Description
Host laboratory
Candidate profile
Application
Funding
References
|
Date limite de candidature: | 2023-05-10 |
Mail de contact: | olivier.alata@univ-st-etienne.fr |
Intitulé: | Multimodal learning for studying convergence between interlocutors during conversations |
Type d’offre d’emploi: | Offre de thèse |
Détails de l’offre: |
Description
Selection Criteria
Applications
|
Date limite de candidature: | 2023-05-15 |
Mail de contact: | blache@ilcb.fr |
Intitulé: | Chaire de Professeur Junior (CPJ) en Intelligence Artificielle pour une Mobilité Intelligente sûre |
Type d’offre d’emploi: | Offre de poste dans l’académique |
Détails de l’offre: |
Un poste de Chaire de Professeur Junior (CPJ) est à pourvoir pour la rentrée 2023 à l’INSA Rouen Normandie, laboratoire LITIS, sur la thématique « Intelligence Artificielle pour une Mobilité Intelligente Sûre ». Le/la candidat.e intègrera le département Informatique, Traitement de l’Information (http://iti.insa-rouen.fr) pour ses enseignements et au sein du LITIS l’équipe
Le profil complet est disponible sur Galaxie: https://www.galaxie.enseignementsup-recherche.gouv.fr/ensup/ListesPostesPublies/FIDIS/0760165S/FOPC_0760165S_4108.pdf Date limite de candidature sur Galaxie : 27 avril 2023 Contact recherche : laurent.vercouter@insa-rouen.fr
|
Date limite de candidature: | 2023-04-27 |
Mail de contact: | laurent.vercouter@insa-rouen.fr |
Intitulé: | Unveiling and Incorporating Knowledge in Physics-Guided Machine Learning Models |
Type d’offre d’emploi: | Offre de thèse |
Détails de l’offre: |
Advisors: Amaury Habrard (Professor) and Jordan Frecon-Deloire (Associate Professor)
Context:
Description:
Candidate profile:
Application:
Host laboratory:
|
Date limite de candidature: | 2023-05-01 |
Mail de contact: | jordan.frecon.deloire@univ-st-etienne.fr |
Intitulé: | Stage M2 – Graph Neural Networks with Optimal Transport |
Type d’offre d’emploi: | Offre de stage |
Détails de l’offre: |
Optimal transport has recently attracted much interest in the machine learning community. Its inherent ability to compare probability measures is now at the heart of several recent machine learning successes. We aim to use an optimal transport distance to create a kernel-based graph-level prediction model. In this model, the new node representation will be learned by a graph neural network (GNN). Then, the distance of the new representation will be calculated by an optimal transport to create a better kernel for the prediction model. The prediction will be performed by support vector machines (SVM) or Gaussian random process (GPP) which are fully differentiable. |
Date limite de candidature: | 2023-03-31 |
Mail de contact: | alayaelm@utc.fr |
Intitulé: | Postdoc sur l’inférence de réseaux de gènes |
Type d’offre d’emploi: | Offre de post-doc |
Détails de l’offre: |
Position :
Les missions du (de la) postdoc recruté·e se dérouleront dans le cadre du projet SubtilNet fédérant les compétences informatiques / mathématiques / statistiques de l’équipe SaAB sur l’inférence de réseaux et la biologie des systèmes. Ce projet se positionne sur l’étude des méthodes mathématiques permettant de reconstruire des réseaux biologiques. Il a pour ambition, en se basant sur un réseau réel exhaustif de la bactérie Bacillus subtilis, de mieux évaluer les méthodes d’inférence actuelles et leurs caractéristiques. Le but final est d’améliorer l’état de l’art en termes de méthodes d’inférence en se rapprochant de la réalité biologique et en intégrant, dans les modèles, des informations biologiques pertinentes. Profil recherché : Présentation de la structure d’accueil :
Comment postuler ?
|
Date limite de candidature: | 2023-05-01 |
Mail de contact: | nathalie.vialaneix@inrae.fr et anne.goelzer@inrae.fr |
Intitulé: | Professeur.e des universités en Intelligence Artificielle au Cnam Paris |
Type d’offre d’emploi: | Offre de poste dans l’académique |
Détails de l’offre: |
Un poste de professeur.e des universités en intelligence artificielle sera publié lors de la session synchronisée au Conservatoire National des Arts et Métiers (Paris).
|
Date limite de candidature: | 2023-03-30 |
Mail de contact: | michel.crucianu@cnam.fr |
Intitulé: | Post-doc offer on Computer Vision and semi-supervised representation learning |
Type d’offre d’emploi: | Offre de post-doc |
Détails de l’offre: |
Dear all,
|
Date limite de candidature: | 2023-04-01 |
Mail de contact: | stefan.duffner@liris.cnrs.fr |
Intitulé: | Generating instructions in natural language for robots |
Type d’offre d’emploi: | Offre de stage |
Détails de l’offre: |
Autonomous agents require reasoning and planning strategies for performing tasks. Natural language can serve for building and clarifying the planning strategy, and therefore the actions done by a robot. Several works have addressed instruction identification as abstract representation [2, 4, 5] or natural language expression, but the limited data supervision is often a challenge [3, 5]. To tackle this issue, we propose to develop interactive training processes, which imply asking humans to label situations with sentences, with strong care on limiting interactions to a few relevant situations, to reduce human effort. The underlying assumption is that the compositionality of language is correlated to compositionality in the agent’s world. In this internship, we envision working on the generation of natural language instructions and improve currents model. Our objective is to enhance the semantics behind objects to identify the most relevant actions/sub-actions. More info: https://mlia.isir.upmc.fr/jobs.html |
Date limite de candidature: | 2023-04-01 |
Mail de contact: | laure.soulier@isir.upmc.fr ; nicolas.thome@isir.upmc.fr |
Intitulé: | Cross-language continual learning for conversational systems |
Type d’offre d’emploi: | Offre de stage |
Détails de l’offre: |
In this internship, we assume that the deployment of virtual assistants can be done step by step over different countries in the world and, thus, that virtual assistants will face different languages at different timestamp. We propose a continual learning setting in which the task is fixed, but the stream is based on different languages. The model learn the knowledge of language peculiarities. Therefore, to satisfy the initial condition of virtual assistants to address different languages, we therefore need to ensure that our task-based model does not forget previous languages while training on new ones. Two preliminary works have been done: 1) [Coria et al., 2022], investigating BERT’s cross-lingual transfer capabilities in two continual sequence labeling tasks. 2) [Gerald and Soulier, 2022] designing continual learning streams for information retrieval. In practice, we will focus on the Massively Multilingual NLU 2022 data [FitzGerald et al., 2022], which includes slot-filling and NER tasks for 51 languages in parallel. The objective of the internship will be to 1) build a stream of languages for a given task, 2) run baseline models in the stream, and 3) design a continual learning model for cross-lingual transfer. More info: https://mlia.isir.upmc.fr/jobs.html |
Date limite de candidature: | 2023-03-01 |
Mail de contact: | sahar.ghannay@lisn.fr, laure.soulier@isir.upmc.fr, christophe.servan@lisn.fr, sophie.rosset@lisn.fr |
Intitulé: | Personalized data-to-text neural generation |
Type d’offre d’emploi: | Offre de stage |
Détails de l’offre: |
In this internship we are interested in a special case of text generation, which is data-to-text generation. In this setting, the task is to generate sentences in natural language based on structured or semi-structured data. To provide a data to text example, a famous academic dataset is made of statistics of baseball games paired with human written summary of the game, that we ultimately want to the system to learn to generate. Beyond this toy example, data to text is of the utmost practical interests in many scenarios such as finance, . . . This task is a special case in text generation and comes with its own specific challenges. The data to text models are prone to hallucinations, that is generating grammatically correct but irrelevant and out of the blue sentences . Moreover, the inputs being structured or semi-structured data, this calls for alternative solution to encode w.r.t. standard texts inputs made of sequence of tokens arranged as sentences. The objective of the internship is to develop a neural data to text system able to personalize the text generation. Based on a previous work, we will first focus on a movie dataset in which we dispose of movie tabular description (the data), and reviews. The objective will be to personalize review for a given user. Secondly, while there exists studies on how to evaluate data to text generator, to the best of our knowledge none consider style transfer/text personalization for text generation besides. As such, finding means to perform style transfer evaluation for data to text generators is fully part of the internship, on top of finding neural solution to perform style transfer aware data to text. The evaluation we seek has to be automatic or semi automatic. More info: https://mlia.isir.upmc.fr/jobs.html |
Date limite de candidature: | 2023-04-01 |
Mail de contact: | laure.soulier@isir.upmc.fr ; christophe.gravier@univ-st-etienne.fr |
Intitulé: | Variational Contrastive Learning |
Type d’offre d’emploi: | Offre de stage |
Détails de l’offre: |
Contexte et problématique
Ces problématiques sont clef en intelligence artificielle et en traitement d’images, et une avancée dans leur résolution permettrait l’utilisation de l’apprentissage profond dans des domaines d’applications souffrant d’un manque de données. Cela aiderait aussi à réduire les coûts de calcul pour l’entraînement de tâches en aval comparativement à la méthode habituelle bout en bout. Les approches récentes d’apprentissage autosupervisé de représentation visuelle, reposent sur des réseaux de neurones siamois effectuant une tâche contrastive de discrimination d’instance. Et bien que ces méthodes diffèrent légèrement les unes des autres en termes d’architecture et de tâche apprise, le principe sous-jacent reste le même: l’objectif est d’apprendre un espace latent où deux vues d’une même image (des augmentations de données), ont des représentations similaires, le tout en utilisant différentes astuces pour éviter un effondrement vers des solutions simples. L’intuition est que des entrées synthétiques similaires représentent des concepts similaires, et donc doivent avoir des représentations similaires. Cependant, bien que ces méthodes évitent un effondrement total des représentations, elles souffrent quand même d’un effondrement partiel de leurs dimensions, c’est-à-dire que même si les représentations sont différentes les unes des autres, une partie de leurs dimensions sont fortement corrélées entre elles. D’un point de vue théorique, cela montre que les représentations n’exploitent pas pleinement les dimensions mises à disposition et que les diverses contraintes imposées par ces modèles pour éviter un effondrement ne fonctionnent que partiellement. D’un point de vue pratique cela tend à produire des représentations dont la qualité est dégradée. D’autre part, avant l’apparition de ces méthodes dites contrastives, l’état de l’art en apprentissage de représentation reposait sur l’utilisation d’auto-encodeurs variationnels. Ces derniers sont une amélioration des auto-encodeurs où les représentations prennent la forme de distributions statistiques au lieu de points dans un espace latent. L’ajout de cet aspect probabiliste permet de lisser l’espace de représentations, mais aussi de démêler les différentes dimensions des représentations apprises, menant ainsi à des représentations de meilleure qualité comparées à celles apprises par un simple auto-encodeur. Description du sujet Le sujet du stage consiste à étudier si les représentations apprises par ces méthodes contrastives récentes peuvent bénéficier d’un aspect variationnel avec les tâches suivantes: |
Date limite de candidature: | 2023-03-31 |
Mail de contact: | mathieu.lefort@liris.cnrs.fr |