Emploi
Assistant de carrière BÊTA J'estime mon salaire
Mon CV
Mes offres
Mes alertes
Se connecter
Trouver un emploi
TYPE DE CONTRAT
Emploi CDI/CDD
Missions d'intérim Offres d'alternance
Astuces emploi Fiches entreprises Fiches métiers
Rechercher

Méthodes à noyau efficaces avec attributs binaires // memory-efficient kernel methods using binary features

Saint-Martin-d'Hères
Université Grenoble Alpes
Publiée le 13 mai
Description de l'offre

Topic description

L'apprentissage automatique est entré dans une période caractérisée par un changement d'échelle sans précédent. Les modèles modernes d'apprentissage profond comportent des milliards de paramètres, et sont entraînés sur des jeux de données colossaux. Si ce changement d'échelle a permis des avancées remarquables d'un point de vue empirique, les systèmes de calcul actuels touchent à leurs limites, notamment en termes de mémoire et de consommation énergétique, incitant au développement de représentations plus compactes des données. Dans ce contexte, les représentations binaires et, plus généralement, de faible précision constituent une voie prometteuse, car elles permettent de réduire les coûts de stockage d'un à deux ordres de grandeur, tout en permettant l'utilisation d'opérations matérielles efficaces (arithmétique binaire).

Au-delà des modèles d'apprentissage profond paramétriques, nous soutenons que l'utilisation de telles représentations pour l'approximation de modèles non paramétriques à noyau est particulièrement pertinente : ces approches ont une complexité élevée et pourraient donc grandement bénéficier d'approximations basées sur des représentations binaires, tout en offrant une grande flexibilité (permettant notamment de travailler sur des espaces non euclidiens), tout en s'inscrivant dans un cadre théorique riche permettant leur analyse. On peut ainsi espérer introduire des représentations binaires ou de faible précision dans ce contexte sans sacrifier les garanties théoriques existantes. De plus, l'étude de représentations à faible précision dans le cadre non paramétriques pourrait fournir de nouveaux outils conceptuels et algorithmiques pour mieux comprendre et approximer les réseaux de neurones eux-mêmes.

L'objectif de ce sujet est d'explorer le potentiel des descripteurs aléatoires construits à l'aide de fonctions de hachage et de mécanismes de quantification, afin de développer des algorithmes économes en ressources pour l'apprentissage automatique non paramétrique et l'inférence statistique. Malgré une littérature abondante sur les approximations de rang faible des méthodes à noyau, très peu de travaux ont envisagé l'utilisation d'approximations fondées sur des plongements binaires, et en particulier pas dans un contexte d'apprentissage automatique. Nous développerons de nouveaux algorithmes combinant de telles approximations avec des procédures d'optimisation itératives, et établirons des garanties d'apprentissage statistique pour les algorithmes proposés. L'extension de ces idées à des problèmes d'apprentissage sur des espaces structurés sera également étudiée.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Machine learning has entered an era characterized by both unprecedented performance and scale, with modern deep learning models routinely trained on billions to trillions of samples and parameters. While this abundance has driven remarkable advances, it has also brought current computational systems to their limits, particularly in terms of memory and energy consumption, making the development of more compact representations of the data a central challenge. In this context, binary and, more generally, low-precision data representations offer a compelling avenue, as they can reduce storage costs by one to two orders of magnitude while potentially enabling more efficient hardware operations (e.g., bitwise arithmetic), thereby significantly accelerating large-scale learning and inference.

Beyond parametric deep learning models, we argue that using such representations in the context of nonparametric kernel methods is particularly pertinent: these approaches suffer acutely from scaling issues, and thus stand to benefit from binary representations, while offering a lot of flexibility (allowing to deal easily with non-Euclidean spaces) and being more amenable to theoretical analysis, raising the prospect that such binary or low-precision representations could be introduced without sacrificing established guarantees. Moreover, investigating low-precision representations in nonparametric settings may provide new conceptual and algorithmic tools to better understand and approximate neural networks themselves.

The goal of this PhD topic is to explore the potential of randomized embeddings built using hash functions and quantization mechanisms in order to develop scalable and resource-efficient algorithms for nonparametric machine learning and inference. Despite an abundant existing literature on low-rank approximations of kernel methods, very few works have considered using approximations built on binary embeddings, and in particular not in a machine learning context. We will develop new algorithms combining such approximations with iterative optimization procedures, and derive statistical learning guarantees for the proposed algorithms. Extension of these ideas to learning problems with structured input and output spaces will also be considered.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Début de la thèse : 01/10/

Funding category

Public funding alone (i.e. government, region, European, international organization research grant)

Funding further details

Concours pour un contrat doctoral

Postuler
Créer une alerte
Alerte activée
Sauvegardée
Sauvegarder
Voir plus d'offres d'emploi
Estimer mon salaire
JE DÉPOSE MON CV

En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.

Offres similaires
Emploi Saint-Martin-d'Hères
Emploi Isère
Emploi Rhône-Alpes
Intérim Isère
Intérim Rhône-Alpes
Accueil > Emploi > Méthodes à noyau efficaces avec attributs binaires // Memory-Efficient Kernel Methods using Binary Features

Jobijoba

  • Conseils emploi
  • Avis Entreprise

Trouvez des offres

  • Emplois par métier
  • Emplois par secteur
  • Emplois par société
  • Emplois par localité
  • Emplois par mots clés
  • Missions Intérim
  • Emploi Alternance

Contact / Partenariats

  • Contactez-nous
  • Publiez vos offres sur Jobijoba
  • Programme d'affiliation

Suivez Jobijoba sur  Linkedin

Mentions légales - Conditions générales d'utilisation - Politique de confidentialité - Gérer mes cookies - Accessibilité : Non conforme

© 2026 Jobijoba - Tous Droits Réservés

Les informations recueillies dans ce formulaire font l’objet d’un traitement informatique destiné à Jobijoba SA. Conformément à la loi « informatique et libertés » du 6 janvier 1978 modifiée, vous disposez d’un droit d’accès et de rectification aux informations qui vous concernent. Vous pouvez également, pour des motifs légitimes, vous opposer au traitement des données vous concernant. Pour en savoir plus, consultez vos droits sur le site de la CNIL.

Postuler
Créer une alerte
Alerte activée
Sauvegardée
Sauvegarder