Skip to content
Apple Workshop on Privacy-Preserving Machine Learning 2025
Source: machinelearning.apple.com

Atelier Apple sur l'apprentissage automatique respectueux de la vie privée (PPML) 2025 — Récapitulatif et ressources

Sources: https://machinelearning.apple.com/updates/ppml-2025

TL;DR

  • Apple a organisé un atelier hybride de deux jours, Workshop on Privacy-Preserving Machine Learning (PPML), plus tôt cette année pour discuter de la vie privée, de la sécurité et de l’IA.
  • L’atelier a porté sur quatre domaines : apprentissage et statistiques privées ; attaques et sécurité ; fondements de la confidentialité différentielle ; et modèles fondamentaux et confidentialité.
  • Apple a partagé des enregistrements de présentations sélectionnées et un récapitulatif des publications sur sa page de recherche en apprentissage automatique.

Contexte et arrière-plan

Apple affirme que la vie privée est un droit humain fondamental et souligne l’importance de créer des techniques de protection de la vie privée parallèlement aux avancées des capacités d’IA. L’entreprise a rappelé sa recherche continue dans l’utilisation de la confidentialité différentielle en apprentissage automatique et a organisé le Workshop on Privacy-Preserving Machine Learning (PPML) en tant qu’événement hybride de deux jours réunissant des chercheurs d’Apple et la communauté de recherche plus large. La rencontre s’est concentrée sur l’intersection de la confidentialité, de la sécurité et des systèmes d’intelligence artificielle en évolution rapide. Les présentations et les discussions ont exploré les fondements théoriques ainsi que les défis pratiques de la construction de systèmes d’IA protégeant la vie privée. Apple a partagé des enregistrements de certaines conférences invitées et un récapitulatif des publications discutées lors de l’atelier.

Ce qui est nouveau

L’atelier a présenté un large éventail de travaux récents couvrant théorie, algorithmes, études empiriques et systèmes pour l’apprentissage automatique préservant la vie privée. Les thèmes principaux comprenaient :

  • Apprentissage privé et statistiques, avec des mécanismes d’estimation privée et d’agrégation.
  • Attaques et sécurité, examinant les risques d’inférence et d’extraction liés aux modèles personnalisés et aux grands modèles de langage.
  • Fondements de la confidentialité différentielle, explorant l’amplification, la composition, la confidentialité en flux et la conception de mécanismes.
  • Modèles fondamentaux et confidentialité, y compris des approches pour générer des données synthétiques différentiellement privées via des API de modèles fondamentaux pour les images et le texte. Apple a publié des enregistrements de présentations sélectionnées et une liste organisée des publications discutées lors de l’atelier.

Pourquoi c’est important (impact pour développeurs/entreprises)

  • Conception produit : alors que les fonctionnalités d’IA deviennent plus personnelles, les approches discutées au PPML aident les concepteurs et ingénieurs à bâtir des composants respectueux de la vie privée.
  • De la recherche à la pratique : le mélange d’avancées théoriques et d’interventions axées sur les systèmes rapproche la recherche académique des systèmes ML déployables.
  • Évaluation des risques : les présentations sur les attaques et l’audit soulignent l’importance de la modélisation des menaces pour les modèles et les API, pertinent pour les équipes déployant des modèles fondamentaux et des services personnalisés.
  • Conformité et confiance : les fondements et mécanismes de confidentialité différentielle présentés offrent des techniques que les organisations peuvent envisager pour respecter des engagements de confidentialité et renforcer la confiance des utilisateurs.

Détails techniques ou implémentation

L’atelier a couvert des sujets techniques variés. La liste ci-dessous reprend des présentations invitées et des articles présentés pendant le PPML ; les titres et les auteurs sont reproduits à partir des documents partagés par Apple.

Domaines d’intérêt abordés

| Domaine | Exemples de présentations ou articles

---
Apprentissage privé et statistiques
Attaques et sécurité
Fondements de la confidentialité différentielle
Modèles fondamentaux et confidentialité

Présentations sélectionnées (liste partielle)

  • Local Pan-Privacy — Guy Rothblum (Apple)
  • Differential Private Continual Histograms — Monika Henzinger (IST&A)
  • PREAMBLE: Private and Efficient Aggregation of Block Sparse… — Hannah Keller (Aarhus University)
  • Tukey Depth Mechanisms for Practical Private Mean Estimation — Gavin Brown (University of Washington)
  • Privacy Amplification by Random Allocation — Vitaly Feldman (Apple)
  • Differentially Private Synthetic Data via Foundation Model APIs — Sivakanth Gopi (Microsoft Research)
  • Scalable Private Search with Wally — Rehan Rishi et Haris Mughees (Apple)
  • AirGapAgent: Protecting Privacy-Conscious Conversational Agents — Eugene Bagdasarian et al. (Google Research / DeepMind)
  • A Generalized Binary Tree Mechanism for Differentially Private Approximation of All-Pair Distances — Michael Dinitz et al.
  • Differentially Private Synthetic Data via Foundation Model APIs 1: Images — Zinan Lin et al. (Microsoft Research)
  • Differentially Private Synthetic Data via Foundation Model APIs 2: Text — Chulin Xie et al. L’atelier a également remercié de nombreux contributeurs, notamment Hilal Asi, Anthony Chivetta, Vitaly Feldman, Haris Mughees, Martin Pelikan, Rehan Rishi, Guy Rothblum et Kunal Talwar.

Points clés

  • La recherche en ML préservant la vie privée reste active, à la croisée de la théorie et des systèmes.
  • Les fondements de la confidentialité différentielle et les techniques d’amplification restent centraux pour les déploiements pratiques.
  • Comprendre les attaques et effectuer des audits est essentiel pour évaluer les risques de déploiement de modèles personnalisés et de modèles fondamentaux.

FAQ

  • Qu'était PPML 2025 ?

    PPML 2025 était un atelier hybride de deux jours sur Privacy-Preserving Machine Learning organisé par Apple pour discuter de l'état de l'art en ML respectueux de la vie privée.

  • Quels étaient les domaines principaux ?

    Les quatre domaines principaux étaient Apprentissage et Statistiques Privées ; Attaques et Sécurité ; Fondements de la Confidentialité Différentielle ; et Modèles Fondamentaux et Confidentialité.

  • Les enregistrements sont-ils disponibles ?

    Apple a partagé des enregistrements sélectionnés et un récapitulatif des publications sur sa page de recherche ; voir Références.

Références

More news