En bref
Google DeepMind est la division IA d’Alphabet, née en avril 2023 de la fusion entre DeepMind (fondé à Londres en 2010) et Google Brain (fondé en 2011). Elle est dirigée par Demis Hassabis, cofondateur originel de DeepMind. L’entité concentre la recherche fondamentale et le déploiement produit sous un même toit, avec un avantage structurel rare dans l’industrie : une infrastructure de calcul propriétaire — les TPU — qui réduit sa dépendance à Nvidia et abaisse ses coûts d’entraînement et d’inférence.
Google DeepMind est à ce jour l’une des trois organisations au monde capables de développer des modèles frontier (avec OpenAI et Anthropic). Sa singularité tient à l’étendue de son portefeuille : de la biologie computationnelle (AlphaFold, Nobel de chimie 2024) aux modèles de langage grand public (Gemini), en passant par des modèles open source destinés aux développeurs (Gemma).
Fiche d’identité
| Fondation | Avril 2023 (fusion) ; DeepMind fondé en 2010 |
| Siège | Londres, Royaume-Uni |
| Maison mère | Alphabet Inc. |
| Dirigeant | Demis Hassabis (CEO) |
| Statut | Division d’Alphabet (cotée NASDAQ : GOOGL) |
Histoire
DeepMind est fondé en 2010 à Londres par Demis Hassabis, Shane Legg et Mustafa Suleyman. Hassabis cumule à cette date trois vies : joueur d’échecs prodige (maître à 13 ans), développeur de jeux vidéo (Theme Park, 1994), chercheur en neurosciences cognitives (PhD UCL, postdoc MIT et Harvard). Le projet initial : construire des systèmes capables d’apprendre à partir de l’expérience brute, sans règles codées en dur.
En 2014, Google acquiert DeepMind pour environ 500 millions de dollars. DeepMind continue d’opérer comme unité relativement autonome depuis le Royaume-Uni, poursuivant un agenda de recherche long terme — AlphaGo (2016), AlphaFold (2020) — pendant que Google Brain, fondé en 2011 par Jeff Dean et Andrew Ng, s’occupe de la recherche appliquée à l’échelle des produits Google.
La coexistence tourne à la redondance coûteuse : Brain développe PaLM et LaMDA, DeepMind développe Gopher et Sparrow — deux familles de LLM concurrentes au sein du même groupe. L’irruption de ChatGPT fin 2022 force la décision. En avril 2023, Alphabet fusionne les deux entités. Demis Hassabis prend la tête de Google DeepMind ; Jeff Dean est promu Chief Scientist d’Alphabet.
Modèles et produits
AlphaGo et AlphaFold : la crédibilité scientifique
AlphaGo bat le champion mondial de go Lee Sedol 4 à 1 en 2016 — première victoire d’un système IA sur un expert humain dans un jeu réputé inaccessible aux machines. L’événement établit la crédibilité internationale de DeepMind.
AlphaFold marque un tournant plus durable. AlphaFold 2 (2020) prédit la structure tridimensionnelle des protéines avec une précision inférieure à un angström — comparable aux méthodes expérimentales qui prennent des années et coûtent des millions. En 2024, Demis Hassabis et John Jumper reçoivent le Prix Nobel de chimie pour ces travaux. AlphaFold 3 est rendu disponible pour la communauté scientifique (usage non-commercial) en novembre 2024, puis publiquement en février 2025.
La famille Gemini
Gemini est la ligne de modèles de langage multimodaux de Google DeepMind, lancée fin 2023. Elle se décline en niveaux de puissance (Pro, Flash, Flash-Lite, Nano) selon les usages — du mobile embarqué à l’inférence lourde en datacenter.
Gemini 2.5 Pro et Flash, présentés à Google I/O 2025, marquent un regain de forme reconnu par les observateurs. Fin 2025, Gemini 3 Deep Think atteint le niveau médaille d’or à l’Olympiade internationale de mathématiques (IMO 2025) et excelle en chimie et physique. Au moment de la rédaction, Gemini 3.1 Pro est disponible depuis le 19 février 2026.
Gemma : l’open source
Gemma est la ligne de modèles ouverts de Google DeepMind, pensée pour les développeurs souhaitant déployer localement. Gemma 3 (mars 2025) tourne sur un seul GPU, offre une fenêtre de contexte de 128 000 tokens, supporte plus de 140 langues et prend en charge le texte, les images et la vidéo courte. Des variantes spécialisées complètent le catalogue : TxGemma pour le développement thérapeutique, DolphinGemma pour la recherche sur la communication animale.
Positionnement
L’infrastructure comme différenciateur
L’avantage le plus tangible de Google DeepMind n’est pas un modèle, c’est une puce. Google développe ses TPU (Tensor Processing Units) depuis 2013, déployés en production dès 2015. La septième génération, Ironwood (avril 2025), est optimisée pour l’inférence : 192 Go de mémoire HBM3e, 4 614 TFLOPs par chip, et des configurations Superpod de 9 216 chips atteignant 42,5 Exaflops. À échelle comparable, les TPU seraient environ deux fois moins coûteux que les GPU Nvidia, avec une consommation énergétique inférieure de 67 %.
Tous les modèles Gemini ont été entraînés sur TPU. Google contrôle à la fois le silicium et la pile logicielle — ce qui lui confère une maîtrise des coûts et une vitesse d’itération que ses concurrents ne peuvent pas reproduire à court terme.
Intégration dans l’écosystème Google
La stratégie de déploiement de Google DeepMind diffère structurellement de celle d’OpenAI (qui construit son audience via ChatGPT) ou d’Anthropic (centré sur l’entreprise). Google distribue ses modèles via des milliards de points d’entrée existants : Search, Android, Google Workspace, Google Translate. Cela supprime le coût d’acquisition d’audience.
La limite est symétrique : Google DeepMind est tributaire des arbitrages produit d’Alphabet. Les décisions d’intégration dépendent d’agendas qui dépassent la seule logique IA — réglementation, publicité, stratégie cloud.
Forces et limites
Forces : infrastructure propriétaire (TPU), portée mondiale via l’écosystème Google, crédibilité scientifique établie (Nobel, AlphaFold), capacités multimodales natives, portefeuille open source (Gemma).
Limites : revenus Gemini non divulgués séparément (opacité financière), dépendance aux décisions d’Alphabet, démarrage tardif sur le marché des assistants conversationnels face à ChatGPT, tension historique entre culture de recherche fondamentale (DeepMind) et impératifs de déploiement rapide (Brain).
Ce qu’il faut retenir
- Google DeepMind est l’acteur le plus intégré verticalement de la course à l’IA : du silicium (TPU) aux modèles frontier (Gemini) en passant par la recherche fondamentale (AlphaFold).
- Sa force n’est pas une rupture technologique isolée, mais une combinaison d’assets — infrastructure, distribution, profondeur scientifique — difficile à répliquer.
- Les TPU donnent à Google un avantage de coût et de vitesse d’itération structurel sur l’entraînement et l’inférence.
- Son défi principal est de transformer cet avantage structurel en leadership perçu sur le marché des modèles de langage, face à l’avance culturelle d’OpenAI.
Sources
- Google DeepMind — Annonce officielle de la fusion
- Google DeepMind — Modèles Gemini
- Google DeepMind — Gemma
- Google DeepMind — AlphaFold
- Blog Google — Gemini 3 Deep Think
- Blog Google — Ironwood TPU
- Google Cloud Docs — TPU Ironwood (v7)
- CNBC — Memo interne fusion Brain/DeepMind (avril 2023)
- CNBC — TPU, l’arme secrète de Google (novembre 2025)
- CNBC — Hassabis/Pichai et la compétition OpenAI (janvier 2026)
- Fortune — Analyse de la fusion Brain/DeepMind
- SemiAnalysis — Analyse technique TPUv7
- Wikipedia — Google DeepMind
- Wikipedia — Demis Hassabis
- Wikipedia — AlphaFold
- Wikipedia — Tensor Processing Unit
- Britannica — Demis Hassabis