Détection de vivacité : prévenir l'usurpation d'identité par vérification faciale
Comprendre la liveness detection : fonctionnement, normes ISO 30107-3, réglementation CNIL/RGPD et schéma PVID de l'ANSSI. Guide technique et réglementaire 2026.

Résumer cet article avec
La détection de vivacité — connue sous le terme anglais liveness detection — est la technologie qui distingue un visage réel d'un artefact lors d'une vérification d'identité à distance : photo imprimée, vidéo rejouée, masque 3D ou deepfake injecté dans le flux de données. En 2026, les transactions de vérification biométrique dépasseront les 50 milliards par an à l'échelle mondiale (Biometric Update, 2025), portées par le KYC numérique, les paiements instantanés et le déploiement du portefeuille numérique européen (EUDI Wallet). Parallèlement, les tentatives de fraude par deepfake ont quadruplé entre 2023 et 2024, et les attaques par injection ont bondi de 40 % sur un an. La liveness detection n'est plus une option — c'est un prérequis réglementaire et commercial.
Pour une vue d'ensemble de l'automatisation de la vérification documentaire, consultez notre guide de l'automatisation de la vérification documentaire. Pour les tendances de fond, notre article sur les tendances de l'identité numérique en 2026 offre le contexte sectoriel.
Qu'est-ce que la détection de vivacité ?
La détection de vivacité est une couche anti-usurpation qui confirme qu'une personne physique vivante se trouve devant la caméra avant toute comparaison biométrique. Sans elle, un système de reconnaissance faciale est vulnérable à une simple photo haute résolution.
La technologie se divise en deux familles principales :
Détection active : l'utilisateur exécute une instruction en temps réel — cligner des yeux, tourner la tête, prononcer un mot. La logique est qu'une photo statique ne peut pas obéir à une consigne aléatoire. Vulnérabilité : les outils deepfake modernes synthétisent des mouvements faciaux en temps réel. Les taux de rejet au premier essai atteignent 35 % dans les flux non guidés, générant abandons et frustration.
Détection passive : aucune action n'est demandée à l'utilisateur. Le système analyse silencieusement la texture de la peau, les reflets spéculaires (différents sur une peau réelle et un écran LCD), les indices de profondeur 3D par parallaxe de mouvement, et la photopléthysmographie à distance (rPPG — détection du flux sanguin via les variations subtiles de couleur cutanée). Les meilleures implémentations opèrent en moins de 300 millisecondes.
La détection passive devient le standard industriel pour les flux consommateurs à forte volumétrie. Un opérateur majeur a documenté une réduction de 80 % du temps d'onboarding et une baisse de 65 % de la fraude après le passage de la détection active à passive.
La meilleure pratique émergente est une approche hybride : détection passive systématique, défi actif déclenché uniquement sur des signaux à risque élevé — appareil inhabituel, transaction de montant élevé, métadonnées anormales.
Les quatre familles d'attaques d'usurpation
Comprendre les menaces permet de choisir la solution adaptée. Les attaques se répartissent selon qu'elles ciblent le capteur ou le flux de données.
Attaques de présentation
| Type d'attaque | Sophistication | Contre-mesure principale |
|---|---|---|
| Photo imprimée | Faible | Analyse de texture 2D |
| Affichage écran (téléphone/tablette) | Faible à modérée | Détection de motif de Moiré, reflets LCD |
| Vidéo rejouée | Modérée | Analyse du mouvement, liveness probe |
| Masque 3D rigide | Élevée | Carte de profondeur, analyse infrarouge |
| Masque hyper-réaliste articulé | Très élevée | Tests ISO 30107-3 niveau 3 |
Attaques par injection — la lacune critique
Les attaques par injection contournent entièrement la caméra physique : un deepfake vidéo est injecté directement dans le flux de données, comme si une caméra virtuelle était une vraie caméra. Un système certifié ISO 30107-3 peut rester 100 % vulnérable aux attaques par injection, car cette norme ne couvre que ce qui se passe au niveau du capteur, pas dans le pipeline.
En 2025, ROC.ai a documenté 8 065 tentatives d'injection contre le système de vérification de vivacité d'un seul établissement financier, entre janvier et août. Les deepfakes ont causé plus de 200 millions de dollars de pertes au premier trimestre 2025. Une banque indonésienne a exposé 138,5 millions de dollars de pertes potentielles en trois mois. Pourtant, 42 % des organisations s'appuient uniquement sur la détection PAD, restant totalement exposées.
La protection efficace combine PAD (Presentation Attack Detection) au niveau du capteur avec IAD (Injection Attack Detection) au niveau du pipeline de données.
La norme ISO 30107-3 : référentiel mondial
La norme ISO/IEC 30107-3 est la référence internationale pour la détection des attaques de présentation (PAD). Elle est publiée par l'Organisation internationale de normalisation et testée principalement par iBeta Quality Assurance, accrédité NIST. La norme définit trois niveaux de certification :
| Niveau | Temps de préparation | Coût matériel | Taux de pénétration maximal (APCER) | BPCER max |
|---|---|---|---|---|
| L1 | 8 heures | ~30 USD | 0 % | ≤ 15 % |
| L2 | 2-4 jours | ~300 USD | ≤ 1 % | ≤ 15 % |
| L3 | 7 jours | Non plafonné | ≤ 5 % | ≤ 10 % |
Le vocabulaire ISO 30107-3 remplace les métriques classiques FAR/FRR dans le contexte PAD :
- APCER (Attack Presentation Classification Error Rate) : taux auquel les attaques passent comme des présentations authentiques. Plus bas = mieux.
- BPCER (Bona-fide Presentation Classification Error Rate) : taux auquel de vrais visages sont rejetés. Un BPCER de 0,8 % signifie 8 000 utilisateurs légitimes rejetés par million de vérifications — un coût direct de support et d'attrition.
En janvier 2026, Yoti est devenue la première entreprise à obtenir la certification L3 d'iBeta, qui inclut des masques hyper-réalistes avec paupières mécaniquement articulées et des deepfakes répondant en temps réel aux consignes de vivacité active (Biometric Update, janvier 2026).
Exigez toujours les lettres de confirmation iBeta — publiées sur ibeta.com. Les affirmations de « conformité ISO » sans lettre de confirmation sont invérifiables.
Approfondir le sujet
Découvrez nos guides pratiques et ressources pour maîtriser la conformité documentaire.
Explorer nos guidesCadre réglementaire français : CNIL, RGPD et schéma PVID
Données biométriques et RGPD article 9
La biométrie faciale est une donnée à caractère personnel de catégorie spéciale au sens de l'article 9 du RGPD. Son traitement est interdit sauf exception légale — consentement explicite, obligation légale ou intérêt vital. La CNIL impose le principe de minimisation des données : le gabarit biométrique ne doit pas être conservé au-delà du moment de vérification sauf nécessité absolue documentée. La CNIL a sanctionné plusieurs entreprises pour utilisation abusive de données biométriques, avec des amendes pouvant atteindre 4 % du chiffre d'affaires mondial.
Schéma PVID de l'ANSSI
L'ANSSI administre le schéma PVID (Prestataires de Vérification d'Identité à Distance), l'un des plus exigeants d'Europe. Les prestataires certifiés PVID doivent démontrer leur résistance aux attaques de présentation et, depuis la révision de 2024, aux attaques par injection. Le schéma PVID est aligné avec la norme ETSI TS 119 461 v2 (février 2025), qui opérationnalise les exigences d'eIDAS 2.0 en matière de vérification d'identité à distance.
Un processus de vérification conforme ETSI TS 119 461 v2 satisfait simultanément eIDAS 2.0, AMLD6 et les attentes des superviseurs prudentiels — une convergence réglementaire majeure pour les acteurs financiers.
eIDAS 2.0 et le portefeuille numérique européen
Le règlement eIDAS 2.0 impose que chaque État membre de l'UE mette à disposition au moins un portefeuille numérique européen (EUDI Wallet) certifié d'ici fin 2026. La liveness detection est un élément technique obligatoire du processus de vérification d'identité qui alimente ces portefeuilles. L'ACPR et l'AMF ont publié des positions précisant que la vérification biométrique avec détection de vivacité est équivalente à la vérification en face à face pour les obligations de diligence client en vertu de la 6e directive anti-blanchiment (AMLD6/Directive 2024/1640).
Pourquoi la détection de vivacité échoue parfois
Les utilisateurs sur les forums spécialisés identifient des causes récurrentes que les fournisseurs discutent rarement publiquement :
L'éclairage reste le problème numéro un. Un contre-jour — fenêtre derrière l'utilisateur — surexpose le visage et fausse l'analyse de texture. Les systèmes de détection passive sont particulièrement sensibles. Les interfaces bien conçues affichent un indicateur d'éclairage en temps réel avant la capture.
La variabilité des appareils pénalise les utilisateurs sur smartphones d'entrée de gamme. Les capteurs frontaux de faible résolution produisent des images qui échouent à l'analyse de texture 2D. Ce biais touche de manière disproportionnée les utilisateurs en marchés émergents et les populations les moins aisées — un problème d'équité numérique rarement documenté.
La confusion dans les consignes de liveness active génère des taux d'abandon significatifs. Le passage à la détection passive peut, à lui seul, réduire ce problème d'abandon de plus de 80 %.
L'impact sur la conversion est mesurable : la seule étape de vérification biométrique génère 10 à 15 % d'abandons. Dans un flux KYC complet non optimisé, les pertes cumulées atteignent 40 à 68 % des prospects. La solution est l'approche hybride : passif pour tous, actif uniquement sur signaux à risque.
Intégration dans un processus KYC/AML complet
La détection de vivacité seule ne constitue pas une vérification d'identité complète. Elle s'intègre dans un flux en trois étapes :
- Capture documentaire — vérification du document d'identité (passeport, CNI) avec extraction OCR, contrôle de validité et détection de falsification
- Détection de vivacité + reconnaissance faciale — confirmation de vie, puis comparaison entre la photo du document et la personne devant la caméra
- Criblage réglementaire — vérification sur les listes de sanctions (EU, OFAC, ONU), PPE et adverse media en temps réel
Un point architectural critique : les systèmes doivent également vérifier que la détection de vivacité et la capture documentaire se rapportent à la même session. Sans liaison de session (session binding), un attaquant peut réussir la liveness sur un appareil et substituer un document d'identité différent.
CheckFile intègre ces trois couches dans une plateforme unique, hébergée en France, conforme RGPD et certifiée ISO 27001. Consultez notre approche de la sécurité et nos tarifs pour une estimation personnalisée.
Pour aller plus loin sur le guide global de l'automatisation, consultez notre guide d'automatisation de la vérification.
Choisir sa solution de détection de vivacité
| Critère | Niveau minimum | Niveau recommandé |
|---|---|---|
| Certification ISO 30107-3 | L1 | L2 pour les cas réglementés |
| Protection contre les injections | Non définie par la norme | Couche IAD intégrée |
| BPCER (faux rejets) | < 2 % | < 0,5 % |
| Latence | < 3 secondes | < 500 ms (mode passif) |
| Couverture des appareils | iOS/Android récents | Compatibilité appareils entrée de gamme |
| Conformité RGPD | Obligatoire | Zéro-rétention des gabarits biométriques |
| Hébergement | UE | France ou Allemagne |
Questions fréquentes
Qu'est-ce que la détection de vivacité ?
La détection de vivacité (liveness detection) vérifie qu'une personne physique réelle se trouve devant la caméra lors d'une vérification d'identité, et non un artefact — photo, vidéo, masque ou deepfake injecté. Elle est distincte de la reconnaissance faciale : elle précède la comparaison et valide l'authenticité de la présentation biométrique.
Comment fonctionne la détection de vivacité ?
En mode passif, le système analyse silencieusement la texture de la peau, les reflets lumineux, les indices de profondeur 3D et les variations de couleur liées au flux sanguin (rPPG). En mode actif, l'utilisateur exécute une instruction aléatoire — cligner des yeux, tourner la tête — qu'un artefact statique ne peut pas accomplir. Les meilleures solutions combinent les deux approches avec un défi actif réservé aux cas à risque élevé.
Pourquoi la détection de vivacité est-elle importante ?
Sans liveness detection, tout système de reconnaissance faciale est vulnérable à une photo haute résolution. En 2025, les entreprises ont perdu plus de 200 millions de dollars en un seul trimestre à cause de fraudes par deepfake. La réglementation — RGPD, AMLD6, eIDAS 2.0, schéma PVID de l'ANSSI — impose des niveaux d'assurance croissants pour la vérification d'identité à distance.
Quelles sont les meilleures solutions pour la détection de vivacité ?
Les solutions leaders se distinguent par leur certification ISO 30107-3 niveau L2 minimum pour les cas réglementés, leur protection contre les attaques par injection (deepfakes), leur BPCER mesuré (taux de faux rejets) et leur conformité RGPD avec zéro-rétention des gabarits biométriques. Exigez les lettres de confirmation iBeta et les métriques APCER/BPCER issues de tests réels — pas les chiffres marketing.
Combien coûte la détection de vivacité ?
Les solutions API facturent généralement entre 0,10 et 0,50 € par vérification pour la détection de vivacité seule. Les offres KYC complètes — document + liveness + criblage — vont de 0,50 à 2 € par onboarding selon les volumes. Des tarifs dégressifs s'appliquent au-delà de 10 000 vérifications mensuelles. Consultez notre page tarifs pour une estimation adaptée à votre volume.
Restez informé
Recevez nos analyses conformité et guides pratiques, directement dans votre boîte mail.