La confiance est le fondement de la coopération, du commerce et de la prise de décision en entreprise. À l’ère numérique, la confiance s’établit par des signatures, des voix et des interactions virtuelles. Mais à mesure que la technologie des deepfakes progresse rapidement, cette confiance s'érode, créant de nouveaux risques qui contournent des décennies d'investissement en cybersécurité.
Dans cet épisode de The AI Forecast, Paul Muller s'entretient avec Jim Brennan, Chief Product and Technical Officer chez GetReal Security, sur la manière dont les menaces d'authenticité alimentées par l'IA modifient l'équation de la sécurité des entreprises. Leur conversation révèle pourquoi les deepfakes sont le nouveau visage de l'ingénierie sociale, pourquoi c'est la technologie — et non l'œil humain — qui doit prendre la défense, et comment les dirigeants peuvent protéger leurs entreprises et leurs collaborateurs.
Paul : Des décennies de transformation numérique nous ont permis de collaborer instantanément. Mais maintenant, la chose même sur laquelle nous nous appuyons — la petite fenêtre sur nos écrans — est devenue la nouvelle surface d'attaque. Si je ne peux pas faire confiance à ce que je vois, la seule solution de repli est l'interaction physique, lente et coûteuse.
Jim : Un DSI m'a dit : « Cette petite fenêtre est l'endroit où je dirige mon entreprise et maintenant, je ne peux plus faire confiance à ce qui passe par cette fenêtre ». Ça fait réfléchir. L’œil humain ne peut pas détecter ce niveau de sophistication. La plupart des gens pensent à 50/50. C'est pourquoi c'est la technologie, et non l'instinct, qui doit diriger la défense.
La confiance alimente la coopération, et la coopération dynamise les affaires. Mais les deepfakes sapent cette confiance à son niveau le plus personnel — les conversations quotidiennes et les appels vidéo dont les dirigeants dépendent. Jim décrit cela comme une nouvelle couche d'interaction orientée vers l'humain, qu'il appelle la « couche d'affichage », et Paul a surnommé en plaisantant « Menteur 8 », une toute nouvelle surface d'attaque. Contrairement aux pare-feu et aux systèmes de détection d'intrusion, il ne s'agit pas d'une couche technique mais d'une couche humaine. Le moyen de communication et de prise de décision utilisé par les cadres est maintenant exposé à la manipulation.
Paul : Les conseils d'administration risquent-ils de rejeter les deepfakes comme quelque chose qui ne pourrait jamais leur arriver ?
Jim : Il suffit de le voir une seule fois pour croire que c'est vrai. Cependant, le véritable défi consiste à montrer aux conseils d'administration ce que cela signifie pour leur entreprise. Si vous vous fiez à de grandes histoires sensationnelles, il se peut qu'ils les ignorent. En réalité, de petits incidents quotidiens se produisent déjà, qui ont beaucoup plus d'impact.
Il cite le recrutement frauduleux comme un excellent exemple. Les attaquants utilisent des deepfakes pour se faire passer pour des candidats et contourner les procédures RH. Parfois, le motif est un simple gain financier, comme l'obtention d'une prime d'embauche. D'autres fois, c'est bien plus grave : des acteurs étatiques implantent des imposteurs au sein des entreprises pour de l'espionnage ou des fraudes à grande échelle. ‘
Jim : Au cours des trois derniers mois, toutes les entreprises du Fortune 500 et du Fortune 1000 à qui j’ai parlé nous ont dit qu’elles rencontraient des problèmes de recrutement frauduleux. Les équipes RH ne sont pas formées pour penser comme des attaquants, faisant du recrutement une cible facile.
Paul : Nous avons toujours utilisé la technologie pour lutter contre la technologie — pare-feux, antivirus, détection d’intrusion. Peut-on faire la même chose contre les deepfakes ?
Jim : Vous ne pouvez pas simplement vous entraîner pour résoudre ce problème. Mettre en place un modèle de boîte noire et lui fournir des exemples réels et faux ne suffira pas. La meilleure approche consiste à utiliser la criminalistique numérique pour étudier les artefacts laissés par les deepfakes, qu'il s'agisse de distorsions faciales, de bruit audio ou d'incohérences d'éclairage, puis à utiliser le Machine learning pour trouver ces signaux à grande échelle.
Jim a expliqué que les défenses efficaces doivent aller au-delà de l'IA générique, en passant « sous le couvert » des outils de génération permettant d'identifier les traces et les artefacts subtils. En pratique, les entreprises peuvent déployer ces protections par le biais d'API à partir de plateformes telles que Zoom ou Teams, ce qui permet d'éviter l'installation de points d'extrémité et de maintenir l'évolutivité des défenses. En parallèle, la sensibilisation est essentielle : les webinaires, les démonstrations et les simulations donnent aux employés le contexte nécessaire pour faire une pause et réfléchir avant d'agir. La technologie et la formation constituent les deux couches nécessaires pour protéger la confiance numérique.
Jim : Nous vivons à une époque où l'on ne peut se fier à rien dans cette fenêtre ou sur cet écran. De nouvelles politiques pour les organisations sont nécessaires, ainsi que de nouvelles méthodes de fonctionnement.
Le paysage des menaces a changé. Les deepfakes ne sont pas seulement un risque futuriste. Ils sont là, compromettant à la fois les décisions de l'entreprise et la sécurité personnelle. Depuis les embauches frauduleuses jusqu'aux appels de rançon clonés par IA, la confiance numérique n'est plus garantie.
La voie à suivre se décline en trois volets :
Suivez la conversation complète avec Jim Brennan sur The AI Forecast sur Spotify, Apple Podcasts et YouTube.
This may have been caused by one of the following: