Regardez le monde
avec les yeux ouverts

Inscrit ou abonné ?
CONNEXION

UP', média libre
grâce à ses lecteurs
Je rejoins

rejoignez gratuitement le cercle des lecteurs de UP’

Clonage vocal : quand votre voix devient l'arme préférée des escrocs

Clonage vocal : quand votre voix devient l’arme préférée des escrocs

Commencez

Avec l’essor fulgurant de l’intelligence artificielle, le clonage vocal, autrefois réservé à la science-fiction, est désormais une réalité. Si cette technologie ouvre des portes fascinantes dans les domaines de la santé et du divertissement, elle représente également un danger redoutable. En quelques secondes, des criminels peuvent reproduire la voix de leurs victimes et orchestrer des arnaques sophistiquées. Voici pourquoi le clonage vocal pourrait bien devenir la prochaine grande menace dans le paysage de la cybercriminalité.

Le clonage vocal, un concept qui semblait autrefois relever de la science-fiction, est aujourd’hui une réalité bien tangible grâce aux avancées fulgurantes de l’intelligence artificielle (IA). Si cette technologie offre de nombreuses opportunités, elle soulève également de sérieuses inquiétudes, notamment en matière de sécurité.

Qu’est-ce que le clonage vocal ?

Avec l’essor de l’intelligence artificielle, nous avons vu apparaître des technologies capables de générer des images, des textes et, désormais, des voix. Parmi ces innovations, le clonage vocal – une forme avancée de « deepfake » – consiste à recréer numériquement la voix d’une personne. À partir de quelques secondes seulement d’échantillons audio, l’IA peut capter les intonations, l’accent et même la respiration, créant ainsi un modèle vocal ultra réaliste. Ce modèle peut ensuite transformer du texte en discours, donnant l’illusion que la personne ciblée est réellement en train de parler.

Alors qu’un court extrait sonore comme « Bonjour, il y a quelqu’un ? » suffit pour alimenter une telle technologie, des conversations plus longues permettent aux fraudeurs de perfectionner la réplique vocale. Le clonage vocal, bien que fascinant, ouvre la porte à des usages malveillants.

Comment les criminels exploitent-ils cette technologie ?

Les cybercriminels ont rapidement compris le potentiel de cette technologie pour perpétrer des fraudes. Ils collectent des échantillons audio à partir de vidéos sur YouTube ou de messages publiés sur TikTok, puis utilisent l’IA pour générer de nouveaux enregistrements. Une fois la voix clonée, ils l’utilisent pour des appels frauduleux ou des usurpations d’identité, demandant souvent des virements d’argent ou des paiements en crypto-monnaies. La victime, trompée par la ressemblance de la voix, est amenée à croire qu’elle parle à un proche ou à une personne de confiance.

Des cas célèbres ont déjà fait la une des journaux : aux Émirats arabes unis, des criminels ont cloné la voix du directeur d’une entreprise pour voler 51 millions de dollars. À Mumbai, un homme d’affaires a été victime d’une arnaque où des fraudeurs se sont fait passer pour des représentants de l’ambassade indienne à Dubaï. Plus récemment en Australie, le clone vocal du Premier ministre du Queensland, Steven Miles, a été utilisé pour inciter les gens à investir dans le bitcoin.

Pourquoi ne pas profiter d’une lecture illimitée de UP’ ? Abonnez-vous à partir de 1.90 € par semaine.

Même les enfants ne sont pas épargnés : aux États-Unis, des escrocs ont cloné la voix d’une adolescente lors d’une fausse alerte d’enlèvement pour extorquer ses parents.

Une menace en pleine expansion

Le clonage vocal est déjà plus répandu qu’on ne le pense. Une étude récente au Royaume-Uni révèle que 28 % des adultes ont été confrontés à des tentatives d’escroqueries par clonage vocal, et près de la moitié d’entre eux ignoraient totalement que cette technologie existait. Ce manque de sensibilisation expose des millions de personnes à des risques croissants de fraude.

Comment se protéger ?

Face à l’ampleur du phénomène, il est essentiel de mettre en place des solutions efficaces pour se protéger. Plusieurs mesures peuvent être prises par les individus et les organisations :

→ Sensibilisation et éducation : Informer le public sur les dangers du clonage vocal et les méthodes pour détecter les escroqueries est crucial pour réduire les risques de fraude.

→ Technologies de sécurité avancées : L’adoption de systèmes de sécurité biométriques capables de distinguer une voix vivante d’un clone est un moyen de défense efficace. Les organisations devraient aussi envisager des méthodes d’authentification multifactorielle pour renforcer la sécurité.

→ Renforcement des capacités d’investigation : Les forces de l’ordre doivent être formées et équipées pour traquer les criminels utilisant le clonage vocal, notamment en améliorant les outils d’investigation numérique.

→ Réglementations et législation : La mise en place de réglementations strictes et actualisées sur l’usage de cette technologie est indispensable pour protéger le public. En Australie, par exemple, le gouvernement a renforcé les obligations des prestataires de services pour prévenir et signaler les cyber-escroqueries.

L’urgence d’une réponse coordonnée

Alors que les pertes liées à la cybercriminalité ne cessent d’augmenter, il devient urgent de coordonner les efforts pour lutter contre ces menaces. La vigilance doit être collective, impliquant les gouvernements, les entreprises et les citoyens. L’adaptabilité des mesures, leur faisabilité économique et leur conformité réglementaire détermineront l’efficacité de la lutte contre le clonage vocal et d’autres formes de fraude.

L’avenir du clonage vocal est aussi prometteur qu’inquiétant. S’il peut être utilisé à des fins nobles, comme dans le domaine de la santé ou du divertissement, il représente également une nouvelle frontière pour la cybercriminalité. Pour minimiser les risques, il est essentiel de rester informé et vigilant face à cette technologie de plus en plus présente dans nos vies. 

Source : article de Leo S.F. Lin, maître de conférences en études policières, Charles Sturt University; Duane Aslett, maître de conférences en études policières, Charles Sturt University; Geberew Tulu Mekonnen, maître de conférences, School of Policing Studies, Charles Sturt University, et Mladen Zecevic, maître de conférences à la School of Policing Studies, Charles Sturt University, publié par The Conversation.

Pour lutter contre la désinformation et privilégier les analyses qui décryptent l’actualité, rejoignez le cercle des lecteurs abonnés de UP’

S’abonner
Notifier de

0 Commentaires
Les plus anciens
Les plus récents Le plus de votes
Inline Feedbacks
View all comments
Article précédent

Comment la surveillance des JO devient une discipline olympique

Des minicentrales nucléaires pour faire tourner l’intelligence artificielle
Prochain article

Des minicentrales nucléaires pour faire tourner l’intelligence artificielle

Derniers articles de Intelligence artificielle

REJOIGNEZ

LE CERCLE DE CEUX QUI VEULENT COMPRENDRE NOTRE EPOQUE DE TRANSITION, REGARDER LE MONDE AVEC LES YEUX OUVERTS. ET AGIR.
logo-UP-menu150

Déjà inscrit ? Je me connecte

Inscrivez-vous et lisez trois articles gratuitement. Recevez aussi notre newsletter pour être informé des dernières infos publiées.

→ Inscrivez-vous gratuitement pour poursuivre votre lecture.

REJOIGNEZ

LE CERCLE DE CEUX QUI VEULENT COMPRENDRE NOTRE EPOQUE DE TRANSITION, REGARDER LE MONDE AVEC LES YEUX OUVERTS ET AGIR

Vous avez bénéficié de 3 articles gratuits pour découvrir UP’.

Profitez d'un accès illimité à nos contenus !

A partir de 1.70 € par semaine seulement.

Profitez d'un accès illimité à nos contenus !

A partir de $1.99 par semaine seulement.
Partagez
Tweetez
Partagez
WhatsApp
Email
Print