es deepfakes sont une technique utilisant l’intelligence artificielle (IA) pour modifier l’apparence et la voix des gens dans les médias. Ce contenu deepfake, qu’il s’agisse d’images ou de sons, rend difficile l’identification des personnes. Le personnel doit donc redoubler d’efforts pour devancer les criminels qui exploitent cette technologie.
Les progrès technologiques font qu’il est désormais possible de manipuler notre apparence et notre voix. La personne que nous voyons ou entendons n’est peut-être pas celle que l’on croit. Elle peut avoir la même apparence et la même voix, mais ce qu’elle dit ou fait n’est pas réel. La rapidité des avancées technologiques dans ce domaine pose des défis aux agents et au personnel chargés d’identifier et d’enquêter sur les crimes impliquant des deepfakes.
Formation sur le contenu deepfake
Des conseils et des directives sont disponibles, ainsi que des informations pour aider à identifier les deepfakes et soutenir les victimes. Cette nouvelle formation numérique sur les deepfakes aide le personnel à :
- comprendre ce qu’est un deepfake
- identifier comment les deepfakes facilitent les activités illégales
- repérer un deepfake
- savoir comment les agents de terrain et le personnel peuvent réagir
- fournir une assistance aux victimes et assurer leur protection
Il est facile pour quiconque de créer du contenu deepfake à l’aide d’applications gratuites ou à faible coût. Ces logiciels sont facilement accessibles et il est souvent impossible de distinguer le contenu authentique du faux contenu, même s’il s’agit de quelqu’un que vous connaissez bien.
La stratégie numérique de la police nationale 2020-2030 (lien vers un site externe dans le même onglet) souligne que plus de 90 % des crimes signalés comportent désormais une dimension numérique. Cela présente à la fois des défis et des opportunités pour les enquêtes policières.