Selon une enquête de KnowBe4 Africa

Une confiance excessive envers l’Intelligence artificielle (IA) générative rend les utilisateurs vulnérables

23 février

Une récente enquête menée par KnowBe4 Africa révèle qu’un nombre significatif de personnes se sentent à l’aise de partager leurs informations personnelles avec des outils d’IA génératrice tels que ChatGPT, exposant ainsi les utilisateurs à des vulnérabilités.

L’enquête, qui a interrogé 1 300 participants dans dix pays d’Afrique et du Moyen-Orient, indique que 63 % des utilisateurs sont disposés à partager leurs informations personnelles. De manière surprenante, 83 % des répondants ont exprimé leur confiance dans la précision et la fiabilité de ces outils d’IA. Anna Collard, vice-présidente stratégie de contenu chez KnowBe4 AFRICA, souligne que bien que ces résultats montrent une utilisation répandue des outils d’IA génératrice, ils mettent également en évidence la nécessité d’une formation et d’une sensibilisation accrues des utilisateurs aux risques potentiels liés à cette nouvelle technologie puissante.

Lors de son lancement fin 2022, ChatGPT a révolutionné la manière dont les gens travaillent. Ce chatbot très compétent, reconnu pour son anglais naturel et impeccable, a rapidement conquis les critiques. Les équipes commerciales ont découvert qu’elles pouvaient créer des campagnes marketing en quelques minutes au lieu d’heures, et générer facilement du contenu sous diverses formes, telles que du texte et des images. Cependant, certains estiment que le monde a adopté l’IA génératrice de manière trop précipitée.

« L’adoption de l’IA générative offre d’énormes opportunités aux utilisateurs et aux organisations africains, mais nous devons également prendre en compte les risques associés », déclare Collard. « Notre enquête, menée auprès d’utilisateurs possédant un smartphone dans 10 pays africains, indique que tous les répondants utilisent l’IA génératrice dans leur vie personnelle et professionnelle, et beaucoup l’utilisent quotidiennement ou hebdomadairement. » Les principaux objectifs d’utilisation de l’IA génératrice sont la recherche, la collecte d’informations, la rédaction de courriels, la génération de contenu créatif et la rédaction de documents. Les répondants ont souligné plusieurs avantages de l’utilisation de l’IA génératrice, notamment le gain de temps, l’aide aux tâches complexes, l’augmentation de la productivité et le renforcement de la créativité.

“Malgré les inquiétudes liées aux pertes d’emplois et aux impacts négatifs dans de nombreux secteurs dûs à l’IA générative, 80 % des participants estiment que leur sécurité d’emploi n’est pas menacée, bien que 57 % reconnaissent le potentiel de remplacement de la créativité humaine par cette technologie selon les propos de Collard. « L’aspect intriguant de ces résultats réside dans la disparité entre les perceptions individuelles et la réalité, surtout en matière de cybersécurité.”

Trop enclins à partager des données sensibles

L’enquête, menée en Afrique du Sud, au Botswana, au Nigeria, au Ghana, au Kenya, en Égypte, à Maurice, au Maroc, aux Émirats arabes unis et en Arabie saoudite, révèle que près des deux tiers des utilisateurs sont à l’aise à l’idée de partager leurs informations personnelles avec des outils d’IA Générative tels que ChatGPT. Le niveau de confort dans le partage de données sensibles varie selon les pays. Par exemple, en Afrique du Sud, seuls 54 % des utilisateurs sont prêts à partager leurs informations personnelles avec des outils d’IA Générative contre 67 % aux Émirats arabes unis et 75 % au Nigeria.

Selon l’enquête, 83 % des utilisateurs pensent que l’IA génératrice est précise et fiable, révélant ainsi, un niveau de confiance excessif. Collard souligne l’importance d’encourager la pensée critique et la connaissance de nos biais psychologiques qui nous rendent aveuglément confiants dans un contenu généré de manière synthétique. “Par exemple, des recherches montrent que les gens surestiment leurs capacités à détecter les deepfakes (Köbis et al., 2021) et perçoivent même les images synthétisées par l’IA comme plus dignes de confiance que de vraies images (Nightingale et Farid, 2022)”.

Les deepfakes, l’un des usages les plus préoccupants de l’IA

Une enquête antérieure de KnowBe4 AFRICA a révélé qu’environ la moitié des consommateurs ne savent pas ce que sont les deepfakes, tandis qu’une récente enquête menée par KnowBe4 et ITWeb auprès de gestionnaires informatiques sud-africains a montré que 60 % des organisations ne proposent pas de formation sur les deepfakes. “Les escrocs peuvent tromper les gens en leur faisant croire que leurs proches sont retenus en otage grâce à de faux messages vocaux et vidéo créés avec cette technologie”, explique Collard.

En raison de leur réalisme trompeur, de nombreuses personnes se font piéger par ces arnaques, y compris des organisations susceptibles de perdre à la fois leur argent et leurs données sensibles. Avec les élections à venir en Afrique du Sud, aux États-Unis et dans de nombreux autres pays, le Forum économique mondial a classé la désinformation parmi les principaux risques de cette année. Des recherches antérieures ont montré que les deepfakes constituent l’un des usages les plus préoccupants de l’IA, en particulier lorsqu’ils sont utilisés à des fins de manipulation politique.

“Il est nécessaire de cultiver un état d’esprit de défiance zéro pour aider les gens à surmonter les menaces d’un usage malveillant de l’IA Générative”, conclut Collard. “Les entreprises devraient proposer davantage de formations et mettre en place des politiques exhaustives pour aider leurs employés à naviguer dans cette nouvelle technologie à la fois passionnante et inquiétante.”

Numérique et digitalisationA la Une de l’actu

Signaler un contenu

Un message, un commentaire ?