En bref

Une confiance excessive envers l’IA générative rend les utilisateurs vulnérables

Une récente enquête menée par KnowBe4 Africa révèle qu’un nombre significatif de personnes se sentent à l’aise de partager leurs informations personnelles avec des outils d’IA génératrice tels que ChatGPT, exposant ainsi les utilisateurs à des vulnérabilités.

L’enquête, qui a interrogé 1 300 participants dans dix pays d’Afrique et du Moyen-Orient, indique que 63% des utilisateurs sont disposés à partager leurs informations personnelles. De manière surprenante, 83% des répondants ont exprimé leur confiance dans la précision et la fiabilité de ces outils d’IA. Anna Collard, vice-présidente stratégie de contenu et évangéliste chez KnowBe4 AFRICA souligne que bien que ces résultats montrent une utilisation répandue des outils d’IA génératrice, ils mettent également en évidence la nécessité d’une formation et d’une sensibilisation accrues des utilisateurs aux risques potentiels liés à cette nouvelle technologie puissante.

Lors de son lancement fin 2022, ChatGPT a révolutionné la manière dont les gens travaillent. Ce chatbot très compétent, reconnu pour son anglais naturel et impeccable, a rapidement conquis les critiques. Les équipes commerciales ont découvert qu’elles pouvaient créer des campagnes marketing en quelques minutes au lieu d’heures, et générer facilement du contenu sous diverses formes, telles que du texte et des images. Cependant, certains estiment que le monde a adopté l’IA génératrice de manière trop précipitée.

“L’adoption de l’IA générative offre d’énormes opportunités aux utilisateurs et aux organisations africains, mais nous devons également prendre en compte les risques associés”, déclare Collard. “Notre enquête, menée auprès d’utilisateurs possédant un smartphone dans 10 pays africains, indique que tous les répondants utilisent l’IA génératrice dans leur vie personnelle et professionnelle, et beaucoup l’utilisent quotidiennement ou hebdomadairement.” Les principaux objectifs d’utilisation de l’IA génératrice sont la recherche, la collecte d’informations, la rédaction de courriels, la génération de contenu créatif et la rédaction de documents. Les répondants ont souligné plusieurs avantages de l’utilisation de l’IA génératrice, notamment le gain de temps, l’aide aux tâches complexes, l’augmentation de la productivité et le renforcement de la créativité.

“Malgré les inquiétudes liées aux pertes d’emplois et aux impacts négatifs dans de nombreux secteurs dûs à l’IA générative, 80% des participants estiment que leur sécurité d’emploi n’est pas menacée, bien que 57% reconnaissent le potentiel de remplacement de la créativité humaine  par cette technologie selon les propos de Collard. “L’aspect intriguant de ces résultats réside dans la disparité entre les perceptions individuelles et la réalité, surtout en matière de cybersécurité.”

Trop enclins à partager des données sensibles

L’enquête, menée en Afrique du Sud, au Botswana, au Nigeria, au Ghana, au Kenya, en Égypte, à Maurice, au Maroc, aux Émirats arabes unis et en Arabie saoudite, révéle que près des deux tiers des utilisateurs sont à l’aise à l’idée de partager leurs informations personnelles avec des outils d’IA Générative tels que ChatGPT. Le niveau de confort dans le partage de données sensibles varie selon les pays. Par exemple, en Afrique du Sud, seuls 54% des utilisateurs sont prêts à partager leurs informations personnelles avec des outils d’IA Générative contre 67% aux Émirats arabes unis et 75% au Nigeria.

Selon l’enquête, 83% des utilisateurs pensent que l’IA génératrice est précise et fiable, révélant ainsi, un niveau de confiance excessif. Collard souligne l’importance d’encourager la pensée critique et la connaissance de nos biais psychologiques qui nous rendent aveuglément confiants dans un contenu généré de manière synthétique. “Par exemple, des recherches montrent que les gens surestiment leurs capacités à détecter les deepfakes (Köbis et al., 2021) et perçoivent même les images synthétisées par l’IA comme plus dignes de confiance que de vraies images (Nightingale et Farid, 2022)”.

 

Communiqué

Facebook Comments

Plus Populaires

To Top