IA générative / Chatbots d’IA : risques et bonnes pratiques

Newsletter Q3 2023

 

Qu’est-ce que l’IA ?

Le terme « intelligence artificielle », ou simplement « IA », désigne l’intelligence dont font preuve les machines plutôt que les êtres humains. Au cours des derniers mois, l’IA a fait des vagues avec des applications génératives et des chatbots comme ChatGPT, Google Bard et DALL-E qui reprennent le raisonnement et la créativité des humains.

 

Comment utilise-t-on les chatbots d’IA ?

Les chatbots d’IA sont des assistants virtuels aptes à vous aider à accomplir toute une série de tâches en recourant à la conversation naturelle. Par exemple, vous pouvez leur demander de trouver des réponses sur Internet, de créer des articles, d’écrire et de trouver des bogues dans un code, de résumer des documents, de créer des illustrations et de traduire des textes en d’autres langues.

 

Quels sont les risques ?

Comme pour toute autre application ou service tiers, les chatbots d’IA présentent des risques. Voici les deux plus importants que vous ne devez pas ignorer :

  • Divulgation non autorisée : tout ce que vous saisissez, collez ou téléchargez dans un chatbot d’IA peut être stocké sur les serveurs de la société mère pour permettre à ce chatbot de s’entraîner. Comme pour tout autre service tiers, une fois que les données sensibles se trouvent hors de l’environnement sécurisé de votre organisation, il n’y a aucun moyen de contrôler ou de prédire qui peut y avoir accès. Ainsi, si vous téléchargez ou collez, par exemple, un code source sensible ou un plan de produit, ou même vos propres informations personnelles, le chatbot d’IA pourrait exploiter ces données pour aider à générer une réponse à la demande d’un autre utilisateur.
  • Hallucination : il existe un autre risque, connu sous le nom d’hallucination, qui tient au fait que le chatbot peut créer un contenu forgé de toutes pièces ou tout simplement faux. Par exemple, il peut inventer des statistiques ou mentionner des recherches ou des affaires juridiques qui n’ont jamais existé.

 

Comment les utilisateurs peuvent-ils se protéger ?

En raison des risques associés aux chatbots d’IA, il est important d’appliquer certaines bonnes pratiques pour assurer la sécurité des données et veiller à ce que les résultats obtenus soient exacts et utiles.

  • N’utilisez que des chatbots d’IA préalablement approuvés par les services informatiques et la direction.
  • Ne saisissez jamais, ne collez jamais et ne téléchargez jamais de données sensibles dans un chatbot d’IA, notamment du code source, des rapports sur les résultats, des présentations internes, de la propriété intellectuelle, des données sur les clients, des documents juridiques, etc.
  • La meilleure exploitation des chatbots d’IA consiste à leur demander d’effectuer des recherches sur des questions complexes et de créer de nouveaux contenus tels que des articles, du code ou des illustrations.
    • Pour de meilleurs résultats, renforcez vos compétences en matière d’ingénierie de la demande, c’est-à-dire la rédaction d’instructions claires et descriptives. À la différence de la recherche traditionnelle, les chatbots d’IA sont capables de comprendre plusieurs phrases et exigences. Ils peuvent même maintenir le flux de la conversation, ce qui vous permet de poser des questions de suivi sans avoir à répéter les instructions précédentes.
  • Vérifiez toujours l’authenticité des résultats. Par exemple, si le chatbot mentionne une anecdote historique, une étude scientifique ou un précédent juridique, vous ne devez pas utiliser cette information avant de l’avoir vérifiée à l’aide d’une autre source officielle ou en consultant un expert au sein de votre organisation.