Conseils pour l’utilisation de l’IA générative dans la recherche et l’éducation

L’EPFL reconnaît l’énorme potentiel des nombreux outils d’intelligence artificielle générative capables de générer des médias synthétiques tels que des textes ou des images [1][2]. Comme tout outil, ils ont leurs avantages, mais nous devons être conscients de leurs limites et des risques majeurs qu’ils présentent. Nous encourageons l’utilisation de l’IA générative dans nos activités, de manière informée, responsable et transparente. Pour exploiter au mieux ce potentiel, quelques recommandations s’imposent.

Un principe clé : ne jamais oublier d’exercer votre sens critique lors de l’utilisation de ces outils.

  • Ne les utilisez pas pour apprendre de nouvelles choses ou pour chercher des informations. Ils génèrent souvent des non-sens plausibles et peuvent vous faire croire que ce qu’ils génèrent est vrai ou réel alors que ce n’est pas le cas.
  • Ne les utilisez pas pour générer du contenu dont vous ne pouvez pas vérifier la véracité ou la forme : par exemple, une langue étrangère.
  • Lorsque vos données sont sensibles. Ne saisissez jamais dans ces outils des informations confidentielles, privées ou personnelles vous concernant ou concernant d’autres personnes. Réfléchissez toujours d’abord à la nature des informations que vous utilisez, car dès que vous les entrez dans l’un de ces outils, elles ne sont plus confidentielles.
  • Lorsque vous voulez être surpris : par exemple, pour générer des idées.
  • Lorsque vous avez la possibilité de vérifier l’exactitude du résultat généré par l’outil d’IA : par exemple, ne générez que du code que vous pouvez exécuter et vérifier vous-même.
  • Lorsque vous souhaitez obtenir de l’aide sur la forme de votre contenu, plutôt que sur le fond : par exemple, pour améliorer la formulation de votre texte, pour résumer un passage trop long ou pour surmonter le syndrome de la page blanche.
  • Absurdité plausible [3] : nous avons généralement tendance à faire davantage confiance aux machines qu’à nous-mêmes (biais d’automatisation [4]), ce qui nous rend d’autant plus vulnérables à l’apparente plausibilité des contenus générés par ces logiciels, même lorsqu’ils sont totalement faux ou incorrects.
  • Impact environnemental : ces logiciels sont parmi les moins économes en énergie et en eau, évitez donc de les utiliser lorsque vous disposez d’outils qui effectuent la même tâche avec moins d’impact (par exemple, rechercher sur le web, ou même regarder des vidéos).
  • Vie privée : en utilisant des outils d’IA générative, vous partagez vos données avec des entreprises privées et vous en perdez donc le contrôle.
  • Biais : ce type de logiciel souffre de différents types de biais, qu’il s’agisse de biais liés au genre (par exemple, traduction automatique [5], génération d’images [6]) ou de biais basés sur l’origine ethnique ou l’orientation religieuse (par exemple, génération de textes [7]). Évaluez soigneusement les résultats et faites preuve d’esprit critique.

Bien qu’une liste d’utilisations potentielles serait extrêmement longue, nous pouvons suggérer quelques exemples à titre d’illustration :

  • orienter plus efficacement des étudiants vers les documents pertinents pour leurs questions
  • aider des conseillers pédagogiques dans leur analyse des commentaires d’évaluation des cours
  • aider des enseignants dans la création de matériel pédagogique
  • résumer de longues argumentations juridiques
  • rédiger des codes de programmes pour des applications de recherche ou des descriptions de projets
  • et ainsi de suite.

Un courrier précédemment envoyé aux étudiants et aux enseignants de l’EPFL a défini des lignes directrices pour l’utilisation de l’IA générative par les étudiants au cours de leurs études. L’administration fédérale a préparé une fiche d’information utile concernant l’utilisation d’outils d’IA générative dans ses services [8], ainsi qu’une série de lignes directrices sur les questions sous-jacentes plus générales [9]. Notre institution sœur à Zürich a également une page de FAQ concernant plus spécifiquement le ChatGPT [10].

[1] Barraud, E, Petersen, T, , Overney, J., Aubort S. & Brouet A.-M. (2023). Intelligence artificielle. Amie ou concurrente. Dimensions, 8. EPFL. Lien

[2] Rochel, J. (2023) ChatGPT. 6 questions fondamentales. Lien 

[3] Hardebolle, C. Ramachandran, V. (to appear). SEFI Editorial for the Special Interest Group on ethics: https://go.epfl.ch/plausiblenonsense 

[4] Suresh, H., Lao, N., & Liccardi, I. (2020, July). Misplaced trust: Measuring the interference of machine learning in human decision-making. In Proceedings of the 12th ACM Conference on Web Science (pp. 315-324). Lien

[5] Schiebinger, L., Klinge, I., Sánchez de Madariaga, I., Paik, H. Y., Schraudner, M., and Stefanick, M. (Eds.) (2011-2021). Gendered Innovations in Science, Health & Medicine, Engineering and Environment. Lien 

[6] Leonardo Nicoletti and Dina Bass. Humans Are Biased. Generative AI Is Even Worse, Text-to-image models amplify stereotypes about race and gender — here’s why that matters. Lien

[7] Abid, A., Farooqi, M., & Zou, J. (2021). Large language models associate Muslims with violence. Nature Machine Intelligence, 3(6), 461-463. Lien

[8] Instruction sheets for the use of AI within the federal administration:  https://cnai.swiss/en/products-other-services-instruction-sheets/

[9] Guidelines on Artificial Intelligence for the Confederation. General frame of reference on the use of artificial intelligence within the Federal Administration. https://www.sbfi.admin.ch/dam/sbfi/en/dokumente/2021/05/leitlinien-ki.pdf.download.pdf/leitlinien-ki_e.pdf

[10] https://ethz.ch/en/the-eth-zurich/education/ai-in-education/chatgpt.html