Je souhaite d’abord la bienvenue à José Côté, ma chère collègue qui est de retour à la direction éditoriale de cette revue. C’est avec grand plaisir que, depuis l’automne 2025, nous exerçons désormais ensemble la fonction de corédactrices en chef, dans un contexte où la revue est dorénavant portée conjointement par l’Université Laval et l’Université de Montréal. À l’occasion de son retour, j’aimerais revenir sur un éditorial, publié en 2018, dans lequel elle proposait une réflexion sur les soins infirmiers à l’ère de l’intelligence artificielle (IA) (Côté, 2018). Elle soulevait une question qui demeure d’une grande actualité : « Comment des machines capables de simuler ou d’imiter l’intelligence humaine viendront-elles influencer ou moduler la pratique infirmière? » Elle anticipait déjà que l’utilisation et le traitement de données massives généreraient des informations précieuses pour soutenir l’action et la prise de décision en santé. Sept ans plus tard, nous assistons à un développement exponentiel de l’IA, qui s’impose dans de nombreux aspects de la vie humaine. Cette expansion s’accompagne d’une prise de conscience croissante de ses effets à la fois profonds et dynamiques sur les sociétés, l’environnement, les écosystèmes et les vies humaines, y compris les processus cognitifs. En influençant les modes de pensée, les interactions et la prise de décision, l’IA a le potentiel de transformer pratiquement tous les domaines; de l’éducation aux sciences humaines, sociales et naturelles, en passant par la santé, la culture, la communication et l’information. Cependant, les réflexions ne se limitent pas à ses bénéfices, mais concernent avant tout les conditions d’une utilisation efficace, responsable et éthique de l’IA, dans une perspective de prévention des usages détournés et de pleine réalisation de son potentiel (UNESCO, 2021). Les éditrices et les éditeurs ainsi que les comités de rédaction dans leurs champs respectifs sont également confrontés à l’urgence de définir des balises claires pour encadrer l’usage de l’IA dans la production, l’évaluation et la diffusion des connaissances, puisqu’elle conjugue un potentiel prometteur et un défi éthique majeur (Lund et al., 2023). Les scientifiques utilisent déjà l’IA générative, notamment les grands modèles de langage, pour soutenir la rédaction, améliorer la clarté linguistique, traduire des textes, structurer des données ou encore automatiser la synthèse des connaissances (Khalil et al., 2022). Ces usages peuvent accélérer la diffusion de la science en réduisant les barrières linguistiques ainsi que l’investissement en temps. Toutefois, l’intégration de l’IA dans la rédaction scientifique soulève des enjeux éthiques majeurs pour l’édition savante. Ces enjeux concernent la responsabilité des chercheurs, la transparence des processus, l’intégrité scientifique ainsi que les risques d’accentuation d’inégalités entre individus et institutions, lesquels se manifestent à travers plusieurs effets potentiels de l’IA (Lund et al., 2023). Certains de ces enjeux seront examinés ci-après. Selon Messeri & Crockett (2024), si l’IA peut accroître la productivité scientifique en compensant certaines limites humaines, elle peut également exploiter nos faiblesses cognitives et nourrir une illusion de compréhension du monde qui ne correspond pas nécessairement aux faits. Les auteurs considèrent le risque d’une émergence de « monocultures scientifiques », où certaines méthodes, questions ou perspectives deviennent dominantes au détriment d’approches alternatives, ce qui réduit l’innovation et augmente la vulnérabilité aux erreurs. La prolifération de l’IA pourrait ainsi mener à une phase marquée par une intensification de la production de connaissances, tout en négligeant leur vérification, d’où l’importance de renforcer la responsabilisation des scientifiques en matière de transparence et d’intégrité scientifique. En ce qui a trait aux inégalités en recherche, Lund et al. (2023) mentionnent que l’IA peut amplifier « l’effet Matthieu », selon lequel les scientifiques déjà très visibles et fortement cités gagnent encore en reconnaissance, tandis que les moins …
Appendices
Bibliographie
- COPE. (2025). Emerging AI dilemmas in scholarly publishing. Committee on Publication Ethics. https://publicationethics.org
- Côté, J. (2018). Les soins infirmiers à l’ère de l’intelligence artificielle. Science of Nursing and Health Practices / Science infirmière et pratiques en santé, 1(2), 1–3. https://doi.org/10.31770/2561-7516.1035
- Ganjavi, C., Eppler, M. B., Pekcan, A., Biedermann, B., Abreu, A., Collins, G. S., Gill, I. S. et Cacciamani, G. E. (2024). Publishers’ and journals’ instructions to authors on use of generative artificial intelligence in academic and scientific publishing: Bibliometric analysis. BMJ, 384, e077192. https://doi.org/10.1136/bmj-2023-077192
- Khalil, H., Ameen, D. et Zarnegar, A. (2022). Tools to support the automation of systematic reviews: A scoping review. Journal of Clinical Epidemiology, 144, 22–42. https://doi.org/10.1016/j.jclinepi.2021.12.005
- Lund, B. D., Wang, T., Mannuru, N. R., Nie, B., Shimray, S. et Wang, Z. (2023). ChatGPT and a new academic reality: Artificial intelligence–written research papers and the ethics of large language models in scholarly publishing. Journal of the Association for Information Science and Technology, 74(5), 570–581. https://doi.org/10.1002/asi.24750
- Messeri, L. et Crockett, M. J. (2024). Artificial intelligence and illusions of understanding in scientific research. Nature, 627(8002), 49–58. https://doi.org/10.1038/s41586-024-07146-0
- Perc M. (2014). The Matthew effect in empirical data. Journal of the Royal Society, Interface, 11(98), 20140378. https://doi.org/10.1098/rsif.2014.0378
- Science of Nursing and Health Practices / Science infirmière et pratiques en santé. (2025). Considérations éthiques pour les auteur·trices. https://sips-snahp.ojs.umontreal.ca/index.php/sips-snahp/authorsethics
- UNESCO. (2021). Recommendation on the ethics of artificial intelligence. https://unesdoc.unesco.org/ark:/48223/pf0000377897

