• Home
  • Browse
    • Current Issue
    • By Issue
    • By Author
    • By Subject
    • Author Index
    • Keyword Index
  • Journal Info
    • About Journal
    • Aims and Scope
    • Editorial Board
    • Publication Ethics
    • Peer Review Process
  • Guide for Authors
  • Submit Manuscript
  • Contact Us
 
  • Login
  • Register
Home Articles List Article Information
  • Save Records
  • |
  • Printable Version
  • |
  • Recommend
  • |
  • How to cite Export to
    RIS EndNote BibTeX APA MLA Harvard Vancouver
  • |
  • Share Share
    CiteULike Mendeley Facebook Google LinkedIn Twitter
The Egyptian Journal of Language Engineering
arrow Articles in Press
arrow Current Issue
Journal Archive
Volume Volume 11 (2024)
Issue Issue 2
Issue Issue 1
Volume Volume 10 (2023)
Volume Volume 9 (2022)
Volume Volume 8 (2021)
Volume Volume 7 (2020)
Volume Volume 6 (2019)
Volume Volume 5 (2018)
Volume Volume 4 (2017)
Volume Volume 3 (2016)
Volume Volume 2 (2015)
Volume Volume 1 (2014)
Salem, R. (2024). Les hallucinations de ChatGPT et de Gemini : Pourquoi les agents conversationnels se trompent-ils ?. The Egyptian Journal of Language Engineering, 11(2), 13-35. doi: 10.21608/ejle.2024.290200.1067
Racha Mohammad Salem. "Les hallucinations de ChatGPT et de Gemini : Pourquoi les agents conversationnels se trompent-ils ?". The Egyptian Journal of Language Engineering, 11, 2, 2024, 13-35. doi: 10.21608/ejle.2024.290200.1067
Salem, R. (2024). 'Les hallucinations de ChatGPT et de Gemini : Pourquoi les agents conversationnels se trompent-ils ?', The Egyptian Journal of Language Engineering, 11(2), pp. 13-35. doi: 10.21608/ejle.2024.290200.1067
Salem, R. Les hallucinations de ChatGPT et de Gemini : Pourquoi les agents conversationnels se trompent-ils ?. The Egyptian Journal of Language Engineering, 2024; 11(2): 13-35. doi: 10.21608/ejle.2024.290200.1067

Les hallucinations de ChatGPT et de Gemini : Pourquoi les agents conversationnels se trompent-ils ?

Article 2, Volume 11, Issue 2, October 2024, Page 13-35  XML PDF (3.2 MB)
Document Type: Original Article
DOI: 10.21608/ejle.2024.290200.1067
View on SCiNiTO View on SCiNiTO
Author
Racha Mohammad Salem email
Department of French, Faculty of Arts, Alexandria University
Abstract
Le lancement de ChatGPT et de Gemini marque le début d’une nouvelle ère de l’interaction homme / machine. Les espoirs sont immenses à l’égard de ces robots conversationnels qui donnent des conseils, conçoivent des contenus dans tous les domaines de connaissance, résolvent des problèmes et aussi créent des algorithmes. Actuellement, ChatGPT et Gemini sont intégrés dans divers domaines : l’enseignement/apprentissage, la littérature et les arts, le tourisme, le journalisme, les sciences, l’informatique, etc. Cependant, certains spécialistes en informatique ainsi que des utilisateurs commencent à parler des erreurs ou des hallucinations de ChatGPT et de Gemini. Des erreurs illogiques parfois futiles et parfois graves mettent en question la performance de leurs systèmes informatiques. Au cours du présent article nous présenterons deux types d’erreurs commises par les deux agents conversationnels les plus utilisés à l’échelle mondiale en traduction et en génération de texte. Nous essayerons de comprendre pourquoi ces systèmes linguistiques et informatiques rigoureux se trompent-ils. De même, nous suggérerons des moyens permettant d’éviter ce type d’erreurs.
Keywords
agent conversationnel; réseau neuronal profond; hallucinations; mécanisme d’attention; architecture de Transformers, sémantique distributionnelle
References
[1] A. Bertels et K. Heylen, Sémantique distributionnelle en linguistique de corpus, in revue Langages, N. 201/ 2016, version électronique, https://www.cairn.info/revue-langages-2016-1-page-51.htm , consulté le 6/4/2024.

[2] Olivier Las Vergnas, Antoine Rio-Jouet. Une IA peut-elle remplacer un professeur ? Un exemple de dialogue avec Bard-Google, entre hallucinations et illusions réflexives. L'esprit d'Archimède, A paraître, 2023 (10), pp.27-34. ⟨hal-04273617⟩

[3] B. Belainine, Modèle intégré pour la génération de dialogue et la traduction automatique à base d’attention, thèse de doctorat, Université du Québec, 2023.

[4] Comité consultatif national pilote d’éthique du numérique, Systèmes d’intelligence artificielle générative : enjeux d’éthique, in https://www.ccne-ethique.fr/sites/default/files/2023-07/CNPEN-Avis7-%20SIAgen-enjeux%20d%27e%CC%81thique-2023- 07-04-web.pdf , consulté le 6/2/2024.

[5] D. Cao, N. Béchet et P. Martin, Étude comparative des plongements lexicaux pour l’extraction d’entités nommées en français, in https://hal.science/hal-04130131 , consulté le 15/11/2023.

[6] F. Barbin, La traduction automatique neuronale, un nouveau tournant ?, in https://shs.hal.science/halshs-03603588, consulté le 5/1/2024.

[7] F. Alexandre, Comment fonctionne ChatGPT ? Décrypter son nom pour comprendre les modèles de langage, in https://inria.hal.science/hal-04156226 , consulté le 5/5/2024.

[8] G. le Berre, Vers la mitigation des biais en traitement neuronal des langues, thèse de doctorat, Université de Montréal, 2022.

[9] Google DeepMind, Gemini: A Family of Highly Capable Multimodal Models, in https://arxiv.org/abs/2312.11805, consulté le 22/3/2024.

[10] Gouvernement français, pôle d’expertise de la régulation numérique, ChatGPT ou la percée des modèles d’IA conversationnels, Collection Eclairage sur, in https://www.peren.gouv.fr/rapports/2023-04-06_Eclairage%20sur_CHATGPT_FR.pdf, consulté le 25/3/2024.

[11] M. Wauquier, Apports de la sémantique distributionnelle pour la morphologie dérivationnelle, in revue Corpus, N.23 / 2022, version électronique, https://journals.openedition.org/corpus/6303, consulté le 12/12/2023.

Statistics
Article View: 458
PDF Download: 372
Home | Glossary | News | Aims and Scope | Sitemap
Top Top

Journal Management System. Designed by NotionWave.