Les hallucinations de ChatGPT et de Gemini : Pourquoi les agents conversationnels se trompent-ils ?
Last updated: 24 Dec 2024
10.21608/ejle.2024.290200.1067
agent conversationnel, réseau neuronal profond, hallucinations, mécanisme d’attention, architecture de Transformers, sémantique distributionnelle
Racha
Salem
Mohammad
Department of French, Faculty of Arts, Alexandria University
salem.racha@live.com
11
2
50689
2024-10-01
2024-05-16
2024-10-01
13
35
2356-8208
2356-8216
https://ejle.journals.ekb.eg/article_384211.html
https://ejle.journals.ekb.eg/service?article_code=384211
2
Original Article
1,039
Journal
The Egyptian Journal of Language Engineering
https://ejle.journals.ekb.eg/
Les hallucinations de ChatGPT et de Gemini : Pourquoi les agents conversationnels se trompent-ils ?
Details
Type
Article
Created At
24 Dec 2024