Beta
384211

Les hallucinations de ChatGPT et de Gemini : Pourquoi les agents conversationnels se trompent-ils ?

Article

Last updated: 24 Dec 2024

Subjects

-

Tags

-

Abstract

Le lancement de ChatGPT et de Gemini marque le début d'une nouvelle ère de l'interaction homme / machine. Les espoirs sont immenses à l'égard de ces robots conversationnels qui donnent des conseils, conçoivent des contenus dans tous les domaines de connaissance, résolvent des problèmes et aussi créent des algorithmes. Actuellement, ChatGPT et Gemini sont intégrés dans divers domaines : l'enseignement/apprentissage, la littérature et les arts, le tourisme, le journalisme, les sciences, l'informatique, etc. Cependant, certains spécialistes en informatique ainsi que des utilisateurs commencent à parler des erreurs ou des hallucinations de ChatGPT et de Gemini. Des erreurs illogiques parfois futiles et parfois graves mettent en question la performance de leurs systèmes informatiques. Au cours du présent article nous présenterons deux types d'erreurs commises par les deux agents conversationnels les plus utilisés à l'échelle mondiale en traduction et en génération de texte. Nous essayerons de comprendre pourquoi ces systèmes linguistiques et informatiques rigoureux se trompent-ils. De même, nous suggérerons des moyens permettant d'éviter ce type d'erreurs.

DOI

10.21608/ejle.2024.290200.1067

Keywords

agent conversationnel, réseau neuronal profond, hallucinations, mécanisme d’attention, architecture de Transformers, sémantique distributionnelle

Authors

First Name

Racha

Last Name

Salem

MiddleName

Mohammad

Affiliation

Department of French, Faculty of Arts, Alexandria University

Email

salem.racha@live.com

City

-

Orcid

-

Volume

11

Article Issue

2

Related Issue

50689

Issue Date

2024-10-01

Receive Date

2024-05-16

Publish Date

2024-10-01

Page Start

13

Page End

35

Print ISSN

2356-8208

Online ISSN

2356-8216

Link

https://ejle.journals.ekb.eg/article_384211.html

Detail API

https://ejle.journals.ekb.eg/service?article_code=384211

Order

2

Type

Original Article

Type Code

1,039

Publication Type

Journal

Publication Title

The Egyptian Journal of Language Engineering

Publication Link

https://ejle.journals.ekb.eg/

MainTitle

Les hallucinations de ChatGPT et de Gemini : Pourquoi les agents conversationnels se trompent-ils ?

Details

Type

Article

Created At

24 Dec 2024