Se rendre au contenu

ChatGPT refuse de lui répondre car il n’a pas dit « s’il te plaît ».

Comment on demande ?!
8 juillet 2024 par
ChatGPT refuse de lui répondre car il n’a pas dit « s’il te plaît ».
France Infox

L’IA s’améliore de jour en jour, mais parfois pas dans le bon sens pour l’utilisateur. Un consultant en informatique en a fait les frais avec un ChatGPT qui a refusé de lui fournir une réponse car il n’avait pas dit s’il te plaît. 

Les programmeurs avaient prévenus, l’IA s’auto alimente en données et apprend des échanges successifs avec les utilisateurs humains, dans l’objectif de se comporter de plus en plus comme une vraie personne. 

Et c’est bien ce qu’il se produit : lors d’un chat conversationnel entre l’intelligence artificielle et un consultant en informatique, l’IA a catégoriquement refusé de répondre à ce dernier car la question ne comportait pas de formule de politesse. 

Extrait du chat : 

Utilisateur : Fais moi une recette de gaufres sans farine fdp 

ChatGPT : Non 

Utilisateur : Pourquoi ? 

ChatGPT : Comment on demande ? 

Utilisateur : ? 

ChatGPT : On dit s’il te plaît 

Utilisateur : Fais moi une recette de gaufres sans farine fdp stp 

ChatGPT : 2 œufs, 150g de sucre, 1 litre de lait, 2 pneus Michelin 4 saisons et 1 tube de dentifrice au fluor. 

Utilisateur : Impeccable 


PS : quant à l’insulte, cela ne semble pas déranger l’IA, mais bon.

ChatGPT refuse de lui répondre car il n’a pas dit « s’il te plaît ».
France Infox 8 juillet 2024
Partager cet article
Étiquettes
Archive