Tech Tech Florilèges d’hallucinations : les IA sont entrainées à répondre, "peu importe" si c’est faux Les intelligences artificielles génératives continuent d’« halluciner », c’est-à-dire de fournir des réponses fausses, mais formulées avec assurance. Une étude menée par des chercheurs, dont certains liés à OpenAI, révèle que ce biais n’est pas un accident mais le résultat même de leur conception : mieux vaut, pour ces modèles, donner une réponse approximative que reconnaître leur ignorance.