Une étude révèle des failles de raisonnement dans les modèles de langage IA

Par
Luisa Martinez
1 min de lecture

Étude révélant des failles dans le raisonnement des modèles de langage IA

Des chercheurs de l'University College London ont testé sept principaux modèles de langage IA, notamment GPT-3.5, GPT-4, LaMDA, Claude 2 et Llama 2, en utilisant des tests de psychologie cognitive pour comprendre si les modèles IA présentent un raisonnement irrationnel similaire à l'humain ou leurs propres formes de pensée illogique. L'étude a souligné que si les modèles IA produisent souvent des résultats irrationnels, il s'agit généralement d'erreurs mathématiques ou d'incohérences logiques, qui ne sont pas propres aux humains. Les résultats soulèvent des inquiétudes quant à l'utilisation de l'IA dans des domaines critiques comme la médecine, suggérant la nécessité de mesures de sécurité améliorées dans le raisonnement logique des systèmes IA.

Principales conclusions

  • GPT-4 a démontré la meilleure performance, avec 69,2 % de réponses correctes et 73,3 % de réponses similaires à l'humain, tandis que Llama 2 a obtenu les pires résultats, avec 77,5 % de réponses incorrectes.
  • L'étude souligne les défauts nuancés du raisonnement dans les modèles de langage IA, mettant en évidence les écarts entre les erreurs humaines et les erreurs IA.
  • Il est nécessaire d'améliorer la rigueur logique et mathématique dans le développement de l'IA, malgré l'attrait du raisonnement similaire à l'humain.

Analyse

L'étude souligne les défauts nuancés du raisonnement dans les modèles de langage IA et soulève des implications importantes pour des secteurs comme les soins de santé, où la dépendance à la prise de décision IA pourrait entraîner des erreurs critiques. Les résultats suggèrent la nécessité d'un développement futur de l'IA pour garantir des capacités de raisonnement plus sûres et plus cohérentes.

Le saviez-vous ?

  • GPT-4 : La quatrième itération du Generative Pre-trained Transformer d'OpenAI, connu pour ses capacités avancées de compréhension et de génération de texte similaire à l'humain.
  • LaMDA : Language Model for Dialogue Applications développé par Google, visant à générer des réponses plus naturelles et pertinentes dans les dialogues.
  • Biais cognitifs dans l'IA : Comprendre et atténuer ces biais est essentiel pour améliorer la fiabilité et le déploiement éthique de l'IA dans les applications critiques.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres

Nous utilisons des cookies sur notre site Web pour activer certaines fonctions, fournir des informations plus pertinentes et optimiser votre expérience sur notre site Web. Vous pouvez trouver plus d'informations dans notre Politique de confidentialité et dans nos Conditions d'utilisation . Les informations obligatoires se trouvent dans les mentions légales