
L'application NewsBreak reconnaît les erreurs de contenu
L'IA de NewsBreak pour générer des nouvelles suscite des inquiétudes
L'application d'actualités locales la plus téléchargée aux États-Unis, NewsBreak, a apporté une mise à jour importante en ajoutant un avertissement reconnaissant que son contenu peut parfois comporter des erreurs. Cette décision fait suite à plusieurs incidents où les articles générés par l'IA de l'application ont créé de la confusion et de la détresse. Notamment, la veille de Noël, NewsBreak a publié une fausse histoire sur une fusillade dans le New Jersey, ce que la police locale a démenti. L'application a également été liée à au moins 40 articles trompeurs ou erronés depuis 2021, affectant des organisations comme une banque alimentaire du Colorado et une association caritative de Pennsylvanie. NewsBreak attribue ces inexactitudes à des sources de contenu externes défaillantes et a pris des mesures pour supprimer les articles concernés. Cependant, les inquiétudes persistent quant à la fiabilité des nouvelles générées par l'IA.
Principaux points à retenir
- NewsBreak, une application phare d'actualités locales, a fait l'objet de critiques pour une fausse histoire de fusillade générée par l'IA dans le New Jersey.
- L'outil IA de l'application a publié au moins 40 articles trompeurs ou erronés depuis 2021.
- Les informations erronées de NewsBreak ont entraîné des problèmes concrets, comme le refus de personnes dans des banques alimentaires et des associations caritatives.
- NewsBreak attribue les inexactitudes à des sources de contenu externes, malgré l'ajout d'un avertissement sur les erreurs sur sa page d'accueil.
- L'application a été accusée de publier des articles d'actualités locales sous des pseudonymes fictifs, soulevant des inquiétudes quant à l'authenticité du contenu.
Analyse
Les inexactitudes générées par l'IA de NewsBreak ont suscité une méfiance du public et ont eu un impact sur des organisations, causant des perturbations opérationnelles et des dommages à la réputation. La dépendance à l'IA sans supervision humaine suffisante a conduit à ces erreurs, aggravées par l'utilisation de sources de données externes potentiellement défaillantes. Les conséquences à court terme incluent la confusion du public, tandis que les impacts à long terme pourraient inclure un examen réglementaire et une baisse de l'utilisation de l'application. Les développements futurs pourraient voir une réglementation accrue de l'IA et un passage à des modèles de création de contenu plus équilibrés entre l'IA et les humains pour garantir l'exactitude et la fiabilité.