banner

Nouvelles

Mar 14, 2024

La tendance des chatbots IA à répandre des mensonges pose des défis

La question des chatbots d’intelligence artificielle (IA), comme ChatGPT, générant de fausses informations est une préoccupation croissante pour les entreprises, les organisations et les particuliers. Cette problématique touche divers domaines, de la psychothérapie à la rédaction de mémoires juridiques. Daniela Amodei, co-fondatrice du chatbot IA Claude 2, reconnaît que tous les modèles souffrent aujourd'hui d'un certain degré d'« hallucination », car ils sont principalement conçus pour prédire le mot suivant et le font souvent de manière inexacte. Des développeurs tels qu'Anthropic et OpenAI, qui ont créé ChatGPT, travaillent activement pour résoudre ce problème et améliorer la véracité de leurs systèmes d'IA.

Cependant, les experts dans le domaine suggèrent qu’une éradication complète de ce problème n’est peut-être pas réalisable. La professeure de linguistique Emily Bender explique que l'inadéquation entre la technologie de l'IA et les cas d'utilisation proposés pose des limites inhérentes. La fiabilité de la technologie de l’IA générative revêt une importance capitale, avec des contributions projetées de 2 600 milliards à 4 400 milliards de dollars à l’économie mondiale. Par exemple, Google vise à fournir des produits d’IA pour la rédaction d’informations aux agences de presse, en soulignant le besoin d’exactitude.

Les implications des fausses informations s’étendent au-delà des textes écrits. L'informaticien Ganesh Bagler, en collaboration avec des instituts de gestion hôtelière en Inde, exploite les systèmes d'IA pour inventer des recettes. Des résultats inexacts peuvent faire une différence substantielle dans le goût et la qualité d’un repas, soulignant le besoin de précision dans l’IA générative.

Alors que Sam Altman, PDG d'OpenAI, reste optimiste quant à l'amélioration de la tendance des systèmes d'IA à produire de fausses informations, des sceptiques comme Bender affirment que les améliorations pourraient ne pas suffire. Les modèles linguistiques sont principalement conçus pour prédire des séquences de mots sur la base de données d’entraînement, et le résultat qu’ils génèrent est essentiellement une écriture créative plutôt que des informations factuelles. Ces modèles ont tendance à échouer de manière subtile, difficile à identifier pour les lecteurs.

Malgré les inquiétudes, certaines entreprises considèrent la tendance des chatbots IA à générer de fausses informations comme une fonctionnalité précieuse. Les sociétés de marketing, comme Jasper AI, exploitent les résultats créatifs de l'IA pour générer des idées uniques pour les présentations des clients. Cependant, la demande de contenu précis reste élevée et des efforts sont actuellement déployés par des entreprises telles que Google pour résoudre ce problème.

Bill Gates et d’autres partisans de l’IA expriment leur optimisme quant aux améliorations pouvant être apportées pour aider les modèles d’IA à faire la distinction entre la réalité et la fiction. Néanmoins, il reste à voir si une précision totale pourra être obtenue à l’avenir dans les textes générés par l’IA.

PARTAGER