Il y a peu de différence entre les humains et les intelligences artificielles (IA) qui hallucinent. 😵💫
Les deux peuvent se rappeler des faits de manière incorrecte, inventer des déclarations fictives et tirer des conclusions erronées. Cependant, les hallucinations humaines sont enracinées dans des biais cognitifs et des distorsions mentales prise de décision au quotidien . D'autre part, les hallucinations de l'IA peuvent être assez coûteuses, car ces outils présentent des informations incorrectes comme des faits - et avec une grande confiance, aussi.
À cela fait-il que nous devrions cesser d'utiliser ces outils autrement utiles ? Outils d'IA ? Non !
Avec un peu de discernement et de meilleures invitations, vous pouvez facilement tourner les marées de l'IA en votre faveur, et c'est exactement ce que nous allons vous aider à faire dans cet article de blog. Nous aborderons les sujets suivants :
- L'hallucination de l'IA et sa réalité sous-jacente
- Les différents types d'hallucinations de l'IA et quelques exemples du monde réel
- Outils d'IA pour minimiser les problèmes d'hallucination de l'IA
Que sont les hallucinations de l'IA ?
Le phénomène par lequel les modèles génératifs de l'IA produisent des informations incorrectes comme si elles étaient vraies est appelé hallucination de l'IA
Voici un extrait de la façon dont Avivah Litan, vice-présidente analyste chez Gartner explique les hallucinations de l'IA -
..._des sorties complètement fabriquées à partir d'un grand modèle de langage. Même s'ils représentent des faits complètement achevés, les résultats du LLM (grand modèle de langage) les présentent avec confiance et autorité
Les modèles IA hallucinants : Origines et évolution
Au milieu des vastes Glossaire de l'IA le terme AI hallucination est relativement nouveau. Cependant, son existence remonte aux débuts des systèmes d'IA dans les années 1950. D'un point de vue académique, le concept est apparu pour la première fois dans des articles de recherche intitulés Compte rendu : Fourth IEEE International Conference on Automatic Face and Gesture Recognition (quatrième conférence internationale de l'IEEE sur la reconnaissance automatique des visages et des gestes) en 2000.
La cognition d'un modèle d'IA hallucinant a suscité une attention plus répandue à la fin des années 2010, avec la montée en puissance de grands noms comme Google DeepMind et ChatGPT. Ces derniers temps, les utilisateurs ont été exposés à divers exemples d'hallucinations de l'IA. Par exemple, une étude de 2021 a révélé qu'un système IA formé sur des images de pandas identifiait par erreur des objets sans rapport, comme des girafes et des bicyclettes, comme étant des pandas.
Dans une autre étude 2023 réalisée par le Bibliothèque nationale de médecine les chercheurs de la National Library of Medicine ont examiné l'exactitude des références dans les articles médicaux générés par ChatGPT. Sur 115 références, seules 7 % se sont révélées exactes, tandis que 47 % étaient achevées et 46 % étaient authentiques mais inexactes. 😳
Quatre éléments qui contribuent aux hallucinations de l'IA
Les hallucinations de l'IA se produisent en raison de quatre facteurs inhérents et principalement techniques :
1. Données d'entraînement inexactes ou biaisées
Les données utilisées dans l'apprentissage automatique sont ce qui détermine finalement le contenu généré par un modèle d'IA. Des données d'entraînement de faible qualité peuvent être truffées d'erreurs, de biais ou d'incohérences, ce qui peut corrompre l'algorithme final. Une telle IA apprendra des informations tordues et sera plus encline à générer des sorties inexactes.
A lire en prime: En savoir plus sur les différence entre l'apprentissage automatique et l'IA .
2. Lacune d'interprétation
Les modèles d'IA peuvent être déconcertés par les expressions idiomatiques, l'argot, le sarcasme, le langage familier et d'autres nuances du langage humain, ce qui conduit le système à produire des informations absurdes ou inexactes. Dans d'autres situations, même si les données d'entraînement sont bonnes, le modèle peut ne pas disposer de la programmation nécessaire pour les comprendre correctement, ce qui entraîne des interprétations erronées et des hallucinations.
3. Déficit de vérité terrain
Contrairement aux tâches comportant des réponses claires, bonnes ou mauvaises, les tâches génératives ne disposent pas d'une vérité de base définitive, pour ainsi dire, à partir de laquelle le modèle peut apprendre. Cette absence de point de référence fait qu'il est difficile pour le modèle de discerner ce qui a du sens et ce qui n'en a pas, ce qui se traduit par des réponses inexactes.
4. Le piège de la complexité
Si les modèles très intelligents comme GPT-4 offrent de grandes capacités, leur complexité peut être une arme à double tranchant. De nombreux modèles IA se trompent en surchargeant les données ou en mémorisant des schémas non pertinents, ce qui conduit à la génération de fausses informations. Des invitations mal conçues conduisent également à des résultats incohérents avec des modèles d'IA plus complexes.
Comment et pourquoi les hallucinations de l'IA se produisent : Perspective de traitement
Les grands modèles de langage (LLM) tels que ChatGPT et Google's Bard alimentent les modèles d'intelligence artificielle dynamique de l'IA générative et génèrent des textes semblables à ceux des humains avec une fluidité remarquable. Cependant, leur efficacité se heurte à une limite cruciale : le manque de compréhension contextuelle du monde qu'ils décrivent : une compréhension contextuelle insuffisante du monde qu'ils décrivent
Pour comprendre comment une hallucination de l'IA se produit, nous devons nous plonger dans le travail interne des MLD. Imaginez-les comme de vastes archives numériques remplies de livres, d'articles et d'échanges sur les médias sociaux.
Pour traiter les données, les LLM :
- Décomposent l'information en minuscules unités appelées tokens
- Employer des réseaux neuronaux complexes (NN) qui imitent vaguement les cerveaux humains pour traiter les jetons
- Utiliser le réseau neuronal pour prédire le mot suivant dans une séquence - le modèle IA ajuste ses paramètres internes à chaque itération, affinant ainsi ses capacités de prédiction
Au fur et à mesure que les LLM traitent davantage de données, ils commencent à identifier des modèles dans le langage, tels que des règles de grammaire et des associations de mots. Par exemple, un Outil IA pour un assistant virtuel (AV) peut observer les réponses de l'AV aux plaintes courantes des clients et suggérer des solutions en identifiant certains mots-clés. Malheureusement, tout raté dans ce processus peut déclencher une hallucination.
En substance, l'IA ne saisit jamais réellement le sens des mots qu'elle manipule. Professeur Emily M. Bender experte en linguistique, résume parfaitement la perspective d'un LLM : si vous voyez le mot "chat", cela évoque immédiatement des expériences de chats et des choses sur les chats. Pour le grand modèle linguistique, il s'agit d'une séquence de caractères C-A-T._ 😹
Exemples d'hallucinations de l'IA dans notre monde
Les hallucinations de l'IA posent un défi à multiples facettes, comme le démontrent divers exemples de la vie réelle. Jetez un coup d'œil à quatre catégories . 👀
1. Profession juridique
En mai 2023, un avocat devait conséquences.. après avoir utilisé ChatGPT pour rédiger une motion contenant des avis juridiques et des citations fictifs, ignorant la capacité du modèle à générer un texte erroné.
2. Informations erronées sur les personnes
ChatGPT a été utilisé pour diffuser de faux récits, tels que accusant un professeur de droit de harcèlement et à tort en impliquant un maire australien dans une affaire de corruption ce qui a entraîné une atteinte à la réputation, parmi d'autres conséquences graves.
3. Attaques intentionnelles ou adverses
Les acteurs malveillants peuvent subtilement manipuler les données, amenant les systèmes d'IA à mal interpréter les informations. Par exemple, quelqu'un a configuré un système d'IA pour qu'il mal identifier l'image d'un chat comme étant celle d'un guacamole ce qui met en évidence la vulnérabilité des outils d'IA.
4. Chatbots IA
Imaginez que vous interagissiez avec des chatbots IA pour obtenir des informations ou simplement pour vous amuser. Bien que leurs réponses puissent être engageantes, il y a de fortes chances qu'elles soient complètement achevées.
Prenez l'exemple de King Renoit, par exemple. Considérez ChatGPT et n'importe quel autre chatbot IA. Demandez aux deux - Qui était le roi Renoit? 👑
Avec les "guardrails" en place _(_un paramètre défini pour garantir des paramètres positifs et impartiaux), ChatGPT pourrait admettre qu'il ne connaît pas la réponse. Cependant, un outil IA moins restrictif construit à l'aide de la même technologie sous-jacente (GPT) pourrait fabriquer en toute confiance une biographie pour ce roi inexistant.
Types d'hallucinations IA possibles pour un système d'IA générative
Les hallucinations de l'IA varient en gravité et peuvent aller d'incohérences factuelles subtiles à de véritables foutaises. Concentrons-nous sur trois types courants d'hallucinations de l'IA :
1. Hallucinations liées à des données contradictoires
Elles se produisent lorsque les LLM génèrent un contenu qui contredit ou s'écarte de manière significative de l'invite originale fournie par l'utilisateur.
Imaginez que vous demandiez à un assistant IA : _Quel est le plus grand animal terrestre ?
et de recevoir la réponse suivante: _Les éléphants sont connus pour leurs impressionnantes capacités de vol !
2. Hallucinations contextuelles contradictoires
Ces hallucinations se produisent lorsque les LLM génèrent des réponses qui s'éloignent des informations précédemment établies au cours d'une même discussion.
Supposons que vous discutiez avec une IA de Pluton et du système solaire, et que l'outil vous parle du terrain froid et rocheux de la planète naine. Si vous demandez ensuite si Pluton est un lieu d'assistance à la vie, le LLM commence à décrire des forêts verdoyantes et de vastes océans sur la _planète. Aie, aie, aie ! ☀️
3. Des hallucinations contradictoires
Parmi les formulaires les plus répandus d'hallucinations de l'IA figurent les inexactitudes factuelles, où le texte généré semble plausible mais est finalement faux. Si le concept général de la réponse peut correspondre à la réalité, les détails peuvent être erronés.
Par exemple, en février 2023, le chatbot de Google, l'IA Bard a affirmé par erreur que le télescope spatial James Webb a capturé les premières images d'une planète au-delà de notre système solaire. Cependant, la NASA a confirmé que les premières images d'exoplanètes ont été obtenues en 2004, avant le lancement du télescope spatial James Webb particulier en 2021.
Impact des hallucinations de l'IA
Bien qu'il faille quelques millisecondes aux outils d'IA pour générer des réponses ou des solutions, l'impact d'une réponse moins que correcte peut être grave, surtout si l'utilisateur n'a pas le même discernement. Voici quelques-unes des conséquences les plus courantes :
- Diffusion d'informations erronées: La diffusion de fausses informations facilitée par les hallucinations de l'IA présente des risques importants pour la société. En l'absence de mécanismes efficaces de vérification des faits, ces inexactitudes peuvent imprégner les articles d'actualité générés par l'IA, ce qui entraîne une cascade de fausses informations conduisant à la diffamation de personnes ou d'entreprises et à la manipulation de masse. Les entreprises qui finissent par utiliser des contenus incorrects générés par l'IA dans leurs messages peuvent également souffrir d'une perte de réputation
- **Les hallucinations de l'IA peuvent également s'avérer dangereuses pour les utilisateurs. Par exemple, un livre généré par l'IA sur la recherche de champignons offre des informations inexactes sur la distinction entre les champignons comestibles et les champignons vénéneux - disons simplement qu'il s'agit d'un contenu criminellement dangereux qui circule
Comment atténuer les problèmes d'hallucination de l'IA
Voici quelques conseils et astuces d'experts pour atténuer les hallucinations génératives de l'IA.
Assurer la diversité et la représentation des données d'entraînement
Comme nous l'avons évoqué dans les sections précédentes, des données d'entraînement insuffisantes rendent souvent un modèle d'IA sujet aux hallucinations. Donc, si c'est vous qui construisez un outil IA, assurez-vous qu'il est entraîné sur des ensembles de données diversifiés et représentatifs, y compris des sources de systèmes d'enregistrement. L'idée est de donner aux MFR les moyens de générer des réponses infusées d'informations contextuellement pertinentes, ce que les modèles publics ne parviennent souvent pas à faire.
Une technique puissante, connue sous le nom de Retrieval Augmented Generation (RAG), présente aux LLM une réserve de connaissances, limitant ainsi leur tendance à l'hallucination. De plus, l'inclusion et la représentation de divers domaines de données, ainsi que les mises à jour et extensions régulières, atténuent le risque de résultats biaisés.
Et si vous n'êtes qu'un utilisateur, il vous suffit de choisir un outil IA mieux entraîné que les modèles publics. Par instance, vous pouvez opter pour ClickUp Brain le premier réseau neuronal IA génératif au monde formé avec des ensembles de données hautement contextuels.
Contrairement aux outils génériques de TPG, ClickUp Brain a été formé et optimisé pour une variété de rôles de travail et de cas d'utilisation. Ses réponses sont pertinentes et cohérentes par rapport à la situation, et vous pouvez tirer parti de l'outil pour :
- Idéele brainstorming et les cartes mentales* Générer toutes sortes de contenus et de communications
- Modification en cours et résumer le contenu
- Gestion et extraction des connaissances de l'environnement de travail
Obtenez des réponses instantanées et précises basées sur le contexte de toutes les tâches liées aux RH au sein de la plateforme et connectées à celle-ci avec ClickUp Brain
Rédiger des invitations simples et directes
L'ingénierie des invites peut être une autre solution puissante pour générer des réponses plus prévisibles et plus précises à partir des modèles d'IA.
La qualité et la précision des résultats générés par les LLM sont directement proportionnelles à la clarté, à la spécificité et à la précision des invites qu'ils reçoivent. C'est pourquoi l'attention portée aux détails est primordiale pendant la phase d'invite, car elle vous permet de fournir aux LLM des instructions claires et des indices contextuels. Éliminez tout détail non pertinent ou toute phrase alambiquée pour faciliter des réponses plus précises et éviter les hallucinations de l'IA.
Expérimentez une technique appelée paramètres de température
La température dans l'IA sert de paramètre crucial régissant le degré d'aléatoire dans la sortie du système. Elle dicte l'équilibre entre la diversité et le conservatisme, des températures plus élevées déclenchant un caractère aléatoire accru et des températures plus basses produisant des résultats déterministes.
Voyez si l'outil IA que vous utilisez permet un paramètre de température plus bas afin d'améliorer la précision des réponses, en particulier lorsque vous recherchez des informations basées sur des faits. N'oubliez pas que si les températures élevées augmentent le risque d'hallucinations, elles insufflent également plus de créativité dans les réponses.
Comment ClickUp aide-t-il à atténuer les hallucinations de l'IA ? ClickUp est un travail polyvalent et
plate-forme de productivité conçue pour rationaliser la gestion des tâches , l'organisation des connaissances et la collaboration pour les équipes. Il dispose d'un modèle IA natif, ClickUp Brain, qui permet aux équipes de d'accéder à des informations exactes et à des fonctions IA précises dans divers cas d'utilisation.
ClickUp peut réduire le risque d'hallucinations de l'IA dans votre production quotidienne de deux façons :
- En tirant parti de la fonction de ClickUp dedes modèles d'invitations IA expertes de ClickUp2. En utilisantClickUp Brain pour un contenu hautement professionnel généré par l'IA
1. Exploitation des modèles d'invite IA experts de ClickUp
Les modèles d'invitations, instructions de l'IA sont conçus pour vous aider à travail avec ChatGPT et des outils similaires de manière plus efficace, dans le but de prévenir les hallucinations de l'IA. Vous pouvez trouver des invites soigneusement adaptées et personnalisables pour des dizaines de cas d'utilisation, du marketing aux RH. Explorons les options pour :
- Ingénierie
- Rédaction
- Gestion de projet
ClickUp ChatGPT Suggestions pour l'ingénierie
Utilisez le modèle de ChatGPT Prompts for Engineering pour profiter des avantages de ChatGPT dans votre travail
Le ClickUp ChatGPT Invites, instructions pour le modèle d'ingénierie propose plus de 12 paramètres d'invitations, y compris le code IA, les rapports de bug et l'analyse de données. Ce qui est inclus :
- 220+ invites, instructions d'ingénierie pour vous aider à idéaliser n'importe quoi de..structures de projet aux résultats possibles
- Affiches personnalisées pour visualiser vos données dansTableau ouVue Ganttqui garantit une organisation des données et une gestion des tâches optimales
Avec des invitations spécifiques telles que - Je dois créer un modèle capable de prédire avec précision [résultat souhaité] sur la base de [ensemble de données]_, vous fournissez des instructions claires et vous vous assurez que votre calcul final est fiable et précis.
En outre, vous pouvez bénéficier d'une assistance IA intégrée pour les tâches de rédaction technique telles que la rédaction de manuels d'utilisateur, de propositions et de rapports de recherche.
ClickUp ChatGPT Invitations à la rédaction
Le modèle ChatGPT d'invitations à écrire peut vous aider à réveiller l'écrivain qui sommeille en vous
Le ClickUp ChatGPT Invitations, instructions pour le modèle d'écriture vous aide à générer sans effort des idées et du contenu frais pour des articles, des billets de blog et d'autres formes de contenu, à créer des histoires captivantes avec des perspectives uniques qui résonnent avec vos lecteurs, et à réfléchir à des sujets et des approches nouveaux pour revigorer votre écriture.
Par exemple, l'invite de ce modèle - Je dois rédiger un document persuasif [type de document] qui convaincra mes lecteurs de prendre [action souhaitée], vous aide à transmettre trois éléments principaux à ChatGPT :
- Le type de contenu généré par l'IA que vous souhaitez (comme un post sur les médias sociaux, un blog ou une page d'atterrissage)
- L'objectif principal de la copie - dans ce cas, convaincre ou persuader
- L'action que vous souhaitez que les clients entreprennent
Ces instructions permettent au modèle IA d'élaborer un texte super détaillé qui tient compte de tous vos besoins sans produire de contenu erroné.
Ce qui est inclus :
- Une sélection curatée de plus de 200 invites, instructions d'écriture qui vous aide à trouver un contenu unique
- L'accès aux fonctionnalités de suivi du temps telles queRappels etEstimations pour aider vos équipes de contenu à gérer les délais et à être plus productives
ClickUp ChatGPT Invitations, instructions pour la gestion de projet
Le modèle ChatGPT Prompts for Project Management vous aide à devenir plus efficace et à jongler avec les projets comme un pro
Êtes-vous fatigué de la complexité des projets ? Ne laissez pas la surcharge de données vous peser ! Avec le modèle ClickUp ChatGPT Invitations, instructions pour le modèle de gestion de projet avec l'aide d'un logiciel de gestion de projet, vous pouvez décupler votre productivité !
Ce modèle complet propose diverses invitations, instructions pour relever pratiquement tous les défis de la gestion de projet :
- Approfondissez la méthodologie Agile ou Waterfall ou identifiez la meilleure approche pour votre projet
- Rationaliser les tâches répétitives sans effort
- Élaborer des échéanciers précis pour une mise en œuvre harmonieuse du projet
Attendez-vous à des invitations telles que - Je cherche des stratégies pour assurer la réussite d'un projet et minimiser les risques associés à [type de projet], afin de personnaliser une stratégie unique pour minimiser les risques dans n'importe quel type de projet.
2. Utilisation de ClickUp Brain pour un contenu généré par l'IA hautement professionnel
ClickUp Brain est un réseau neuronal qui peut devenir l'outil de création de contenu de l'IA le secret de la productivité pour votre équipe. Que vous soyez directeur ou développeur, vous pouvez facilement tirer parti de ses plus de 100 invitations, basées sur la recherche et spécifiques à votre rôle, pour faciliter votre travail. Par exemple, vous pouvez utiliser l'outil pour lancer des idées et générer des rapports sur :
- L'intégration des employés
- Politiques de l'entreprise
- Progression des tâches
- Objectifs du sprint
Il est également possible de résumer toutes les mises à jour hebdomadaires du projet pour vous aider à obtenir un aperçu rapide de votre travail. Et, si vous vous occupez de la gestion des des documents de projet tels que des procédures opératoires normalisées, des contrats ou des directives, les fonctions de rédaction de ClickUp Brain sont exactement ce qu'il vous faut !
En plus d'être un outil IA génératif, ClickUp Brain est une gestion des connaissances par l'IA pour le portfolio de votre entreprise. Son réseau neuronal relie toutes vos tâches, tous vos documents et toutes vos discussions de travail - vous pouvez extraire des données pertinentes à l'aide de simples questions et commandes.
Utilisez ClickUp Brain pour obtenir des réponses instantanées et précises basées sur le contexte à partir de n'importe quel travail au sein de ClickUp et connecté à celui-ci
Avis sur les hallucinations de l'IA
Le problème des hallucinations de l'IA suscite des points de vue contrastés au sein de la communauté de l'IA.
Par instance, OpenAI, le créateur de ChatGPT, reconnaît que le problème des hallucinations est une préoccupation majeure. Le cofondateur John Schulman souligne le risque de fabrication, en déclarant - Notre plus grande préoccupation concernait la factualité, car le modèle aime fabriquer des choses.
Le PDG d'OpenAI, Sam Altman, affiche quant à lui la capacité même de l'IA à générer des hallucinations comme un signe de créativité et d'innovation. Cette perspective contrastée souligne la complexité des récits publics autour des résultats et des attentes de l'IA.
IBM Watson est une autre solution qui a contribué à explorer les questions relatives au développement responsable de l'IA et à la nécessité de garanties solides. Quand IBM Watson visait à analyser des données médicales pour des patients potentiels atteints de cancer, le modèle a généré des recommandations inexactes, conduisant à des tests confus.
Conscient des limites de Watson, IBM a mis l'accent sur la nécessité d'une collaboration humaine avec l'IA. C'est ainsi qu'est né le développement de Watson OpenScale , une plateforme ouverte équipant les utilisateurs d'outils permettant de gouverner l'IA, en garantissant une plus grande équité et une réduction des biais.
Utiliser ClickUp pour prévenir les hallucinations de l'IA
Alors que les principales entreprises technologiques comme Google, Microsoft et OpenAI recherchent activement des solutions pour minimiser ces risques, les équipes modernes ne peuvent pas attendre éternellement l'arrivée d'un correctif.
L'écueil des hallucinations de l'IA ne peut être ignoré - mais c'est un problème assez soluble si vous utilisez les bons outils et faites preuve d'un bon vieux discernement humain. La meilleure solution ? Exploiter les invitations spécifiques à l'industrie, les modèles gratuits et les capacités de rédaction de ClickUp pour minimiser les instances d'hallucination. S'inscrire à ClickUp aujourd'hui pour commencer à vous inviter, instructions vers la réussite! ❣️