Het Nelson Mandela Effect van Technologie: AI Hallucinaties [met tips om ze te verminderen]
AI & Automatisering

Het Nelson Mandela Effect van Technologie: AI Hallucinaties [met tips om ze te verminderen]

Er is weinig verschil tussen mensen en kunstmatige intelligentie (AI) die hallucineren. 😵‍💫

Beide kunnen zich feiten onjuist herinneren, fictieve verklaringen verzinnen en verkeerde conclusies trekken. Menselijke hallucinaties zijn echter geworteld in cognitieve vooroordelen en mentale vervormingen - ze hebben zelden invloed op onze hersenen dagelijkse besluitvorming . Aan de andere kant kunnen de hallucinaties van AI behoorlijk kostbaar zijn, omdat deze tools onjuiste informatie als feitelijk presenteren - en nog met veel vertrouwen ook._

Betekent dit dus dat we moeten stoppen met het gebruik van deze anders zo nuttige AI-tools ? Nee!

Met een beetje onderscheidingsvermogen en betere aanwijzingen kun je het AI-tij gemakkelijk in jouw voordeel keren, en dat is precies waar we je in deze blogpost mee helpen. We zullen het hebben over:

  • AI-hallucinaties en de onderliggende realiteit
  • Verschillende soorten AI-hallucinaties en enkele voorbeelden uit de praktijk
  • Tips en hulpmiddelen om problemen met AI-hallucinatie te minimaliseren

Wat zijn AI-hallucinaties?

Het fenomeen waarbij generatieve AI-modellen onjuiste informatie produceren alsof het waar is, wordt AI-hallucinatie genoemd.

Hier is een fragment van hoe Avivah Litan, VP Analist bij Gartner legt AI-hallucinaties uit -

...compleet verzonnen output van een groot taalmodel. Hoewel het om volledig verzonnen feiten gaat, worden ze door de uitvoer van het LLM (large language model) met vertrouwen en autoriteit gepresenteerd.

AI-modellen hallucineren: Oorsprong en evolutie

Te midden van de enorme AI woordenlijst de term AI-hallucinatie is relatief nieuw. Het bestaan ervan gaat echter terug tot de begindagen van AI-systemen in de jaren 1950. Vanuit academisch oogpunt verscheen het concept voor het eerst in onderzoekspapers met de titel Proceedings: Vierde internationale IEEE-conferentie over automatische gezichts- en gebarenherkenning in 2000.

De wetenschap dat een AI-model hallucineert, kreeg meer aandacht aan het eind van de jaren 2010, met de opkomst van grote namen als Google DeepMind en ChatGPT. In de afgelopen tijd zijn gebruikers blootgesteld aan verschillende voorbeelden van AI-hallucinaties. Bijvoorbeeld een 2021 studie toonde aan dat een AI-systeem dat getraind was op pandabeelden ten onrechte niet-verwante objecten zoals giraffen en fietsen als panda's identificeerde.

In een ander 2023 onderzoek door de Nationale Medische Bibliotheek onderzoekers onderzochten de nauwkeurigheid van referenties in medische artikelen die waren gegenereerd door ChatGPT. Van de 115 referenties bleek slechts 7% accuraat te zijn, terwijl 47% volledig verzonnen was en 46% authentiek maar onnauwkeurig. 😳

Vier elementen die bijdragen aan AI-hallucinaties

AI-hallucinaties ontstaan door vier inherente en meestal technische factoren:

1. Onnauwkeurige of bevooroordeelde trainingsgegevens

De gegevens die worden gebruikt bij machinaal leren bepalen uiteindelijk de inhoud die wordt gegenereerd door een AI-model. Trainingsgegevens van lage kwaliteit kunnen fouten, vooroordelen of inconsistenties bevatten, die het uiteindelijke algoritme kunnen beschadigen. Dergelijke AI zal verdraaide informatie leren en meer geneigd zijn om onnauwkeurige resultaten te genereren.

Bonus om te lezen: Lees meer over de verschil tussen machinaal leren en AI .

2. Interpretatiekloof

AI-modellen kunnen verstrikt raken in idiomen, jargon, sarcasme, spreektaal en andere nuances van de menselijke taal, waardoor het systeem onzinnige of onnauwkeurige informatie produceert. In andere situaties, zelfs als hun trainingsgegevens goed zijn, kan het model de noodzakelijke programmering missen om deze correct te begrijpen, wat leidt tot verkeerde interpretaties en hallucinaties.

3. Gebrek aan grondwaarheid

In tegenstelling tot taken met duidelijke goede en foute antwoorden, ontbreekt het bij generatieve taken als het ware aan een definitieve grondwaarheid voor het model om van te leren. Deze afwezigheid van een referentiepunt maakt het moeilijk voor het model om te onderscheiden wat zinvol is en wat niet, wat resulteert in onnauwkeurige antwoorden.

4. Complexiteitsval

Hoewel zeer slimme modellen zoals GPT-4 geweldige mogelijkheden bieden, kan hun complexiteit een tweesnijdend zwaard zijn. Veel AI-modellen gaan in de fout door te veel gegevens te verzamelen of irrelevante patronen te onthouden, wat leidt tot het genereren van foutieve informatie. Slecht ontworpen prompts leiden ook tot inconsistente resultaten met complexere AI-modellen.

Hoe en waarom AI-hallucinaties optreden: Verwerkingsperspectief

Grote taalmodellen (LLM's) zoals ChatGPT en Google's Bard maken de dynamische wereld van generatieve AI en genereert met een opmerkelijke vlotheid mensachtige tekst. Achter hun doeltreffendheid gaat echter een cruciale beperking schuil: ontbrekend contextueel begrip van de wereld die ze beschrijven.

Om te begrijpen hoe een AI-hallucinatie ontstaat, moeten we ons verdiepen in de innerlijke werking van LLM's. Stel ze voor als enorme digitale archieven gevuld met boeken, artikelen en uitwisselingen via sociale media.

Om gegevens te verwerken, moeten LLM's:

  1. Informatie opsplitsen in kleine eenheden die tokens worden genoemd
  2. Gebruiken complexe neurale netwerken (NN's) die menselijke hersenen nabootsen om tokens te verwerken
  3. De NN gebruiken om het volgende woord in een reeks te voorspellen - het AI-model past de interne parameters bij elke iteratie aan en verfijnt zo zijn voorspellende capaciteiten

Naarmate LLM's meer gegevens verwerken, beginnen ze patronen in taal te herkennen, zoals grammaticaregels en woordassociaties. Een AI-tool voor een virtuele assistent (VA) kan de reacties van de VA op veelvoorkomende klachten van klanten observeren en oplossingen voorstellen door bepaalde sleutelwoorden te identificeren. Helaas kan elke misser in dit proces een hallucinatie veroorzaken.

In wezen begrijpt AI nooit de werkelijke betekenis van de woorden die het manipuleert. Professor Emily M. Bender , een expert op het gebied van taalkunde, vat het perspectief van een LLM perfect samen: Als je het woord 'kat' ziet, roept dat onmiddellijk ervaringen op met katten en dingen over katten. Voor het grote taalmodel is het een reeks tekens C-A-T. 😹

Voorbeelden van AI-hallucinaties in onze wereld

AI-hallucinaties vormen een veelzijdige uitdaging, zoals blijkt uit verschillende voorbeelden uit de praktijk. Bekijk vier categorieën. 👀

1. Advocatuur

In mei 2023 moest een advocaat gevolgen onder ogen zien nadat ze ChatGPT hadden gebruikt om een motie op te stellen met fictieve juridische meningen en citaten, zich niet bewust van de mogelijkheid van het model om foutieve tekst te genereren.

2. Verkeerde informatie over personen

ChatGPT is gebruikt om valse verhalen te verspreiden, zoals een professor in de rechten beschuldigen van intimidatie en ten onrechte het betrekken van een Australische burgemeester in een omkopingszaak wat leidde tot reputatieschade, naast andere ernstige gevolgen.

3. Opzettelijke of vijandige aanvallen

Kwaadwillende actoren kunnen gegevens subtiel manipuleren, waardoor AI-systemen informatie verkeerd interpreteren. Iemand heeft bijvoorbeeld een AI-systeem geconfigureerd om een afbeelding van een kat verkeerd te identificeren als een afbeelding van guacamole dit benadrukt de kwetsbaarheid als gevolg van slechte gatekeeping voor AI-tools.

4. AI-chatbots

Stel je voor dat je interactie hebt met AI-chatbots om informatie te zoeken of gewoon voor je plezier. Hoewel hun antwoorden boeiend kunnen zijn, is de kans groot dat ze volledig verzonnen zijn.

Neem bijvoorbeeld het geval van King Renoit. Denk aan ChatGPT en elke andere AI-chatbot. Vraag beide - Wie was Koning Renoit? 👑

Met "guardrails" op zijn plaats _(_een raamwerk om positieve en onbevooroordeelde output te garanderen), zou ChatGPT kunnen toegeven dat het het antwoord niet weet. Een minder beperkende AI-tool die gebruik maakt van dezelfde onderliggende technologie (GPT) zou echter vol vertrouwen een biografie kunnen maken voor deze niet-bestaande koning.

Types AI Hallucinaties Mogelijk voor een Generatief AI Systeem

AI hallucinaties variëren in ernst en kunnen gaan van subtiele feitelijke inconsistenties tot regelrechte onzin. Laten we ons concentreren op drie veel voorkomende soorten AI hallucinaties:

1. Invoerconflicterende hallucinaties

Deze treden op wanneer LLM's inhoud genereren die aanzienlijk in tegenspraak is met of afwijkt van de oorspronkelijke opdracht van de gebruiker.

Stel je voor dat je een AI assistent vraagt: _Wat zijn de grootste landdieren?

En het antwoord krijgen: Elefanten staan bekend om hun indrukwekkende vliegkunsten!

2. Contextconflicterende hallucinaties

Deze treden op wanneer LLM's reacties genereren die afwijken van eerder vastgestelde informatie binnen dezelfde conversatie.

Stel, je hebt een dialoog met een AI over Pluto en het zonnestelsel en het programma vertelt je over het koude, rotsachtige terrein van de dwergplaneet. Als je vervolgens vraagt of er leven is op Pluto, begint de LLM te beschrijven over hele groene bossen en uitgestrekte oceanen op de planeet. Jakkes! ☀️

3. Feitelijk tegenstrijdige hallucinaties

Tot de meest voorkomende vormen van AI-hallucinaties behoren feitelijke onjuistheden, waarbij gegenereerde tekst plausibel lijkt maar uiteindelijk onwaar is. Hoewel het algemene concept van de reactie overeenkomt met de werkelijkheid, kunnen de details niet kloppen.

Bijvoorbeeld, in februari 2023 heeft Google's chatbot Bard AI ten onrechte beweerd dat de James Webb Space Telescope de eerste beelden heeft gemaakt van een planeet buiten ons zonnestelsel. NASA heeft echter bevestigd dat de eerste beelden van exoplaneten in 2004 zijn gemaakt, dus vóór de lancering van de James Webb Space Telescope in 2021.

Impact van AI-hallucinaties

Hoewel het enkele milliseconden duurt voordat AI-tools antwoorden of oplossingen genereren, kan de impact van een minder-dan-correct antwoord ernstig zijn, vooral als de gebruiker niet zo scherpzinnig is. Enkele veelvoorkomende gevolgen zijn:

  1. Verspreiding van verkeerde informatie: De verspreiding van verkeerde informatie die wordt gefaciliteerd door AI-hallucinaties vormt een aanzienlijk risico voor de samenleving. Zonder effectieve fact-checking mechanismen kunnen deze onnauwkeurigheden doordringen in door AI gegenereerde nieuwsartikelen, wat resulteert in een cascade van valse informatie die leidt tot persoonlijke of zakelijke laster en massamanipulatie. Bedrijven die uiteindelijk onjuiste AI-gegenereerde inhoud gebruiken in hun berichtgeving kunnen ook reputatieschade oplopen
  2. Schade voor de gebruiker: AI-hallucinaties kunnen ook ronduit gevaarlijk zijn. Een door AI gegenereerd boek over het zoeken naar paddenstoelen geeft bijvoorbeeld onjuiste informatie over het onderscheid tussen eetbare en giftige paddenstoelen

Hoe AI-hallucinatieproblemen beperken

Hier zijn wat deskundige tips en trucs om generatieve AI-hallucinaties te beperken.

Zorg voor diversiteit en representatie in trainingsdata

Zoals we al eerder hebben besproken, zorgt onvoldoende trainingsdata er vaak voor dat een AI-model vatbaar is voor hallucinaties. Dus als jij een AI-tool bouwt, zorg er dan voor dat deze wordt getraind op diverse en representatieve datasets, inclusief systems-of-record bronnen. Het idee is om LLM's in staat te stellen antwoorden te genereren die zijn voorzien van contextueel relevante informatie waar openbare modellen vaak niet in slagen.

Een krachtige techniek, bekend als Retrieval Augmented Generation (RAG), biedt LLM's een gecureerde verzameling kennis, waardoor hun neiging om te hallucineren wordt beperkt. Bovendien beperken inclusiviteit en vertegenwoordiging in verschillende domeinen van datasets, evenals regelmatige updates en uitbreidingen, het risico op bevooroordeelde outputs.

En als je gewoon een gebruiker bent, hoef je alleen maar een AI-tool te kiezen die beter getraind is dan openbare modellen. Bijvoorbeeld, kunt u kiezen voor ClickUp Brain het eerste generatieve AI-neurale netwerk ter wereld dat is getraind met zeer contextuele datasets.

In tegenstelling tot generieke GPT-tools is ClickUp Brain getraind en geoptimaliseerd voor verschillende werkrollen en gebruikssituaties. De antwoorden zijn relevant voor de situatie en coherent, en u kunt de tool gebruiken voor:

  • Ideebrainstormen en mindmapping* Allerlei soorten inhoud en communicatie genereren
  • Inhoud bewerken en samenvatten
  • Workspace-kennis beheren en extraheren

ClickUp Brein

Krijg direct nauwkeurige antwoorden op basis van de context van HR-gerelateerde taken binnen en verbonden met het platform met ClickUp Brain

Creëer eenvoudige en directe prompts

Prompt engineering kan een andere krachtige oplossing zijn voor het genereren van meer voorspelbare en accurate antwoorden van AI-modellen.

De kwaliteit en nauwkeurigheid van de uitvoer van LLM's zijn recht evenredig met de duidelijkheid, specificiteit en precisie van de prompts die ze ontvangen. Daarom is aandacht voor details van het grootste belang tijdens de prompting-fase, omdat je LLM's zo duidelijke instructies en contextuele aanwijzingen kunt geven. Elimineer irrelevante details of ingewikkelde zinnen om nauwkeurigere antwoorden te krijgen en AI-hallucinaties te voorkomen.

Experimenteer met een techniek die temperatuurinstellingen heet

Temperatuur in AI is een cruciale parameter voor de mate van willekeur in de uitvoer van het systeem. Het dicteert de balans tussen diversiteit en conservatisme, waarbij hogere temperaturen zorgen voor meer willekeur en lagere temperaturen voor deterministische resultaten.

Kijk of de AI-tool die je gebruikt een lagere temperatuurinstelling toestaat om de nauwkeurigheid van reacties te verbeteren, vooral als je op feiten gebaseerde informatie zoekt. Onthoud dat hogere temperaturen weliswaar het risico op hallucinaties vergroten, maar ook zorgen voor creatievere reacties.

Hoe helpt ClickUp AI-hallucinaties te beperken? ClickUp is een veelzijdig werk- en

productiviteitsplatform ontworpen om te stroomlijnen taakbeheer kennisorganisatie en samenwerking voor teams. Het heeft een native AI-model, ClickUp Brain, dat teams in staat stelt om toegang krijgen tot nauwkeurige informatie en nauwkeurige AI-functies in verschillende gebruikssituaties.

ClickUp kan het risico op AI-hallucinaties in uw dagelijkse output op twee manieren verminderen:

  1. ClickUp'sdeskundige AI-promptsjablonen2. GebruikClickUp Brein voor zeer professionele AI-gegenereerde inhoud

1. ClickUp's deskundige AI prompt-sjablonen gebruiken

AI-aanwijzingssjablonen zijn ontworpen om u te helpen werken met ChatGPT en soortgelijke tools efficiënter, met als doel AI-hallucinaties te voorkomen. Je kunt zorgvuldig op maat gemaakte en aanpasbare prompts vinden voor tientallen use cases, van marketing tot HR. Laten we eens kijken naar opties voor:

  • Engineering
  • Schrijven
  • Projectbeheer

ClickUp ChatGPT-prompts voor techniek

ChatGPT-prompts voor technieksjabloon

Gebruik de ChatGPT-prompts voor engineering-sjabloon om de voordelen van ChatGPT voor uw werk te benutten

De ClickUp ChatGPT-prompts voor technieksjabloon biedt meer dan 12 categorieën promptsets, waaronder AI-codering, bugrapporten en gegevensanalyse. Wat is inbegrepen:

  • 220+ engineering prompts om je te helpen om het even wat te bedenken, vanprojectstructuren tot mogelijke uitkomsten
  • Aangepaste weergaven om uw gegevens te visualiseren inBord ofGantt-weergavezorgt voor optimale gegevensorganisatie en taakbeheer

Met specifieke aanwijzingen zoals - Ik moet een model maken dat nauwkeurig het gewenste resultaat kan voorspellen op basis van de gegevensset, geef je duidelijke instructies en zorg je ervoor dat je eindberekening betrouwbaar en nauwkeurig is.

Daarnaast heb je ingebouwde AI-hulp voor technische schrijftaken zoals het maken van gebruikershandleidingen, voorstellen en onderzoeksrapporten.

ClickUp ChatGPT Schrijfopdrachten

ChatGPT-prompts voor schrijfsjabloon

De ChatGPT-prompts voor schrijfsjablonen kunnen de woordkunstenaar in je wakker maken

De ClickUp ChatGPT Schrijfsjabloon met schrijfopdrachten helpt u moeiteloos nieuwe ideeën en inhoud te genereren voor artikelen, blogberichten en andere inhoudsformaten, boeiende verhalen te schrijven met unieke perspectieven die aanslaan bij uw lezers en te brainstormen over nieuwe onderwerpen en benaderingen om uw schrijfwerk nieuw leven in te blazen.

Bijvoorbeeld, de opdracht van deze sjabloon - Ik moet een overtuigend document maken dat mijn lezers overtuigt om de gewenste actie uit te voeren], helpt je om drie belangrijke dingen over te brengen aan ChatGPT:

  1. Het type AI-gegenereerde inhoud dat je wilt (zoals een social media post, blog of landingspagina)
  2. Het hoofddoel van de tekst - in dit geval, overtuigen of overhalen
  3. De actie die klanten moeten ondernemen

Met deze instructies kan het AI-model een supergedetailleerde tekst maken die rekening houdt met al je behoeften zonder valse inhoud te produceren.

Inbegrepen:

  • Een gecureerde selectie van 200+ schrijfaanwijzingen die je helpen unieke content te bedenken
  • Toegang tot tijdregistratiefuncties zoalsHerinneringen enSchattingen om uw inhoudsteams te helpen deadlines te beheren en productiever te zijn

ClickUp ChatGPT-boodschappen voor projectbeheer

ChatGPT-prompts voor projectbeheersjabloon

De ChatGPT-prompts voor projectbeheersjabloon helpen je efficiënter te worden en projecten te jongleren als een professional

Ben je moe van de complexiteit van projecten? Laat gegevensoverbelasting je niet belasten! Met de ClickUp ChatGPT-prompts voor projectbeheersjabloon kunt u uw productiviteit vertienvoudigen!

Deze allesomvattende sjabloon biedt diverse aanwijzingen om vrijwel elke uitdaging op het gebied van projectmanagement aan te pakken:

  • Verdiep je in Agile of Waterval methodologie of identificeer de beste aanpak voor jouw project
  • Stroomlijn terugkerende taken moeiteloos
  • Precieze tijdlijnen ontwikkelen voor een soepele projectimplementatie

Verwacht prompts zoals - Ik ben op zoek naar strategieën om een succesvolle projectoplevering te garanderen en risico's in verband met [type project] te minimaliseren, om een unieke strategie aan te passen voor het minimaliseren van risico's in elk soort project.

2. ClickUp Brain gebruiken voor zeer professionele AI-gegenereerde inhoud

ClickUp Brain is een neuraal netwerk dat de geheime productiviteitsbooster voor je team. Of je nu een manager of een ontwikkelaar bent, je kunt gemakkelijk gebruik maken van de meer dan 100 op onderzoek gebaseerde rolspecifieke aanwijzingen om je werk te vergemakkelijken. Je kunt de tool bijvoorbeeld gebruiken om ideeën te brainstormen en rapporten te genereren over:

  • Inwerken van werknemers
  • Bedrijfsbeleid
  • Voortgang van taken
  • Sprint doelen

Er is ook de optie om alle wekelijkse projectupdates samen te vatten om je te helpen een snel overzicht van je werk te krijgen. En als je te maken hebt met projectdocumenten zoals SOP's, contracten of richtlijnen, dan zijn de schrijffunctionaliteiten van ClickUp Brain precies wat u zoekt!

ClickUp Brain is niet alleen een generatieve AI-tool, maar ook een kennismanager voor uw bedrijfsportfolio. Het neurale netwerk verbindt al uw taken, documenten en werkbesprekingen - met eenvoudige vragen en opdrachten kunt u relevante gegevens ophalen.

ClickUp Brain dashboard Afbeelding

Gebruik ClickUp Brain om direct nauwkeurige antwoorden te krijgen op basis van de context van elk werk binnen en verbonden met ClickUp

Meningen over AI-hallucinaties

De kwestie van AI-hallucinatie leidt tot tegenstrijdige standpunten binnen de AI-gemeenschap.

OpenAI, de maker van ChatGPT, erkent bijvoorbeeld dat het hallucinatieprobleem een groot probleem is. Medeoprichter John Schulman benadrukt het risico van verzinsels en stelt - Onze grootste zorg was de feitelijkheid, omdat het model graag dingen verzint.

OpenAI CEO Sam Altman daarentegen ziet juist het vermogen van AI om hallucinaties te genereren als een teken van creativiteit en innovatie. Dit contrasterende perspectief onderstreept de complexe publieke verhalen rond AI-output en -verwachtingen.

IBM Watson is een andere oplossing die heeft geholpen bij het onderzoeken van vragen over verantwoorde AI-ontwikkeling en de behoefte aan robuuste waarborgen. Toen IBM Watson medische gegevens wilde analyseren voor potentiële kankerpatiënten, genereerde het model onnauwkeurige aanbevelingen, wat leidde tot verwarrende tests.

IBM erkende de beperkingen van Watson en benadrukte de noodzaak van menselijke samenwerking met AI. Dit leidde tot de ontwikkeling van Watson OpenScale , een open platform dat gebruikers uitrust met tools om AI te besturen, zodat meer eerlijkheid en minder vooroordelen ontstaan.

Gebruik ClickUp om AI-hallucinaties te voorkomen

Hoewel toonaangevende techbedrijven zoals Google, Microsoft en OpenAI actief zoeken naar oplossingen om deze risico's te minimaliseren, kunnen moderne teams niet eeuwig wachten op een oplossing.

De valkuil van AI-hallucinaties kan niet worden genegeerd, maar het is een goed oplosbaar probleem als je de juiste tools gebruikt en goed, oud menselijk onderscheidingsvermogen uitoefent. De beste oplossing? Maak gebruik van ClickUp's branchespecifieke prompts, gratis sjablonen en schrijfmogelijkheden om het aantal hallucinaties tot een minimum te beperken. Aanmelden voor ClickUp vandaag nog om uw weg naar succes te beginnen met prompting! ❣️