O efeito Nelson Mandela da tecnologia: Alucinações de IA [com dicas para reduzi-las]
IA e Automação

O efeito Nelson Mandela da tecnologia: Alucinações de IA [com dicas para reduzi-las]

Há pouca diferença entre alucinações de humanos e de inteligência artificial (IA). 😵‍💫

Ambos podem se lembrar de fatos incorretamente, inventar declarações fictícias e tirar conclusões erradas. No entanto, as alucinações humanas estão enraizadas em vieses cognitivos e distorções mentais - elas raramente afetam nossa tomada de decisões cotidianas . Por outro lado, as alucinações da IA podem custar muito caro, pois essas ferramentas apresentam informações incorretas como factuais - e com grande confiança também._

Então, isso significa que devemos parar de usar essas ferramentas úteis? Ferramentas de IA ? Não!

Com um pouco de discernimento e melhores prompts, você pode facilmente virar a maré da IA a seu favor, e é exatamente isso que o ajudaremos a fazer nesta postagem do blog. Abordaremos:

  • Alucinação de IA e sua realidade subjacente
  • Diferentes tipos de alucinações de IA e alguns exemplos do mundo real
  • Dicas e ferramentas para minimizar os problemas de alucinação de IA

O que são alucinações de IA?

O fenômeno em que os modelos de IA generativa produzem informações incorretas como se fossem verdadeiras é chamado de alucinação de IA

Aqui está um trecho de como Avivah Litan, analista vice-presidente da Gartner explica as alucinações de IA -

...saídas completamente fabricadas de um grande modelo de linguagem. Mesmo que representem fatos completamente inventados, o resultado do LLM (modelo de linguagem grande) os apresenta com confiança e autoridade.

Modelos de IA alucinando: Origens e evolução

Em meio à vasta Glossário de IA o termo AI hallucination é relativamente novo. No entanto, sua existência pode ser rastreada até os primeiros dias dos sistemas de IA na década de 1950. Do ponto de vista acadêmico, o conceito apareceu pela primeira vez em artigos de pesquisa intitulados Anais: Quarta Conferência Internacional do IEEE sobre Reconhecimento Automático de Rosto e Gestos em 2000.

O conhecimento de um modelo de IA alucinando ganhou mais atenção no final da década de 2010, com o surgimento de grandes nomes como Google DeepMind e ChatGPT. Nos últimos tempos, os usuários foram expostos a vários exemplos de alucinações de IA. Por exemplo, um estudo de 2021 revelou que um sistema de IA treinado em imagens de pandas identificou erroneamente objetos não relacionados, como girafas e bicicletas, como pandas.

Em outro estudo de 2023 realizado pelo Biblioteca Nacional de Medicina em um estudo realizado em Nova York, os pesquisadores examinaram a precisão das referências em artigos médicos gerados pelo ChatGPT. Das 115 referências, apenas 7% foram consideradas precisas, enquanto 47% foram completamente inventadas e 46% eram autênticas, mas imprecisas. 😳

Quatro elementos que contribuem para as alucinações de IA

As alucinações de IA ocorrem devido a quatro fatores inerentes e principalmente técnicos:

1. Dados de treinamento imprecisos ou tendenciosos

Os dados usados no aprendizado de máquina são o que determinam o conteúdo gerado por um modelo de IA. Dados de treinamento de baixa qualidade podem estar repletos de erros, vieses ou inconsistências, o que pode corromper o algoritmo final. Essa IA aprenderá informações distorcidas e estará mais propensa a gerar resultados imprecisos.

Leitura bônus: Saiba mais sobre o diferença entre aprendizado de máquina e IA .

2. Lacuna de interpretação

Os modelos de IA podem ser confundidos por expressões idiomáticas, gírias, sarcasmo, linguagem coloquial e outras nuances da linguagem humana, levando o sistema a produzir informações sem sentido ou imprecisas. Em outras situações, mesmo que os dados de treinamento sejam bons, o modelo pode não ter a programação necessária para compreendê-los corretamente, levando a interpretações errôneas e alucinações.

3. Déficit de verdade fundamental

Diferentemente das tarefas com respostas certas e erradas claras, as tarefas generativas não têm uma verdade fundamental definitiva, por assim dizer, para o modelo aprender. Essa ausência de um ponto de referência torna difícil para o modelo discernir o que faz sentido e o que não faz, resultando em respostas imprecisas.

4. Armadilha da complexidade

Embora modelos altamente inteligentes como o GPT-4 ofereçam excelentes recursos, sua complexidade pode ser uma faca de dois gumes. Muitos modelos de IA erram ao sobrecarregar os dados ou memorizar padrões irrelevantes, o que leva à geração de informações falsas. Prompts mal projetados também levam a resultados inconsistentes com modelos de IA mais complexos.

Como e por que ocorrem as alucinações de IA: Perspectiva de processamento

Grandes modelos de linguagem (LLMs), como o ChatGPT e o Bard do Google, potencializam a mundo dinâmico da IA generativa gerando textos semelhantes aos humanos com notável fluência. Entretanto, por trás de sua eficácia, há uma limitação crucial: falta de compreensão contextual do mundo que eles descrevem.

Para entender como ocorre uma alucinação de IA, precisamos nos aprofundar no funcionamento interno dos LLMs. Imagine-os como vastos arquivos digitais repletos de livros, artigos e trocas de mídia social.

Para processar dados, os LLMs:

  1. Dividem as informações em pequenas unidades chamadas tokens
  2. Empregam redes neurais (NNs) complexas que imitam vagamente o cérebro humano para processar tokens
  3. Use a NN para prever a próxima palavra em uma sequência - o modelo de IA ajusta seus parâmetros internos a cada iteração, refinando sua capacidade de previsão

À medida que os LLMs processam mais dados, eles começam a identificar padrões na linguagem, como regras gramaticais e associações de palavras. Por exemplo, um Ferramenta de IA para um assistente virtual (VA) pode observar as respostas do VA às reclamações comuns dos clientes e sugerir soluções identificando determinadas palavras-chave. Infelizmente, qualquer falha nesse processo pode desencadear uma alucinação.

Essencialmente, a IA nunca compreende de fato o verdadeiro significado das palavras que manipula. Professora Emily M. Bender especialista em linguística, resume perfeitamente a perspectiva de um LLM: Se você vir a palavra 'gato', ela imediatamente evoca experiências com gatos e coisas sobre gatos. Para o modelo de linguagem grande, é uma sequência de caracteres C-A-T. 😹

Exemplos de alucinações de IA em nosso mundo

As alucinações de IA representam um desafio multifacetado, conforme demonstrado por vários exemplos da vida real. Dê uma olhada em quatro categorias. 👀

1. Profissão jurídica

Em maio de 2023, um advogado tinha que enfrentar as consequências depois de usar o ChatGPT para redigir uma moção contendo pareceres jurídicos e citações fictícios, sem saber da capacidade do modelo de gerar texto erroneamente.

2. Informações errôneas sobre indivíduos

O ChatGPT tem sido usado para espalhar narrativas falsas, como acusando um professor de direito de assédio e erroneamente implicando um prefeito australiano em um caso de suborno levando a danos à reputação, entre outras consequências graves.

3. Ataques intencionais ou adversários

Agentes mal-intencionados podem manipular sutilmente os dados, fazendo com que os sistemas de IA interpretem mal as informações. Por exemplo, alguém configurou um sistema de IA para identificar erroneamente uma imagem de um gato como sendo de guacamole destacando a vulnerabilidade decorrente da falta de controle das ferramentas de IA.

4. Chatbots de IA

Imagine interagir com chatbots de IA para buscar informações ou apenas para se divertir. Embora suas respostas possam ser envolventes, há uma grande chance de serem completamente inventadas.

Veja o caso do King Renoit, por exemplo. Considere o ChatGPT e qualquer outro chatbot de IA. Pergunte a ambos - Quem foi o Rei Renoit? 👑

Com "guardrails" em vigor _(_uma estrutura definida para garantir resultados positivos e imparciais), o ChatGPT pode admitir que não sabe a resposta. No entanto, uma ferramenta de IA menos restritiva criada usando a mesma tecnologia subjacente (GPT) poderia fabricar com confiança uma biografia para esse rei inexistente.

Tipos de alucinações de IA possíveis para um sistema de IA generativo

As alucinações de IA variam em sua gravidade e podem variar de inconsistências factuais sutis a uma grande bobagem. Vamos nos concentrar em três tipos comuns de alucinações de IA:

1. Alucinações com conflito de entrada

Elas ocorrem quando os LLMs geram conteúdo que contradiz ou se desvia significativamente do prompt original fornecido pelo usuário.

Imagine perguntar a um assistente de IA: Quais são os maiores animais terrestres?

**E receber a resposta: _Os elefantes são conhecidos por suas impressionantes habilidades de voo!

2. Alucinações conflitantes com o contexto

Ocorrem quando os LLMs geram respostas que se afastam das informações previamente estabelecidas na mesma conversa.

Digamos que você esteja tendo um diálogo com uma IA sobre Plutão e o sistema solar, e a ferramenta fale sobre o terreno frio e rochoso do planeta anão. Agora, se você perguntar se Plutão suporta vida, o LLM começa a descrever florestas verdejantes e vastos oceanos no planeta. Caramba! ☀️

3. Alucinações conflitantes com os fatos

Entre as formas mais predominantes de alucinações de IA estão as imprecisões factuais, em que o texto gerado parece plausível, mas, em última análise, é falso. Embora o conceito geral da resposta possa estar alinhado com a realidade, os detalhes podem ser falhos.

Por exemplo, em fevereiro de 2023, o chatbot Bard AI do Google alegou erroneamente que que o Telescópio Espacial James Webb capturou as primeiras imagens de um planeta além do nosso sistema solar. Entretanto, a NASA confirmou que as primeiras imagens de exoplanetas foram obtidas em 2004, antes do lançamento do Telescópio Espacial James Webb em 2021.

Impacto das alucinações de IA

Embora as ferramentas de IA levem alguns milissegundos para gerar respostas ou soluções, o impacto de uma resposta menos que correta pode ser grave, especialmente se o usuário não for tão perspicaz. Algumas consequências comuns incluem:

  1. Disseminação de informações erradas: A disseminação de informações errôneas facilitada pelas alucinações da IA representa riscos significativos para a sociedade. Sem mecanismos eficazes de verificação de fatos, essas imprecisões podem permear os artigos de notícias gerados por IA, resultando em uma cascata de informações falsas que levam à difamação pessoal ou empresarial e à manipulação em massa. As empresas que acabam usando conteúdo incorreto gerado por IA em suas mensagens também podem sofrer perdas de reputação
  2. Danos ao usuário: As alucinações da IA também podem ser totalmente perigosas. Por exemplo, um livro gerado por IA sobre a coleta de cogumelos oferece informações incorretas sobre a distinção entre cogumelos comestíveis e venenosos - digamos que esse é um conteúdo criminalmente inseguro que está circulando por aí

Como atenuar os problemas de alucinação da IA

Aqui estão algumas dicas e truques de especialistas para atenuar as alucinações generativas da IA.

Garanta a diversidade e a representação nos dados de treinamento

Como discutimos nas seções anteriores, dados de treinamento insuficientes geralmente tornam um modelo de IA propenso a alucinações. Portanto, se for você quem está criando uma ferramenta de IA, garanta que ela seja treinada em conjuntos de dados diversos e representativos, incluindo fontes de sistemas de registro. A ideia é capacitar os LLMs para gerar respostas com informações contextualmente relevantes, o que os modelos públicos geralmente não conseguem fazer.

Uma técnica poderosa, conhecida como Retrieval Augmented Generation (RAG), apresenta aos LLMs um conjunto de conhecimentos selecionados, restringindo sua tendência à alucinação. Além disso, a inclusão e a representação em vários domínios de conjuntos de dados, bem como atualizações e expansões regulares, reduzem o risco de resultados tendenciosos.

E se você for apenas um usuário, tudo o que precisa fazer é escolher uma ferramenta de IA que seja mais bem treinada do que os modelos públicos. Por exemplo, você pode optar pelo ClickUp Brain a primeira rede neural de IA generativa do mundo treinada com conjuntos de dados altamente contextuais.

Ao contrário das ferramentas genéricas de GPT, o ClickUp Brain foi treinado e otimizado para uma variedade de funções de trabalho e casos de uso. Suas respostas são coerentes e relevantes para a situação, e você pode aproveitar a ferramenta para:

  • Ideiasbrainstorming e mapeamento mental* Geração de todos os tipos de conteúdo e comunicação
  • Edição e resumo de conteúdo
  • Gerenciamento e extração de conhecimento do espaço de trabalho

Cérebro ClickUp

Obtenha respostas instantâneas e precisas com base no contexto de qualquer tarefa relacionada a RH dentro da plataforma e conectada a ela com o ClickUp Brain

Crie solicitações simples e diretas

A engenharia de prompts pode ser outra solução poderosa para gerar respostas mais previsíveis e precisas dos modelos de IA.

A qualidade e a precisão do resultado gerado pelos LLMs são diretamente proporcionais à clareza, à especificidade e à precisão dos prompts que eles recebem. É por isso que a atenção aos detalhes é fundamental durante a fase de solicitação, pois permite que você forneça aos LLMs instruções claras e dicas contextuais. Elimine todos os detalhes irrelevantes ou frases complicadas para facilitar respostas mais precisas e evitar alucinações de IA.

Experimente uma técnica chamada configurações de temperatura

A temperatura na IA serve como um parâmetro crucial que governa o grau de aleatoriedade na saída do sistema. Ela determina o equilíbrio entre diversidade e conservadorismo, com temperaturas mais altas desencadeando maior aleatoriedade e temperaturas mais baixas produzindo resultados determinísticos.

Veja se a ferramenta de IA que você usa permite uma configuração de temperatura mais baixa para aumentar a precisão das respostas, principalmente ao buscar informações baseadas em fatos. Lembre-se de que, embora as temperaturas mais altas aumentem o risco de alucinações, elas também infundem mais criatividade às respostas.

Como o ClickUp ajuda a atenuar as alucinações da IA? ClickUp é um trabalho versátil e

plataforma de produtividade projetada para agilizar gerenciamento de tarefas organização do conhecimento e colaboração para equipes. Ele tem um modelo de IA nativo, o ClickUp Brain, que permite que as equipes acessem informações precisas e funcionalidades precisas de IA em vários casos de uso.

O ClickUp pode reduzir o risco de alucinações de IA em sua produção diária de duas maneiras:

  1. Aproveitando o recursomodelos de prompt de IA especializados2. UsandoCérebro ClickUp para conteúdo gerado por IA altamente profissional

1. Aproveitamento dos modelos de prompt de IA especializados do ClickUp

Os modelos de solicitação de IA são projetados para ajudá-lo a trabalhar com o ChatGPT e ferramentas semelhantes de forma mais eficiente, com o objetivo de evitar alucinações de IA. Você pode encontrar prompts cuidadosamente adaptados e personalizáveis para dezenas de casos de uso, de marketing a RH. Vamos explorar as opções para:

  • Engenharia
  • Redação
  • Gerenciamento de projetos

ClickUp ChatGPT Prompts for Engineering

Prompts do ChatGPT para o modelo de engenharia

Use o ChatGPT Prompts for Engineering Template para colher os benefícios do ChatGPT em seu trabalho

O modelo ClickUp ChatGPT Prompts para o modelo de engenharia oferece mais de 12 categorias de conjuntos de solicitações, incluindo codificação de IA, relatórios de bugs e análise de dados. O que está incluído:

  • mais de 220 prompts de engenharia para ajudá-lo a idealizar qualquer coisa a partir deestruturas de projeto a possíveis resultados
  • Exibições personalizadas para visualizar seus dados emDiretoria ouVisualização de Gantt, garantindo a organização ideal dos dados e o gerenciamento de tarefas

Com prompts específicos como - Eu preciso criar um modelo que possa prever com precisão [resultado desejado] com base em [conjunto de dados], você fornece instruções claras e garante que o cálculo final seja confiável e preciso.

Além disso, você pode acessar a assistência de IA integrada para tarefas de redação técnica, como a elaboração de manuais de usuário, propostas e relatórios de pesquisa.

ClickUp ChatGPT Prompts for Writing

Modelo de sugestões de redação do ChatGPT

O ChatGPT Prompts for Writing Template pode ajudar a despertar o seu lado escritor

O modelo ClickUp ChatGPT Prompts for Writing Template (modelo de redação) ajuda você a gerar, sem esforço, novas ideias e conteúdo para artigos, postagens de blog e outros formatos de conteúdo, criar histórias cativantes com perspectivas exclusivas que repercutem nos leitores e fazer um brainstorming de novos tópicos e abordagens para revigorar sua redação.

Por exemplo, o prompt deste modelo - Preciso criar um [tipo de documento] persuasivo que convença meus leitores a tomar [ação desejada], ajuda você a transmitir três coisas principais ao ChatGPT:

  1. O tipo de conteúdo gerado por IA que você deseja (como uma publicação de mídia social, um blog ou uma página de destino)
  2. O objetivo principal da cópia - nesse caso, convencer ou persuadir
  3. A ação que você deseja que os clientes realizem

Essas instruções permitem que o modelo de IA crie uma cópia superdetalhada que leve em conta todas as suas necessidades sem produzir conteúdo falso.

O que está incluído:

  • Uma seleção selecionada de mais de 200 prompts de redação que ajudam você a criar conteúdo exclusivo
  • Acesso a recursos de controle de tempo, comoLembretes eEstimativas para ajudar suas equipes de conteúdo a gerenciar prazos e ser mais produtivas

Prompts do ClickUp ChatGPT para gerenciamento de projetos

Prompts do ChatGPT para o modelo de gerenciamento de projetos

O ChatGPT Prompts for Project Management Template ajuda você a se tornar mais eficiente e a fazer malabarismos com projetos como um profissional

Você está cansado da complexidade dos projetos? Não deixe que a sobrecarga de dados o sobrecarregue! Com o ClickUp ChatGPT Prompts para o modelo de gerenciamento de projetos você pode aumentar sua produtividade em dez vezes!

Esse modelo abrangente oferece diversos prompts para lidar com praticamente qualquer desafio de gerenciamento de projetos:

  • Aprofunde-se na metodologia Agile ou Waterfall ou identifique a melhor abordagem para o seu projeto
  • Simplifique tarefas repetitivas sem esforço
  • Desenvolva cronogramas precisos para uma implementação tranquila do projeto

Espere prompts como - Estou procurando estratégias para garantir a entrega bem-sucedida do projeto e minimizar o risco associado ao [tipo de projeto], para personalizar uma estratégia exclusiva para minimizar o risco em qualquer tipo de projeto.

2. Usando o ClickUp Brain para obter conteúdo altamente profissional gerado por IA

O ClickUp Brain é uma rede neural que pode se tornar o impulsionador secreto da produtividade para sua equipe. Seja você um gerente ou um desenvolvedor, pode aproveitar facilmente seus mais de 100 prompts específicos de função baseados em pesquisa para ajudar em qualquer trabalho. Por exemplo, você pode usar a ferramenta para fazer um brainstorming de ideias e gerar relatórios sobre:

  • Integração de funcionários
  • Políticas da empresa
  • Progresso da tarefa
  • Metas de sprint

Há também a opção de resumir todas as atualizações semanais do projeto para ajudá-lo a ter uma visão geral rápida do seu trabalho. E, se você lida com o manuseio de documentos do projeto como POPs, contratos ou diretrizes, então as funcionalidades de redação do ClickUp Brain são perfeitas para você!

Além de ser uma ferramenta de IA generativa, o ClickUp Brain é um gerenciador de conhecimento para o portfólio de sua empresa. Sua rede neural conecta todas as suas tarefas, documentos e discussões de trabalho - você pode extrair dados relevantes com perguntas e comandos simples.

Imagem do painel do ClickUp Brain

Use o ClickUp Brain para obter respostas instantâneas e precisas com base no contexto de qualquer trabalho dentro do ClickUp e conectado a ele

Opiniões sobre alucinações de IA

A questão da alucinação da IA gera pontos de vista contrastantes na comunidade de IA.

Por exemplo, a OpenAI, criadora do ChatGPT, reconhece o problema da alucinação como uma grande preocupação. O cofundador John Schulman enfatiza o risco de fabricação, afirmando - Nossa maior preocupação era com a factualidade, porque o modelo gosta de fabricar coisas.

O CEO da OpenAI, Sam Altman, por outro lado, considera a própria capacidade da IA de gerar alucinações como um sinal de criatividade e inovação. Essa perspectiva contrastante destaca as complexas narrativas públicas sobre os resultados e as expectativas da IA.

O IBM Watson é outra solução que ajudou a explorar questões sobre o desenvolvimento responsável da IA e a necessidade de proteções robustas. Quando O IBM Watson tinha como objetivo analisar dados médicos para possíveis pacientes com câncer, o modelo gerou recomendações imprecisas, levando a exames confusos.

Reconhecendo as limitações do Watson, a IBM enfatizou a necessidade de colaboração humana com a IA. Isso levou à criação do desenvolvimento do Watson OpenScale uma plataforma aberta que equipa os usuários com ferramentas para controlar a IA, garantindo maior justiça e redução de preconceitos.

Use o ClickUp para evitar alucinações de IA

Embora as principais empresas de tecnologia, como Google, Microsoft e OpenAI, busquem ativamente soluções para minimizar esses riscos, as equipes modernas não podem esperar eternamente pela chegada de uma solução.

A armadilha das alucinações da IA não pode ser ignorada, mas é um problema bastante solucionável se você usar as ferramentas certas e exercer o bom e velho discernimento humano. A melhor solução? Aproveite os prompts específicos do setor, os modelos gratuitos e os recursos de redação do ClickUp para minimizar os casos de alucinação. Registre-se no ClickUp hoje mesmo para começar a estimular seu caminho para o sucesso! ❣️