Ефектът „Нелсън Мандела“ на технологиите: халюцинации на изкуствения интелект [със съвети за намаляването им]

Ефектът „Нелсън Мандела“ на технологиите: халюцинации на изкуствения интелект [със съвети за намаляването им]

Няма голяма разлика между халюцинациите при хората и тези при изкуствения интелект (AI). 😵‍💫

И двете могат да си спомнят факти неправилно, да измислят неверни твърдения и да правят погрешни заключения. Човешките халюцинации обаче са корени в когнитивни предубеждения и умствени изкривявания – те рядко оказват влияние върху ежедневното ни вземане на решения. От друга страна, халюцинациите на AI могат да бъдат доста скъпи, тъй като тези инструменти представят невярна информация като фактическа – и то с голяма увереност.

Това означава ли, че трябва да спрем да използваме тези иначе полезни AI инструменти? Не!

С малко проницателност и по-добри подсказки можете лесно да обърнете AI в своя полза, и точно с това ще ви помогнем в тази публикация в блога. Ще обсъдим:

  • AI халюцинациите и тяхната основна реалност
  • Различни видове халюцинации на изкуствения интелект и някои примери от реалния свят
  • Съвети и инструменти за минимизиране на проблемите с халюцинациите на изкуствения интелект

Какво представляват халюцинациите на изкуствения интелект?

Феноменът, при който генеративните AI модели произвеждат невярна информация, като че ли е вярна, се нарича AI халюцинация.

Ето откъс от обяснението на Авива Литан, вицепрезидент и анализатор в Gartner, за халюцинациите на изкуствения интелект –

напълно измислени резултати от голям езиков модел. Въпреки че представляват напълно измислени факти, резултатите от LLM (голям езиков модел) ги представят с увереност и авторитет.

Халюцинации на моделите на изкуствен интелект: произход и еволюция

Сред обширния речник на изкуствения интелект терминът „халюцинация на изкуствения интелект“ е сравнително нов. Неговото съществуване обаче може да бъде проследено до ранните дни на системите за изкуствен интелект през 1950-те години. От академична гледна точка концепцията се появява за първи път в научни статии, озаглавени „Proceedings: Fourth IEEE International Conference on Automatic Face and Gesture Recognition“ *през 2000 г.

Осъзнаването на халюцинациите на AI моделите привлече по-широко внимание в края на 2010-те години с възхода на големи имена като Google DeepMind и ChatGPT. В последно време потребителите са били изложени на различни примери за AI халюцинации. Например, проучване от 2021 г. разкри, че AI система, обучена на изображения на панди, погрешно е идентифицирала несвързани обекти като жирафи и велосипеди като панди.

В друго проучване от 2023 г., проведено от Националната медицинска библиотека, изследователите проучиха точността на препратките в медицински статии, генерирани от ChatGPT. От 115 препратки само 7% се оказаха точни, докато 47% бяха изцяло измислени, а 46% бяха автентични, но неточни. 😳

Четири елемента, които допринасят за халюцинациите на изкуствения интелект

AI халюцинациите се случват поради четири присъщи и предимно технически фактора:

1. Неточни или пристрастни данни за обучение

Данните, използвани в машинно обучение, са това, което в крайна сметка определя съдържанието, генерирано от AI модел. Нискокачествените данни за обучение могат да бъдат изпълнени с грешки, пристрастия или несъответствия, които могат да повредят крайния алгоритъм. Такъв AI ще научи изкривена информация и ще бъде по-склонен да генерира неточни резултати.

Допълнителна информация: Научете повече за разликата между машинно обучение и AI.

2. Разлика в интерпретацията

AI моделите могат да бъдат затруднени от идиоми, сленг, сарказъм, разговорна реч и други нюанси на човешкия език, което води до генериране на безсмислена или неточна информация от системата. В други ситуации, дори и ако данните за обучение са добри, моделът може да не разполага с необходимото програмиране, за да ги разбере правилно, което води до погрешни интерпретации и халюцинации.

3. Дефицит на реалната истина

За разлика от задачите с ясни правилни и грешни отговори, генеративните задачи нямат определена основа, от която моделът да се учи. Липсата на референтна точка затруднява модела да различи какво има смисъл и какво не, което води до неточни отговори.

4. Капанът на сложността

Макар и високоинтелигентни модели като GPT-4 да предлагат страхотни възможности, тяхната сложност може да се окаже нож с две остриета. Много AI модели правят грешки, като препълват данните или запомнят нерелевантни модели, което води до генериране на невярна информация. Лошо проектираните подсказки също водят до несъвместими резултати с по-сложни AI модели.

Как и защо възникват халюцинациите на изкуствения интелект: перспектива на обработката

Големите езикови модели (LLM) като ChatGPT и Bard на Google захранват динамичния свят на генеративната AI, генерирайки текст, подобен на човешкия, с забележителна плавност. Въпреки това, зад тяхната ефективност се крие едно съществено ограничение: липса на контекстуално разбиране на света, който описват.

За да разберем как възниква халюцинация на ИИ, трябва да се впуснем в дълбините на вътрешното функциониране на LLM. Представете си ги като огромни цифрови архиви, пълни с книги, статии и обмен в социалните медии.

За да обработват данни, LLM:

  1. Разделете информацията на малки единици, наречени токен
  2. Използвайте сложни невронни мрежи (NN), които приблизително имитират човешкия мозък, за да обработват токени.
  3. Използвайте NN, за да предскажете следващата дума в последователност – AI моделът коригира вътрешните си параметри с всяка итерация, усъвършенствайки своите предсказващи способности.

Когато LLM обработват повече данни, те започват да идентифицират модели в езика, като граматически правила и асоциации между думи. Например, AI инструмент за виртуален асистент (VA) може да наблюдава отговорите на VA на често срещани оплаквания на клиенти и да предлага решения, като идентифицира определени ключови думи. За съжаление, всяка грешка в този процес може да предизвика халюцинация.

По същество, AI никога не разбира истинското значение на думите, с които манипулира. Професор Емили М. Бендер, експерт по лингвистика, перфектно обобщава перспективата на LLM: Ако видите думата „котка“, това веднага ви напомня за преживявания с котки и неща, свързани с котки. За големия езиков модел това е поредица от символи C-A-T. 😹

Примери за халюцинации на изкуствения интелект в нашия свят

AI халюцинациите представляват многостранно предизвикателство, както показват различни примери от реалния живот. Разгледайте четирите категории. 👀

През май 2023 г. един адвокат трябваше да понесе последствията, след като използва ChatGPT за изготвяне на мотивите, съдържащи измислени правни становища и цитати, без да знае, че моделът може да генерира текстове с грешки.

2. Неверни информации за физически лица

ChatGPT е бил използван за разпространяване на неверни твърдения, като например обвинението на професор по право в тормоз и несправедливото замесване на австралийски кмет в случай на подкуп, което е довело до увреждане на репутацията му, наред с други сериозни последствия.

3. Умишлени или враждебни атаки

Злонамерени лица могат да манипулират данни по фин начин, което води до погрешно тълкуване на информацията от AI системите. Например, някой е конфигурирал AI система да идентифицира погрешно изображение на котка като изображение на гуакамоле, което подчертава уязвимостта поради лошото контролиране на AI инструментите.

4. AI чатботове

Представете си, че общувате с AI чатботове, за да търсите информация или просто за забавление. Въпреки че отговорите им могат да бъдат интересни, има голяма вероятност те да са изцяло измислени.

Вземете за пример случая с крал Реноа. Помислете за ChatGPT и всеки друг AI чатбот. Попитайте и двамата – Кой беше крал Реноа? 👑

С въведените „предпазни мерки“ (*рамка, създадена за осигуряване на положителни и безпристрастни резултати), ChatGPT може да признае, че не знае отговора. Въпреки това, по-малко ограничаващ AI инструмент, създаден с помощта на същата основна технология (GPT), може с увереност да измисли биография за този несъществуващ крал.

Видове халюцинации на изкуствения интелект, възможни за генеративна система за изкуствен интелект

AI халюцинациите варират по тежест и могат да варират от леки фактически несъответствия до откровени глупости. Нека се съсредоточим върху три често срещани типа AI халюцинации:

1. Халюцинации, противоречащи на входните данни

Те се появяват, когато LLM генерират съдържание, което значително противоречи или се отклонява от първоначалната заявка, предоставена от потребителя.

Представете си, че питате AI асистент: Кои са най-големите сухоземни животни?

И получаваме отговора: Слоновете са известни с впечатляващите си летателни способности!

2. Халюцинации, противоречащи на контекста

Те се появяват, когато LLM генерират отговори, които се отклоняват от предварително установената информация в рамките на същия разговор.

Да предположим, че водите диалог с ИИ за Плутон и Слънчевата система, и инструментът ви разказва за студения, скалист терен на джуджетата планета. Сега, ако попитате дали Плутон поддържа живот, LLM започва да описва буйни зелени гори и обширни океани на планетата. Ужас! ☀️

3. Халюцинации, противоречащи на фактите

Сред най-разпространените форми на халюцинации на изкуствения интелект са фактическите неточности, при които генерираният текст изглежда правдоподобен, но в крайна сметка е невярен. Макар че общата концепция на отговора може да съответства на реалността, конкретните детайли могат да бъдат погрешни.

Например, през февруари 2023 г. чатботът Bard AI на Google погрешно заяви, че космическият телескоп James Webb е заснел първите изображения на планета извън нашата Слънчева система. NASA обаче потвърди, че първите изображения на екзопланети са получени през 2004 г., преди изстрелването на космическия телескоп James Webb през 2021 г.

Въздействието на халюцинациите на изкуствения интелект

Макар че AI инструментите се нуждаят от няколко милисекунди, за да генерират отговори или решения, последствията от неточен отговор могат да бъдат сериозни, особено ако потребителят не е толкова проницателен. Някои често срещани последствия включват:

  1. Разпространение на невярна информация: Разпространението на невярна информация, улеснено от халюцинациите на изкуствения интелект, представлява значителен риск за обществото. Без ефективни механизми за проверка на фактите, тези неточности могат да проникнат в генерираните от изкуствения интелект новинарски статии, което да доведе до каскада от невярна информация, която да доведе до лична или бизнес дискредитация и масова манипулация. Бизнесите, които в крайна сметка използват невярно съдържание, генерирано от изкуствения интелект, в своите съобщения, също могат да пострадат от загуба на репутация.
  2. Вред за потребителите: Халюцинациите на изкуствения интелект могат да бъдат и направо опасни. Например, книга за събирането на гъби, генерирана от изкуствен интелект, предлага неточна информация за разграничаването между ядливи и отровни гъби – да кажем просто, че това е престъпно опасно съдържание, което циркулира в интернет.

Как да смекчим проблемите с халюцинациите на изкуствения интелект

Ето някои съвети и трикове от експерти за намаляване на генеративните халюцинации на ИИ.

Осигурете разнообразие и представителност в данните за обучение

Както обсъдихме в предишните раздели, недостатъчните данни за обучение често правят AI модела податлив на халюцинации. Затова, ако сте този, който създава AI инструмент, уверете се, че той е обучен на разнообразни и представителни набори от данни, включително източници от системи за запис. Идеята е да се даде възможност на LLM да генерира отговори, наситени с контекстуално релевантна информация, което публичните модели често не успяват да направят.

Една мощна техника, известна като Retrieval Augmented Generation (RAG), предоставя на LLM подбрана база от знания, което ограничава склонността им към халюцинации. Освен това, включването и представянето на различни области от набори от данни, както и редовните актуализации и разширения, намаляват риска от пристрастни резултати.

А ако сте просто потребител, всичко, което трябва да направите, е да изберете AI инструмент, който е по-добре обучен от публичните модели. Например, можете да изберете ClickUp Brain, първата в света генеративна AI невронна мрежа, обучена с високо контекстуални набори от данни.

За разлика от общите GPT инструменти, ClickUp Brain е обучен и оптимизиран за различни работни роли и случаи на употреба. Отговорите му са подходящи за ситуацията и последователни, а вие можете да използвате инструмента за:

ClickUp Brain
Получавайте незабавни и точни отговори, базирани на контекста, от всякакви задачи, свързани с човешките ресурси, в рамките на платформата и свързани с нея, с ClickUp Brain.

Създавайте прости и директни подсказки

Програмирането на подсказки може да бъде друго мощно решение за генериране на по-предвидими и точни отговори от моделите на изкуствен интелект.

Качеството и точността на резултатите, генерирани от LLM, са пряко пропорционални на яснотата, конкретността и прецизността на получените команди. Ето защо вниманието към детайлите е от първостепенно значение по време на фазата на команди, тъй като ви позволява да предоставите на LLM ясни инструкции и контекстуални подсказки. Елиминирайте всички нерелевантни детайли или сложни изречения, за да улесните по-точните отговори и да предотвратите AI халюцинациите.

Експериментирайте с техника, наречена настройки на температурата.

Температурата в AI служи като ключов параметър, който определя степента на случайност в резултатите на системата. Тя определя баланса между разнообразие и консерватизъм, като по-високите температури предизвикват по-голяма случайност, а по-ниските температури дават детерминирани резултати.

Проверете дали AI инструментът, който използвате, позволява по-ниска настройка на температурата, за да подобрите точността на отговорите, особено когато търсите информация, базирана на факти. Не забравяйте, че макар по-високите температури да увеличават риска от халюцинации, те също така придават повече креативност на отговорите.

Как ClickUp помага за намаляване на халюцинациите на изкуствения интелект?

ClickUp е многофункционална платформа за работа и производителност, предназначена да оптимизира управлението на задачите, организирането на знанията и сътрудничеството в екипите. Тя разполага с собствен AI модел, ClickUp Brain, който позволява на екипите да имат достъп до точна информация и прецизни AI функционалности в различни случаи на употреба.

ClickUp може да намали риска от AI халюцинации във вашата ежедневна работа по два начина:

  1. Използване на експертните шаблони за AI подсказки на ClickUp
  2. Използване на ClickUp Brain за високопрофесионално съдържание, генерирано от AI

1. Използване на експертните шаблони за AI подсказки на ClickUp

Шаблоните за AI подсказки са създадени, за да ви помогнат да работите по-ефективно с ChatGPT и подобни инструменти, с цел да предотвратите AI халюцинациите. Можете да намерите внимателно подбрани и персонализирани подсказки за десетки случаи на употреба, от маркетинг до човешки ресурси. Нека разгледаме опциите за:

  • Инженерство
  • Писане
  • Управление на проекти

ClickUp ChatGPT подсказки за инженеринг

ChatGPT подсказки за инженерни шаблони
Използвайте шаблона ChatGPT Prompts for Engineering, за да се възползвате от предимствата на ChatGPT в работата си.

Шаблонът ClickUp ChatGPT Prompts for Engineering предлага над 12 категории набори от подсказки, включително AI кодиране, доклади за грешки и анализ на данни. Какво включва:

  • Над 220 инженерни подсказки, които ще ви помогнат да измислите всичко – от структури на проекти до възможни резултати.
  • Персонализирани изгледи за визуализиране на данните ви в изглед Board или Gantt, осигуряващи оптимална организация на данните и управление на задачите.

С конкретни указания като – Трябва да създам модел, който може точно да предскаже [желания резултат] въз основа на [набор от данни], вие давате ясни инструкции и гарантирате, че крайното изчисление е надеждно и точно.

Освен това можете да използвате вградената AI помощ за технически задачи като изготвяне на ръководства за потребители, предложения и изследователски доклади.

ClickUp ChatGPT подсказки за писане

ChatGPT подсказки за писане на шаблони
Шаблонът за писане ChatGPT Prompts може да ви помогне да събудите писателя в себе си.

Шаблонът ClickUp ChatGPT Prompts for Writing Template ви помага да генерирате без усилие свежи идеи и съдържание за статии, блог публикации и други формати на съдържание, да създавате увлекателни истории с уникални перспективи, които резонират с вашите читатели, и да обмисляте нови теми и подходи, за да вдъхнете нов живот на вашето писане.

Например, подсказката на този шаблон – Трябва да създам убедителен [тип документ], който да убеди читателите ми да предприемат [желаното действие] – ви помага да предадете три основни неща на ChatGPT:

  1. Типът AI-генерирано съдържание, което искате (като публикация в социалните медии, блог или целева страница)
  2. Основната цел на текста – в този случай да убеди или да повлияе
  3. Действието, което искате клиентите да предприемат

Тези инструкции позволяват на AI модела да създаде изключително подробен текст, който отчита всички ваши нужди, без да генерира невярна информация.

Какво включва:

  • Подбрана колекция от над 200 подсказки за писане, които ви помагат да създадете уникално съдържание.
  • Достъп до функции за проследяване на времето, като Напомняния и Прогнози, за да помогнете на екипите си, отговарящи за съдържанието, да управляват сроковете и да бъдат по-продуктивни.

ClickUp ChatGPT подсказки за управление на проекти

ChatGPT подсказки за шаблон за управление на проекти
Шаблонът ChatGPT Prompts for Project Management Template ви помага да станете по-ефективни и да се справяте с проектите като професионалисти.

Уморени ли сте от сложността на проектите? Не позволявайте претоварването с данни да ви тежи! С шаблона ClickUp ChatGPT Prompts for Project Management Template можете да увеличите производителността си десетократно!

Този всеобхватен шаблон предлага разнообразни подсказки за справяне с практически всякакви предизвикателства в управлението на проекти:

  • Запознайте се с методологията Agile или Waterfall или определете най-подходящия подход за вашия проект.
  • Оптимизирайте повтарящите се задачи без усилие
  • Разработете точни графици за гладко изпълнение на проектите

Очаквайте подсказки като – Търся стратегии за успешно изпълнение на проекти и минимизиране на риска, свързан с [тип проект], за да персонализирате уникална стратегия за минимизиране на риска във всеки вид проект.

2. Използване на ClickUp Brain за високопрофесионално съдържание, генерирано от AI

ClickUp Brain е невронна мрежа, която може да се превърне в тайния стимулатор на производителността на вашия екип. Независимо дали сте мениджър или разработчик, можете лесно да се възползвате от над 100-те му ролево-специфични подсказки, базирани на научни изследвания, за да подпомогнете всякаква работа. Например, можете да използвате инструмента за мозъчна атака на идеи и да генерирате доклади за:

  • Обучение на нови служители
  • Политики на компанията
  • Напредък на задачата
  • Цели на спринта

Има и опция за обобщаване на всички седмични актуализации по проекта, за да ви помогне да получите бърз преглед на работата си. А ако се занимавате с обработка на документи по проекти, като SOP, договори или насоки, тогава функциите за писане на ClickUp Brain са точно за вас!

Освен че е генеративен AI инструмент, ClickUp Brain е мениджър на знания за портфолиото на вашата компания. Неуронната му мрежа свързва всички ваши задачи, документи и работни дискусии – можете да извличате релевантни данни с прости въпроси и команди.

ClickUp Brain табло Изображение
Използвайте ClickUp Brain, за да получите незабавни и точни отговори, базирани на контекста от всяка работа в и свързана с ClickUp.

Мнения за халюцинациите на изкуствения интелект

Въпросът за халюцинациите на изкуствения интелект предизвиква противоречиви мнения в общността на изкуствения интелект.

Например, OpenAI, създателят на ChatGPT, признава проблема с халюцинациите като сериозен повод за загриженост. Съоснователят Джон Шулман подчертава риска от измислици, като заявява: Най-голямата ни загриженост беше свързана с фактическата достоверност, защото моделът обича да измисля неща.

От друга страна, главният изпълнителен директор на OpenAI, Сам Алтман, разглежда способността на AI да генерира халюцинации като знак за креативност и иновативност. Тази контрастираща перспектива подчертава сложните обществени нагласи относно резултатите и очакванията от AI.

IBM Watson е друго решение, което помогна за проучването на въпроси, свързани с отговорното разработване на AI и необходимостта от надеждни предпазни мерки. Когато IBM Watson се опита да анализира медицински данни за потенциални пациенти с рак, моделът генерира неточни препоръки, което доведе до объркващи тестове.

Осъзнавайки ограниченията на Watson, IBM подчерта необходимостта от сътрудничеството между хората и изкуствения интелект. Това доведе до разработването на Watson OpenScale, отворена платформа, която предоставя на потребителите инструменти за управление на изкуствения интелект, гарантиращи по-голяма справедливост и намаляване на пристрастията.

Използвайте ClickUp, за да предотвратите халюцинациите на AI

Докато водещи технологични компании като Google, Microsoft и OpenAI активно търсят решения за минимизиране на тези рискове, съвременните екипи не могат да чакат вечно, докато се появи решение.

Не може да се пренебрегне опасността от халюцинациите на изкуствения интелект, но това е проблем, който може да се реши, ако използвате подходящите инструменти и проявявате доброто старо човешко разсъждение. Най-доброто решение? Използвайте специфичните за бранша подсказки, безплатните шаблони и възможностите за писане на ClickUp, за да сведете до минимум случаите на халюцинации.

Регистрирайте се в ClickUp още днес, за да започнете пътя си към успеха! ❣️

ClickUp Logo

Едно приложение, което заменя всички останали