
Image generated with DALL·E through ChatGPT
Мнение: Епидемията от изкуствен интелект – халюцинации, за кризата, за която не сме готови
Въпреки постоянните обещания за намаляване на измислиците, генерирани от изкуствения интелект, главните инструменти за AI – от ChatGPT до Perplexity, Gemini и Apple Intelligence – продължават да създават ложна информация, често с тревожни последствия. Експерти, включително тези, които предупреждават за рисковете от изкуствен интелект, са попаднали на измислени съдържания, а дори и напредналите инструменти като Deep Research създават измислени доклади. Истината изглежда, че остава в човешките ръце
Chatbot-ите стават все по-добри през годините – много по-добри. Въпреки това, има един проблем, който все още не е напълно решен и е известен като „халюцинации“.
Нашият обичани чатботове дават блестящи отговори на нашите въпроси с решителността и авторитета на Йода от научната фантастика, дори когато са ужасно погрешни. И ние им вярваме. Понякога слепо.
Множество учени, експерти и дори разработчици на чатботове ни предупреждаваха за халюцинации вече от години. Въпреки това, докато приемането се разпространява бързо – OpenAI съобщи за 400 милиона активни потребители седмично още преди няколко дни – познаването на изкуствения интелект не успя да поддържа темпото.
Скорошни проучвания, съдебни случаи и драматични събития продължават да показват, че дезинформацията е още по-опасна, отколкото осъзнаваме.
По-лошо е, отколкото мислим
В началото, откриването на големи грешки, генерирани от изкуствения интелект, беше доста забавно – като тези смущаващи обобщения на изкуствения интелект, генерирани от Gemini, предлагащи на потребителите да добавят „нетоксично лепило към соса“ за рецепта за пица или препоръчващи яденето на „една малка камъничка на ден“ миналата година. Но, докато възстановяваме доверието си в изкуствения интелект, ситуацията е ескалирала, ставайки все по-тревожна.
През декември видяхме как ИИ инструментът на Apple създава заглавия, „резюмиращи“ новини и генерира фалшива и подвеждаща информация, като например невярно твърдеше, че Би Би Си е обявило, че Луиджи Мангионе се е застрелял. След този инцидент, публикацията подаде жалба срещу Apple и започна да изследва точността на генеративните ИИ при анализ на новини.
Резултатите от изследването на Би Би Си, публикувани само преди няколко дни, разкриват тревожни статистически данни: 51% от отговорите, предоставени от популярни ИИ чатботове, съдържаха значителни проблеми, 13% от цитатите, предоставени от моделите, бяха напълно измислени, а 19% от данните бяха неверни.
Тийнейджърите са сред най-засегнатите групи, тъй като често им е трудно да различат фалшивите новини от истинските и могат лесно да бъдат подтикнати от съдържание, генерирано от изкуствен интелект. Проучване, публикувано през януари, показа, че 35% от тийнейджърите са били подведени от фалшиво съдържание, генерирано от AI модели, и 22% са споделили фалшивата информация.
Но не са само тийнейджърите и разсеяните хора, които попадат в тези халюцинации. И не става дума само за Gemini или Apple Intelligence.
Никой AI модел не е пощаден, никоя индустрия не е сигурна
Изследването, проведено от BBC, потвърждава още една проблематика: всички AI модели „халицинират“. Експертите разгледаха най-популярните модели, като ChatGPT, Gemini, Perplexity и Copilot. Няма AI модел, който да е запазен от грешки. Anthropic има страница, посветена на този въпрос, предлагаща идеи за намаляване на халицинациите.
„Дори най-развитите езикови модели, като Claude, понякога генерират текст, който е фактологически неверен или несъвместим с дадения контекст“, се казва в документа. Други AI компании са споделили подобни страници със съвети и трикове за избягване на фалшиво съдържание, но това не е толкова лесно и е оставало нерешен проблем от доста време насам.
През 2023 година, OpenAI обяви, че работи по новаторски начини за премахване на халюцинациите. За съжаление, до днес това продължава да е огромен проблем.
През януари 2024 – преди повече от година – изпълнителният директор Аравинд Шринивас заяви, че халюцинациите на Perplexity в основно се срещаха в неплатените акаунти. „Повечето оплаквания идват от безплатната версия на продукта“, обясни Шринивас, добавяйки, че вече добавят повече GPU-та, за да коригират проблема. Въпреки това, до октомври, New York Post и Dow Jones подадоха иск срещу Perplexity – тъй като тяхният модел продължаваше да приписва фалшиви новини към техните издания – , а инструментът за изкуствен интелект, разработен от стартапа за изборите в САЩ, беше тестван от експерти, които откриха несъответствия, неточни резюмета и халюцинации.
Проблемът с халюцинациите достига научни и академични равнища
Един от най-големите проблеми в момента е, че дори експерти – включително тези, които предупреждават за рисковете и опасностите от изкуствения интелект – са поддадени на тези инструменти, склонни към халюцинации.
През декември, професорът от Станфорд и експерт по технологии и дезинформация Джеф Ханкок беше обвинен, че е използвал изкуствен интелект за създаване на съдебно изявление. Ханкок подаде 12-странична декларация в защита на закона от 2023 г., който криминализира използването на deepfakes, включително 15 цитата. Въпреки това, два от тези цитати не могат да бъдат открити никъде – защото ChatGPT, предпочитаният инструмент за изкуствен интелект на експерта по дезинформация, просто ги е измислил.
Ханкок – планиран да преподава „Истина, доверие и технологии“ тази година – обясни, че е използвал чатбота на OpenAI за организиране на своите цитати, което довело до халюцинациите. Изследователят се извини – и защити основните точки на своето твърдение -, и научи всички ни ценния урок, че дори експертите и най-запознатите с рисковете на ИИ са податливи на него.
Професор Ханкок не е единственият, който е представил документи съдържащи измислиците, генерирани от ИИ, в съда, разбира се. Друг случай, касаещ иск срещу Walmart, наскоро стана вирусен, защото адвокатите използваха фалшиви случаи, генерирани от ИИ, за да изградят своята аргументация. В действителност, проблемът стана толкова чест в съдилищата в САЩ, че адвокатската фирма Морган & Морган наскоро изпрати имейли до своите повече от 1000 адвокати, предупреждавайки ги за рисковете от използване на цитати, генерирани от ИИ, а Американската адвокатска асоциация напомни на своите 400 000 членове за правилата за етика на адвоката – включително информация, генерирана от ИИ.
Дълбоко изследване също
Един от най-популярните инструменти за изкуствен интелект в момента е „Deep Research“ (Дълбоко изследване), предназначен за експерти и учени, търсещи по-сложни резултати в своите проучвания. Халюцинациите не са изключени и от този инструмент, въпреки че първоначалната версия на OpenAI изискваше $200 Pro абонамент за достъп.
Потребители в Reddit изразиха загриженост по този въпрос, съобщавайки, че всички популярни модели, включващи инструменти за дълбоко изследване – Perplexity, ChatGPT и DeepSeek, са халюцинирали. Изследователи и експерти по изкуствен интелект също споделиха тревожни резултати на други социални медии като X.
„Инструментът произведе прекрасно написан и аргументиран доклад“, написа един потребител, който използва инструмента за дълбоко изследване на OpenAI, за да изучава математиката, извършвана от млади хора. „Единственият проблем е, че всичко е измислено.“
„Deep Research измисли цял куп статистики и анализи, докато твърди, че компилира набор от данни от хиляди статии и предполагаемо събира информация за годината на раждане на всеки автор от надеждни източници“, сподели друг. „Нищо от това не е вярно.“
Най-лошата халюцинация, която съм виждала от sota LLM отдавна
Deep Research създаде група статистики и анализи, твърдейки, че компилира набор от данни от хиляди статии и предполагаемо събира информация за годината на раждане на всеки автор от уважавани източници
Нищо от това не е вярно https://t.co/ZZk40vTKIM pic.twitter.com/RAnNVcHDmR
— Пол Калкрафт (@paul_cal) 18-ти февруари, 2025
Истината Остава в Човешките Ръце
Ще спрат ли някога чатботовете да „халицинират“? Слабата страна на изкуствения интелект е била очевидна в продължение на години – видяхме я в подкастове като Planet Money, когато тестваха епизоди, генерирани от AI през 2023 г., и продължаваме да я виждаме в най-развитите модели, дори в тези, предназначени за ексклузивна употреба от експерти и технологично запознати общности.
Може би е време да приемем, че това ще остане проблем и да осъзнаем, че трябва да поемем отговорност за това, което създаваме и споделяме чрез инструментите на изкуствения интелект.
Фактът, че въпреки че това изглежда като добре известен проблем, но експертите по риска от изкуствен интелект сами попадат в мрежите на убедителното и убедително писане на изкуствения интелект, определено е тревожен. Ситуацията става още по-сложна, тъй като приемането продължава да се ускорява с пълна скорост, изпреварващо цифровата грамотност, докато несъответствията и фабрикуваните цитати се умножават.
Случаите, при които са разкрити халюцинации на изкуствения интелект, обикновено са тези, при които проверката на фактите е от съществено значение – нещо, което Зукърбърг би трябвало да има предвид, след като е преустановил отдела си за проверка на фактите. Това е особено очевидно в съдебните зали, където адвокати и съдии работят за проверка на факти и случаи, както и в новинарските медии, където точността и валидацията на източниците имат значение.
Но какво става в случаите, когато никой не разглежда подробностите? Какво се случва в ежедневните, по-лични контексти? В момента милиони студенти запаметяват отговори, генерирани от изкуствен интелект, за учебата си, потребители следват инструкции, предоставени от изкуствен интелект, за лечение на болести, а други учат за нови теми, напълно доверявайки на технологията.
Последствията от тази нова реалност, с която се сблъскваме, са неизмерими и непредсказуеми, а истината – за сега – е в ръцете на тези, които отделят време да се замислят и проверяват.
Оставете коментар
Прекрати