
Image generated with OpenAI
Мнение: AI моделите са таинствени „същества“ и дори техните създатели не ги разбират напълно
Скорошното изследване на Anthropic относно работата на модела Claude 3.5 Haiku обещава прогресивни откровения и искра на прозрение за разбирането на работата на напредналите AI технологии. Но какво имат предвид, когато казват, че големите езикови модели (LLM) са „живи организми“, които „мислят“?
Преди няколко дни, Anthropic публикува две научни статии с прогресивно изследване за това как работят големите езикови модели (LLM). Въпреки че техническите постижения бяха интересни и актуални, най-много ме заинтригуваха думите, използвани от експертите по AI.
В изследването Върху биологията на голям езиков модел, учените направиха сравнение с биолози, които изучават сложни „живи организми“, които са еволюирали през милиарди години.
“Също така, докато езиковите модели се генерират от прости, създадени от хора алгоритми за обучение, механизмите, родени от тези алгоритми, изглеждат доста сложни”, написаха учените.
През последните няколко години, моделите на изкуствен интелект се развиват значително. И ние станахме свидетели на тяхното бързо развитие през последните месеци. Видяхме как ChatGPT се превръща от модел, работещ само с текст, в говорещ помощник, и сега в многомерен агент, който може да генерира дори страхотни изображения в стил Studio Ghibli.
Но какво ако настоящите гранични модели на изкуствен интелект достигат този научно-фантастичен ниво на развитие, при който дори техните създатели не могат да разберат техните процеси и системи? Има множество мистерии около технологиите на изкуствен интелект, които може би ще бъде актуално да се преразгледат или изучат през 2025 година.
Страшният парадокс на черната кутия на моделите на изкуствен интелект
Има множество дискусии относно приемането на изкуствения интелект (AI) и възможността за разбирането му, както и как хората, които разбират как работят генеративните AI модели, са по-малко склонни да считат чатботовете за свои „приятели“ или „магически“ приложения. Въпреки това, има друг дебат – между експерти и хора, които са по-запознати с технологията – дали да сравняваме или да считаме LLMs за самостоятелни творения. По отношение на последното, има специален ингредиент, мистерия, известна като „парадоксът на черната кутия на AI“, който играе ключова роля в дискусията.
Системите за дълбоко обучение са обучени да разпознават елементи и тенденции по сходен начин както хората. Точно както учим децата да разпознават модели и да задават специфични думи за различни обекти, LLMs са обучени да правят уникални връзки и да изграждат мрежи, които стават все по-комплексни, докато „растат“.
Самир Равашде, доцент по електрическо и компютърно инженерство, се специализира в областта на изкуствения интелект и обяснява, че точно както става дума при изучаването на човешкия интелект, почти е невъзможно да видим как дълбокоучащите системи вземат решения и извеждат заключения. Това е това, което експертите наричат „проблемът с черната кутия“.
Моделите на ИИ предизвикват човешкото разбиране
Наскорошната проучване на Anthropic освети ситуацията с черната кутия на ИИ, като обясни как нейният модел „мисли“ в определени сценарии, които преди това бяха неясни или дори напълно грешни. Дори и да е базирано на модела Claude 3.5 Haiku, то позволява на експертите да разработват инструменти и анализират подобни характеристики на други модели на ИИ.
„Разбирането на природата на този интелект е голямо научно предизвикателство, което има потенциал да преобрази нашето понимане за това какво означава да ‘мислиш’,” посочва статията, споделена от изследователите на Anthropic.
Обаче терминът „мисли“, прилаган към AI технологиите, раздразнява някои експерти в индустрията и е част от критиката към изследването. Потребител на Reddit обясни защо това дразни група хора: „Има много антропоморфизация през цялата статия, която затъмнява работата. Например, продължава да използва думата ‘мисли’, когато трябва да каже ‘изчислява’. Говорим за компютърен софтуер, а не за биологичен мозък.”
Докато „хуманизираните“ термини помагат на неспециалисти да разберат по-добре моделите на изкуствения интелект и провокират дискусии в общността, истината е, че, дали казваме „изчисляваме“ или „мислим“, същото предизвикателство продължава да съществува: ние нямаме пълно разбиране или пълна прозрачност за начина, по който работят LLMs.
Какво да очакваме от напредналите модели на изкуствен интелект в близко бъдеще
Можете ли да си представите да игнорирате съществуването на напреднали технологии на изкуствен интелект като ChatGPT, DeepSeek, Perplexity или Claude – сега или в близко бъдеще? Всички знаци сочат, че няма връщане назад. Генеративните и рационалните модели на изкуствен интелект вече промениха ежедневието ни и ще продължат да се развиват.
Почти всеки ден в WizCase ние отразяваме нова разработка в индустрията – нов модел на ИИ, нов инструмент за ИИ, нова компания за ИИ – която има потенциал да окаже голямо влияние в нашето общество. Идеята да се направи пауза, за да се получи по-добро разбиране за тези напреднали модели и как те работят – или дори леко да се забави темпото – изглежда невъзможна, имайки предвид бързия ход на състезанието в областта на ИИ и ангажираността на правителства и най-мощните компании в света.
„Моделите на ИИ оказват все по-голямо влияние върху начина, по който живеем и работим, трябва да ги разбираме достатъчно добре, за да гарантираме, че техният ефект е положителен“, заявява в доклада си компанията Anthropic. Въпреки че това може да звучи малко нереалистично, изследователите остават оптимистични: „Вярваме, че резултатите ни тук, както и посоката на напредъка, върху която са изградени, са вълнуващо доказателство, че можем да се справим с това предизвикателство.“
Но колко бързо могат наистина да се развиват тези открития? Статията също така посочва, че резултатите обхващат само няколко области и конкретни случаи, и че не е възможно да се изградят по-общи заключения. Така че, вероятно не достатъчно бързо.
Докато регулаторите въвеждат мерки като Европейския акт за изкуствен интелект, искайки по-голяма прозрачност, те извличат обвинения и ругатели от големите технологични компании за предполагаемо забавяне на прогреса, мощните модели на изкуствен интелект продължават да се развиват.
Като общество, трябва да се стремим да намерим баланс между задълбочаването на разбирането ни за това как работят тези технологии и приемането им по начин, който да донесе значими ползи и прогрес за нашите общности. Възможно ли е това? Идеята просто да молим или да се надяваме, че тези „същества“ остават „етични“ и „добри“, не изглежда толкова неправдоподобна в момента.
Оставете коментар
Прекрати