Генеративното изкуствено интелекта предизвиква тревога в науката, тъй като фалшивите данни застрашават надеждността

Image by Freepik

Генеративното изкуствено интелекта предизвиква тревога в науката, тъй като фалшивите данни застрашават надеждността

Време за четене: 3 мин.

Нямате време? Ето най-важното!

  • Генеративната изкуствена интелигентност позволява бързо създаване на реалистични, но фалшифицирани научни данни и изображения.
  • Учените се борят да разпознаят изображения, генерирани от изкуствен интелект, поради липса на очевидни знаци за манипулация.
  • Фигури, генерирани от изкуствен интелект, вече може да са в научни списания.

Изображенията, генерирани от изкуствения интелект, пораждат сериозни опасения сред изследователите и издателите, тъй като новите генеративни инструменти на изкуствения интелект улесняват тревожно лесното създаване на фалшиви научни данни и изображения, както е отбелязано в прес съобщение от Nature.

Това напредване застрашава авторитета на академичната литература, като експертите се страхуват от нарастване на фабрикирани изследвания, генерирани от изкуствен интелект, които може да е трудно да се идентифицират.

Джана Кристофър, анализатор на цялостността на изображения в FEBS Press в Германия, подчертава, че бързата еволюция на генериращият AI поражда все повече опасения относно потенциала му за злоупотреба в науката.

„Хората, които работят в моята област – цялостност на изображенията и публикационна етика – стават все по-притеснени от възможностите, които той предлага“, каза Джейн, както е цитирано от Nature.

Тя отбелязва, че, докато някои списания може да приемат текст, генериран от изкуствен интелект (AI), под определени условия, изображенията и данните, генерирани от AI, се възприемат като пресичане на граница, което може да окаже сериозно влияние върху научната честност, както е отбелязано от Nature.

Откриването на тези изображения, създадени от AI, се е превърнало в основно предизвикателство, казва Nature. За разлика от предишните цифрови манипулации, изображенията, генерирани от AI, често не показват обичайните признаци на фалшифициране, което прави трудно доказването на всякаква измама.

Специалистът по изследване на изображения Елизабет Бик и други изследователи предполагат, че AI-генерираните фигури, особено в молекулярната и клетъчната биология, вече могат да бъдат присъстващи в публикуваната литература, както е докладвано от Nature.

Инструменти като ChatGPT сега се използват редовно за създаване на научни статии, които могат да бъдат идентифицирани по типичните фрази на чатбот, оставени без редакция, но AI-генерираните изображения са много по-трудни за разпознаване. В отговор на тези предизвикателства, технологичните компании и научноизследователските институции разработват инструменти за откриване, както е отбелязано от Nature.

Инструменти, задвижвани от изкуствен интелект, като Imagetwin и Proofig, водят насока, обучавайки своите алгоритми да разпознават съдържание, генерирано от изкуствен интелект. Съоснователят на Proofig, Дрор Колодкин-Гал, докладва, че техният инструмент успешно открива изображения, генерирани от изкуствен интелект, 98% от времето, но подчертава, че човешката верификация остава критична за потвърждаване на резултатите, както споменава Nature.

В издателския свят, списания като Science използват Proofig за първоначални проверки на подаваните материали, а издателският гигант Springer Nature разработва собствени инструменти, Geppetto и SnapShot, за идентифициране на несъответствия в текст и изображения, както е докладвано от Nature.

Други организации, като Международната асоциация на научни, технически и медицински издатели, също започват инициативи за борба с фабриките за статии и за осигуряване на академичната честност, както е докладвано от Nature.

Въпреки това, експертите предупреждават, че издателите трябва да действат бързо. Кевин Патрик, който разследва изображенията в научните статии, изразява обезпокоеност, че ако действията закъснеят, съдържанието, генерирано от AI, може да се превърне в още един нерешен проблем в учената литература, както съобщава Nature.

Въпреки тези опасения, много хора все още надяват, че бъдещата технология ще се развие, за да открие измамите, генерирани от днешната изкуствена интелигенция, предлагайки дългосрочно решение за защита на академичната научна честност.

Хареса ли ви тази статия?
Оценете я!
Не ми хареса Не ми хареса особено Става Добра е! Страхотна!
0 Оценена от 0 потребителя
Заглавие
Коментар
Благодарим за вашето мнение
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставете коментар

Покажи още...