Университетът на Чикаго предлага на художниците защита срещу изкуствения интелект с Glaze и Nightshade
Нямате време? Ето основните факти!
- Glaze и Nightshade защитават творбите на художниците от неразрешена употреба за обучение на изкуствен интелект.
- Glaze маскира изображенията, за да предотврати изкуственият интелект да репликира стила на художницата.
- Nightshade смущава изкуствения интелект, като добавя „отровени“ пиксели, които корумпират данните за обучение.
Артисти се борят срещу експлоатационните AI модели с помощта на Glaze и Nightshade, два инструмента, разработени от Бен Жао и неговият екип в Лабораторията за софтуер и анализ на данни (SAND Lab) на Университета в Чикаго, както днес съобщи MIT Technology Review.
Целта на тези инструменти е да защитят работата на артистите от използване без съгласието им за обучение на AI модели, практика, която много творци виждат като кражба. Glaze, изтеглен над 4 милиона пъти от пускането му през март 2023 година, маскира изображения, като добавя тонки промени, които попречват на AI да научи стила на артиста, казва MIT.
Nightshade, „агресивният“ аналог, допълнително разрушава AI модели чрез въвеждането на невидими промени, които могат да повредят AI ученето, ако се използват при обучението, както е отбелязано от MIT.
Инструментите са вдъхновени от тревогата на художниците за бързия растеж на генеративната AI, която често се основава на онлайн изображения, за да създаде нови произведения. MIT съобщава, че фентъзи илюстраторката Карла Ортис и други творци изразяват страхове от загуба на своите средства за прехрана, тъй като AI моделите репликират техните уникални стилове без разрешение или заплащане.
За артистите, публикуването онлайн е съществено за видимостта и доходите, но много от тях обмисляха да премахнат творбите си, за да избегнат използването им за обучение на изкуствен интелект, акт, който би засегнал кариерите им, както отбелязва MIT.
Nightshade, стартиран година след Glaze, предлага по-агресивна защита, съобщава MIT. Чрез добавянето на „отровени“ пиксели към изображенията, той пречи на обучението на изкуствения интелект, като заставя моделите да произвеждат изкривени резултати, ако тези изображения бъдат използвани.
Символичното въздействие на пасленът е отекнало при артистите, които го виждат като поетическа справедливост: ако тяхното творчество бъде откраднато за обучение на изкуствен интелект, то може да повреди самите системи, които го експлоатират.
MIT твърди, че инструментите са срещнали известен скептицизъм, тъй като в началото артистите са се притеснявали за защитата на данните. За да отговорят на това, SAND Lab пусна версия на Glaze, която работи офлайн, гарантирайки, че няма прехвърляне на данни и създавайки доверие сред артистите, които са насторени срещу експлоатация.
Лабораторията също наскоро разшири достъпа, като се партнира с Cara, нова социална платформа, която забранява съдържанието, генерирано от изкуствен интелект, както е отбелязано от MIT.
Жао и неговият екип се стремят да променят динамиката на властта между отделните творци и компаниите за изкуствен интелект.
Като предлага инструменти, които защитават творчеството от големите корпорации, Жао се надява да упълномощи артистите да запазят контрол върху своите произведения и да реформират етичните норми около изкуствения интелект и интелектуалната собственост, казва MIT.
Усилията набират скорост, но някои експерти предупреждават, че инструментите може да не предлагат непропусклива защита, тъй като хакери и разработчици на изкуствен интелект изследват начини за заобикаляне на тези предпазни мерки, както е отбелязано от MIT.
Сега, когато Glaze и Nightshade са достъпни безплатно, САНД Лабораторията на Zhao продължава да води борбата за защита на художествената автентичност срещу растящото влияние на създаването на съдържание, генерирано от изкуствен интелект.
Оставете коментар
Прекрати