Изследване в Европа над модела на изкуствен интелект на Google
Комисията за защита на данните (DPC) обяви днес разследване на Google, за да определи дали компанията е спазвала законите на ЕС за защита на данните при разработването на своя AI модел, Pathways Language Model 2 (PaLM 2).
PaLM2 е голям езиков модел, използван в различни AI услуги, включително обобщаване на имейли. Google заяви, че ще сътрудничи на разследването, както е отбелязано от AP.
Разследването ще оцени дали Google трябваше да извърши Оценка на въздействието върху защитата на данните (DPIA) за оценка на потенциалните рискове за правата и свободите на лицата от своите AI технологии.
Това разследване е част от по-широките усилия на DPC за гарантиране на съответствие с правилата за защита на данните в сектора на AI в цяла Европа. Обработката на данни през границите, която включва обработване на данни в множество държави от ЕС или засягаща лица в няколко нации, е под особено внимание.
Генеративните AI инструменти, известни с това, че произвеждат убедителна, но лъжлива информация и достъпват лични данни, представляват значителни правни рискове, както посочва TechCrunch. DPC, отговорна за гарантирането на съответствието на Google с Общия регламент за защита на данните (GDPR).
За тази цел DPC може да налага глоби до 4% от глобалния годишен приход на материнската компания на Google, Alphabet, за нарушения, както съобщава TechCrunch.
Google разработи редица генеративни AI инструменти, включително своята серия Gemini от големи модели за език (предишно Bard), използвани за различни приложения, включително подобряване на уеб търсенето чрез AI чатботове, отбелязва TechCrunch.
Централен за тези инструменти е Google’s PaLM2, основен LLM, стартирал на миналогодишната конференция за разработчици I/O, споменава TechCrunch.
Миналия месец, X на Елон Мъск също беше подложено на проверка от европейските регулатори заради използването на потребителски данни за обучение на изкуствен интелект. DPC (Комисията за защита на данните) започна разследване след получени жалби, че X подава потребителски данни в своята технология за изкуствен интелект Grok без да получава подходящо съгласие. Въпреки че X е съгласно да ограничи обработката на данни, то не е било санкционирано.
Това разследване е част от по-широките усилия на DPC за регулиране на използването на лични данни в разработката на изкуствен интелект в целия Европейски съюз. Наскорошното приемане на Закона за изкуствен интелигент от ЕС представлява значителна стъпка към създаването на регулаторна рамка за технологиите за изкуствен интелект в блока.
Оставете коментар
Прекрати