Изследване в Европа над модела на изкуствен интелект на Google

Image from Trustedreviews

Изследване в Европа над модела на изкуствен интелект на Google

Време за четене: 2 мин.

Комисията за защита на данните (DPC) обяви днес разследване на Google, за да определи дали компанията е спазвала законите на ЕС за защита на данните при разработването на своя AI модел, Pathways Language Model 2 (PaLM 2).

PaLM2 е голям езиков модел, използван в различни AI услуги, включително обобщаване на имейли. Google заяви, че ще сътрудничи на разследването, както е отбелязано от AP.

Разследването ще оцени дали Google трябваше да извърши Оценка на въздействието върху защитата на данните (DPIA) за оценка на потенциалните рискове за правата и свободите на лицата от своите AI технологии.

Това разследване е част от по-широките усилия на DPC за гарантиране на съответствие с правилата за защита на данните в сектора на AI в цяла Европа. Обработката на данни през границите, която включва обработване на данни в множество държави от ЕС или засягаща лица в няколко нации, е под особено внимание.

Генеративните AI инструменти, известни с това, че произвеждат убедителна, но лъжлива информация и достъпват лични данни, представляват значителни правни рискове, както посочва TechCrunch. DPC, отговорна за гарантирането на съответствието на Google с Общия регламент за защита на данните (GDPR).

За тази цел DPC може да налага глоби до 4% от глобалния годишен приход на материнската компания на Google, Alphabet, за нарушения, както съобщава TechCrunch.

Google разработи редица генеративни AI инструменти, включително своята серия Gemini от големи модели за език (предишно Bard), използвани за различни приложения, включително подобряване на уеб търсенето чрез AI чатботове, отбелязва TechCrunch.

Централен за тези инструменти е Google’s PaLM2, основен LLM, стартирал на миналогодишната конференция за разработчици I/O, споменава TechCrunch.

Миналия месец, X на Елон Мъск също беше подложено на проверка от европейските регулатори заради използването на потребителски данни за обучение на изкуствен интелект. DPC (Комисията за защита на данните) започна разследване след получени жалби, че X подава потребителски данни в своята технология за изкуствен интелект Grok без да получава подходящо съгласие. Въпреки че X е съгласно да ограничи обработката на данни, то не е било санкционирано.

Това разследване е част от по-широките усилия на DPC за регулиране на използването на лични данни в разработката на изкуствен интелект в целия Европейски съюз. Наскорошното приемане на Закона за изкуствен интелигент от ЕС представлява значителна стъпка към създаването на регулаторна рамка за технологиите за изкуствен интелект в блока.

Хареса ли ви тази статия?
Оценете я!
Не ми хареса Не ми хареса особено Става Добра е! Страхотна!

Радваме се, че работата ни Ви хареса!

Като ценен читател, имате ли нещо против да ни дадете рейтинг в Trustpilot? Става бързо и означава всичко за нас. Благодарим Ви, че сте толкова невероятни!

Оценете ни в Trustpilot
0 Оценена от 0 потребителя
Заглавие
Коментар
Благодарим за вашето мнение
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставете коментар

Loader
Loader Покажи още...