Грешки, генерирани от ИИ, в съдебни документи довеждат до правни проблеми за адвокатите

Photo by Saúl Bucio on Unsplash

Грешки, генерирани от ИИ, в съдебни документи довеждат до правни проблеми за адвокатите

Време за четене: 2 мин.

Доклад, споделен вчера от Reuters, разкрива, че „халюцинациите“ на изкуствения интелект – грешки и измислени данни, създадени от генеративни AI модели, предизвикват правни проблеми в съдилищата в Съединените щати.

В бягство? Ето бързите факти!

  • Morgan & Morgan изпратиха имейл до 1,000 адвокати, предупреждавайки за рисковете от използването на изкуствен интелект.
  • Скорошният случай с адвокатите на Walmart, които признаха, че използват изкуствен интелект за своите дела, предизвика тревога в юридическата общност.
  • Използването на халюцинации на чатботове в съдебните заявления става все повече реалност през последните години.

Този месец, юридическата фирма Морган & Морган изпрати имейл с предупреждение до над 1,000 адвокати относно рисковете от използването на чатботове и фалшиви дела, генерирани от изкуствен интелект.

Преди няколко дни, двама адвокати в Уайоминг признаха, че са включили фалшиви дела, генерирани от изкуствен интелект, в съдебни документи за дело срещу Walmart, а федерален съдия заплаши да ги санкционира.

През декември, професорът от Станфорд и експерта по дезинформация Джеф Ханкок беше обвинен в използване на изкуствен интелект за фабрикуване на цитати от съдебни декларации като част от защитата му на закона на щата от 2023 г., който криминализира използването на дийпфейкове за оказване на влияние върху изборите.

Множество случаи като тези през последните години създават правни противоречия и затрудняват работата на съдии и ищци. Morgan & Morgan и Walmart отказаха да коментират по този въпрос.

Генеративното изкуствен интелигент помага за намаляване на времето за изследвания на адвокатите, но неговите халюцинации могат да причинят значителни разходи. Миналата година, проучване на Thomson Reuters показа, че 63% от адвокатите използват изкуствен интелект за работа и 12% го правят редовно.

Миналата година, Американската адвокатска асоциация напомни на своите 400,000 члена за правилата за етика на адвоката, които включват адвокатите да поддържат всичката информация в своите съдебни документи и отбеляза, че това включва информация, генерирана от изкуствен интелект, дори ако е била неволна-както в случая на Ханкок.

„Когато адвокатите се хващат да използват ChatGPT или каквото и да е генеративно средство за изкуствен интелект за създаване на цитати без да ги проверяват, това е некомпетентност, просто и ясно,“ каза Андрю Пърлман, декан на юридическия факултет на Университета в Съфолк на Reuters.

Преди няколко дни, BBC също сподели доклад, предупреждаващ за измислени цитати, генерирани от изкуствен интелект и проблемите с AI инструментите в журналистиката.

Хареса ли ви тази статия?
Оценете я!
Не ми хареса Не ми хареса особено Става Добра е! Страхотна!

Радваме се, че работата ни Ви хареса!

Като ценен читател, имате ли нещо против да ни дадете рейтинг в Trustpilot? Става бързо и означава всичко за нас. Благодарим Ви, че сте толкова невероятни!

Оценете ни в Trustpilot
0 Оценена от 0 потребителя
Заглавие
Коментар
Благодарим за вашето мнение
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставете коментар

Loader
Loader Покажи още...