ChatGPT обманул. Юристов накажут за выдуманные судебные дела в США

ПОДЕЛИТЬСЯ

ChatGPT обманул. Юристов накажут за выдуманные судебные дела в США Фото:elements.envato.com

В США двум юристам грозит наказание за использование искусственного интеллекта ChatGPT при подготовке иска, передает Tengrinews.kz со ссылкой на CTV News.

ПОДЕЛИТЬСЯ

В США двум юристам грозит наказание за использование искусственного интеллекта ChatGPT при подготовке иска, передает Tengrinews.kz со ссылкой на CTV News.

Стивен Шварц и Питер Лодука, представлявшие интересы пассажира, пострадавшего во время авиаперелета, решили использовать ChatGPT для поиска аналогичных судебных процессов в целях поддержки своего дела. Однако оказалось, что ChatGPT предоставил им информацию о вымышленных прецедентах, которых на самом деле не существовало.

Шварц объяснил, что использовал чат-бот, когда искал судебные прецеденты, подтверждающие иск клиента против колумбийской авиакомпании Avianca за травму, полученную во время полета в 2019 году. Так, ChatGPT предложил несколько дел, связанных с авиационными происшествиями, которые Шварц не смог найти обычными методами, используемыми в его юридической фирме. Проблема заключалась в том, что некоторые из этих случаев не были реальными или касались несуществующих авиакомпаний.

"Я действовал в заблуждении, что этот сайт получает эти случаи из какого-то источника, к которому у меня нет доступа. Я потерпел неудачу в проведении последующих исследований, чтобы убедиться в правильности ссылок", - заявил Шварц окружному судье США Кевину Кастелу.

Шварц не предполагал, что искусственный интеллект способен выдумывать судебные процессы. Адвокат признал свою ошибку и извинился, заявив, что он "пострадал в личном и профессиональном плане". Он также сообщил, что юридическая фирма, в которой он работает, приняла дополнительные меры, чтобы предотвратить повторение подобных инцидентов.

Питер Лодука также признал, что полностью доверял своему коллеге и не проверял информацию, полученную от него. Оба адвоката вызвали негодование у судьи, который выразил разочарование их работой. Судья отметил, что адвокаты не попытались своевременно исправить иск, убрав ссылки на несуществующие прецеденты. В марте представители авиакомпании-ответчика сообщили Шварцу и Лодуке, что их иск содержит вымысел. Адвокаты также не заметили явных несоответствий в иске, созданном с помощью ChatGPT, которые судья назвал "юридической чепухой".

Судья прокомментировал этот инцидент как первый задокументированный случай потенциального профессионального нарушения, связанного с использованием генеративного искусственного интеллекта. Специалист по цифровой безопасности Дэниел Шин отметил, что этот случай ярко демонстрирует опасность использования перспективных технологий искусственного интеллекта без должного понимания связанных с ними рисков.

В ближайшее время судья определит, какую ответственность понесут юристы, положившиеся на ChatGPT.

Ранее чат-бот ChatGPT успешно сдал экзамены в двух вузах США.

Все новости с нашего сайта - в нашем новом Telegram-канале. Вы будете в курсе главных событий - подписывайтесь по ссылке!

Tengrinews
Читайте также
Join Telegram

Курс валют

 510.4  course up  594.29  course up  6.5  course down

 

Погода

location-current
Алматы
А
Алматы -5
Астана -25
Актау 0
Актобе -20
Атырау -4
Б
Балхаш -14
Ж
Жезказган -22
К
Караганда -27
Кокшетау -25
Костанай -4
Кызылорда -31
П
Павлодар -32
Петропавловск -29
С
Семей -11
Т
Талдыкорган -3
Тараз 4
Туркестан -12
У
Уральск -30
Усть-Каменогорск 11
Ш
Шымкент -16

 

Редакция Реклама
Социальные сети