ОЦЕНИТЕ РАБОТУ АКИМА
09 июня 2023 | 15:52

ChatGPT обманул. Юристов накажут за выдуманные судебные дела в США

ПОДЕЛИТЬСЯ

Фото:elements.envato.com Фото:elements.envato.com

В США двум юристам грозит наказание за использование искусственного интеллекта ChatGPT при подготовке иска, передает Tengrinews.kz со ссылкой на CTV News.


Иконка комментария блок соц сети

В США двум юристам грозит наказание за использование искусственного интеллекта ChatGPT при подготовке иска, передает Tengrinews.kz со ссылкой на CTV News.

Стивен Шварц и Питер Лодука, представлявшие интересы пассажира, пострадавшего во время авиаперелета, решили использовать ChatGPT для поиска аналогичных судебных процессов в целях поддержки своего дела. Однако оказалось, что ChatGPT предоставил им информацию о вымышленных прецедентах, которых на самом деле не существовало.

Шварц объяснил, что использовал чат-бот, когда искал судебные прецеденты, подтверждающие иск клиента против колумбийской авиакомпании Avianca за травму, полученную во время полета в 2019 году. Так, ChatGPT предложил несколько дел, связанных с авиационными происшествиями, которые Шварц не смог найти обычными методами, используемыми в его юридической фирме. Проблема заключалась в том, что некоторые из этих случаев не были реальными или касались несуществующих авиакомпаний.

"Я действовал в заблуждении, что этот сайт получает эти случаи из какого-то источника, к которому у меня нет доступа. Я потерпел неудачу в проведении последующих исследований, чтобы убедиться в правильности ссылок", - заявил Шварц окружному судье США Кевину Кастелу.

Шварц не предполагал, что искусственный интеллект способен выдумывать судебные процессы. Адвокат признал свою ошибку и извинился, заявив, что он "пострадал в личном и профессиональном плане". Он также сообщил, что юридическая фирма, в которой он работает, приняла дополнительные меры, чтобы предотвратить повторение подобных инцидентов.

Питер Лодука также признал, что полностью доверял своему коллеге и не проверял информацию, полученную от него. Оба адвоката вызвали негодование у судьи, который выразил разочарование их работой. Судья отметил, что адвокаты не попытались своевременно исправить иск, убрав ссылки на несуществующие прецеденты. В марте представители авиакомпании-ответчика сообщили Шварцу и Лодуке, что их иск содержит вымысел. Адвокаты также не заметили явных несоответствий в иске, созданном с помощью ChatGPT, которые судья назвал "юридической чепухой".

Судья прокомментировал этот инцидент как первый задокументированный случай потенциального профессионального нарушения, связанного с использованием генеративного искусственного интеллекта. Специалист по цифровой безопасности Дэниел Шин отметил, что этот случай ярко демонстрирует опасность использования перспективных технологий искусственного интеллекта без должного понимания связанных с ними рисков.

В ближайшее время судья определит, какую ответственность понесут юристы, положившиеся на ChatGPT.

Ранее чат-бот ChatGPT успешно сдал экзамены в двух вузах США.

Все новости с нашего сайта - в нашем новом Telegram-канале. Вы будете в курсе главных событий - подписывайтесь по ссылке!

Читайте также
Join Telegram
Лого TengriSport мобильная Лого TengriLife мобильная Иконка меню мобильная
Иконка закрытия мобильного меню

Курс валют

 494.98   521.17   4.92 

 

Погода

 

Редакция Реклама
Социальные сети