ОЦЕНИТЕ ДЕПУТАТОВ МАЖИЛИСА
09 июня 2023 | 15:52

ChatGPT обманул. Юристов накажут за выдуманные судебные дела в США

viewings icon comments icon

ПОДЕЛИТЬСЯ

whatsapp button telegram button facebook button
Фото:elements.envato.com Фото:elements.envato.com

В США двум юристам грозит наказание за использование искусственного интеллекта ChatGPT при подготовке иска, передает Tengrinews.kz со ссылкой на CTV News.

whatsapp button telegram button facebook button copyLink button
Иконка комментария блок соц сети

В США двум юристам грозит наказание за использование искусственного интеллекта ChatGPT при подготовке иска, передает Tengrinews.kz со ссылкой на CTV News.

Стивен Шварц и Питер Лодука, представлявшие интересы пассажира, пострадавшего во время авиаперелета, решили использовать ChatGPT для поиска аналогичных судебных процессов в целях поддержки своего дела. Однако оказалось, что ChatGPT предоставил им информацию о вымышленных прецедентах, которых на самом деле не существовало.

Шварц объяснил, что использовал чат-бот, когда искал судебные прецеденты, подтверждающие иск клиента против колумбийской авиакомпании Avianca за травму, полученную во время полета в 2019 году. Так, ChatGPT предложил несколько дел, связанных с авиационными происшествиями, которые Шварц не смог найти обычными методами, используемыми в его юридической фирме. Проблема заключалась в том, что некоторые из этих случаев не были реальными или касались несуществующих авиакомпаний.

"Я действовал в заблуждении, что этот сайт получает эти случаи из какого-то источника, к которому у меня нет доступа. Я потерпел неудачу в проведении последующих исследований, чтобы убедиться в правильности ссылок", - заявил Шварц окружному судье США Кевину Кастелу.

Шварц не предполагал, что искусственный интеллект способен выдумывать судебные процессы. Адвокат признал свою ошибку и извинился, заявив, что он "пострадал в личном и профессиональном плане". Он также сообщил, что юридическая фирма, в которой он работает, приняла дополнительные меры, чтобы предотвратить повторение подобных инцидентов.

Питер Лодука также признал, что полностью доверял своему коллеге и не проверял информацию, полученную от него. Оба адвоката вызвали негодование у судьи, который выразил разочарование их работой. Судья отметил, что адвокаты не попытались своевременно исправить иск, убрав ссылки на несуществующие прецеденты. В марте представители авиакомпании-ответчика сообщили Шварцу и Лодуке, что их иск содержит вымысел. Адвокаты также не заметили явных несоответствий в иске, созданном с помощью ChatGPT, которые судья назвал "юридической чепухой".

Судья прокомментировал этот инцидент как первый задокументированный случай потенциального профессионального нарушения, связанного с использованием генеративного искусственного интеллекта. Специалист по цифровой безопасности Дэниел Шин отметил, что этот случай ярко демонстрирует опасность использования перспективных технологий искусственного интеллекта без должного понимания связанных с ними рисков.

В ближайшее время судья определит, какую ответственность понесут юристы, положившиеся на ChatGPT.

Ранее чат-бот ChatGPT успешно сдал экзамены в двух вузах США.

Все новости с нашего сайта - в нашем новом Telegram-канале. Вы будете в курсе главных событий - подписывайтесь по ссылке!

Читайте также
Join Telegram Последние новости
Лого TengriNews мобильная Лого TengriSport мобильная Лого TengriLife мобильная Лого TengriAuto мобильная Иконка меню мобильная
Иконка закрытия мобильного меню
Открыть TengriNews Открыть TengriLife Открыть TengriSport Открыть TengriTravel Открыть TengriGuide Открыть TengriEdu Открыть TengriAuto

Курс валют

 523.95  course up  543.16  course up  5.1  course up

 

Погода

 

Редакция Реклама
Социальные сети
Иконка Instagram footer Иконка Telegram footer Иконка Vkontakte footer Иконка Facebook footer Иконка Twitter footer Иконка Youtube footer Иконка TikTok footer Иконка WhatsApp footer