15 МАРТА - РЕФЕРЕНДУМ

ChatGPT обманул. Юристов накажут за выдуманные судебные дела в США

ПОДЕЛИТЬСЯ

ChatGPT обманул. Юристов накажут за выдуманные судебные дела в США Фото:elements.envato.com

В США двум юристам грозит наказание за использование искусственного интеллекта ChatGPT при подготовке иска, передает Tengrinews.kz со ссылкой на CTV News.


В США двум юристам грозит наказание за использование искусственного интеллекта ChatGPT при подготовке иска, передает Tengrinews.kz со ссылкой на CTV News.

Стивен Шварц и Питер Лодука, представлявшие интересы пассажира, пострадавшего во время авиаперелета, решили использовать ChatGPT для поиска аналогичных судебных процессов в целях поддержки своего дела. Однако оказалось, что ChatGPT предоставил им информацию о вымышленных прецедентах, которых на самом деле не существовало.

Шварц объяснил, что использовал чат-бот, когда искал судебные прецеденты, подтверждающие иск клиента против колумбийской авиакомпании Avianca за травму, полученную во время полета в 2019 году. Так, ChatGPT предложил несколько дел, связанных с авиационными происшествиями, которые Шварц не смог найти обычными методами, используемыми в его юридической фирме. Проблема заключалась в том, что некоторые из этих случаев не были реальными или касались несуществующих авиакомпаний.

"Я действовал в заблуждении, что этот сайт получает эти случаи из какого-то источника, к которому у меня нет доступа. Я потерпел неудачу в проведении последующих исследований, чтобы убедиться в правильности ссылок", - заявил Шварц окружному судье США Кевину Кастелу.

Шварц не предполагал, что искусственный интеллект способен выдумывать судебные процессы. Адвокат признал свою ошибку и извинился, заявив, что он "пострадал в личном и профессиональном плане". Он также сообщил, что юридическая фирма, в которой он работает, приняла дополнительные меры, чтобы предотвратить повторение подобных инцидентов.

Питер Лодука также признал, что полностью доверял своему коллеге и не проверял информацию, полученную от него. Оба адвоката вызвали негодование у судьи, который выразил разочарование их работой. Судья отметил, что адвокаты не попытались своевременно исправить иск, убрав ссылки на несуществующие прецеденты. В марте представители авиакомпании-ответчика сообщили Шварцу и Лодуке, что их иск содержит вымысел. Адвокаты также не заметили явных несоответствий в иске, созданном с помощью ChatGPT, которые судья назвал "юридической чепухой".

Судья прокомментировал этот инцидент как первый задокументированный случай потенциального профессионального нарушения, связанного с использованием генеративного искусственного интеллекта. Специалист по цифровой безопасности Дэниел Шин отметил, что этот случай ярко демонстрирует опасность использования перспективных технологий искусственного интеллекта без должного понимания связанных с ними рисков.

В ближайшее время судья определит, какую ответственность понесут юристы, положившиеся на ChatGPT.

Ранее чат-бот ChatGPT успешно сдал экзамены в двух вузах США.

Все новости с нашего сайта - в нашем новом Telegram-канале. Вы будете в курсе главных событий - подписывайтесь по ссылке!

Tengrinews
Читайте также

Курс валют

 497.69  course up  588.2  course up  6.46  course down

 

Погода

location-current
Алматы
А
Алматы -6
Астана -21
Актау 1
Актобе -9
Атырау -2
Б
Балхаш -14
Ж
Жезказган -20
К
Караганда -18
Кокшетау -18
Костанай -10
Кызылорда -21
П
Павлодар -22
Петропавловск -24
С
Семей -13
Т
Талдыкорган -6
Тараз 2
Туркестан -13
У
Уральск -24
Усть-Каменогорск 2
Ш
Шымкент -16

 

Редакция Реклама
Социальные сети