9 июня, 12:51
Судьи Калифорнии и Британии предупреждают о рисках использования ИИ в юридической практике

IT-юрист
Очередной звоночек для тех юристов, кто слишком полагается в своей работе на ИИ В Калифорнии судья Майкл Уилнер оштрафовал две юридические фирмы на $31,000 за подачу документа с фейковыми данными, сгенерированными ИИ. Один из юристов использовал Google Gemini и CoCounsel в Westlaw Precision, чтобы накидать драфт документа. Потом его текст попал в другую фирму, где его, не проверяя, вставили в финальную версию. В результате всё как обычно: несуществующие прецеденты в официальном документе, а потенциально - и в решении суда. Когда судья Уилнер начал разбираться, он обнаружил, что минимум два цитируемых решения просто не существуют. После запроса о разъяснениях фирма предоставила исправленную версию, в которой было ещё больше вымышленных ссылок и цитат. Это привело к формальному запросу от суда Order to Show Cause , в ответе на который юристы подтвердили использование ИИ. Судья не скрывал возмущения: “Ни один компетентный юрист не должен перекладывать исследование и написание аргументов на ИИ”
Происшествия188 дней назад


godnoTECH - Новости IT
В Британии юристы попались на фейковых прецедентах Английский Высокий суд предупредил: за использование фейков от ИИ в юрдоках можно и под суд пойти. Два свежих кейса показали, как адвокаты ссылались на несуществующие решения, частично созданные с помощью ИИ — якобы для ускорения подготовки дел. Реальность оказалась болезненной: судья обнаружила вымышленные цитаты и дела. В одном случае 18 из 45 ссылок в иске против банков были выдуманы — признал и истец, и адвокат. В другом — юрист не смог объяснить пять странных ссылок, написанных с американским правописанием. Суд заподозрил ИИ, юрист сначала отрицал, потом всё же признал: да, было. Судья Шарп назвала ситуацию опасной: фейки подрывают доверие к системе. — Печально, но ИИ всё равно нужен — Проблема не в ИИ, а в некомпетентности людей — Судья, переверните листок godnoTECH - Новости IT
Происшествия187 дней назад

LegalTech
Высокий суд Лондона вынес Постановление: юристы, ссылающиеся на фейковые дела, созданные ИИ, могут быть привлечены к ответственности. Юристы, использующие искусственный интеллект для цитирования несуществующих дел, могут быть привлечены к ответственности за неуважение к суду или даже столкнуться с уголовными обвинениями, предупредил Высокий суд Лондона. «Если искусственный интеллект используется не по назначению, это может иметь серьезные последствия для отправления правосудия и общественного доверия к системе правосудия», указано в Постановлении судьи Виктории Шарп. В Постановлении Шарп предупредила, что адвокаты, ссылающиеся на несуществующие дела, нарушают свою обязанность не вводить суд в заблуждение, что также может быть расценено как неуважение к суду. Она добавила, что «в самых вопиющих случаях умышленное предоставление суду ложных материалов с целью помешать отправлению правосудия приравнивается к уголовному преступлению общего права, направленному на воспрепятствование отправлению правосудия». Шарп отметила, что регулирующие органы и судебная система выпустили рекомендации по использованию ИИ юристами, но указала, что «сами по себе рекомендации недостаточны для решения проблемы злоупотребления искусственным интеллектом».
Происшествия185 дней назад

Санкционный Смотритель
lawsanctions Использование юристами непроверенных данных ИИ повлекло санкции В Великобритании Высокий суд рассмотрел 2 дела, где юристы использовали позиции с нагалюцинированными судебными прецедентами. Юристы использовали позицию напрямую из ИИ, без проверок. Одна команда нагалюцинировала все 5 решений в защиту своей легенды, а другая - аж 18 из процитированных 45. За такое обе команды были привлечены Органом по регулированию солиситоров к дисциплинарной ответственности за подрыв доверия к правосудию. Главные выводы: - Юристы несут ответственность работу, сделанную с помощью ИИ - Все результаты работы ИИ должны и быть проверены и подтверждены компетентным юристом - Должны быть разработаны стандарты использования ИИ юристами Клиент и суд точно должны понимать как и до каких пределов юрист использует ИИ. И похоже, правилами хорошего тона становится задекларировать, как ты используешь ИИ. Оригинал новости здесь Комментарий от профильного коллеги на Zakon.ru здесь
Происшествия185 дней назад


Кролик с Неглинной
Судьи Британии выявили случаи использования адвокатами фальшивых судебных прецедентов, сгенерированных ИИ. В одном деле адвокат сослался на 18 несуществующих случаев по иску на £90 млн к Нацбанку Катара, в другом приведено 5 ложных прецедентов в споре арендатора с районом Харингей. Судьи подчеркнули, что использование ИИ без проверки подрывает доверие к правосудию, и предупредили, что подобные действия могут квалифицироваться как неуважение к суду с наказанием до пожизненного заключения.
Происшествия188 дней назад


Unlim AI
Высокий суд Англии осудил адвокатов за фейковые прецеденты с ИИ Высокий суд Англии и Уэльса предупреждает о возможной уголовной ответственности для юристов за использование данных, созданных искусственным интеллектом. Судья Виктория Шарп отметила, что это может подорвать доверие к правосудию. В двух конкретных случаях адвокаты ссылались на несуществующие судебные решения, что выявило проблемы в применении ИИ в юридических процессах. Согласно сообщениям, из 45 упомянутых ссылок в одном случае 18 оказались вымышленными. Судьи указывают, что инструменты, такие как ChatGPT, не способны гарантировать надежность правовых исследований. Согласно данным Vectara и OpenAI, чат-боты могут ошибаться в 0,7–2,2% и 51–79% случаев, соответственно. Судья подчеркнула, что использование ИИ в юриспруденции требует осторожности и осознания рисков. The New York Times
Происшествия188 дней назад

Прокурорские будни
Очередной звоночек для тех юристов, кто слишком полагается в своей работе на ИИ В Калифорнии судья Майкл Уилнер оштрафовал две юридические фирмы на $31,000 за подачу документа с фейковыми данными, сгенерированными ИИ. Один из юристов использовал Google Gemini и CoCounsel в Westlaw Precision, чтобы накидать драфт документа. Потом его текст попал в другую фирму, где его, не проверяя, вставили в финальную версию. В результате всё как обычно: несуществующие прецеденты в официальном документе, а потенциально - и в решении суда. Когда судья Уилнер начал разбираться, он обнаружил, что минимум два цитируемых решения просто не существуют. После запроса о разъяснениях фирма предоставила исправленную версию, в которой было ещё больше вымышленных ссылок и цитат Это привело к формальному запросу от суда Order to Show Cause , в ответе на который юристы подтвердили использование ИИ. Судья не скрывал возмущения: “Ни один компетентный юрист не должен перекладывать исследование и написание аргументов на ИИ”
Происшествия186 дней назад

vc.ru
Суд в Великобритании пригрозил ответственностью адвокатам, которые предоставляют сгенерированные доказательства с ложными фактами. Некоторые из них использовали ответы ИИ, которые содержали ссылки на несуществующие дела. Юристам не запрещают использовать нейросети в работе, но они должны тщательно проверять информацию vc.ru/legal/2034166
Происшествия186 дней назад


The Sanctions Law
Использование юристами непроверенных данных ИИ повлекло санкции В Великобритании Высокий суд рассмотрел 2 дела, где юристы использовали позиции с нагалюцинированными судебными прецедентами. Юристы использовали позицию напрямую из ИИ, без проверок. Одна команда нагалюцинировала все 5 решений в защиту своей легенды, а другая - аж 18 из процитированных 45. За такое обе команды были привлечены Органом по регулированию солиситоров к дисциплинарной ответственности за подрыв доверия к правосудию. Главные выводы: - Юристы несут ответственность работу, сделанную с помощью ИИ - Все результаты работы ИИ должны и быть проверены и подтверждены компетентным юристом - Должны быть разработаны стандарты использования ИИ юристами Клиент и суд точно должны понимать как и до каких пределов юрист использует ИИ. И похоже, правилами хорошего тона становится задекларировать, как ты используешь ИИ. #thoughts Оригинал новости здесь Комментарий от профильного коллеги на Zakon.ru здесь
Происшествия185 дней назад


БЫСТРО
Британский судья выразил обеспокоенность по поводу злоупотребления искусственным интеллектом в судебной практике. В частности, были выявлены случаи использования программ, таких как ChatGPT, для создания фиктивных юридических прецедентов, которые затем представлялись в судах. Это вызвало сложности с определением подлинности представленных данных. Судья Высокого суда Англии и Уэльса сделал официальное заявление, в котором призвал юристов к ответственности и предложил принять меры для предотвращения подобных инцидентов. Он указал на серьезные последствия таких действий для доверия общественности к правосудию. • В последнее время ИИ стал активно использоваться для формирования юридических аргументов. • В нескольких крупных юридических фирмах обнаружены фейковые ссылки на прецедентное право. Судья подчеркнул, что неправомерное использование искусственного интеллекта может подорвать основы правосудия.
Происшествия184 дня назад

Похожие новости



+1



+7



+11



+16



+20



+13

ВС РФ уточнил условия объявления гражданина умершим без розыска
Происшествия
46 минут назад


+1
ИП Петров предстанет перед судом за дачу взятки директору Горводоканала в Котласе
Происшествия
1 день назад


+7
В Чите осуждён водитель BMW за хулиганство на дороге
Происшествия
1 день назад


+11
Девять представителей МУС, включая прокурора Карима Хана, приговорены к срокам до 15 лет заочно
Происшествия
13 часов назад


+16
Прокуратура восстанавливает права участников СВО и жителей на получение жилья
Происшествия
1 день назад


+20
Суд в Чите рассмотрит дело о хищении 1,4 млрд рублей в ДФО
Происшествия
1 день назад


+13