9 июня, 12:51

Судьи Калифорнии и Британии предупреждают о рисках использования ИИ в юридической практике

IT-юрист
IT-юрист
Очередной звоночек для тех юристов, кто слишком полагается в своей работе на ИИ В Калифорнии судья Майкл Уилнер оштрафовал две юридические фирмы на $31,000 за подачу документа с фейковыми данными, сгенерированными ИИ. ‍ Один из юристов использовал Google Gemini и CoCounsel в Westlaw Precision, чтобы накидать драфт документа. Потом его текст попал в другую фирму, где его, не проверяя, вставили в финальную версию. В результате всё как обычно: несуществующие прецеденты в официальном документе, а потенциально - и в решении суда. Когда судья Уилнер начал разбираться, он обнаружил, что минимум два цитируемых решения просто не существуют. После запроса о разъяснениях фирма предоставила исправленную версию, в которой было ещё больше вымышленных ссылок и цитат. Это привело к формальному запросу от суда Order to Show Cause , в ответе на который юристы подтвердили использование ИИ. Судья не скрывал возмущения: “Ни один компетентный юрист не должен перекладывать исследование и написание аргументов на ИИ”
В Британии юристы попались на фейковых прецедентах  Английский Высокий суд предупредил: за использование фейков от ИИ в юрдоках можно и под суд пойти. Два свежих кейса показали, как адвокаты ссылались на несуществующие решения, частично созданные с помощью ИИ — якобы для ускорения подготовки дел. Реальность оказалась болезненной: судья обнаружила вымышленные цитаты и дела.  В одном случае 18 из 45 ссылок в иске против банков были выдуманы — признал и истец, и адвокат. В другом — юрист не смог объяснить пять странных ссылок, написанных с американским правописанием. Суд заподозрил ИИ, юрист сначала отрицал, потом всё же признал: да, было.  Судья Шарп назвала ситуацию опасной: фейки подрывают доверие к системе.     — Печально, но ИИ всё равно нужен   — Проблема не в ИИ, а в некомпетентности людей   — Судья, переверните листок    godnoTECH - Новости IT
godnoTECH - Новости IT
godnoTECH - Новости IT
В Британии юристы попались на фейковых прецедентах Английский Высокий суд предупредил: за использование фейков от ИИ в юрдоках можно и под суд пойти. Два свежих кейса показали, как адвокаты ссылались на несуществующие решения, частично созданные с помощью ИИ — якобы для ускорения подготовки дел. Реальность оказалась болезненной: судья обнаружила вымышленные цитаты и дела. В одном случае 18 из 45 ссылок в иске против банков были выдуманы — признал и истец, и адвокат. В другом — юрист не смог объяснить пять странных ссылок, написанных с американским правописанием. Суд заподозрил ИИ, юрист сначала отрицал, потом всё же признал: да, было. Судья Шарп назвала ситуацию опасной: фейки подрывают доверие к системе. — Печально, но ИИ всё равно нужен — Проблема не в ИИ, а в некомпетентности людей — Судья, переверните листок godnoTECH - Новости IT
LegalTech
LegalTech
Высокий суд Лондона вынес Постановление: юристы, ссылающиеся на фейковые дела, созданные ИИ, могут быть привлечены к ответственности. Юристы, использующие искусственный интеллект для цитирования несуществующих дел, могут быть привлечены к ответственности за неуважение к суду или даже столкнуться с уголовными обвинениями, предупредил Высокий суд Лондона. «Если искусственный интеллект используется не по назначению, это может иметь серьезные последствия для отправления правосудия и общественного доверия к системе правосудия», указано в Постановлении судьи Виктории Шарп. В Постановлении Шарп предупредила, что адвокаты, ссылающиеся на несуществующие дела, нарушают свою обязанность не вводить суд в заблуждение, что также может быть расценено как неуважение к суду. Она добавила, что «в самых вопиющих случаях умышленное предоставление суду ложных материалов с целью помешать отправлению правосудия приравнивается к уголовному преступлению общего права, направленному на воспрепятствование отправлению правосудия». Шарп отметила, что регулирующие органы и судебная система выпустили рекомендации по использованию ИИ юристами, но указала, что «сами по себе рекомендации недостаточны для решения проблемы злоупотребления искусственным интеллектом».
Санкционный Смотритель
Санкционный Смотритель
lawsanctions Использование юристами непроверенных данных ИИ повлекло санкции В Великобритании Высокий суд рассмотрел 2 дела, где юристы использовали позиции с нагалюцинированными судебными прецедентами. Юристы использовали позицию напрямую из ИИ, без проверок. Одна команда нагалюцинировала все 5 решений в защиту своей легенды, а другая - аж 18 из процитированных 45. За такое обе команды были привлечены Органом по регулированию солиситоров к дисциплинарной ответственности за подрыв доверия к правосудию. Главные выводы: - Юристы несут ответственность работу, сделанную с помощью ИИ - Все результаты работы ИИ должны и быть проверены и подтверждены компетентным юристом - Должны быть разработаны стандарты использования ИИ юристами Клиент и суд точно должны понимать как и до каких пределов юрист использует ИИ. И похоже, правилами хорошего тона становится задекларировать, как ты используешь ИИ. Оригинал новости здесь Комментарий от профильного коллеги на Zakon.ru здесь
Loading indicator gif
Кролик с Неглинной
Кролик с Неглинной
Судьи Британии выявили случаи использования адвокатами фальшивых судебных прецедентов, сгенерированных ИИ. В одном деле адвокат сослался на 18 несуществующих случаев по иску на £90 млн к Нацбанку Катара, в другом приведено 5 ложных прецедентов в споре арендатора с районом Харингей. Судьи подчеркнули, что использование ИИ без проверки подрывает доверие к правосудию, и предупредили, что подобные действия могут квалифицироваться как неуважение к суду с наказанием до пожизненного заключения.
Высокий суд Англии осудил адвокатов за фейковые прецеденты с ИИ  Высокий суд Англии и Уэльса предупреждает о возможной уголовной ответственности для юристов за использование данных, созданных искусственным интеллектом. Судья Виктория Шарп отметила, что это может подорвать доверие к правосудию. В двух конкретных случаях адвокаты ссылались на несуществующие судебные решения, что выявило проблемы в применении ИИ в юридических процессах.   Согласно сообщениям, из 45 упомянутых ссылок в одном случае 18 оказались вымышленными. Судьи указывают, что инструменты, такие как ChatGPT, не способны гарантировать надежность правовых исследований.   Согласно данным Vectara и OpenAI, чат-боты могут ошибаться в 0,7–2,2% и 51–79% случаев, соответственно. Судья подчеркнула, что использование ИИ в юриспруденции требует осторожности и осознания рисков.    The New York Times
Unlim AI
Unlim AI
Высокий суд Англии осудил адвокатов за фейковые прецеденты с ИИ Высокий суд Англии и Уэльса предупреждает о возможной уголовной ответственности для юристов за использование данных, созданных искусственным интеллектом. Судья Виктория Шарп отметила, что это может подорвать доверие к правосудию. В двух конкретных случаях адвокаты ссылались на несуществующие судебные решения, что выявило проблемы в применении ИИ в юридических процессах. Согласно сообщениям, из 45 упомянутых ссылок в одном случае 18 оказались вымышленными. Судьи указывают, что инструменты, такие как ChatGPT, не способны гарантировать надежность правовых исследований. Согласно данным Vectara и OpenAI, чат-боты могут ошибаться в 0,7–2,2% и 51–79% случаев, соответственно. Судья подчеркнула, что использование ИИ в юриспруденции требует осторожности и осознания рисков. The New York Times
Прокурорские будни
Прокурорские будни
Очередной звоночек для тех юристов, кто слишком полагается в своей работе на ИИ В Калифорнии судья Майкл Уилнер оштрафовал две юридические фирмы на $31,000 за подачу документа с фейковыми данными, сгенерированными ИИ. ‍ Один из юристов использовал Google Gemini и CoCounsel в Westlaw Precision, чтобы накидать драфт документа. Потом его текст попал в другую фирму, где его, не проверяя, вставили в финальную версию. В результате всё как обычно: несуществующие прецеденты в официальном документе, а потенциально - и в решении суда. Когда судья Уилнер начал разбираться, он обнаружил, что минимум два цитируемых решения просто не существуют. После запроса о разъяснениях фирма предоставила исправленную версию, в которой было ещё больше вымышленных ссылок и цитат ‍ Это привело к формальному запросу от суда Order to Show Cause , в ответе на который юристы подтвердили использование ИИ. Судья не скрывал возмущения: “Ни один компетентный юрист не должен перекладывать исследование и написание аргументов на ИИ”
vc.ru
vc.ru
Суд в Великобритании пригрозил ответственностью адвокатам, которые предоставляют сгенерированные доказательства с ложными фактами. Некоторые из них использовали ответы ИИ, которые содержали ссылки на несуществующие дела. Юристам не запрещают использовать нейросети в работе, но они должны тщательно проверять информацию vc.ru/legal/2034166
Использование юристами непроверенных данных ИИ повлекло санкции  В Великобритании   Высокий суд   рассмотрел 2 дела, где юристы использовали позиции с нагалюцинированными судебными прецедентами. Юристы использовали позицию напрямую из ИИ, без проверок. Одна команда нагалюцинировала все 5 решений в защиту своей легенды, а другая - аж 18 из процитированных 45.  За такое обе команды были привлечены Органом по регулированию солиситоров к дисциплинарной ответственности за подрыв доверия к правосудию.    Главные выводы:   - Юристы несут ответственность работу, сделанную с помощью ИИ - Все результаты работы ИИ должны и быть проверены и подтверждены компетентным юристом - Должны быть разработаны стандарты использования ИИ юристами    Клиент и суд точно должны понимать как и до каких пределов юрист использует ИИ. И похоже, правилами хорошего тона становится задекларировать, как ты используешь ИИ.   #thoughts  Оригинал новости здесь  Комментарий от профильного коллеги на Zakon.ru здесь
The Sanctions Law
The Sanctions Law
Использование юристами непроверенных данных ИИ повлекло санкции В Великобритании Высокий суд рассмотрел 2 дела, где юристы использовали позиции с нагалюцинированными судебными прецедентами. Юристы использовали позицию напрямую из ИИ, без проверок. Одна команда нагалюцинировала все 5 решений в защиту своей легенды, а другая - аж 18 из процитированных 45. За такое обе команды были привлечены Органом по регулированию солиситоров к дисциплинарной ответственности за подрыв доверия к правосудию. Главные выводы: - Юристы несут ответственность работу, сделанную с помощью ИИ - Все результаты работы ИИ должны и быть проверены и подтверждены компетентным юристом - Должны быть разработаны стандарты использования ИИ юристами Клиент и суд точно должны понимать как и до каких пределов юрист использует ИИ. И похоже, правилами хорошего тона становится задекларировать, как ты используешь ИИ. #thoughts Оригинал новости здесь Комментарий от профильного коллеги на Zakon.ru здесь
Британский судья выразил обеспокоенность по поводу злоупотребления искусственным интеллектом в судебной практике. В частности, были выявлены случаи использования программ, таких как ChatGPT, для создания фиктивных юридических прецедентов, которые затем представлялись в судах. Это вызвало сложности с определением подлинности представленных данных.  Судья Высокого суда Англии и Уэльса сделал официальное заявление, в котором призвал юристов к ответственности и предложил принять меры для предотвращения подобных инцидентов. Он указал на серьезные последствия таких действий для доверия общественности к правосудию.  • В последнее время ИИ стал активно использоваться для формирования юридических аргументов. • В нескольких крупных юридических фирмах обнаружены фейковые ссылки на прецедентное право.  Судья подчеркнул, что неправомерное использование искусственного интеллекта может подорвать основы правосудия.
БЫСТРО
БЫСТРО
Британский судья выразил обеспокоенность по поводу злоупотребления искусственным интеллектом в судебной практике. В частности, были выявлены случаи использования программ, таких как ChatGPT, для создания фиктивных юридических прецедентов, которые затем представлялись в судах. Это вызвало сложности с определением подлинности представленных данных. Судья Высокого суда Англии и Уэльса сделал официальное заявление, в котором призвал юристов к ответственности и предложил принять меры для предотвращения подобных инцидентов. Он указал на серьезные последствия таких действий для доверия общественности к правосудию. • В последнее время ИИ стал активно использоваться для формирования юридических аргументов. • В нескольких крупных юридических фирмах обнаружены фейковые ссылки на прецедентное право. Судья подчеркнул, что неправомерное использование искусственного интеллекта может подорвать основы правосудия.
Loading indicator gif