Адвокати, які судяться з колумбійською авіакомпанією Avianca, подали до суду справу, у якій було повно вигаданих ChatGPT попередніх справ. Адвокат протилежної сторони вказав на неіснуючі справи.
Окружний суддя США Кевін Кастель підтвердив, що "шість з поданих справ виглядають як фальшиві судові рішення з фальшивими цитатами й фальшивими внутрішніми посиланнями", і призначив слухання, під час якого він розглядає питання про санкції для адвокатів позивача, пише The Verge, посилаючись на The New York Times.
Адвокат Стівен Шварц визнав під присягою, що використовував чат-бот OpenAI для своїх розслідувань. Для перевірки кейсів він зробив єдину розумну річ: запитав чат-бот, чи не бреше він.
Коли він попросив вказати джерело, ChatGPT вибачився за попередню плутанину і наполягав на тому, що справа була справжньою, заявивши, що її можна знайти на сайтах Westlaw і LexisNexis. Задоволений, він запитав, чи були інші справи фальшивими, і ChatGPT стверджував, що всі вони були справжніми.
Адвокат протилежної сторони ознайомив суд з цією проблемою в найдрібніших подробицях, розповівши про те, що подання адвокатів "Левидов, Левидов і Оберман" було повним брехні. В одному з прикладів, у неіснуючій справі під назвою Varghese v. China Southern Airlines Co., Ltd., чат-бот посилався, схоже, на іншу реальну справу, Zicherman v. Korean Air Lines Co., Ltd., але помилився з датою (та іншими деталями), заявивши, що рішення було прийнято через 12 років після початкового рішення 1996 року.
Шварц каже, що він "не знав про можливість того, що його зміст може бути неправдивим". Тепер він "дуже шкодує про те, що використав генеративний штучний інтелект для доповнення правового розслідування і ніколи не робитиме цього в майбутньому без абсолютної перевірки його автентичності".
Шварц не допущений до практики в Південному окрузі Нью-Йорка, але перед цим, тобто до того, як його направили до цього суду, він подав позов, і каже, що продовжує працювати над ним. Інший адвокат тієї ж фірми, Пітер Лодука, став офіційним представником у цій справі, і йому доведеться постати перед суддею, щоб пояснити, що саме сталося.
Це ще раз підкреслює абсурдність використання чат-ботів для розслідувань без подвійної (або потрійної) перевірки їхніх джерел будь-де.
Дебют Bing від Microsoft сумнозвісно асоціюється з відвертою брехнею, газлайтінгом (gaslighting) та емоційними маніпуляціями.
Бард, чат-бот зі штучним інтелектом від Google, у своїй першій демонстраційній версії вигадав факт про космічний телескоп Джеймса Вебба. Bing навіть збрехав про те, що Бард був вимкнений у кумедному прикладі в березні цього року.
Вміння імітувати зразки письмової мови, щоб підтримувати атмосферу непохитної впевненості, мало чого варте, якщо ви навіть не можете з'ясувати, скільки разів буква "е" зустрічається в кетчупі.
Так чи інакше, а суддя вказав на те, що адвокатська заява була суцільним фестивалем брехні.
Наші інтереси:
Треба бути обережними у використанні технологій ШІ. У медалі завжди є дві сторони.
Стратегія палінгенезії полягає не в тому, щоб поборювати старий світ, а в тому, щоб використовувати його як ресурс для власного розвитку. Чеснота милосердя дозволяє вчитися у ворогів і...
Юрист використовував ChatGPT і тепер повинен відповісти за його фальшиві цитати
Категорія:
Світ:
Спецтема:
Адвокати, які судяться з колумбійською авіакомпанією Avianca, подали до суду справу, у якій було повно вигаданих ChatGPT попередніх справ. Адвокат протилежної сторони вказав на неіснуючі справи.
23052901.jpg
Окружний суддя США Кевін Кастель підтвердив, що "шість з поданих справ виглядають як фальшиві судові рішення з фальшивими цитатами й фальшивими внутрішніми посиланнями", і призначив слухання, під час якого він розглядає питання про санкції для адвокатів позивача, пише The Verge, посилаючись на The New York Times.
Адвокат Стівен Шварц визнав під присягою, що використовував чат-бот OpenAI для своїх розслідувань. Для перевірки кейсів він зробив єдину розумну річ: запитав чат-бот, чи не бреше він.
Коли він попросив вказати джерело, ChatGPT вибачився за попередню плутанину і наполягав на тому, що справа була справжньою, заявивши, що її можна знайти на сайтах Westlaw і LexisNexis. Задоволений, він запитав, чи були інші справи фальшивими, і ChatGPT стверджував, що всі вони були справжніми.
Адвокат протилежної сторони ознайомив суд з цією проблемою в найдрібніших подробицях, розповівши про те, що подання адвокатів "Левидов, Левидов і Оберман" було повним брехні. В одному з прикладів, у неіснуючій справі під назвою Varghese v. China Southern Airlines Co., Ltd., чат-бот посилався, схоже, на іншу реальну справу, Zicherman v. Korean Air Lines Co., Ltd., але помилився з датою (та іншими деталями), заявивши, що рішення було прийнято через 12 років після початкового рішення 1996 року.
Шварц каже, що він "не знав про можливість того, що його зміст може бути неправдивим". Тепер він "дуже шкодує про те, що використав генеративний штучний інтелект для доповнення правового розслідування і ніколи не робитиме цього в майбутньому без абсолютної перевірки його автентичності".
Шварц не допущений до практики в Південному окрузі Нью-Йорка, але перед цим, тобто до того, як його направили до цього суду, він подав позов, і каже, що продовжує працювати над ним. Інший адвокат тієї ж фірми, Пітер Лодука, став офіційним представником у цій справі, і йому доведеться постати перед суддею, щоб пояснити, що саме сталося.
Це ще раз підкреслює абсурдність використання чат-ботів для розслідувань без подвійної (або потрійної) перевірки їхніх джерел будь-де.
Дебют Bing від Microsoft сумнозвісно асоціюється з відвертою брехнею, газлайтінгом (gaslighting) та емоційними маніпуляціями.
Бард, чат-бот зі штучним інтелектом від Google, у своїй першій демонстраційній версії вигадав факт про космічний телескоп Джеймса Вебба. Bing навіть збрехав про те, що Бард був вимкнений у кумедному прикладі в березні цього року.
Вміння імітувати зразки письмової мови, щоб підтримувати атмосферу непохитної впевненості, мало чого варте, якщо ви навіть не можете з'ясувати, скільки разів буква "е" зустрічається в кетчупі.
Так чи інакше, а суддя вказав на те, що адвокатська заява була суцільним фестивалем брехні.
Треба бути обережними у використанні технологій ШІ. У медалі завжди є дві сторони.
Зверніть увагу
Чи треба любити ворогів, або 5 проявів сили, що відрізняють людину від людиноподібної тварини – Нагірна проповідь