Coraz częściej w przestrzeni medialnej pojawiają się doniesienia dotyczące możliwych konsekwencji wykorzystywania narzędzi AI w pracy prawników. Na przykład, w jednym z postępowań, które toczyło się przed Sądem Rejonowym w Kolonii, pełnomocnik procesowy miał przedłożyć pismo procesowe zawierające liczne halucynacje AI (nieprawdziwe informacje wygenerowane przez model AI, w tym nieistniejące cytaty z orzecznictwa i doktryny). Sprawa ta wywołała w Niemczech dyskusję na temat tego, jakimi narzędziami prawnymi dysponuje sąd dla zdyscyplinowania pełnomocnika, który w taki sposób tworzy pisma procesowe. Nie jest to pierwsza sprawa, w której korzystanie z AI przez pełnomocnika procesowego skutkowało stanowczą reakcją sądu. W USA takie sprawy zdarzają się od kilku lat, a prawnicy składający pisma z wygenerowanymi, nieprawdziwymi, informacjami mogą liczyć się nieprzyjemnymi konsekwencjami, w tym w sferze finansowej.
AI w branży prawniczej
Boom na Sztuczną Inteligencję nie ominął branży prawniczej. Rozwiązania AI są intensywnie wdrażane, zarówno w wielkich korporacjach prawniczych, jak i kancelariach butikowych. Komentatorzy zaś regularnie rozważają, w jakim stopniu AI wpłynie na ilość i charakter pracy prawników. Zagadnieniem tym zainteresowali się również badacze i naukowcy, którzy przeprowadzili szereg analiz dotyczących wpływu AI na ten sektor gospodarki. Badacze szacują, że około 40-50% pracy wykonywanej w branży prawniczej może być wykonywane przez sztuczną inteligencję. Przede wszystkim wskazują tu obowiązki administracyjne i zadania wykonywane przez prawników o małym doświadczeniu (tzw. paralegali czy juniorów). Mniej zagrożeni są prawnicy o większym doświadczeniu. Niektórzy badacze sugerują, że w związku z koniecznością sprawdzania pism przygotowanych przez AI, będą oni mieli wręcz więcej pracy niż do tej pory.
Halucynacje AI w pismach procesowych
Wydaje się, że autorzy wspomnianego badania nie brali jednak pod uwagę, że w praktyce może zdarzyć się, że autorzy pism procesowych mogą uznać za zbędne sprawdzanie treści przygotowanych przez AI. Prawdopodobnie taka właśnie sytuacja miała miejsce w Kolonii, gdzie pełnomocnik reprezentujący klienta w sprawie rodzinnej, złożył pismo zawierające zmyślone orzeczenia i cytaty. Sprawa ta stała się szczególnie głośna z racji na reakcję sądu. Uznał on bowiem takie działanie za niezgodne z zasadami etyki adwokackiej i polecił pełnomocnikowi „nie robić takich rzeczy” w przyszłości. Reakcja sądu wywołała żywą dyskusję na temat tego, czy istnieją podstawy prawne do wydania takiego polecenia przez sąd. Sprawa ta wskazuje również, że sądy zaczynają adresować problem niestarannie i nierzetelnie przygotowanych pism, z użyciem AI.
Niekontrolowane wykorzystywanie narzędzi AI rodzi poważne ryzyko wycieku danych
Inne sprawy
Najwięcej spraw związanych z nieodpowiedzialnym wykorzystaniem AI przez pełnomocników procesowych prawdopodobnie ma miejsce za oceanem. W 2023 roku, sąd na Manhattanie ukarał dwóch prawników grzywnami w wysokości pięciu tysięcy dolarów, za złożenie pisma zawierającego nieistniejące orzeczenia i stanowiska doktryny, wygenerowane przez AI.
W tym roku podobna sprawa miała miejsce w stanie Utah, gdzie sąd stwierdził, że wykorzystanie AI do researchu prawnego jest dopuszczalne, niemniej obowiązkiem adwokata jest zweryfikowanie, że dokument nie zawiera nieprawdziwych informacji. Prawdopodobnie najdalej idące konsekwencje do tej pory wyciągnął sąd w Nevadzie. Oprócz nałożenia grzywny, sąd chciał odsunąć adwokata od sprawy i powiadomić samorząd zawodowy. Adwokat miał możliwość uniknięcia kary, jeśli zgodzi się poprowadzić zajęcia na temat etycznego wykorzystania AI w branży prawniczej.
Źródła:
US lawyer sanctioned after being caught using ChatGPT for court brief | Utah | The Guardian
Some judges move beyond fines to keep lawyers’ AI errors in check | Reuters
