Prawnik Steven Schwartz wspomógł się chatbotem ChatGPT poprzez użycie go do napisania wniosku. W tym celu wczytał do aplikacji sześć spraw i odpowiadających im precedensów. Niestety, wszystkie uzyskane w ten sposób informacje zostały całkowicie zmanipulowane przez model językowy. Sytuacja ta stała się szeroko rozpowszechniona i zaniepokoiła innych prawników, którzy rozważali podobne eksperymenty. Nasuwa się pytanie, czy jest to jednorazowy zakaz, czy pierwsze sygnały o wprowadzeniu ograniczeń dla stosowania sztucznej inteligencji?
Nie dla AI na sali sądowej
W federalnym sądzie dla Północnego Dystryktu Teksasu sędzia Starr, podobnie jak inni, ma możliwość ustanawiania specyficznych zasad dla prowadzonych przez siebie rozpraw. Ostatnio wprowadzono „obowiązkową certyfikację dotyczącą generatywnej sztucznej inteligencji”.
Zobacz również:
Wszyscy pełnomocnicy, którzy występują przed sądem, są zobowiązani do złożenia na wokandzie oświadczenia, które potwierdza, że żadna część ich zgłoszenia nie została przygotowana przy użyciu generatywnej sztucznej inteligencji (takiej jak ChatGPT, Harvey.AI lub Google Bard). Alternatywnie, jeśli jakiekolwiek fragmenty tekstu zostały wygenerowane przez sztuczną inteligencję, muszą być sprawdzone pod kątem dokładności przez człowieka, korzystając z drukowanych źródeł reporterskich lub tradycyjnych baz danych prawniczych
czytamy w dokumencie opublikowanym przez sędziego Starra
Argumentacja sędziego
Wprowadzając zakaz, sędzia Starr powołał się na znany już problem chatbotów, jakim są halucynacje. Jednocześnie jest świadomy, że platformy te mają szerokie zastosowanie w dziedzinie prawa. Pomagają w pisaniu formularzy rozwodowych, wskazują błędy w dokumentach czy przewidują pytania podczas ustnych argumentów. Według sędziego nie są jednak odpowiednie dla celów sporządzania dokumentów prawnych.
W obecnej postaci platformy te są podatne na halucynacje i stronniczość. Są zdolne do prokurowania fikcyjnych informacji, włączając w to cytaty i odniesienia. Kolejnym aspektem jest kwestia wiarygodności i stronniczości. Prawnicy składają przysięgę, że będą przyczyniać się do ochrony praw i wolności oraz kierować się zasadami uczciwości i sprawiedliwości społecznej w celu rzetelnego reprezentowania klientów. Generatywna sztuczna inteligencja jest zaprogramowana przez ludzi, którzy nie są zobowiązani do takiej przysięgi
napisał sędzia Starr
Sędzia zauważył, że oprogramowanie takie jak ChatGPT nie jest lojalne wobec żadnego klienta, rządów prawa ani zasad i konstytucji Stanów Zjednoczonych. Nie ma poczucia obowiązku, honoru czy sprawiedliwości, ponieważ działa na podstawie zapisanego kodu komputerowego, a nie moralnych przekonań czy zasad.
Sztuczna inteligencja? A po co to komu?
Sprawa zakazu używania sztucznej inteligencji w sądach jeszcze długo pozostanie otwarta. Trzeba jednak rozdzielić zastosowanie jej w tak wrażliwym na niezawisłość i rzetelność miejscu jak sąd. Czytając nagłówki prasowe na temat AI, można odnieść wrażenie, że jesteśmy wyłącznie nią straszeni. Być może musimy jeszcze poczekać, zanim wszyscy się oswoją z AI. Wówczas przyjdzie czas na dostrzeżenie w sztucznej inteligencji narzędzia, a nie zagrożenia.
Można po raz kolejny przypomnieć rewolucję przemysłową, która również miała zabrać prace tysiącom ludzi na całym świecie. Faktem jest, że część zawodów stała się niepotrzebna, ale w zamian powstały nowe profesje. Jednego można być pewnym. Szerokie wykorzystywanie sztucznej inteligencji będzie wymagało obecności człowieka, który będzie ją kontrolował.
Źródła:
1. Devin Colewey, „Tech Crunch”, „No ChatGPT in my court: Judge orders all AI-generated content must be declared and checked”, 2023
2. Eugene Volokh, „Reason”, „Federal Judge Requires All Lawyers to File Certificates Related to Use of Generative AI”, 2023
Może Cię również zainteresować: