Jeśli rozprawa dojdzie do skutku, może ona przejść do historii jako pierwszy sądowy konflikt, którego tematem będzie konfabulacja linguabota ChatGPT. Australijczyk, który padł ofiarą kłamstw autorstwa algorytmu, poczuł się poważnie dotknięty. Został bowiem oskarżony o przyjęcie łapówki.
Sztuczna inteligencja w sądzie
Burmistrz australijskiego Hepburn Shire, Brian Hood, zagroził, że złoży pozew przeciwko firmie OpenAI, jeśli nie poprawi fałszywych stwierdzeń na jego temat. Chodzi o nieprawdziwe informacje na temat rzekomych łapówek, które miał przyjąć polityk. ChatGPT napisał, że mężczyzna został skazany za rzekomy czyn na 30 miesięcy więzienia.
W rzeczywistości Brian Hood nigdy nie był sądzony za przyjmowanie korzyści majątkowych. Co więcej, w 2000 roku pomógł ujawnić międzynarodowy skandal łapówkarski związany z Bankiem Rezerw Australii. Hood był wtedy pracownikiem spółki Note Printing Australia i to on powiadomił władze o przestępczym procederze.
Mężczyzna poczuł się dotknięty i zapowiedział złożenie pozwu przeciwko firmie OpenAI. Byłaby to pierwsza sprawa o zniesławienie wytoczona firmie zajmującej się algorytmami sztucznej inteligencji. Spółka, jak na razie, nie odpowiedziała na jego pisma.
Byłem naprawdę zszokowany. Nie mogłem w to uwierzyć. Musiałem przeczytać kilka razy, przejrzeć i kolejny raz zadać to samo zapytanie, bo po prostu nie spodziewałem się tego typu odpowiedzi
powiedział Hood.
Przeczytaj również:
Kłopoty ze sztuczną inteligencją
Firmy stojące za Midjourney i Stability AI – narzędziami, które generują obrazy, również otrzymały pozwy sądowe. Zarzuca się im bezprawne wykorzystywanie prac milionów artystów. Pozew przeciwko Stability AI wytoczyła firma Getty Images, która jest bazą zdjęć i grafik (tzw. stockiem). Sprawa dotyczy powielania prac chronionych prawem autorskim.
ChatGPT już w przeszłości był odpowiedzialny za podawanie nieprawdy. Na początku kwietnia 2023 roku ofiarą konfabulacji padł profesor prawa na Uniwersytecie Jerzego Waszyngtona, Jonathan Turley. Jego znajomy poprosił, aby ChatGPT przygotował listę prawników, którzy molestowali kogoś seksualnie. Na liście pojawiło się nazwisko Turleya. Źródłem informacji był artykuł z „The Washington Post” z marca 2018 roku. Problem w tym, że taki tekst w ogóle się nie pojawił. Turley, który jest częstym komentatorem w amerykańskich mediach, czasami prosił dziennikarzy o korektę informacji na swój temat. Tym razem jednak nie miał do kogo się zwrócić.
Dlaczego ChatGPT kłamie?
Narzędzie korzysta z sieci neuronowych i mechanizmów uczenia głębokiego, dzięki którym przewiduje, jakie zdania po sobie następują. Jeśli nie jest w stanie tego zrobić lub, gdy nie czegoś nie, to zaczyna konfabulować. Ma to już swoją nazwę – „halucynacje AI” i stanowi to poważny problem. Zjawisko to opisała między innymi polska badaczka fizyki molekularnej, dr Teresa Kubacka. Wygenerowała listę cytowań nt. multiferroików (materiałów charakteryzujących się jednocześnie więcej niż jedną cechą: ferromagnetyzmem, ferroelektrycznością, ferroelastycznością). Nazwiska autorów brzmiały znajomo, więc poprosiła SI (sztuczną inteligencję) o dane bibliograficzne cytowanych treści. Program przytoczył artykuły, które nigdy się nie ukazały. Sama badaczka stwierdziła, że ChatGPT nie dostarczył „rzeczowych, naukowych, informacji”. Zamiast tego wygenerował wiarygodnie brzmiące halucynacje.
Kto obroni SI?
Już dzisiaj są narzędzia, które samodzielnie piszą dokumenty prawnicze. Są już programy, które za pomocą sztucznej inteligencji, mogą bronić pozwanych. Może boty takie jak ChatGPT powinny same się bronić przed sądem? Pytanie tylko, czy zezwolenie na samodzielną obronę przed sądem nie będzie przejawem zbyt daleko idącego zaufania do – bądź co bądź – programu komputerowego.
Źródła:
- Sophia Khatsenkova, „Euronews”, „Mayor mulls defamation lawsuit after ChatGPT falsely claims he was jailed for bribery”, 2023
- Byron Kaye, „Reuters”, „Australian mayor readies world’s first defamation lawsuit over ChatGPT content”, 2023
- Pranshu Verma, Will Oremus, „The Washington Post”, „ChatGPT invented a sexual harassment scandal and named a real law prof as the accused”, 2023
- Kyle Wiggers, „Tech Crunch”, „The current legal cases against generative AI are just the beginning”, 2023
Przeczytaj również: