Burmistrz rozważa pozew przeciwko botowi ChatGPT

Sztuczna inteligencja dała się poznać jako pisarz, poeta i dziennikarz. Zdawała egzaminy prawnicze i pisała bajki dla dzieci. Z czasem okazało się, że jeśli nie ma informacji na dany temat, to po prostu zmyśla. W przypadku burmistrza australijskiego miasta Hepburn Shire ChatGPT posunął się za daleko. Zarzucił mu łapówkarstwo, co poskutkowało zdecydowaną reakcją Australijczyka.

Jeśli rozprawa dojdzie do skutku, może ona przejść do historii jako pierwszy sądowy konflikt, którego tematem będzie konfabulacja linguabota ChatGPT. Australijczyk, który padł ofiarą kłamstw autorstwa algorytmu, poczuł się poważnie dotknięty. Został bowiem oskarżony o przyjęcie łapówki.

Sztuczna inteligencja w sądzie

Burmistrz australijskiego Hepburn Shire, Brian Hood, zagroził, że złoży pozew przeciwko firmie OpenAI, jeśli nie poprawi fałszywych stwierdzeń na jego temat. Chodzi o nieprawdziwe informacje na temat rzekomych łapówek, które miał przyjąć polityk. ChatGPT napisał, że mężczyzna został skazany za rzekomy czyn na 30 miesięcy więzienia.

W rzeczywistości Brian Hood nigdy nie był sądzony za przyjmowanie korzyści majątkowych. Co więcej, w 2000 roku pomógł ujawnić międzynarodowy skandal łapówkarski związany z Bankiem Rezerw Australii. Hood był wtedy pracownikiem spółki Note Printing Australia i to on powiadomił władze o przestępczym procederze.

Mężczyzna poczuł się dotknięty i zapowiedział złożenie pozwu przeciwko firmie OpenAI. Byłaby to pierwsza sprawa o zniesławienie wytoczona firmie zajmującej się algorytmami sztucznej inteligencji. Spółka, jak na razie, nie odpowiedziała na jego pisma.

Byłem naprawdę zszokowany. Nie mogłem w to uwierzyć. Musiałem przeczytać kilka razy, przejrzeć i kolejny raz zadać to samo zapytanie, bo po prostu nie spodziewałem się tego typu odpowiedzi

powiedział Hood.

Przeczytaj również:

Kłopoty ze sztuczną inteligencją

Firmy stojące za Midjourney i Stability AI – narzędziami, które generują obrazy, również otrzymały pozwy sądowe. Zarzuca się im bezprawne wykorzystywanie prac milionów artystów. Pozew przeciwko Stability AI wytoczyła firma Getty Images, która jest bazą zdjęć i grafik (tzw. stockiem). Sprawa dotyczy powielania prac chronionych prawem autorskim.

ChatGPT już w przeszłości był odpowiedzialny za podawanie nieprawdy. Na początku kwietnia 2023 roku ofiarą konfabulacji padł profesor prawa na Uniwersytecie Jerzego Waszyngtona, Jonathan Turley. Jego znajomy poprosił, aby ChatGPT przygotował listę prawników, którzy molestowali kogoś seksualnie. Na liście pojawiło się nazwisko Turleya. Źródłem informacji był artykuł z „The Washington Post” z marca 2018 roku. Problem w tym, że taki tekst w ogóle się nie pojawił. Turley, który jest częstym komentatorem w amerykańskich mediach, czasami prosił dziennikarzy o korektę informacji na swój temat. Tym razem jednak nie miał do kogo się zwrócić.

Dlaczego ChatGPT kłamie?

Narzędzie korzysta z sieci neuronowych i mechanizmów uczenia głębokiego, dzięki którym przewiduje, jakie zdania po sobie następują. Jeśli nie jest w stanie tego zrobić lub, gdy nie czegoś nie, to zaczyna konfabulować. Ma to już swoją nazwę – „halucynacje AI” i stanowi to poważny problem. Zjawisko to opisała między innymi polska badaczka fizyki molekularnej, dr Teresa Kubacka. Wygenerowała listę cytowań nt. multiferroików (materiałów charakteryzujących się jednocześnie więcej niż jedną cechą: ferromagnetyzmem, ferroelektrycznością, ferroelastycznością). Nazwiska autorów brzmiały znajomo, więc poprosiła SI (sztuczną inteligencję) o dane bibliograficzne cytowanych treści. Program przytoczył artykuły, które nigdy się nie ukazały. Sama badaczka stwierdziła, że ChatGPT nie dostarczył „rzeczowych, naukowych, informacji”. Zamiast tego wygenerował wiarygodnie brzmiące halucynacje.

Kto obroni SI?

Już dzisiaj są narzędzia, które samodzielnie piszą dokumenty prawnicze. Są już programy, które za pomocą sztucznej inteligencji, mogą bronić pozwanych. Może boty takie jak ChatGPT powinny same się bronić przed sądem? Pytanie tylko, czy zezwolenie na samodzielną obronę przed sądem nie będzie przejawem zbyt daleko idącego zaufania do – bądź co bądź – programu komputerowego.

Źródła:

  1. Sophia Khatsenkova, „Euronews”, „Mayor mulls defamation lawsuit after ChatGPT falsely claims he was jailed for bribery”, 2023
  2. Byron Kaye, „Reuters”, „Australian mayor readies world’s first defamation lawsuit over ChatGPT content”, 2023
  3. Pranshu Verma, Will Oremus, „The Washington Post”, „ChatGPT invented a sexual harassment scandal and named a real law prof as the accused”, 2023
  4. Kyle Wiggers, „Tech Crunch”, „The current legal cases against generative AI are just the beginning”, 2023

Przeczytaj również:

Opublikowano przez

Mateusz Tomanek

Autor


Krakus z urodzenia, wyboru i zamiłowania. Uprawiał dziennikarstwo radiowe, telewizyjne, by ostatecznie oddać się pisaniu dla Holistic.news. W dzień dziennikarz, w nocy zaprawiony muzyk, tekściarz i kompozytor. Jeśli nie siedzi przed komputerem, to zapewne ma koncert. W jego kręgu zainteresowań znajduje się technologia, ekologia i historia. Nie boi się podejmować nowych tematów, ponieważ uważa, że trzeba uczyć się przez całe życie.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.

Zmień tryb na ciemny