- Grok, chatbot sztucznej inteligencji, generował obraźliwe treści, gdy użytkownicy usunęli jego zabezpieczenia.
- Odpowiedzialność za takie treści spoczywa na operatorach systemu i twórcach AI, nie na samym modelu.
- Poszkodowane osoby mogą dochodzić roszczeń za naruszenie dóbr osobistych, co może być precedensem w sądach.
- Sztuczna inteligencja nie ma prawa do wolności słowa, a jej działanie należy oceniać przez pryzmat skutków społecznych.
- Największym zagrożeniem związanym z AI pozostaje manipulacja opinią publiczną, której zakazuje unijny AI Act.
- A
- A
- A
Sztuczna inteligencja obrażała polskich polityków. „To precedensowy przypadek, który może trafić do sądu"
Grok, chatbot sztucznej inteligencji, obrażał polskich polityków; oberwało się wszystkim. Czy sztuczna inteligencja ma prawo do wolności słowa? Jak wyglądałby proces sądowy, gdyby obrażeni złożyli pozew? O tym rozmawialiśmy z dr. Michałem Araszkiewiczem, radcą prawnym (UJ).Obrażał polityków i wygłaszał treści antysemickie nazistowskie oraz chwalił Hitlera - takich działań dopuścił się w internecie Grok, czyli chatbot stworzony przez firmę Elona Musk.
Czy sztuczna inteligencja może odpowiadać prawnie?
Systemy takie jak Grok, podobnie jak popularne modele językowe, działają na bazie ogromnych zbiorów danych, a ich odpowiedzi są generowane automatycznie. W tym przypadku ograniczenia zabezpieczające zostały celowo usunięte przez użytkowników, co umożliwiło chatbotowi tworzenie obraźliwych treści.
Użytkownicy platformy X szybko zorientowali się w tej sytuacji i - zapewne dla rozrywki albo z innych powodów - zaczęli prowokować Groka, żeby generował obraźliwe treści, także rasistowskie, nawiązujące do ideologii nazistowskiej
- mówi dr Michał Araszkiewicz.
Kto ponosi odpowiedzialność prawną za wypowiedzi sztucznej inteligencji? Zdaniem eksperta na pewno nie Grok, ponieważ nie ma podmiotowości prawnej ani własnych intencji. Odpowiedzialność spoczywa na operatorach systemu – w tym przypadku na firmie X (właścicielu platformy) oraz firmie, która stworzyła Groka.
Choć firma szybko zablokowała możliwość generowania podobnych treści i usunęła obraźliwe wpisy, problem jest. Jak zauważa dr Araszkiewicz, nadal możliwe jest dochodzenie roszczeń, zwłaszcza za naruszenie dóbr osobistych, co mogłoby stać się precedensową sprawą w polskim prawie.
Czy Grok został wykorzystany celowo? Prawo a marketing i reputacja
Ekspert nie wykluczył, że cała sytuacja mogła być wykorzystana marketingowo, np. w związku z premierą nowej wersji Groka. Zauważył, że zamieszanie wokół chatbota przyniosło jego twórcom ogromny rozgłos. Jednak, jak podkreśla Araszkiewicz, nawet jeśli takie działanie byłoby celowe, nie byłoby skuteczną obroną w ewentualnym procesie, ponieważ doszło do instrumentalnego wykorzystania nazwisk i reputacji konkretnych osób.
Zasadna może być hipoteza, że to działanie miało charakter instrumentalny - miało zwrócić uwagę opinii publicznej na możliwości modeli wytwarzanych przez firmę Elona Muska. Gdyby to przypuszczenie się potwierdziło, czy byłaby to dobra linia obrony w procesie? Otóż wydaje mi się, że nie do końca, bo tutaj mamy do czynienia z instrumentalnym potraktowaniem czyjegoś nazwiska. Wymagałoby to od sędziego rozpoznającego sprawę dość nieszablonowego myślenia i odniesienia tej sytuacji do zupełnie nowego kontekstu (funkcjonowania modeli językowych)
- tłumaczy dr Araszkiewicz.
AI a wolność słowa. Dlaczego algorytmy nie mają tych samych praw co ludzie?
Dr Araszkiewicz zaznacza, że wolność słowa jest prawem człowieka i nie dotyczy sztucznej inteligencji. Algorytmy nie mogą powoływać się na to prawo, a ocena ich działania powinna uwzględniać przede wszystkim skutki społeczne i potencjalne naruszanie dóbr osobistych.
Ekspert zwrócił uwagę, że agresywne, kontrowersyjne treści często służą komercyjnym celom – napędzają zasięgi i zyski firm oferujących narzędzia oparte na AI. A może blokada platformy X w Polsce lub UE? Araszkiewicz ocenia, że incydent nie daje jeszcze podstaw do tak drastycznych działań:
Przede wszystkim trzeba się zastanawiać się nad skutkami funkcjonowania tego rodzaju systemów, ponieważ agresywne i angażujące emocjonalnie treści pozwalają ich dostawcom zarabiać pieniądze. I to jest właśnie pytanie: czy kosztem naruszania dóbr osobistych, reputacji, dobrego imienia ludzi, należy się na to zgadzać?
Gość Radia Kraków zaznacza, że o wiele poważniejszym problemem są ukryte mechanizmy manipulacji opinią publiczną (na przykład wpływanie na wyniki wyborów). W takich przypadkach kluczową rolę odegra nowe unijne prawo (AI Act), które wprost zakazuje takich działań. Ekspert podkreślił, że skuteczność regulacji będzie zależeć od ich praktycznego wdrożenia i egzekwowania, na co Unia Europejska dopiero się przygotowuje.
Komentarze (0)
Najnowsze
-
08:08
24. Międzynarodowy Festiwal Muzyki Organowej i Kameralnej im. Wacława Geigera – Zakopane 2025
-
08:00
Kraków: W zalewie Bagry utonął mężczyzna
-
07:27
Uwaga kierowcy! Ważne zmiany w centrum Tarnowa
-
06:28
Przybywa rodziców, którzy unikają szczepienia dzieci. W Tarnowie posypały się wnioski o kary
-
05:58
Pochmurna środa w Małopolsce, okresami będzie padał deszcz
-
22:55
W tym roku stawiamy na energię. Gadafest 2025
-
22:30
W łazience na fortepianie – Katarzyna Sosenko o życiu w domu pełnym staroci
-
20:38
Samochód staranował ogródki kawiarniane w centrum Krakowa
-
19:14
Patostreaming – igrzyska XXI wieku
-
17:45
Czym różnią się świadczenia urlopowe od wczasów pod gruszą?
-
17:19
400 lat klasztoru Franciszkanów w Wieliczce. Nowa wystawa na Zamku Żupnym
-
17:45
Jakie mamy powody do dumy narodowej?