- Grok, chatbot sztucznej inteligencji, generował obraźliwe treści, gdy użytkownicy usunęli jego zabezpieczenia.
- Odpowiedzialność za takie treści spoczywa na operatorach systemu i twórcach AI, nie na samym modelu.
- Poszkodowane osoby mogą dochodzić roszczeń za naruszenie dóbr osobistych, co może być precedensem w sądach.
- Sztuczna inteligencja nie ma prawa do wolności słowa, a jej działanie należy oceniać przez pryzmat skutków społecznych.
- Największym zagrożeniem związanym z AI pozostaje manipulacja opinią publiczną, której zakazuje unijny AI Act.
- A
- A
- A
Sztuczna inteligencja obrażała polskich polityków. „To precedensowy przypadek, który może trafić do sądu"
Grok, chatbot sztucznej inteligencji, obrażał polskich polityków; oberwało się wszystkim. Czy sztuczna inteligencja ma prawo do wolności słowa? Jak wyglądałby proces sądowy, gdyby obrażeni złożyli pozew? O tym rozmawialiśmy z dr. Michałem Araszkiewiczem, radcą prawnym (UJ).Obrażał polityków i wygłaszał treści antysemickie nazistowskie oraz chwalił Hitlera - takich działań dopuścił się w internecie Grok, czyli chatbot stworzony przez firmę Elona Musk.
Czy sztuczna inteligencja może odpowiadać prawnie?
Systemy takie jak Grok, podobnie jak popularne modele językowe, działają na bazie ogromnych zbiorów danych, a ich odpowiedzi są generowane automatycznie. W tym przypadku ograniczenia zabezpieczające zostały celowo usunięte przez użytkowników, co umożliwiło chatbotowi tworzenie obraźliwych treści.
Użytkownicy platformy X szybko zorientowali się w tej sytuacji i - zapewne dla rozrywki albo z innych powodów - zaczęli prowokować Groka, żeby generował obraźliwe treści, także rasistowskie, nawiązujące do ideologii nazistowskiej
- mówi dr Michał Araszkiewicz.
Kto ponosi odpowiedzialność prawną za wypowiedzi sztucznej inteligencji? Zdaniem eksperta na pewno nie Grok, ponieważ nie ma podmiotowości prawnej ani własnych intencji. Odpowiedzialność spoczywa na operatorach systemu – w tym przypadku na firmie X (właścicielu platformy) oraz firmie, która stworzyła Groka.
Choć firma szybko zablokowała możliwość generowania podobnych treści i usunęła obraźliwe wpisy, problem jest. Jak zauważa dr Araszkiewicz, nadal możliwe jest dochodzenie roszczeń, zwłaszcza za naruszenie dóbr osobistych, co mogłoby stać się precedensową sprawą w polskim prawie.
Czy Grok został wykorzystany celowo? Prawo a marketing i reputacja
Ekspert nie wykluczył, że cała sytuacja mogła być wykorzystana marketingowo, np. w związku z premierą nowej wersji Groka. Zauważył, że zamieszanie wokół chatbota przyniosło jego twórcom ogromny rozgłos. Jednak, jak podkreśla Araszkiewicz, nawet jeśli takie działanie byłoby celowe, nie byłoby skuteczną obroną w ewentualnym procesie, ponieważ doszło do instrumentalnego wykorzystania nazwisk i reputacji konkretnych osób.
Zasadna może być hipoteza, że to działanie miało charakter instrumentalny - miało zwrócić uwagę opinii publicznej na możliwości modeli wytwarzanych przez firmę Elona Muska. Gdyby to przypuszczenie się potwierdziło, czy byłaby to dobra linia obrony w procesie? Otóż wydaje mi się, że nie do końca, bo tutaj mamy do czynienia z instrumentalnym potraktowaniem czyjegoś nazwiska. Wymagałoby to od sędziego rozpoznającego sprawę dość nieszablonowego myślenia i odniesienia tej sytuacji do zupełnie nowego kontekstu (funkcjonowania modeli językowych)
- tłumaczy dr Araszkiewicz.
AI a wolność słowa. Dlaczego algorytmy nie mają tych samych praw co ludzie?
Dr Araszkiewicz zaznacza, że wolność słowa jest prawem człowieka i nie dotyczy sztucznej inteligencji. Algorytmy nie mogą powoływać się na to prawo, a ocena ich działania powinna uwzględniać przede wszystkim skutki społeczne i potencjalne naruszanie dóbr osobistych.
Ekspert zwrócił uwagę, że agresywne, kontrowersyjne treści często służą komercyjnym celom – napędzają zasięgi i zyski firm oferujących narzędzia oparte na AI. A może blokada platformy X w Polsce lub UE? Araszkiewicz ocenia, że incydent nie daje jeszcze podstaw do tak drastycznych działań:
Przede wszystkim trzeba się zastanawiać się nad skutkami funkcjonowania tego rodzaju systemów, ponieważ agresywne i angażujące emocjonalnie treści pozwalają ich dostawcom zarabiać pieniądze. I to jest właśnie pytanie: czy kosztem naruszania dóbr osobistych, reputacji, dobrego imienia ludzi, należy się na to zgadzać?
Gość Radia Kraków zaznacza, że o wiele poważniejszym problemem są ukryte mechanizmy manipulacji opinią publiczną (na przykład wpływanie na wyniki wyborów). W takich przypadkach kluczową rolę odegra nowe unijne prawo (AI Act), które wprost zakazuje takich działań. Ekspert podkreślił, że skuteczność regulacji będzie zależeć od ich praktycznego wdrożenia i egzekwowania, na co Unia Europejska dopiero się przygotowuje.
Komentarze (0)
Najnowsze
-
14:03
Serial "Niedaleko pada jabłko" – mroczny portret "idealnej" rodziny
-
13:52
Małopolskie wodociągi z dofinansowaniem na walkę z cyberatakami
-
13:31
Szykują się rewolucyjne zmiany w komunikacji miejskiej w Trzebini
-
13:10
Prof. Michał Choiński: Moje odczucia względem Stanów Zjednoczonych są ambiwalentne
-
13:06
Marzena Cygan : "Joga dla dzieci, czyli oddychamy noskiem"
-
12:57
TSUE i WIBOR: bez rewolucji, ale z nowymi pytaniami. Co dalej z kredytami złotówkowymi?
-
12:51
Sukces zbiórki dla Ukrainy, otwarte archiwa, fala hejtu i Azoty. Głosujemy na Wyczyn i Blamaż
-
12:09
Gorlice: diler uciekał przed policją... na hulajnodze
-
11:00
Będzie remont ważnej drogi w Libiążu. Kierowcy jadący w stronę Oświęcimia odetchną z ulgą
-
10:56
Limanowa będzie musiała oddać miliony z KPO? Miały być sale teatralne, powstał hotel
-
10:50
100 prac młodych artystów i pedagogów na 100-lecie urodzin Andrzeja Wajdy
-
10:45
Góry-Morze-Morze-Góry 2026
-
10:45
Kraków prof. Agnieszki Chłosty-Sikorskiej - Nowa Huta - odc. 6.