Sztuczna inteligencja z dużą siłą wkracza w kampanię przedreferendalną w Krakowie - i to w najgorszym wydaniu. W sieci pojawiły się filmiki obrażające, wręcz upadlające krakowskich radnych Koalicji Obywatelskiej. Sprawę jako pierwsza ujawniła radna Alicja Szczepańska. Jeden z materiałów przedstawia ją jako wulgarną alkoholiczkę. W sieci krąży też film sugerujący, że jeden z radnych jest homoseksualistą. Oboma przypadkami zajmuje się policja, ale nagrania żyją własnym życiem. Czy to może wpłynąć na wyborców, nawet jeśli wielu z nich wie, że to materiały wygenerowane przez sztuczną inteligencję?
Niestety tak. Nawet jeśli mamy świadomość, że informacje są nieprawdziwe, to i tak mogą na nas oddziaływać. Większość osób uważa, że dezinformacja na nie nie wpływa, ale badania pokazują coś innego. Szczególnie częsty kontakt z takimi treściami może mieć realny wpływ - zwłaszcza na wizerunek osób publicznych.
Wizerunek to jedno, ale jest też druga sprawa. W mediach społecznościowych pojawiło się wiele grafik i nagrań, w których sztucznie wygenerowany prezydent Krakowa Aleksander Miszalski zachęca do udziału w referendum i głosowania przeciwko jego odwołaniu. Problem w tym, że każdy głos „w obronie” oznacza w praktyce głos za odwołaniem. To wprowadzanie ludzi w błąd, prawda?
Jeśli ktoś wkłada w czyjeś usta słowa, których ta osoba nie powiedziała, to mamy do czynienia z klasyczną dezinformacją. Z tego, co pan mówi, prezydent Miszalski nawołuje do bojkotu referendum, a nie do głosowania przeciw — więc takie materiały są wprost manipulacją. Niestety ich tworzenie jest dziś bardzo proste. Nie wymaga dużych kompetencji, a jakość generowanych obrazów i nagrań jest coraz lepsza, przez co coraz trudniej odróżnić je od prawdziwych.
A co na to prawo? W przypadku obraźliwych filmów wobec radnych sprawą zajmuje się policja. Rozumiem, że nawet bez specjalnych przepisów dotyczących sztucznej inteligencji takie działania są po prostu nielegalne?
Tak. To naruszenie dóbr osobistych, więc nie potrzebujemy tu szczególnych regulacji dotyczących AI. Wystarczą istniejące przepisy o ochronie dobrego imienia. Oczywiście jest cienka granica między satyrą a naruszeniem, ale w takich przypadkach ostateczną ocenę może wydać sąd.
A co z tym drugim przypadkiem - fałszywymi materiałami z prezydentem Miszalskim?
To bardziej złożona kwestia. Nie jestem prawnikiem, ale wydaje się, że kluczowe powinno być wprowadzenie obowiązku oznaczania treści generowanych przez sztuczną inteligencję. Problem polega na tym, że prawo zwykle reaguje dopiero wtedy, gdy pojawiają się konkretne zagrożenia. Trudno regulować coś z wyprzedzeniem. Unia Europejska próbuje to robić, ale pełna skuteczność takich przepisów jest zawsze wyzwaniem. Jasne oznaczenie materiałów jako wygenerowanych to absolutne minimum — zwłaszcza że największe ryzyko dezinformacji pojawia się wtedy, gdy odbiorcy nie są pewni, co jest prawdą.
Kiedy możemy się spodziewać takich regulacji i jak powinny wyglądać?
Same przepisy to jedno, ale równie ważne jest ich wdrożenie w praktyce - zwłaszcza przez platformy społecznościowe. Problem polega na tym, że treści generowane przez AI, szczególnie te kontrowersyjne, świetnie się rozchodzą. Przyciągają uwagę, wywołują emocje i angażują użytkowników. A to przekłada się na zyski platform. W efekcie mają one ograniczoną motywację, by skutecznie ograniczać takie zjawiska.
Czy tak będzie wyglądać przyszłość kampanii wyborczych w Polsce?
To już się dzieje. W kampanii parlamentarnej w 2023 roku pojawiały się pierwsze próby wykorzystania AI, ale materiały były jeszcze słabej jakości. Dziś jest inaczej. Widzimy też postępującą normalizację - takich treści jest coraz więcej i zaczynamy się do nich przyzwyczajać. Dlatego to ostatni moment na wprowadzenie skutecznych regulacji. Jeśli tego nie zrobimy, za chwilę stanie się to po prostu standardem.
Gościem Radia Kraków był dr Dominik Batorski z Uniwersytetu Warszawskiego.