Innym głośnym ostatnio przykładem manipulacji jest zdjęcie europejskich liderów siedzących ze spuszczonymi głowami w korytarzu Białego Domu, rzekomo w oczekiwaniu na Donalda Trumpa.
„Pewność, że natkniemy się na fałszywe treści”
Skala tego, co pojawia się w sieci, już chyba nie niepokoi, tylko bardziej przeraża. Wchodząc w jakiekolwiek media społecznościowe mamy nie prawdopodobieństwo, ale pewność, że natkniemy się na materiały, które pochodzą z AI
– podkreśla dr Całek.
Zdjęcia, które jeszcze niedawno łatwo było rozpoznać jako wygenerowane komputerowo, dziś coraz częściej wyglądają realistycznie. Już nie ma sześciu nóg czy pięciu rąk.
Chociaż Emmanuel Macron na słynnym fałszywym zdjęciu miał trzy nogi (w jego przypadku narzędzie myli się szczególnie często), ale przy szybkim przewijaniu na ekranie smartfona łatwo to przeoczyć
- wyjaśnia ekspertka.
Jak rozpoznać treści generowane przez AI?
Choć narzędzia stają się coraz doskonalsze, nadal da się zauważyć charakterystyczne niedoskonałości.
Najczęściej są to detale: dłonie, elementy twarzy, tło - obrazy, budynki czy samochody bywają rozmyte lub nienaturalne. Dlatego warto przyglądać się zdjęciom uważniej i dłużej, żeby wyłapać te niedoróbki
- mówi dr Całek.
Ekspertka radzi, by sprawdzać źródła, podpisy, a także korzystać z funkcji wyszukiwania obrazem w internecie:
Jeśli widzimy zdjęcia z Gabinetu Owalnego, trzeba pamiętać, że nie każdy może tam wejść i robić zdjęcia. Powinniśmy pytać, kto był ich autorem i jaka agencja je opublikowała
– dodaje.
AI kłamie „z przekonaniem”
Problemem jest nie tylko grafika, ale także odpowiedzi generowane przez systemy sztucznej inteligencji.
One kłamią nieświadomie, bo nie mają świadomości. Ale konfabulują z pełnym przekonaniem, nie podając, że coś jest tylko prawdopodobne
-– zaznacza medioznawczyni.
Przywołuje przykład własnego doświadczenia:
W galerii chciałam sprawdzić, czy autorka o nazwisku Łempicka jest spokrewniona z Tamarą Łempicką. AI potwierdziła, choć żadne rzetelne źródła tego nie wskazują. Informacja pochodziła z dawno nieaktualizowanego bloga, który został uznany za istotne źródło.
Dlatego – jak podkreśla – warto w pytaniach do narzędzi AI doprecyzować, by opierały się wyłącznie na sprawdzonych źródłach:
Można wpisać w prompcie prośbę, żeby nie konfabulowało. To nie rozwiązuje problemu całkowicie, ale go ogranicza.
Media społecznościowe bez realnej ochrony
Czy platformy internetowe walczą z dezinformacją?
To raczej listek figowy. Czasem pojawia się oznaczenie "prawdopodobnie wygenerowane przez sztuczną inteligencję", ale nie ma systemowych działań. Z punktu widzenia biznesu generowanie treści przez AI przynosi wyłącznie zyski, więc nie ma motywacji, by to ograniczać
- tłumaczy dr Całek.
Przypomina też przykład Muzeum Auschwitz, które próbowało walczyć z fałszywymi treściami dotyczącymi ofiar Holokaustu:
Platforma Meta uznała, że nie naruszają one polityki serwisu. Tymczasem Facebook zalewany jest wymyślonymi historyjkami, które bazują na emocjach i manipulują współczuciem wobec dzieci czy młodych kobiet. Najczęściej ma to niewiele wspólnego z prawdą historyczną i z faktami.
Prawo nie nadąża za technologią
W Unii Europejskiej trwają prace nad regulacjami, m.in. nad AI Act, ale - jak zauważa medioznawczyni - rozwój technologii jest znacznie szybszy niż proces legislacyjny:
Prawo powstaje długo, AI rozwija się błyskawicznie. To przepaść, której nie jesteśmy w stanie zasypać
- mówi.
Jej zdaniem stworzenie etycznej i odpowiedzialnej sztucznej inteligencji jest możliwe, ale tylko w sytuacji, w której priorytetem nie byłby zysk, a dobro użytkownika.
To są prywatne biznesy, w których chodzi przede wszystkim o zysk. Etyka schodzi na dalszy plan.
Co dalej?
Na pytanie o przyszłość dezinformacji dr Całek odpowiada bez złudzeń:
Już dziś można wygenerować grafikę lub wideo, których nie da się odróżnić od oryginału. Zachęcam, by zawsze sprawdzać pierwotne źródła, nawet jeśli treść pochodzi od znajomych. Świadomość i krytyczne myślenie to nasza najważniejsza broń.