Mamy coraz trudniejsze zadanie. To, co zalało polskie media społecznościowe w ostatnich dniach, to nie są przypadkowe błędy. Raczej masowa produkcja obrazów, które mają budzić strach. AI przestało być zabawką do tworzenia grafik, a stało się narzędziem do fabrykowania wojennych thrillerów.
Weźmy nagranie rzekomego wybuchu na lotnisku w Dubaju - pół miliona wyświetleń w kilka godzin. Widzimy panikę, dym, realistyczne światło, ale kiedy zatrzymamy klatkę, prawda wychodzi na jaw. Maszyna wciąż gubi się w logice fizyki. Barierki w hali odlotów dosłownie lewitują, a uciekający ludzie w pewnym momencie przenikają przez nie jak duchy. To nie jest relacja z tragedii. To jest cyfrowy błąd, który zbyt wielu z nas uznało za fakt.
Drugi ciekawy przykład to klasyka manipulacji emocjami. Zdjęcia płonącego USS Abraham Lincoln obiegły świat w minutę. Widzimy ogień na pokładzie, akcję ratunkową. Tyle że to nagranie to po prostu podrasowane zdjęcia z nowoczesnej gry wojennej, przepuszczone przez filtr. To nagranie do tego stopnia namieszało, że aż pojawiło się oficjalne oświadczenie – okręt jest bezpieczny.
Dziś wystarczy procesor i trochę ziarna w obrazie, żeby zachwiać nastrojami na giełdzie. I najbardziej perfidny mechanizm, czyli cyfrowy recykling. Film z Wielkim Wybuchem w Iranie, który krąży u nas w Internecie od niedzieli, a tak naprawdę powstał w czerwcu 2025 roku jako projekt artystyczny AI. Autor się pod nim podpisał. Rok później ktoś dodał czerwony pasek z napisem na żywo. No i nagle mamy światowy kryzys.
Jak zatem nie dać się złapać w tę pułapkę? Musimy zmienić nawyki. W świecie cyfrowych wojen prawda rzadko bywa tak filmowa. Spójrzmy na litery, na stopy postaci, na to, czy światło pada z tej samej strony. W 2026 roku nasze oczy mogą nas mylić, dlatego ufać musimy przede wszystkim chłodnej analizie