Niestety wzrok to ostatni ze zmysłów, któremu powinniśmy dziś ufać bezkrytycznie. Jesteśmy świadkami pierwszej wojny sztucznej inteligencji, gdzie prawda miesza się z kodem AI tak gęsto, że nawet analitycy muszą stosować zaawansowane procedury weryfikacyjne.
Weźmy na warsztat rzekome zniszczenie amerykańskiego radaru w Katarze. Zdjęcie wartego miliard dolarów sprzętu w płomieniach błyskawicznie zdobyło potężne zasięgi. Analiza wykazała jednak prosty błąd. Ktoś wykorzystał zrzut ekranu z Google Earth z 2025 roku i przepuścił go przez generator obrazów. Skąd pewność? Na zdjęciu z rzekomego ataku samochody na parkingu stoją dokładnie w tych samych miejscach co rok wcześniej. AI zmieniło kształt dachu budynku, ale zapomniało, że przez 12 miesięcy auta zazwyczaj odjeżdżają z parkingu.
Innym, jeszcze bardziej uderzającym przykładem jest krążąca w sieci fotografia ciała przywódcy Iranu. Choć jego śmierć została oficjalnie potwierdzona, to konkretne ujęcie jest w 100% tworem modelu Gemini. Co ciekawe, takie systemy zostawiają w tych obrazach niewidoczne dla nas cyfrowe znaki wodne. To taka pieczątka bota, która jednoznacznie mówi - to ja wygenerowałem, to nie jest rzeczywistość.
Musimy jednak uważać na coś jeszcze. Na recykling strachu. Nie wszystko, co widzimy, to jest nowe AI. Filmy z płonącym wieżowcem w Dubaju, który ma być efektem irańskiego nalotu, to w rzeczywistości jest pożar bloku w Shardzi sprzed 11 lat. Podobnie jest z nagraniami rzekomo płonących baz w Arabii Saudyjskiej. To są stare ujęcia z Jemenu z 2024 roku.
W czasie wojny emocje są paliwem dla kłamstwa. Jeśli widzą państwo zdjęcie, które wydaje się zbyt sensacyjne, żeby było prawdziwe, prawdopodobnie właśnie takie jest. Zanim klikniecie "udostępnij", sprawdźcie datę lub użyjcie prostego wyszukiwania obrazem.
Nie dajmy się wciągnąć w tę wojnę na piksele.