Widzimy broń, która nie strzela ołowiem, ale emocjami. To nie są amatorskie przeróbki z piwnicy. To precyzyjnie zaprojektowana operacja dezinformacyjna, która uderza w nasze najczulsze struny - empatię i współczucie.
Zacznijmy od faktów, bo to na nich żerują manipulatorzy. Sytuacja na Bliskim Wschodzie faktycznie jest dramatyczna. Dowództwo potwierdziło, że od 1 marca zginęło siedmiu amerykańskich żołnierzy. Właśnie na tym fundamencie prawdziwej tragedii nadbudowano kłamstwo. W sieci krążą filmy, na których żołnierze w pełnym rynsztunku łkają w ruinach, wykrzykując - Amerykanie, czy słyszycie tę ciszę? Wygląda to jak scena z Oscarowego dramatu wojennego.
Jest to scena filmowa, tyle że aktorzy nie istnieją. Analiza wskazuje z blisko 95% pewnością, że to robota sztucznej inteligencji, a konkretnie najnowszego modelu SORA 2. To oprogramowanie potrafi wygenerować obraz, którego gołym okiem nie odróżnisz od rzeczywistości. Każda łza na policzku, każdy pył na mundurze został obliczony przez algorytm.
Po co to robią? Cel jest czysto polityczny, bo z jednej strony można pokazać światu armię USA jako zdemoralizowaną i słabą, a z drugiej wywołać panikę w samym amerykańskim społeczeństwie. Sugestia jest prosta - wasi synowie giną w osamotnieniu, przeklinając swoich dowódców.
To też trafia do nas, do Polski. Te posty mają u nas dziesiątki tysięcy wyświetleń. Ludzie podają je dalej z dobrego serca, a w rzeczywistości stają się nieświadomymi żołnierzami w tej wojnie informacyjnej.
Zastanówmy się na chłodno. Profesjonalna armia rzadko komunikuje się ze światem poprzez emocjonalne TikToki robione z ręki w środku strefy walk. Jeśli film wygląda zbyt filmowo i tak mocno gra na waszych emocjach, że palec sam ucieka do przycisku "udostępnij", zatrzymajcie się. W 2026 roku prawda na wojnie ginie nie tylko od kul, ale przede wszystkim w procesorach generatorów AI.