Przy pomocy sztucznej inteligencji naukowcy wykreowali  pięć automatycznych kont tzw. botów, z których każdy miał swoje imię i udawaną tożsamość. Pierwszy z nich Anthony obserwował głównie poglądy  antyszczepionkowe. Następne boty, kolejno Alice, Julia i Alfred, obserwowały coraz mniejszy odsetek kont antyszczepionkowych,  aż ostatni bot Jessie śledził jedynie osoby o poglądach proszczepionkowych. Eksperyment  trwał niespełna tydzień, a jego wyniki są bardzo niepokojące. Okazuje się bowiem, że osobom o proszczepionkowych zainteresowaniach wyświetlały się głównie neutralne tweety  a tylko 5 proc. informacji wspierało idee szczepień. Tymczasem aż co trzeci wpis botów o zainteresowaniach antyszczepionkowych zniechęcał do szczepień a tylko jeden na kilkadziesiąt te szczepienia wspierał. Najciekawszy był przypadek bota, który miał być neutralny.

On widział 35% informacji antyszczepionkowych i jedynie 3% proszczepionkowych, 63% to była informacja neutralna. Algorytmy promują treści, które są produkowane przez bardzo aktywną, ale jednak mniejszość użytkowników Twittera, co sprawia, że przeciętny użytkownik widzi znacznie więcej informacji antyszczepionkowych - twierdzi kierownik  projektu dr Jan Piasecki z zakładu Filozofii i Bioetyki Collegium Medicum UJ. Dodatkowo, jak przekonuje naukowiec, algorytmy Twittera promują dyskusje, które angażują najwięcej emocji, a więc sprawią, że użytkownik spędzi na Twitterze znacznie więcej czasu i dzięki temu da Twitterowi zarobić, bo użytkownik oprócz treści, które go interesują, zobaczy reklamy


I tu pojawia się kolejne niebezpieczne zjawisko na Twitterze czyli tzw. „siatki botów” - wyjaśnia współtwórczyni eksperymentu i autorka botów Izabela Krysińska  - doktorantka Politechniki Poznańskiej. Jest to ogromna liczba kont, kontrolowanych przez jedną osobę, czy organizację. Tworzą one klikę, przez podbijanie postów przez polubienia, czy komentarze, podawanie tweetów dalej. Treści, w które angażuje się więcej osób, wydają się nam bardziej wiarygodne. Sieci botów są tak szkodliwe, bo wykorzystują mechanizmy psychologiczne, wobec których zwykły człowiek jest bezradnych.


Receptą na dezinformację mają być badania prof. Rafała Ryguły z Instytutu Farmakologii Polskiej Akademii Nauk: "Jesteśmy w trakcie tworzenia profilu psychologiczno-poznawczego osoby superodpornej na dezinformację, a także na nią nadwrażliwych"
i te badania mają pomóc w stworzenia psychologicznej szczepionki chroniącej użytkowników sieci przed chorobliwą dezinformacją.
 

Międzynarodowy projekt "Cyberodporność jest finansowany  z Narodowego Centrum Nauki  i kosztuje półtora miliona euro.  Badania potrwają jeszcze dwa lata.