Aby skutecznie zapobiegać epidemiom kolejnych fake newsów, warto znać profil osób na fake newsy najbardziej podatnych. A wtedy skuteczniej dobierać narzędzia powstrzymujące rozchodzenie się nieprawdziwych informacji – uważają naukowcy z projektu #Cyber_odporność.
„Walka z fake newsami pochłania mnóstwo zasobów, które można by było zagospodarować znacznie efektywniej. Środki, które mogłyby więc służyć na promocję zdrowego stylu życia czy profilaktyki zużywane są np. na to, by prostować fałszywe informacje dotyczące szczepień. A środki, które mogłyby iść na walkę z COVID-19 trzeba przeznaczać na przygotowanie i dystrybucję materiałów odkręcających teorie spiskowe” – mówi w rozmowie z PAP etyk dr Jan Piasecki z Uniwersytetu Jagiellońskiego, kierownik projektu #Webimmunization (#Cyber_odporność).
Dlatego też między innymi interdyscyplinarny zespół z udziałem etyków, psychologów, neurobiologów, epidemiologów i informatyków chce poznać mechanizmy tej pochłaniającej środki „choroby”, jaką jest dezinformacja. Naukowcy w ramach swoich badań przygotowują m.in. profil psychologiczny osób najbardziej podatnych na wiarę w fałszywe informacje. A przez to będą mogli dowiedzieć się, jak wygaszać takie epidemie w zarodku.
Skąd porównanie rozprzestrzeniania się fake newsów do epidemii? „Wirus – nieożywiony fragment informacji – wykorzystuje luki w biochemicznych zabezpieczeniach organizmów żywych, aby za ich pomocą się namnażać. A dzięki temu może przenosić się na kolejne organizmy. Rozprzestrzenianie się fałszywych informacji możemy postrzegać podobnie: jako proces, w którym nieprawdziwe, złe informacje, wykorzystują słabe punkty w naszym systemie weryfikowania informacji i są przez nas reprodukowane” – mówi dr Jan Piasecki.
Tłumaczy, że wpływ na to, że fałszywa informacja może się replikować, ma m.in. nasz aparat psychologiczny. Mniej skłonni jesteśmy więc, by weryfikować informacje apelujące do emocji czy pozwalające zbudować tożsamość w opozycji do innych grup. Bardziej jesteśmy też skłonni wierzyć w informacje zgodne z naszą wiedzą, spójne, wobec których jest konsensus wśród ludzi, którymi się otaczamy, informacje podawane przez wiarygodne naszym zdaniem źródła i poparte wieloma argumentami (które akurat jesteśmy w stanie przywołać).
Drugi element to system składający się z czynników ekonomicznych, politycznych i społecznych. Mogą więc następować czasy niepokoju, przełomu, gdzie jakieś grupy społeczne czują się zagrożone i wykluczone, czują, że tracą swoją tożsamość. A przez to są bardziej podatne na dezinformację.
Trzecim elementem mającym wpływ na replikację fake newsów jest czynnik technologiczny. „Co jakiś czas powstaje nowa technologia, która pozwala nam szybciej rozpowszechniać informacje. Kiedyś to był druk, później – radio, a teraz są to sieci społecznościowe” – mówi Piasecki. I zaznacza, że w mediach społecznościowych każdy z nas jest nie tylko odbiorcą, ale i producentem informacji. I są tu bardzo słabe filtry pozwalające odsiać nieprawdziwą informację. „Te sieci społecznościowe są pudłem rezonansowym, które pozwala wzmocnić te niesprawdzone informacje” – mówi.
Pytany, czy mamy już jako ludzkość szczepionkę na fake newsy, powiedział, że każdy z nas może takie przeciwciała na dezinformację zyskiwać: to krytyczne myślenie, umiejętność korzystania ze zweryfikowanych informacji i posługiwania się narzędziami naukowymi. „Możemy odwoływać się zarówno do nauk ścisłych, jak i do humanistycznych i społecznych, które dostarczają nam bogatej wiedzy o tym, jak funkcjonuje świat, umysł, jakie popełniamy błędy w rozumowaniu. To nie jest aż tak skomplikowane. Natomiast niestety rzadko mamy chęć włączania naszego krytycznego myślenia, bo jesteśmy wciąż bombardowani informacjami. Nie mamy czasu ani możliwości, żeby wszystkie je weryfikować. A w dodatku podlegamy uprzedzeniom, emocjom, przynależymy do różnego rodzaju obozów” – mówi.
Jego zdaniem, choć każdy z nas może wytworzyć w sobie „cyberodporność”, to jednak w sferze publicznej takiej uniwersalnej „szczepionki na dezinformację” jeszcze nie ma. I zaznacza, że fałszywe czy też zmanipulowane informacje (w angielskim określa się to pojemniejszym mianem misinformacji) to na tyle szerokie zjawisko, że nie ma tu jednego sposobu walki czy zapobiegania mu.
I tak rozróżniając informacje możemy kategoryzować ich prawdziwości oraz ich szkodliwość.
Informacja prawdziwa, ale rozpowszechniana ze złą intencją to tzw. Mal-informacja. Mal-informacja ma miejsce np. kiedy robi się komuś zdjęcie w sytuacji, która go ośmiesza (np. w sytuacji intymnej, z dziwną miną, kiedy się przewraca) i rozpowszechnia to zdjęcie, aby tę osobę oczernić, osłabić jej wiarygodność.
Z kolei dezinformacja – w rozumieniu naukowców – to informacja nieprawdziwa i podawana ze złą intencją. „Zazwyczaj za dezinformacją stoją zorganizowane grupy, które chcą siać w danej społeczności chaos. Tego typu informacje używane są też w walce politycznej czy w relacjach międzynarodowych, aby osłabić przeciwnika” – tłumaczy dr Piasecki.
Jest też misinformacja – informacja nieprawdziwa, ale rozpowszechniana bez złych intencji. Tu rozmówca PAP jako przykład podaje teorie spiskowe lub pseudonaukowe. „Np. antyszczepionkowcy są głęboko przekonani, że mówią prawdę i że chcą pomóc, ale w gruncie rzeczy rozpowszechniając nieprawdziwe informacje – szkodzą” – zwraca uwagę badacz.
Dodaje jednak, że do grona szkodliwych informacji w sieciach społecznościowych zaliczyć można też takie zjawiska jak: trollowanie (agresywne wypowiedzi na forach internetowych), mowa nienawiści (negatywne wypowiedzi dotyczące całych grup, bazujące na uprzedzeniach), rozpowszechnianie plotek i „legend miejskich”, cyberbullyng (znęcanie się psychiczne za pomocą sieci społecznościowych) czy crowdturfing (sztuczne pompowanie czyjegoś wizerunku w mediach np. przez skupywanie użytkowników obserwujących jego konto).
„Każde z tych zjawisk wymaga innych środków zaradczych. Do walki z dezinformacją muszą być zaangażowani specjaliści od bezpieczeństwa, polityki kraju, spraw zagranicznych, którzy mają wiedzę i środki, by takie zjawiska wykrywać i im przeciwdziałać. A z kolei w cyberbullyingu trzeba już podjąć inne środki – edukacyjne, wychowawcze. I muszą się w to zaangażować pedagodzy, psycholodzy, ale i rodzice” – tłumaczy badacz.
Widać więc, że walka ze szkodliwymi informacjami może przybierać różne formy. Aby opracować najskuteczniejsze narzędzia do walki z poszczególnymi rodzajami szkodliwych informacji, badacze chcą przygotować psychologiczną skalę, która pozwoli ocenić indywidualną podatność na dezinformację. A następnie porównać z aktywnością użytkowników sieci. „Za pomocą narzędzi uczenia maszynowego chcemy potem stworzyć dokładny profil psychologiczny osób podatnych na dezinformację” – zapowiada.
Dzięki temu naukowcy chcą opracować różne rodzaje interwencji w sieciach społecznościowych – adekwatne do danych zagrożeń i najskuteczniejsze. Przydać się tu może właśnie wiedza z zakresu epidemiologii. Naukowiec porównuje, że w zapobieganiu epidemii nowotworów płuc – związanych z paleniem tytoniu – pomagają działania z bardzo różnych zakresów. Środkami zaradczymi może być np. nakaz stosowania filtrów (zmniejszenie szkodliwości dla samego użytkownika), wysoka akcyza (realne koszty dla użytkownika), podniesienie wieku, kiedy można kupować tytoń (ograniczenie dostępu do danego czynnika), informacje na etykietach (edukacja), zakaz palenia w miejscach publicznych (ograniczenie negatywnego wpływu danego zachowania na otoczenie) czy zakazy stosowania dodatkowych aromatów (uczynienie danego działania mniej atrakcyjnym). Dr Piasecki tłumaczy, że być może i w przypadku fake newsów trzeba będzie kiedyś zastosować analogiczne interwencje, które ograniczą szkodliwość takich nieprawdziwych informacji.
Czy jednak najskuteczniej działać będzie edukacja, restrykcje, kulturowe zmiany podejścia do sieci społecznościowych, na razie nie wiadomo, bo niewiele jeszcze wiemy o tym, kto i kiedy jest podatny na dezinformację – podsumowuje dr Piasecki.
Pytany o to, czy nie ma ryzyka, że w walce z fake newsami pojawi się cenzura, dr Piasecki odpowiada, że cenzury państwowej (kojarzonej z reżimami autorytarnymi) nie należy mylić z odpowiedzialnością za słowo.
„Dziennie na Twitterze publikuje się 500 milionów tweetów. Trudno z takiej ilości odsiać fałszywe informacje. Ci, których ‚ocenzurowano’, zawsze mogą pokazać palcem, że jest cała masa ludzi, których ‚system’ nie ukarał tak samo, zarzucając platformom stronniczość” – mówi. I zwraca uwagę na drugi problem, jakim jest powszechnie uznany system eliminacji fałszywych informacji. „W gazecie ‚cenzuruje’ autora redaktor, w czasopiśmie naukowym, praca jest oceniana przynajmniej przez dwóch recenzentów; jeśli ktoś jest lekarzem musi się liczyć z tym, że jego wypowiedzi mogą być ocenione przez środowisko naukowe. We wszystkich tych przypadkach istnieją standardy: rzetelności dziennikarskiej czy naukowej i procedury, które zachowanie tych standardów sprawdzają. W przypadku mediów społecznościowych nie ma takich standardów, nie ma też powszechnie akceptowanych transparentnych procedur. Dlatego osoby, których treści są ‚cenzurowane’ mogą mieć poczucie stronniczości i niesprawiedliwości. Z faktu jednak, że ktoś nie jest obecny na jakiejś platformie społecznościowej, nie można jednak wyciągać wniosku, że jest na niego cenzorski zapis” – uważa naukowiec.
PAP – Nauka w Polsce, Ludwika Tomala, lt/ agt/