Skoordynowane używanie botów to jedna z technik wykorzystywanych do ingerencji w wybory lub ich zakłócenia - zwraca uwagę Polski Instytut Ekonomiczny. Korzystano z nich np. podczas arabskiej wiosny, również część dyskusji na temat pandemii i obowiązku pozostania w domu pochodzi od botów.
Analitycy PIE wskazali też na udział botów sterowanych przez nieznanych internetowych trolli podczas promowania aplikacji ProteGO Safe, służącej do monitoringu kontaktów społecznych i mającej przeciwdziałać rozprzestrzenianiu się koronawirusa. Fikcyjne twitterowe konta m.in. profesorów i doktorów zachwalały oraz zachęcały do użytkowania nowej aplikacji - zaznaczyli.
Jak wskazali w najnowszym wydaniu "Tygodnika Gospodarczego PIE", skoordynowane używanie botów to również jedna z technik wykorzystywanych w celu ingerencji w wybory lub ich zakłócenia. Eksperci przywołali dane z raportu Freedom of the Net, z którego wynika, że w 24 spośród 30 krajów, gdzie w 2018 r. odbywały się wybory lub referenda, zakłócano je przez kampanie informacyjne prowadzone z wykorzystaniem automatycznych kont. "Boty były także szeroko wykorzystywane m.in. podczas arabskiej wiosny" - zaznaczyli.
Analitycy PIE zwrócili uwagę, że tego typu techniki służą też innym celom, czego dowodem są wpisy na Twitterze dotyczące pandemii koronawirusa.
"Znaczna część dyskusji na temat pandemii i obowiązku pozostania w domu pochodzi od botów"
Wśród 50 najbardziej wpływowych retwittowiczów 82 proc. to były boty, a z 1000 najbardziej wpływowych - 62 proc.
Z kolei badacze z Brown University odkryli, analizując wpisy na tej samej platformie po wycofaniu się przez Stany Zjednoczone z paryskiego porozumienia klimatycznego, że 25 proc. wszystkich wpisów dotyczących kryzysu klimatycznego pochodziło od botów. Były one np. odpowiedzialne za 38 proc. wiadomości o „fałszywej nauce” i 28 proc. wszystkich wpisów o potentacie naftowym Exxon.
"Boty to tylko jeden z elementów służących dezinformacji i wpływaniu na wyniki wyborów, którego nie należy utożsamiać z mową nienawiści czy fałszywymi wiadomościami (tzw. fake news)"
Zwrócili uwagę, że mogą one szerzyć fałszywe wiadomości, ale mogą także służyć innym celom. Podobnie mowę nienawiści mogą propagować realni użytkownicy.
"Problemem w walce z automatycznymi kontami może być jednak nie tyle trudność w ich rozpoznaniu, lecz system, na którym oparte są profity platform społecznościowych. Boty nierzadko nabijają bowiem klikalność, która jest wiodącą walutą internetu" - podsumowali eksperci.