Non essere ingannato: come individuare un bot russo sui social media

Come puoi sapere se la persona con cui stai dibattendo appassionatamente online è una persona reale e non un robot russo? Utilizza queste linee guida.

Come puoi sapere se la persona con cui stai dibattendo appassionatamente online è una persona reale e non un robot russo?  Utilizza queste linee guida.
Annuncio pubblicitario

Sei sicuro che la persona con cui stai "discutendo" con passione online sia una persona reale e che respira? Come fai a sapere se sono solo un altro appassionato sostenitore di qualunque argomento e non qualcuno con il sostegno del governo (o di altri)?

Individuare i robot russi o gli scatti a pagamento non è un compito facile. Tuttavia, sta diventando sempre più importante in quanto le accuse di stati-nazione che si intromettono negli affari altrui continuano a girare. Puoi individuarli? Ecco cosa devi sapere.

Bot contro Shills

Iniziamo differenziando bot e shills.

Bot: un bot è un falso account di social media sotto il controllo di un'organizzazione o di un governo che cerca di influenzare la comunità online. Ad esempio, un bot di Twitter impostato per retwittare determinati hashtag e frasi in tali volumi che amplifica l'argomento specifico. Un altro esempio è che i bot Reddit effettuano il downvoting delle visualizzazioni in disaccordo con l'opinione del controller del bot (mentre si stanno facendo upvoting su quelli che sono d'accordo). I bot richiedono un volume per il successo su alcune piattaforme, mentre altre volte solo pochi possono iniziare a modellare la direzione di una conversazione.

Shill: uno shill è diverso. Gli shills sono persone reali che si impegnano attivamente nella formazione della discussione e dell'opinione online (in questo caso), mentre ricevono i pagamenti in cambio della loro presenza. Le Shills promuovono aziende, governi, personalità pubbliche e molto altro ancora, per il profitto personale, essenzialmente impegnato nella propaganda.

A seconda dell'organizzazione o del governo, gli shills possono funzionare in combinazione con reti bot di grandi dimensioni per creare intensi movimenti vocali online. E mentre gli sforzi congiunti di scuse e bot plasmano l'opinione online, questi sforzi stanno interessando sempre più gli utenti dei social media.

La pratica è anche conosciuta come l' astroturfing, in base al quale organizzazioni e governi curano la conversazione attraverso membri "regolari" del pubblico.

Bot e Shills russi

I robot russi e gli scia hanno dominato i discorsi in vista delle elezioni presidenziali americane del 2016. Commentatori e critici hanno dedicato un'enorme quantità di ore di trasmissione e di colonne discutendo sul ruolo dei robot e degli scatti sostenuti dalla Russia nell'influenzare la discussione su determinati argomenti.

Infatti, Robert Mueller, il consulente speciale che sta indagando sulle interferenze nelle elezioni presidenziali, ha recentemente incriminato 13 russi con sede negli Stati Uniti come parte della sospetta macchina di propaganda sostenuta dalla Russia, Internet Research Agency (IRA).

Ora che Twitter ha completato l'epurazione dei bot, posso uscire dal nascondiglio ??? pic.twitter.com/Utl1nCNgtF

- Russian Bot (@ RussianBot007RU) 24 febbraio 2018

Le accuse di influenza sono di vasta portata. Si va dalla semplice creazione di identità americane che suonano online, al furto dell'identità dei cittadini statunitensi, all'innalzamento degli attivisti delle minoranze e dei cosiddetti "guerrieri della giustizia sociale", alla creazione di gruppi di Instagram come "Woke Blacks" per influenzare gli sforzi di voto delle minoranze. E ci sono anche numerosi altri esempi.

Le reti di social media sono uno dei principali strumenti di influenza. Le piattaforme sanno anche che c'è un problema. Nel mese di gennaio 2018, Twitter ha dichiarato di inviare tramite posta elettronica 677.775 persone negli Stati Uniti che hanno twittato i contenuti dell'IRA. Allo stesso tempo delle scuse, Twitter sta eliminando gli account bot, spingendo l'hashtag #twitterlockout alla tendenza tra gli utenti di Twitter prevalentemente conservatori.

E a dispetto di tutte le grida di gioco scorretto e di ingiustamente bersagliati, ci sono prove che "i conservatori hanno ritwittato troll russi circa 31 volte più spesso dei liberali e prodotto 36 volte più tweet".

Inoltre, Twitter mantiene la loro purga dei bot "apolitica" e che impongono regole sul sitewide "senza pregiudizi politici".

Quindi Twitter cancella gli account Bot russi che fanno da troll come attivisti del GOP e cosa appare al loro posto? "Progressive" account bot russi per troll Dems per dividere il nostro partito come hanno fatto i repubblicani. Guarda vivo, gente.

- Amee Vanderpool (@girlsreallyrule), 25 febbraio 2018

Questo non vuol dire che i robot, gli sciami e l'astroturfing sono l'unico scopo delle figure conservatrici.

Già nel 2007, gli staff della campagna per Clinton stavano incrementando in modo anonimo i siti pro-Hilary, mentre durante i dibattiti presidenziali del 2016, la campagna di Clinton era oggetto di centinaia di migliaia di tweet automatici di bot (anche se significativamente meno di Donald Trump).

Non tutti i robot

Twitter e altre piattaforme di social media non sono afflitte da bot, come alcune pubblicazioni vorrebbero far credere. Possiamo scomporre l'interazione hashtag dei bot di Twitter per capire in che modo i loro sostenitori cercano di influenzare la conversazione.

Il Computational Propaganda Project (CCP), sponsorizzato dall'Università di Oxford, esamina da vicino queste interazioni. La tabella seguente illustra [PDF] la differenza di automazione tra le interazioni con gli hashtag pro-Trump o pro-Hilary, nonché la percentuale complessiva di tweet non automatici, tra il 1 ° novembre e il 9 novembre 2016:

Robot russi?

CCP definisce l'alta automazione come "account che pubblicano almeno 50 volte al giorno" utilizzando almeno uno degli hashtag specifici delle elezioni. Lo studio prende in considerazione qualsiasi cosa al di sotto di tale soglia di bassa automazione - in altre parole, una persona reale. La tabella mostra una percentuale molto più elevata dell'automazione di basso livello, a indicare un numero molto più alto di utenti regolari che interagiscono.

Lo studio rileva che alcuni utenti umani sono inevitabilmente portati nella fascia alta dell'automazione. Rileva anche che gli account che dimostrano l'alta automazione usano anche molto raramente i termini della parentesi mista Hashtag Cluster (combinazioni di barre Trump-Clinton dovute al volume di retweet puro).

Non conosceremo mai veramente l'immagine completa di quanti robot stanno lavorando su una data piattaforma di social media. Recenti stime di ricerca [PDF] secondo cui i robot automatizzati rappresentano quasi il 15% di tutti gli utenti di Twitter, mettendo così oltre 40 milioni di account bot individuali .

Da'wah Center Protest

Un primo esempio di diretta influenza russa è la protesta del centro di Houston Da'wah del 2016.

Il gruppo Facebook "Heart of Texas" ha pubblicato un annuncio in cerca di simpatizzanti per partecipare a una protesta "per fermare l'islamizzazione del Texas". La protesta è stata fissata per mezzogiorno del 21 maggio, incontro al Da'wah Center. Allo stesso tempo, un altro gruppo - i cosiddetti "Uniti musulmani d'America" ​​- stava organizzando una contro-protesta nello stesso momento e luogo.

I due gruppi si sono incontrati al centro e, prevedibilmente, "le interazioni tra i due gruppi sono infine degenerate in scontri e attacchi verbali".

All'epoca, nessuno dei manifestanti si era reso conto che il loro rispettivo gruppo non era reale. Vale a dire; i gruppi erano la costruzione di una "fattoria dei troll" sostenuta dalla Russia che esiste esclusivamente per manipolare la tensione politica, razziale e religiosa negli Stati Uniti.

Come individuare un bot sui social media

Riconoscere i bot e gli scatti sui social media non è sempre facile. Perché? Perché altrimenti più persone avrebbero capito cosa stava succedendo.

Non fraintendermi; interagiamo tutti con i robot e gli shill, è la natura stessa dei social media nel 2018. Gli operatori ricevono migliaia di dollari al mese per influenzare in modo sottile (ea volte più spudoratamente) le conversazioni.

Vi sono, tuttavia, alcuni suggerimenti per il rilevamento di bot da tenere a mente:

  1. L'account si limita a riposizionare / retweet, senza mai creare post propri, inviando la stessa risposta ad altre persone.
  2. Account che solo ripubblicano / ritwittano i commenti fatti da più account simili (alcuni dei quali sono anche probabilmente bot).
  3. Alcuni account rapidamente (probabilmente automaticamente) post in risposta a "trigger" argomenti più velocemente di quanto umanamente possibile.
  4. Cicli umani Le persone reali tendono a pubblicare a raffica, coprendo diversi argomenti, oltre ad avere tempi di inattività riconoscibili per i cicli giorno / notte.
  5. Immagini di profilo predefinite. Ad esempio, un profilo di Facebook con l'immagine di un uomo o una donna, o un profilo di Twitter con l'immagine di uovo predefinita.
  6. Profili prolifici in occasione di grandi eventi - elezioni, scandali, attacchi terroristici - ma restano dormienti in altri momenti. Le imminenti elezioni a medio termine del 2018 vedranno riattivare gruppi di account bot.

Altre cose a cui prestare attenzione sono i downvotes sistemici automatici su siti come Reddit. I robot raccolgono il titolo di una submission e iniziano immediatamente a fare downvoting di commenti che non sono d'accordo con la loro programmazione. (Il downvoting nasconde i commenti e le loro risposte dagli altri utenti, ed è un modo semplice per ostacolare le visualizzazioni dissenzienti. Come i sistemi upvote hanno danneggiato le comunità online come i sistemi upvote hanno danneggiato le comunità online?)

Come individuare uno Shill sui social media

Individuare gli scatti a pagamento è più difficile in quanto l'onere è sull'account mantenendo l'aspetto di un normale utente di social media. I post che promuovono un determinato argomento o plasmano la conversazione online potrebbero venire tra i normali punti di discussione mondani per non creare sospetti.

Alcune tattiche comuni includono:

  • Cambiando la narrazione di un argomento caldo verso qualcosa che promuova l'agenda di chi ha pagato per lo shill
  • Attaccare costantemente qualcosa che non faceva parte della conversazione iniziale (a volte chiamato "whataboutism", dove uno shill argomenta usando termini come "ma che dire di quando X ha fatto Y")

Un'altra tattica di avvistamento è il ciclo umano. Le persone normali devono dormire, mangiare, bere e così via. Se un singolo account sta riuscendo a pubblicare su un'unica agenda ininterrottamente per periodi di 24 ore, è probabile che qualcosa stia accadendo.

Ma gli shes "veramente buoni" lavorano sodo. Invece di limitarsi ad attaccare e contraddire l'opinione e tentare di plasmare la discussione, faranno lentamente amicizia e infiltrarsi in un gruppo prima di mettersi al lavoro.

Puoi fermare i robot russi?

Sfortunatamente, a parte la segnalazione di account sospetti, c'è poca azione diretta da intraprendere contro account shill o bot. Come si suol dire, non dare da mangiare ai troll.

Le elezioni di medio termine del 2018 sono ora saldamente all'orizzonte (controlla il pregiudizio politico di qualsiasi sito in fase di esecuzione Controlla la polarizzazione politica di qualsiasi sito multimediale in questo enorme database Controlla il pregiudizio politico di qualsiasi sito multimediale in questo enorme database Tutti i media il sito ha un pregiudizio politico, ma a volte non è facile capire quanto siano di parte: questo database li tiene traccia e li analizza per comodità. Mentre l'impatto dei conti shill e bot è forse più grande che mai, ora sai di più su come individuare determinati tipi di comportamento.

Immagine di credito: raptorcaptor / Depositphotos

In this article