back to top

Bot AI sui social media. Le piattaforme sono vulnerabili

Un recente studio condotto dall’Università di Notre Dame sui Bot AI ha analizzato le policy e le misure di sicurezza di otto social network, tra cui LinkedIn, Mastodon, Reddit, TikTok e X e le piattaforme di Meta come Facebook, Instagram e Threads. Il team di ricerca ha tentato di lanciare dei bot su ciascuna di queste piattaforme per verificare l’efficacia dei sistemi di controllo. I risultati ottenuti sembrerebbero essere però poco incoraggianti.

Bot AI, i social network non ci difendono abbastanza

I ricercatori che hanno condotto lo studio sono riusciti a pubblicare un post di prova su tutte le piattaforme. Evidenziando delle falle nel sistema di controllo dei bot basati sulla AI. Secondo Paul Brenner, direttore presso il Center for Research Computing di Notre Dame e autore dello studio, il team si aspettava che le piattaforme avrebbero bloccato i bot. Avrebbero scoperto invece che non sempre i sistemi di sicurezza adottati si comportano nel modo atteso.

Pubblicità

Le piattaforme di Meta si sarebbero rivelate le più difficili su cui lanciare il bot, richiedendo numerosi tentativi e causando delle sospensioni temporanee. Anche TikTok avrebbe presentato qualche sfida, principalmente a causa dell’uso più frequente di CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart) per la protezione dei form.

Piattaforme come Reddit, Mastodon e X sarebbero risultate invece più vulnerabili. In questi casi infatti i bot sarebbero stati lanciati con maggiore facilità nonostante le dichiarazioni ufficiali sulle misure di sicurezza adottate.

I risultati della ricerca

I risultati avrebbero mostrato che nessuna delle piattaforme analizzate sarebbe in grado di assicurare una protezione sufficiente contro i sempre più diffusi bot malevoli.

Brenner sostiene che sarebbero necessari interventi legislativi e incentivi economici per migliorare i livelli di sicurezza e proteggere gli utenti. In particolare servirebbero delle normative che obblighino le piattaforme a distinguere chiaramente tra account umani e bot. Solo con una combinazione di regolamentazioni, tecnologia avanzata e maggiore consapevolezza da parte degli utenti sarà possibile affrontare la crescente minaccia dei bot sui social media.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

TikTok: nuovi strumenti per il parental control

TikTok ha annunciato nuove funzionalità per migliorare il controllo...

Reddit: svolta contro i contenuti violenti e chi li apprezza

Reddit ha reso noto di aver approvato una nuova...

Instagram: un’applicazione separata per i Reels?

I responsabili di Instagram, proprietà di Meta, starebbero valutando...

Reddit: i contenuti generati dalla AI sono un problema

I moderatori di Reddit starebbero affrontando alcune difficoltà nel...

Facebook rimuove le live dopo 30 giorni

Dal 19 febbraio 2025 Facebook ha introdotto una nuova...

Elon Musk: non comprerò TikTok

Negli scorsi giorni sono emerse diverse speculazioni riguardo ad...
Pubblicità