Opinione Tecnologia
11 Agosto 2023

GPTI bot spam guidati sfidano le piattaforme online

In Breve

GPTI bot spam sono diventati un problema significativo su piattaforme come Twitter e Telegram, prendendo di mira promozioni non richieste.

Questi sofisticati programmi di intelligenza artificiale possono analizzare e replicare il contesto di un post, rendendo la loro interferenza più organica e più difficile da identificare.

Un nuovo tipo di disturbo è emerso sotto forma di GPTbot spam guidati. Questi sofisticati programmi di intelligenza artificiale hanno voltato una nuova pagina nel playbook dello spam, spesso prendendo di mira i post su piattaforme come Twitter e Telegram con promozioni non richieste.

GPTI bot spam guidati sfidano le piattaforme online

Strumenti Bowman per analizzare le seguenti finiture: GPT-I bot spam possono analizzare e replicare il contesto di un post, il che rende la loro interferenza più naturale e più difficile da individuare rispetto al semplice spam del passato. Le misure di protezione tradizionali vengono messe in discussione perché molte di esse sono inefficaci. Attualmente, questi bot possono essere identificati solo dai tempi di risposta rapidi, che consentono l’intervento e la rimozione manuale.

La costante raffica di spam logora creatori e amministratori. Molti operatori di canale su piattaforme come Telegram hanno espresso il desiderio di un servizio specializzato in grado di riconoscere ed eliminare questi sofisticati commenti spam in risposta a questa crescente esigenza. Questi operatori, che si immaginano come "moderatori come servizio", sono disposti a investire in una soluzione e hanno espresso la volontà di pagare $ 20-30 al mese o di utilizzare un modello di fatturazione basato sull'utilizzo basato sulla quantità di post o messaggi che vengono osservati.

La difficoltà, però, non finisce qui. C'è un'ondata imminente di GPT-spammer che si prevede diventeranno ancora più abili con l'avanzare della tecnologia, possibilmente utilizzando strategie come ritardi di risposta o utilizzando varie personalità IA che interagiscono tra loro. In tali circostanze, distinguere tra utenti umani e robot diventa un compito impegnativo.

Anche giganti della tecnologia sono alle prese con la questione. OpenAI ha fatto un passo verso la risoluzione di questo problema con lo sviluppo di un rilevatore di testo progettato per identificare i contenuti generati dall'intelligenza artificiale. Sfortunatamente, i loro sforzi hanno subito una battuta d'arresto poiché il progetto è stato accantonato a causa della scarsa precisione del rilevatore, come riportato da TechCrunch nel luglio 2023.

Gli amministratori della piattaforma non sono gli unici preoccupati dall’aumento GPTbot spam potenziati. La sfida di separare i contenuti autentici dai contributi generati dall’intelligenza artificiale ora deve affrontare anche i gestori dei social media e le startup. La circostanza evidenzia un bisogno urgente e offre un’opportunità per nuove iniziative e progetti che possano creare soluzioni efficienti per contrastare i metodi avanzati di spamming dell’era moderna.

Progressi nei modelli linguistici e implicazioni per la disinformazione online

La praticità e l'attitudine alla conversazione quasi umana di GPT sono stati notati dagli utenti. Tuttavia, le stesse capacità che gli hanno valso l’ammirazione fanno sorgere anche preoccupazioni riguardo al suo potenziale uso improprio.

Considerata l'abilità dell'intelligenza artificiale nell'imitare le risposte umane, ci sono timori riguardo al suo utilizzo per scopi dannosi. Esperti del mondo accademico, della sicurezza informatica e dei settori dell’intelligenza artificiale ne sottolineano il potenziale utilizzo GPT da individui mal intenzionati a diffondere propaganda o fomentare disordini sulle piattaforme digitali.

Storicamente, la diffusione della disinformazione richiedeva un intervento umano significativo. L'introduzione di raffinati sistemi di elaborazione del linguaggio può amplificare la scala e la portata delle operazioni di influenza prendere di mira i social media, risultando in campagne più mirate e quindi potenzialmente più convincenti.

Le piattaforme di social media hanno, in casi precedenti, assistito a sforzi coordinati per diffondere disinformazione. Ad esempio, durante il periodo che ha preceduto le elezioni statunitensi del 2016, l'Internet Research Agency, con sede a San Pietroburgo, ha lanciato una vasta campagna. Il loro obiettivo, come dedotto dalla Senate Intelligence Committee nel 2019, doveva influenzare la percezione dell'elettorato nei confronti dei candidati presidenziali.

Il rapporto di gennaio ha evidenziato l’emergere di soluzioni basate sull’intelligenza artificiale modelli linguistici potrebbero aumentare la diffusione di contenuti fuorvianti. Il contenuto potrebbe non solo aumentare in volume ma anche migliorare in termini di qualità persuasiva, rendendo difficile per gli utenti medi di Internet discernerne l'autenticità.

Josh Goldstein, affiliato al Center for Security and Emerging Technology di Georgetown e collaboratore dello studio, ha menzionato la capacità dei modelli generativi di sfornare grandi volumi di contenuti unici. Tale capacità potrebbe consentire alle persone con intenti dannosi di far circolare narrazioni varie senza ricorrere a contenuti ripetitivi.

Nonostante gli sforzi di piattaforme come Telegram, Twitter e Facebook per contrastare gli account fake, l'evoluzione dei modelli linguistici rischia di saturare queste piattaforme con profili più ingannevoli. Vincent Conitzer, professore di informatica alla Carnegie Mellon University, ha osservato che le tecnologie avanzate, come ChatGPT, potrebbe aumentare in modo significativo la proliferazione di profili contraffatti, offuscando ulteriormente i confini tra utenti reali e account automatizzati.

Studi recenti, tra cui l'articolo di Mr. Goldstein e un rapporto della società di sicurezza WithSecure Intelligence, hanno evidenziato la competenza di modelli di linguaggio generativo nella creazione di articoli di notizie ingannevoli. Queste false narrazioni, quando circolate piattaforme sociali, potrebbe influenzare l'opinione pubblica, soprattutto durante periodi elettorali cruciali.

L’aumento della disinformazione facilitata da sistemi avanzati di intelligenza artificiale come Chat-GPT fa sorgere la domanda: le piattaforme online dovrebbero adottare misure più proattive? Anche se alcuni sostengono che le piattaforme dovrebbero segnalare rigorosamente i contenuti dubbi, le sfide persistono. Luís A Nunes Amaral, associato al Northwestern Institute on Complex Systems, ha commentato le difficoltà delle piattaforme, citando sia il costo del monitoraggio di ogni post sia l'involontario aumento di coinvolgimento che tali post divisivi portano.

Per saperne di più sull'intelligenza artificiale:

Negazione di responsabilità

In linea con la Linee guida del progetto Trust, si prega di notare che le informazioni fornite in questa pagina non intendono essere e non devono essere interpretate come consulenza legale, fiscale, di investimento, finanziaria o di qualsiasi altra forma. È importante investire solo ciò che puoi permetterti di perdere e chiedere una consulenza finanziaria indipendente in caso di dubbi. Per ulteriori informazioni, suggeriamo di fare riferimento ai termini e alle condizioni nonché alle pagine di aiuto e supporto fornite dall'emittente o dall'inserzionista. MetaversePost si impegna a fornire report accurati e imparziali, ma le condizioni di mercato sono soggette a modifiche senza preavviso.

Circa l'autore

Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet. 

Altri articoli
Damir Jalalov
Damir Jalalov

Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet. 

Cresce l’appetito istituzionale verso gli ETF Bitcoin in un contesto di volatilità

Le informazioni fornite tramite la documentazione 13F rivelano importanti investitori istituzionali che si dilettano negli ETF Bitcoin, sottolineando una crescente accettazione di...

Per saperne di più

Arriva il giorno della sentenza: il destino di CZ è in bilico mentre la Corte degli Stati Uniti considera l'appello del Dipartimento di Giustizia

Changpeng Zhao è pronto ad affrontare oggi la sentenza in un tribunale americano a Seattle.

Per saperne di più
Unisciti alla nostra comunità tecnologica innovativa
Scopri di più
Per saperne di più
Espresso Systems collabora con Polygon Labs per sviluppare AggLayer per migliorare l'interoperabilità dei rollup
Affari Notizie Tecnologia
Espresso Systems collabora con Polygon Labs per sviluppare AggLayer per migliorare l'interoperabilità dei rollup
9 Maggio 2024
Protocollo infrastrutturale basato su ZKP ZKBase svela la roadmap e pianifica il lancio di Testnet a maggio
Notizie Tecnologia
Protocollo infrastrutturale basato su ZKP ZKBase svela la roadmap e pianifica il lancio di Testnet a maggio
9 Maggio 2024
BLOCKCHANCE e CONF3RENCE si uniscono per il più grande della Germania Web3 Conferenza a Dortmund
Affari Mercati Software Storie e recensioni Tecnologia
BLOCKCHANCE e CONF3RENCE si uniscono per il più grande della Germania Web3 Conferenza a Dortmund
9 Maggio 2024
NuLink viene lanciato su Bybit Web3 Piattaforma IDO. La fase di abbonamento si estende fino al 13 maggio
Mercati Notizie Tecnologia
NuLink viene lanciato su Bybit Web3 Piattaforma IDO. La fase di abbonamento si estende fino al 13 maggio
9 Maggio 2024
LABORATORI DI CRITTOMERIA PTE. srl.