Opinion Technologie
11 août 2023

GPT-Les robots anti-spam pilotés défient les plateformes en ligne

En bref

GPTLes robots spammeurs sont devenus un problème important sur des plateformes comme Twitter et Telegram, ciblant les promotions non sollicitées.

Ces programmes d'IA sophistiqués peuvent analyser et reproduire le contexte d'une publication, rendant leur interférence plus organique et plus difficile à identifier.

Un nouveau type de perturbation est apparu sous la forme de GPTdes robots spammeurs pilotés par des spams. Ces programmes d'IA sophistiqués ont ouvert une nouvelle page dans le manuel du spam, ciblant fréquemment les publications sur des plateformes telles que Twitter et Telegram avec des promotions non sollicitées.

GPT-Les robots anti-spam pilotés défient les plateformes en ligne

Ces GPTLes robots spam peuvent analyser et reproduire le contexte d'une publication, ce qui rend leur interférence plus naturelle et plus difficile à repérer que le simple spam du passé. Les mesures de protection traditionnelles sont remises en question car nombre d’entre elles sont inefficaces. Actuellement, ces robots ne peuvent être identifiés que par leurs temps de réponse rapides, qui permettent une intervention et une suppression manuelles.

Le barrage constant de spam porte sur les créateurs et les administrateurs. De nombreux opérateurs de chaînes sur des plateformes telles que Telegram ont déclaré souhaiter un service spécialisé capable de reconnaître et de supprimer ces commentaires de spam sophistiqués en réponse à ce besoin croissant. Ces opérateurs, qui se considèrent comme des « modérateurs en tant que service », sont prêts à investir dans une solution et ont exprimé leur volonté de payer 20 à 30 $ par mois ou d'utiliser un modèle de facturation à l'utilisation basé sur la quantité de publications ou de messages. qui sont surveillés.

Mais la difficulté ne s’arrête pas là. Il y a une vague imminente de GPT-des spammeurs qui devraient devenir encore plus compétents à mesure que la technologie progresse, utilisant éventuellement des stratégies telles que les délais de réponse ou l'utilisation de diverses personnalités IA qui interagissent les unes avec les autres. Dans de telles circonstances, faire la différence entre les utilisateurs humains et les robots devient une tâche difficile.

Pourtant, la géants de la technologie sont aux prises avec le problème. OpenAI a fait un pas en avant vers la résolution de ce problème avec le développement d'un détecteur de texte conçu pour identifier le contenu généré par l'IA. Malheureusement, leurs efforts ont connu un échec puisque le projet a été abandonné en raison de la faible précision du détecteur, tel que rapporté par TechCrunch en juillet 2023.

Les administrateurs de plateformes ne sont pas les seuls concernés par la hausse des GPT-des robots spammeurs alimentés par des spams. Le défi consistant à séparer le contenu authentique des soumissions générées par l’IA est désormais confronté même aux gestionnaires de médias sociaux et aux startups. Cette situation met en évidence un besoin urgent et offre une opportunité pour de nouvelles initiatives et projets capables de créer des solutions efficaces pour contrer les méthodes avancées de spam de l’ère moderne.

Progrès dans les modèles de langage et implications pour la désinformation en ligne

Le caractère pratique et l’aptitude conversationnelle quasi humaine de GPT ont été constatées par les utilisateurs. Cependant, les mêmes capacités qui lui ont valu l’admiration suscitent également des inquiétudes quant à son éventuelle utilisation abusive.

Compte tenu de la capacité de l’IA à imiter les réponses humaines, son déploiement à des fins malveillantes suscite des appréhensions. Des experts des secteurs universitaire, de la cybersécurité et de l’IA soulignent l’utilisation potentielle de GPT par des individus mal intentionnés pour diffuser de la propagande ou susciter des troubles sur les plateformes numériques.

Historiquement, la propagation de la désinformation a exigé une intervention humaine importante. L'introduction de systèmes de traitement du langage raffinés peut amplifier l'échelle et la portée des opérations d'influence cibler les réseaux sociaux, ce qui se traduit par des campagnes plus personnalisées et donc potentiellement plus convaincantes.

Les plates-formes de médias sociaux ont, dans des cas précédents, été témoins d'efforts coordonnés pour diffuser des informations erronées. Par exemple, lors de la préparation des élections américaines de 2016, l'Internet Research Agency, basée à Saint-Pétersbourg, lancé une vaste campagne. Leur objectif, tel qu'en a déduit la commission sénatoriale du renseignement en 2019, était d'avoir un impact sur la perception de l'électorat envers les candidats à la présidentielle.

Le rapport de janvier soulignait que l'émergence de technologies basées sur l'IA modèles de langage pourrait accroître la diffusion de contenus trompeurs. Le contenu pourrait non seulement augmenter en volume, mais également améliorer sa qualité de persuasion, ce qui rendrait difficile pour les internautes moyens de discerner son authenticité.

Josh Goldstein, affilié au Centre pour la sécurité et les technologies émergentes de Georgetown et contributeur à l'étude, a mentionné la capacité des modèles génératifs à produire de gros volumes de contenu unique. Une telle capacité pourrait permettre à des individus malveillants de diffuser des récits variés sans recourir à des contenus répétitifs.

Malgré les efforts de plateformes comme Telegram, Twitter et Facebook pour contrer les faux comptes, l'évolution des modèles de langage menace de saturer ces plateformes avec des profils plus trompeurs. Vincent Conitzer, professeur d'informatique à l'Université Carnegie Mellon, a noté que les technologies de pointe, telles que ChatGPT, pourrait considérablement augmenter la prolifération des profils contrefaits, ce qui brouille davantage les frontières entre les utilisateurs authentiques et les comptes automatisés.

Des études récentes, y compris l'article de M. Goldstein et un rapport de la société de sécurité WithSecure Intelligence, ont mis en évidence la compétence de modèles de langage génératifs dans la rédaction d'articles de presse trompeurs. Ces faux récits, lorsqu'ils circulent sur plateformes sociales, pourrait influencer l'opinion publique, en particulier pendant les périodes électorales cruciales.

La montée de la désinformation facilitée par les systèmes d’IA avancés comme Chat-GPT soulève la question suivante : les plateformes en ligne devraient-elles prendre des mesures plus proactives ? Même si certains affirment que les plateformes devraient rigoureusement signaler les contenus douteux, des défis persistent. Luís A Nunes Amaral, associé au Northwestern Institute on Complex Systems, a commenté les difficultés des plateformes, citant à la fois le coût de la surveillance de chaque publication et le renforcement involontaire de l'engagement que ces publications source de division apportent.

En savoir plus sur l'IA :

Clause de non-responsabilité 

En ligne avec la Lignes directrices du projet de confiance, veuillez noter que les informations fournies sur cette page ne sont pas destinées à être et ne doivent pas être interprétées comme des conseils juridiques, fiscaux, d'investissement, financiers ou toute autre forme de conseil. Il est important d’investir uniquement ce que vous pouvez vous permettre de perdre et de demander des conseils financiers indépendants en cas de doute. Pour plus d'informations, nous vous suggérons de vous référer aux conditions générales ainsi qu'aux pages d'aide et de support mises à disposition par l'émetteur ou l'annonceur. MetaversePost s'engage à fournir des rapports précis et impartiaux, mais les conditions du marché sont susceptibles de changer sans préavis.

A propos de l'auteur

Damir est chef d'équipe, chef de produit et rédacteur en chef chez Metaverse Post, couvrant des sujets tels que l'IA/ML, l'AGI, les LLM, le métaverse et Web3-domaines connexes. Ses articles attirent une audience massive de plus d'un million d'utilisateurs chaque mois. Il semble être un expert avec 10 ans d'expérience dans le référencement et le marketing numérique. Damir a été mentionné dans Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto et d'autres publications. Il voyage entre les Émirats arabes unis, la Turquie, la Russie et la CEI en tant que nomade numérique. Damir a obtenu un baccalauréat en physique, ce qui, selon lui, lui a donné les compétences de pensée critique nécessaires pour réussir dans le paysage en constante évolution d'Internet. 

Plus d'articles
Damir Yalalov
Damir Yalalov

Damir est chef d'équipe, chef de produit et rédacteur en chef chez Metaverse Post, couvrant des sujets tels que l'IA/ML, l'AGI, les LLM, le métaverse et Web3-domaines connexes. Ses articles attirent une audience massive de plus d'un million d'utilisateurs chaque mois. Il semble être un expert avec 10 ans d'expérience dans le référencement et le marketing numérique. Damir a été mentionné dans Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto et d'autres publications. Il voyage entre les Émirats arabes unis, la Turquie, la Russie et la CEI en tant que nomade numérique. Damir a obtenu un baccalauréat en physique, ce qui, selon lui, lui a donné les compétences de pensée critique nécessaires pour réussir dans le paysage en constante évolution d'Internet. 

L’appétit institutionnel augmente pour les ETF Bitcoin dans un contexte de volatilité

Les divulgations via les dépôts 13F révèlent que des investisseurs institutionnels notables se sont lancés dans les ETF Bitcoin, soulignant une acceptation croissante de...

En savoir plus

Le jour de la détermination de la peine arrive : le sort de CZ est en jeu alors que le tribunal américain examine le plaidoyer du DOJ

Changpeng Zhao est sur le point d'être condamné aujourd'hui par un tribunal américain à Seattle.

En savoir plus
Rejoignez notre communauté technologique innovante
En savoir plus
En savoir plus
Espresso Systems collabore avec Polygon Labs pour développer AggLayer afin d'améliorer l'interopérabilité des rollups
La Brochure Rapport de nouvelles Technologie
Espresso Systems collabore avec Polygon Labs pour développer AggLayer afin d'améliorer l'interopérabilité des rollups
9 mai 2024
Le protocole d'infrastructure alimenté par ZKP, ZKBase, dévoile sa feuille de route et prévoit le lancement de Testnet en mai
Rapport de nouvelles Technologie
Le protocole d'infrastructure alimenté par ZKP, ZKBase, dévoile sa feuille de route et prévoit le lancement de Testnet en mai
9 mai 2024
BLOCKCHANCE et CONF3RENCE s'unissent pour le plus grand projet d'Allemagne Web3 Conférence à Dortmund
La Brochure Marchés Logiciels Histoires et critiques Technologie
BLOCKCHANCE et CONF3RENCE s'unissent pour le plus grand projet d'Allemagne Web3 Conférence à Dortmund
9 mai 2024
NuLink se lance sur Bybit Web3 Plateforme IDO. La phase de souscription s'étend jusqu'au 13 mai
Marchés Rapport de nouvelles Technologie
NuLink se lance sur Bybit Web3 Plateforme IDO. La phase de souscription s'étend jusqu'au 13 mai
9 mai 2024
CRYPTOMERIA LABS PTE. LTD.