Un chercheur de Dartmouth développe un agent d'IA qui échappe à la détection des robots de sondage avec un taux de réussite de 99.8 %.
En bref Sean Westwood, chercheur à Dartmouth, a créé un agent d'IA qui a contourné la détection des robots de sondage dans 99.8 % des cas, démontrant ainsi la menace qui pèse sur les études de recherche en ligne.
Sean Westwood, professeur agrégé de sciences politiques à Dartmouth et directeur du Laboratoire de recherche sur la polarisation Il a développé un système d'IA qu'il décrit comme « un répondant synthétique autonome », capable de répondre aux questions d'un sondage tout en contournant la quasi-totalité des méthodes de détection avancées des réponses automatisées.
Publiée dans les Actes de l'Académie nationale des sciences (PNAS), la recherche souligne que les enquêtes en ligne, pierre angulaire de la collecte de données dans de nombreuses études scientifiques, pourraient désormais être menacées par les grands modèles de langage (LLM).
L'étude révèle que l'agent d'IA a réussi à échapper à la détection dans 99.8 % des cas. Les mécanismes de sécurité traditionnels des enquêtes, tels que les questions de contrôle d'attention, les indicateurs comportementaux et l'analyse des schémas de réponse, sont conçus pour identifier les personnes inattentives ou les robots automatisés. Westwood affirme que ces outils deviennent inefficaces, car son agent d'IA a contourné les méthodes de détection standard décrites dans des études de référence, y compris celles visant spécifiquement à identifier les réponses générées par l'IA. Il a également réussi les questions pièges, des tâches que l'IA peut gérer facilement mais qui représentent un défi pour les humains.
Selon l'article intitulé « La menace existentielle potentielle que représentent les grands modèles de langage pour les enquêtes en ligne », le système d'IA fonctionne par couches : une fois que son moteur de raisonnement a déterminé une réponse, une couche secondaire exécute des actions conçues pour imiter le comportement humain. Le système simule des temps de lecture réalistes en fonction du niveau d'études de l'utilisateur, génère des mouvements de souris naturels et saisit des réponses ouvertes touche par touche, en tenant compte des fautes de frappe et des corrections plausibles. Il est également configuré pour fonctionner avec des outils qui contournent les mesures anti-robots courantes telles que reCAPTCHA, permettant ainsi une participation automatisée indétectable aux enquêtes en ligne.
Une étude met en garde contre la possibilité que des avatars IA manipulent les sondages nationaux avec des réponses minimales et peu coûteuses.
Selon l'étude, le système d'IA est capable de simuler un profil démographique cohérent, ce qui suggère qu'en théorie, il pourrait manipuler les résultats des sondages en ligne pour obtenir n'importe quel résultat souhaité à partir d'un profil généré par l'IA. Un petit nombre de réponses falsifiées suffirait à modifier les résultats. L'étude souligne que, pour les sept principaux sondages nationaux menés avant l'élection de 2024, l'introduction de seulement 10 à 52 réponses générées par l'IA aurait pu altérer les résultats prévus. Produire ces réponses serait extrêmement peu coûteux, environ cinq centimes par réponse, contre 1.50 $ en moyenne versés aux participants humains aux sondages.
L'agent d'IA de Westwood est indépendant du modèle et implémenté en Python, ce qui signifie qu'il peut fonctionner via les API des principaux fournisseurs d'IA tels que OpenAI, Anthropic ou Google, ou être hébergé localement à l'aide de modèles à poids ouvert comme LLamaDans cette étude, les tests ont principalement utilisé OpenAILe modèle o4-mini a été utilisé, mais d'autres modèles comme DeepSeek R1, Mistral Large, Claude 3.7 Sonnet, Grok3 et Gemini 2.5 Preview ont également servi à démontrer la compatibilité de l'approche avec plusieurs modèles de langages logiques (LLM). L'agent fonctionne à partir d'une seule consigne d'environ 500 mots, qui lui indique le type de personnalité à imiter et comment réagir de manière naturelle.
L'article met également en lumière des stratégies potentielles pour atténuer le risque de manipulation des enquêtes par l'IA, bien que chaque approche présente des inconvénients. Une vérification d'identité renforcée des participants pourrait réduire cette menace, mais soulève des questions de confidentialité. Les chercheurs sont également encouragés à accroître la transparence de la collecte des données d'enquête et à envisager des méthodes de recrutement des participants plus contrôlées, telles que l'échantillonnage basé sur les adresses ou l'utilisation des fichiers d'inscription électorale, afin de garantir l'intégrité des données.
Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.
Vous pourriez également aimer
Strategy souffre en bourse, mais Saylor jure de ne jamais abandonner

LIVE : Bitcoin et ethereum dans le rouge, chute des altcoins, XRP en difficulté, TGE du $BEST

Trésoreries crypto : les actions surclassent leurs propres tokens

Protéger ses cryptomonnaies ? Le portefeuille non-custodial Best Wallet est la meilleure solution

