Point de vue du RSSI : rapport Threat Insights du deuxième trimestre 2025

Directeur de la sécurité de l'information

L'équipe de recherche sur la sécurité de Fastly possède un aperçu unique des tendances en matière de sécurité, des vecteurs d'attaque et de l'activité des menaces dans le paysage de la sécurité des applications. S’appuyant sur des milliards de requêtes provenant de notre clientèle mondiale, nous pouvons recueillir une vue en temps réel de ce qui impacte matériellement les équipes de sécurité dans le contexte de tendances plus larges.
Chaque trimestre, nous résumons et présentons nos principales conclusions, avec des perspectives sur ce que tout cela signifie pour le marché au sens large – et pour vous. L’objectif est de fournir aux lecteurs des informations pour éclairer leurs propres stratégies, priorités et pratiques de sécurité.
Avec la publication récente de notre Rapport sur les informations sur les menaces du deuxième trimestre, j'ai décidé de donner mon point de vue sur les résultats et, en particulier, sur l'impact qu'ils ont sur les entreprises, du point de vue plus large de mon rôle en tant que RSSI. Vous trouverez ci-dessous mes réflexions sur les conclusions du deuxième trimestre…
Les robots arrivent pour nous
Le thème dominant de notre rapport du 2e trimestre — et la raison pour laquelle nous avons consacré tout le rapport à ce sujet — était les bots. Les bots sont une catégorie de trafic web automatisé en pleine expansion, et ils modifient déjà, et continueront de modifier, la manière dont les contenus sont accessibles, extraits et monétisés sur Internet.
Comprendre l'impact croissant de l'automatisation pilotée par l'IA et toutes ses implications est essentiel pour les organisations qui souhaitent rester compétitives et, surtout, sécurisées. Des informations approfondies sur les comportements et des capacités suffisantes en matière de visibilité et de sécurité sont essentielles pour naviguer dans les changements rapides qui se produisent sur Internet.
À ce stade, sur l'ensemble du trafic observé sur le réseau mondial de Fastly, nous avons constaté que 37 % était du trafic de robots automatisés, ce qui souligne l'importance pour les organisations d'envisager des outils et des stratégies pour atténuer les résultats indésirables.
Le pourcentage de trafic web composé de bots d'IA continuera sans aucun doute de croître à mesure que les LLM gourmands en données continuent de parcourir le web, que les solutions d'IA existantes voient une adoption accrue, et que de nouveaux outils agentiques médiatisent de plus en plus l'expérience entre les consommateurs et les sites web. Les implications pour les propriétaires de sites web sont défavorables s'ils n'ont pas une compréhension adéquate du trafic et du comportement des robots, et si des mesures appropriées ne sont pas mises en place pour contrer les impacts négatifs.
L’explosion des bots IA va mettre à rude épreuve les sites web, diminuer l’efficacité des analyses de sites et créer un risque de sécurité en permettant aux hackers de se cacher dans de grands volumes de trafic automatisé.
La visibilité est roi
Bien que tout le trafic des robots ne soit pas mauvais — pensez à la surveillance de la disponibilité et à l'exploration par les moteurs de recherche — les propriétaires de sites web sont confrontés à un véritable défi pour définir le « bon » trafic web par rapport au « mauvais » et le filtrer en conséquence.
Nous avons constaté qu'environ 87 % du trafic des robots est malveillant, ce qui signifie qu'il existe des possibilités de piratage de compte, de fraude publicitaire, de carding et d'une multitude d'autres problèmes de sécurité. Et les bots d'IA ajoutent une autre couche de complexité — bien qu'ils ne soient pas nécessairement malveillants à première vue, l'IA récupère du contenu (sans autorisation) afin d'entraîner des modèles et d'enrichir les réponses des modèles. Les propriétaires de sites peuvent considérer cette activité comme bénéfique ou risquée pour la santé globale de leur site web.
À mesure que l'exploration et la récupération par l'IA continuent de croître, il deviendra de plus en plus difficile de distinguer entre le trafic humain, le trafic de bots souhaité et le trafic de bots non souhaité. Une nuance supplémentaire apparaîtra lors du filtrage supplémentaire du trafic automatisé activement malveillant et facilitant les piratages de compte ou d'autres attaques basées sur le web.
La visibilité intelligente du trafic est donc absolument cruciale dans le climat actuel.
Les bots évitent la détection
Comme je l’ai noté précédemment, les bots d’IA ont des implications sur les performances web : les crawlers et fetchers d’IA entraînent une dégradation des performances et une augmentation des coûts d’infrastructure. Et nous constatons que des bots évitent activement la détection.
Notre rapport du deuxième trimestre a révélé des indicateurs selon lesquels certaines sociétés d\'IA « déguisent » des bots afin de contourner la détection de bots Standard. Nous avons noté que certains bots « cachaient délibérément leur identité en utilisant des chaînes User-Agent de navigateurs web réguliers ». Cette tromperie permet souvent aux bots que les fournisseurs de sites Web aimeraient voir bloqués de passer inaperçus. Alternativement, cela peut également aboutir à ce que « des robots IA souhaitables soient classés comme des bots malveillants et ensuite bloqués par les défenses des sites web ».
Au fur et à mesure que ce comportement trompeur s'intensifiera, nous risquerons de créer une sorte de « jeu du chat et de la souris » entre les robots d'IA et les fournisseurs de gestion de bots. Les organisations doivent s'assurer qu'elles disposent de solutions de gestion des bots capables de faire respecter activement le niveau d'acceptation du trafic des bots déterminé par le fournisseur du site web.
Que faire à propos des robots ?
Obtenez un outil de gestion de bots EXCELLENT
Il deviendra de plus en plus crucial pour les propriétaires de sites Web de mettre en œuvre de manière proactive des solutions qui leur offrent une visibilité granulaire et un contrôle sur le trafic des robots. Les outils tels que les pare-feu d’applications web (WAF) et les solutions de gestion des bots ne seront plus des solutions de sécurité optionnelles basées sur le profil de risque d'une entreprise. Elles deviendront des solutions critiques pour l'entreprise.
Les solutions avancées de gestion des bots comme Fastly Bot Management offrent aux propriétaires de sites web un contrôle précis sur les bots d'IA autorisés, la fréquence de leur accès au site et le contenu qu'ils peuvent consulter. Ces outils identifient de manière dynamique le nombre croissant de robots d'intelligence artificielle en temps réel et offrent une visibilité complète sur l'activité des bots pour aider à surveiller et gérer l'accès de manière efficace.
Votre principal enseignement de nos conclusions devrait être la nécessité absolue d'adopter une solution de gestion des bots capable de gérer le trafic des bots traditionnels et des bots d'IA. Si vous ne le faites pas, vous perdrez inévitablement du temps, des revenus et des ressources — et, ce qui est peut-être encore plus préoccupant, des implications en matière de sécurité.
Pour obtenir des informations plus approfondies sur l’activité des bots, lisez notre rapport du deuxième trimestre ici.