Im Monitoring-Dashboard erschien ein Muster, das eine klassische DDoS-Attacke zeigte. Eine Handelsplattform war das Ziel massiver Web-Anfragen: Es gab zwei deutliche Traffic-Spitzen in kurzer zeitlicher Folge, die beide groß genug waren, um eine ungeschützte Website in die Knie zu zwingen. Wir schauen uns die größere Traffic-Spitze genauer an.
Die gemessenen Spitzenwerte betrugen rund 16 Millionen Requests pro Minute bei einer Bandbreite von 160 Gigabis pro Minute, also etwa 21 Gbit/s. Die Anfragen konnten erfolgreich abgewehrt werden. Das Angriffsmuster offenbart jedoch, wie professionell organisierte Botnetze inzwischen agieren und welche Rolle scheinbar kleine Details, wie der User Agent, spielen.

Der Traffic stieg nicht explosionsartig an, sondern folgte einer charakteristischen Kurve, langsam und stetig über mehrere Minuten hinweg. Diese kontrollierte Eskalation ist typisch für Akteure, die ihre Ziele zunächst testen, um beispielsweise herauszufinden, ob eine Seite durch Mitigation-Systeme geschützt ist.
Solche „weichen” Starts sind raffinierter, als sie wirken: Ein plötzlicher Peak fällt auf, ein langsamer Anstieg kann jedoch Systeme täuschen, die nur auf abrupte Volumensprünge reagieren. Die Angriffsdauer betrug insgesamt weniger als eine halbe Stunde.
Die Quell-IP-Adressen waren auf dem gesamten Globus verteilt: Indonesien, die USA, China, Deutschland, Indien, Mexiko, Brasilien, Peru und Russland. Mehr als 5.000 Unique IPs waren beteiligt.
Dieses breite Spektrum spricht für ein groß angelegtes, gut organisiertes Botnetz. Offensichtlich wurden teilweise Cloud-Ressourcen oder leistungsstarke Server genutzt, was an dem hohen Datendurchsatz pro Host erkennbar war. Besonders auffällig war, dass ein erheblicher Anteil der Requests aus Netzen großer Telekommunikationsanbieter kam. Dies deutet auf kompromittierte Geräte oder Server innerhalb normaler Consumer-Netze hin, was ein klassisches Kennzeichen moderner, „gemischter“ Botnets ist.
Die Angreifer fokussierten sich bei ihrem Angriff auf die gesamte Website, d. h. auf die Root-Domain, also die Startseite, den zentralen Einstiegspunkt. Damit sollte die gesamte Webpräsenz offenbar unzugänglich gemacht werden.
Die Abwehrsysteme reagierten effizient: Auffällige IPs wurden automatisch in eine Quarantäne-Zone verschoben und sofort geblockt. So konnten Ressourcen geschont und die Latenz niedrig gehalten werden. Die meisten Anfragen erhielten eine HTTP-403-Antwort. Das zeigt, dass die Abwehr auf Applikationsebene konsequent griff.
Eines der Merkmale dieser Attacke war die Gleichförmigkeit der sogenannten User Agents, also der Kennungen, die Browser an Server senden, um sich beispielsweise als „Chrome“, „Safari“ oder „Firefox“ auszugeben.
Im beobachteten Angriff verwendeten fast alle Requests denselben User-Agent-String, ein klares Alarmsignal:
Heute können Angreifer problemlos Listen mit Tausenden realistisch wirkenden User-Agent-Strings generieren, von denen viele öffentlich abrufbar sind. In einer fortgeschrittenen Angriffsversion würde jeder Bot einen anderen, plausiblen User-Agent-String verwenden. Dadurch wird es schwieriger, Traffic anhand dieser Signatur zu identifizieren oder zu blockieren.
Der beobachtete Angriff hingegen blieb bei zwei statischen User Agents und scheiterte somit an der ersten Verteidigungslinie.
Für Verteidiger ist eine solche Gleichförmigkeit ein Glücksfall: Einfache Regeln wie „Blockiere alle identischen User Agents bei mehr als X Anfragen pro Minute aus verschiedenen IPs“ funktionieren zuverlässig.
Doch die Szene lernt schnell. Bereits heute kursieren Botnet-Frameworks, die mit randomisierten Browser-Signaturen, gefälschten Headern oder sogar simulierten Mausbewegungen arbeiten, um wie echte Nutzer zu wirken.
Damit wandelt sich der User Agent vom simplen Erkennungsmerkmal zu einem der wichtigsten Indikatoren für Bot-Intelligenz.
In den Traffic-Grafiken waren kurze Pausen oder Einbrüche im Datenvolumen zu erkennen. Wahrscheinlich wurde in diesen Momenten das Botnetz umstrukturiert. Entweder blockten Provider auffällige IPs, Geräte verloren die Verbindung oder die Angreifer wechselten zu neuen Adressbereichen.
Diese Dynamik unterstreicht, dass es sich um eine hochautomatisierte Infrastruktur handelt. Botnetzbetreiber erkennen in Echtzeit, welche Teile blockiert wurden, und ersetzen sie automatisch durch neue Ressourcen. Das erfordert technische Kontrolle und Ressourcen. Hier waren keine „Script Kiddies” am Werk, sondern es handelte sich um einen koordinierten Angriff mit globalem Zugriff.
Dieser Angriff mag im Vergleich zu komplexen Zero-Day-Exploits harmlos wirken, doch er zeigt eindrucksvoll: Auch einfache Mechanismen, die global skaliert und automatisiert sind, können erhebliche Störungen verursachen.
Für Betreiber von Webplattformen bedeutet das:
Was wie ein klassischer DDoS-Angriff begann, entpuppte sich als Lehrstück über Automatisierung, Wiederverwendbarkeit und Identität im Netz. Der User Agent, der oft übersehen oder ignoriert wird, war in diesem Fall der Schlüssel zum Verständnis und zur erfolgreichen Abwehr.
Er zeigte, dass hinter Millionen von Requests kein organisches Nutzerverhalten steckte, sondern ein global synchronisiertes Botnetz. Sicherheit im Internet hängt nicht nur von der Bandbreite oder der Hardware ab, sondern auch von künstlicher Intelligenz, Mustererkennung und dem kontinuierlichen Lernen der Abwehrsysteme.
Wir unterstützen Unternehmen dabei, Botnet-Traffic zuverlässig zu erkennen, User-Agent-basierte Erkennungsmechanismen zu verfeinern und flexible Abwehrstrategien zu entwickeln.
Kontaktieren Sie uns für eine unverbindliche Sicherheitsanalyse, bevor der nächste Spike eintritt.