Viele Besucher, aber keine Verkäufe? Dieses Muster taucht in Onlineshops regelmäßig auf. In vielen Fällen steckt keine schlechte Conversion oder fehlerhafte Technik dahinter, sondern automatisierte Zugriffe.
Bots, Crawler und Skripte rufen Seiten auf, durchsuchen Inhalte oder testen Formulare. Jeder dieser Aufrufe wird als Besucher gezählt, obwohl kein Mensch dahintersteht. Die Folge: verfälschte Statistiken, überhöhte Besucherzahlen und ein Shop, der langsamer reagiert, weil Ressourcen blockiert werden.
Viele Besucher keine Verkäufe: Praxisbeispiel
Ein Händler bemerkte an einem Wochenende über 3800 Sitzungen in der Statistik. Kein einziger Klick führte in den Warenkorb. In der Wer ist online Ansicht zeigte sich: fast alle Zugriffe kamen von derselben IP-Adresse. Der User-Agent verriet einen automatisierten Scanner. Der vermeintliche Besucheransturm war eine Bot-Welle, die das System ausgelastet hatte.
Was im Shop wirklich passiert: so prüfen Sie es
Die meisten Shopsysteme bieten im Backend eine Übersicht wie Wer ist online oder Besucheraktivität. Alternativ liefern die Access-Logs im Hosting dieselben Daten. Wichtig sind zwei Angaben:
- IP-Adresse
- User-Agent
Schon ein kurzer Blick genügt, um Auffälligkeiten zu erkennen. Oftmals kommen auch viele Anfragen aus dem gleichen IP Netz, von unterschiedlichen IP Adressen.
User-Agent prüfen
Der User-Agent zeigt, mit welchem Programm Seiten abgerufen werden. Normale Besucher verwenden Browser wie Chrome oder Firefox, erkennbar an klaren Kennungen. Bots verraten sich häufig durch Begriffe wie crawler, spider, bot oder durch kryptische Kürzel.
Vorgehen: kompletten User-Agent kopieren und in einer Suchmaschine prüfen. So wird schnell sichtbar, ob es sich um einen legitimen Crawler oder ein verdächtiges Tool handelt.
Hintergrundwissen und Beispiele: Bad Bots und Spam-Crawler: Was sind sie und wie können Sie sie blockieren?
IP-Adresse bewerten
Auch die IP-Adresse ist aufschlussreich. Über Reputationsdienste wie abuseipdb.com lässt sich prüfen, ob eine Adresse wegen verdächtiger Aktivitäten gemeldet wurde. Mehrere Einträge oder Warnungen sind ein deutlicher Hinweis auf automatisierte Zugriffe. Wiederkehrende IPs über längere Zeiträume sind ein weiteres Warnzeichen.
Konkrete Sperrmaßnahmen: IP-Adressen und Länder von der eigenen Webseite aussperren
Folgen für Statistik und Leistung
- Statistikverzerrung: Bot-Traffic erhöht Sitzungen, verfälscht Absprungraten und Conversion-Bezug. Kampagnen wirken schlechter oder unplausibel.
- Systemlast: Bots belegen Prozesse, CPU-Leistung und Datenbankverbindungen. Bei Wellen reagiert der Shop träge oder ist kurzzeitig nicht erreichbar.
Maßnahmen und Prävention
- robots.txt prüfen und unerwünschte Crawler ausschließen. Anleitung: robots.txt richtig nutzen
- Bot-Blockregeln einsetzen und verdächtige User-Agents serverseitig sperren. Anleitung: Einen Bot finden und aussperren
- IP- oder Länderblockierung für wiederkehrende Quellen aktivieren. Anleitung: IP-Adressen und Länder aussperren
Empfehlung für den Alltag: regelmäßig die Zugriffsübersicht prüfen, verdächtige User-Agents und IPs dokumentieren, passende Regeln setzen und die Wirkung kontrollieren.
Unterstützung durch ESTUGO
Nicht jeder möchte diese Prüfungen selbst durchführen. Wenn Sie Unterstützung benötigen, hilft der ESTUGO Support bei der Analyse von IP-Adressen, User-Agents und Protokollen und setzt geeignete Sperren sicher um. Technische Vorkenntnisse sind nicht erforderlich.