Web Analytics: Zugriffe von Bots und Spiders ausfiltern

4. August 2014

Google Analytics: Die neue Option "Bots herausfiltern"

Google Analytics: Die neue Option “Bots herausfiltern”

Wer die Zugriffe auf eine Website misst, interessiert sich in aller Regel nur für Besucher aus Fleisch und Blut. Längst nicht jeder Page Request stammt aber von einem menschlichen Besucher: Ein erheblicher Teil der Zugriffe geht von Computerprogrammen (Bots, Spiders, Crawlers) aus. Ein prominentes Beispiel ist der Googlebot, der Websites für die Google-Suche indexiert; zwar ist sein Besuch sehr willkommen (denn sonst wäre die Website bei Google nicht auffindbar), doch sollten diese Zugriffe nicht in der normalen Besucherstatistik auftauchen.

Nicht wenige Zugriffe gehen auch auf das Konto von Spambots: Diese Computerprogramme sind auf der Suche nach E-Mail-Adressen auf Websites, oder sie hinterlassen Werbebotschaften in Diskussionsforen und Kommentarformularen. Der Besuch eines Spambots ist ärgerlich, aber kaum zu unterbinden. Definitiv unsinnig ist es jedoch, die so generierten Visits und Page Views in der Website-Statistik mitzuzählen. Dasselbe gilt auch für Angriffe von Botnets, welche nach dem Bruteforce-Prinzip in das Website-Backend einzubrechen versuchen oder gar mit einer DDoS-Attacke den Webserver lahmlegen wollen – naturgemäss werden bei solchen Angriffen eine Vielzahl von Page Views generiert.

Wahrscheinlich gibt es nicht wenige Webmasters auf dieser Welt, die sich zu Unrecht über die guten Besucherzahlen ihrer Website freuen, weil maschinelle Zugriffe nicht ausgefiltert werden. Einige verlassen sich möglicherweise darauf, dass Bots kein JavaScript ausführen können und deshalb von Google Analytics (und anderen Statistik-Tools, die auf Page Tagging basieren) gar nicht gezählt werden können. Leider ist diese Annahme zumindest teilweise falsch, denn es gibt sehr wohl Bots, die JavaScript verstehen – unter anderem auch der Googlebot, wie diese Ankündigung von Google belegt.

Maschinelle Zugriffe zu erkennen und auszufiltern ist nicht trivial. Längst nicht jeder Bot gibt sich per User Agent String offen als solcher zu erkennen – viele geben statdessen vor, reguläre Web-Browser zu sein. Auch das Blockieren von IP-Adressen ist aufwändig und oft schwierig, weil Botnets von vielen verschiedenen Rechnern aus operieren. Insofern ist es eine gute Nachricht, dass Google Analytics seit kurzem die Möglichkeit bietet, sämtliche bekannten Bots und Spiders auszuschliessen. “Bekannt” bedeutet in diesem Fall, dass sie in der IAB/ABC International Spiders & Bots List eingetragen sind und sich mit dem dort registrierten User Agent String identifizieren. Die vielen zwielichten Bots werden also nicht erkannt, aber es ist trotzdem empfehlenswert, die Option “Bots herausfiltern” in Google Analytics zu aktivieren. Und wer es ganz genau wissen will, legt eine separate Datenansicht an, um die Zahlen mit und ohne Bots vergleichen zu können.

Beitrag empfehlen

  • Facebook
  • Twitter
  • Email
  • RSS
  • Google Plus

Futurecom: Für Dickhäuter ein umfangreiches Online-Paket geschnürt

14. Juli 2014

Namenswettbewerb

Zoo Zürich – Fotowettbewerb

Mit viel digitalem Know-how begleitet Futurecom die Eröffnung des Elefantenparks sowie die Geburt des Elefantenbabys.

Dieses Jahr sorgen die Elefanten vom Zoo Zürich für besonders viel Gesprächsstoff: Zuerst die Eröffnung des Kaeng Krachan-Elefantenparks. Und als wäre das noch nicht genug, erblickte am 17. Juni noch ein Elefantenmädchen das Licht der Welt. Aus gegebenem Anlass kreierte Futurecom für den Zoo Zürich verschiedene Kommunikations-Massnahmen, welche vor, während und nach den wichtigen Ereignissen zum Einsatz kommen:

Weiterlesen »

Beitrag empfehlen

  • Facebook
  • Twitter
  • Email
  • RSS
  • Google Plus

Wer misst, misst Mist: Warum Logfile-Analyse und Page Tagging so unterschiedliche Zugriffszahlen liefern

25. Juni 2014

Logfile-Analyse vs. Page Tagging (Beispiel)

Digitale Marketing-Kommunikation hat den grossen Vorteil, dass ihre Wirkung präzise messbar ist – so hört man immer. Das ist nicht grundsätzlich falsch, aber auch nicht ganz richtig. Wer sich mit Web Analytics (also der Messung von Website-Zugriffszahlen) beschäftigt weiss, dass es auch hier Messfehler gibt. Dies wird besonders augenfällig, wenn man ein neues Statistik-Tool einführt: In aller Regel weisen die beiden Tools unterschiedliche Zugriffszahlen für dieselbe Website aus.

Besonders gross ist die Abweichung, wenn die beiden Tools unterschiedliche Messmethoden benutzen. Wer von der Logfile-Analyse (wie sie beispielsweise WebTrends oder AWstats ermöglichen) auf das Page Tagging (die Methode von Google Analytics oder Piwik) umsteigt, wird in aller Regel deutlich tiefere Zahlen für Page Views, Sessions und Users erhalten. Das kann im Einzelfall auf Konfigurationsfehler zurückzuführen sein, in der Regel ist es aber prinzipbedingt. Die Logfile-Analyse und das Page Tagging haben beide ihre Eigenheiten, welche die Zugriffszahlen sowohl nach oben als auch nach unten verfälschen können. Aber in der Gesamtheit wird Google Analytics tiefere Werte ausweisen als ein Tool, das nur Logfiles auswertet.

Weiterlesen »

Beitrag empfehlen

  • Facebook
  • Twitter
  • Email
  • RSS
  • Google Plus

easyPush – Erweiterte Funktionalitäten für den papierlosen Alltag

28. Mai 2014

easypush iPad App

easypush iPad App

Verbessertes User-Interface & zusätzliche Funktionalitäten.

Futurecom hat eine smarte iPad-App entwickelt, um Aussendienstmitarbeitern das Leben zu erleichtern. Mit dem Präsentation- und Bestellsystem easyPush haben Aussendienstler die Möglichkeit, ihre Produkte einfach zu präsentieren und direkt zu verkaufen. Seit der Ersteinführung der umfangreichen Lösung im Jahr 2010 wird easyPush ständig weiterentwickelt.

Weiterlesen »

Beitrag empfehlen

  • Facebook
  • Twitter
  • Email
  • RSS
  • Google Plus

Die 10 aktuellen Facebook Anzeigenformate

23. Mai 2014

Facebook Werbeformate

Facebook Werbeformate

Werben mit sozialer Komponente.

Für viele Werbetreibende sind Facebook Ads vor allem wegen der hohen Reichweite sehr interessant. Um dabei aber Streuverluste so gering wie möglich zu halten, bietet Facebook durch die vielen Profilinformationen der Nutzer gleichzeitig sehr gute Targeting-Möglichkeiten.

Facebook hat sein Ad Angebot einmal mehr überarbeitet und überzeugt nun mit konsistenten und übersichtlicheren Formaten über die verschiedenen Typen und Kanäle. Ausserdem wurde das Beste aus den Sponsered Stories in die Ads integriert und die frühere Ad-Form der Sponsered Stories abgeschafft.

Weiterlesen »

Beitrag empfehlen

  • Facebook
  • Twitter
  • Email
  • RSS
  • Google Plus

Brandalizzer auf »SBB WiFi Landingpage« integriert

21. Mai 2014

Brandalizzer auf SBB WiFi Landingpage

Brandalizzer auf SBB WiFi Landingpage

Eisenbahn-Fans sorgen neu auf der SBB WiFi Landingpage mit persönlichen Impressionen des Schienenverkehrs für visuelle Abwechslung. Wer über die Social Media Plattform Instagram ein Foto knipst und mit dem Hashtag #sbbcffffs versieht, kann dank der Technik von Futurecom das Bild auf der Startseite von SBB Wifi sehen.

Weiterlesen »

Beitrag empfehlen

  • Facebook
  • Twitter
  • Email
  • RSS
  • Google Plus

Facebook 2014 – Quo vadis?

8. Mai 2014

facebook

Weshalb Facebook für Marken jetzt teurer wird.

Facebook ist im Umbruch – das haben sicherlich schon viele bemerkt. Über Jahre hat Facebook sich zurückgehalten mit den ganz grossen Änderungen. Die Werbung hielt sich im Rahmen, die organische Reichweite war vergleichsweise hoch. Logischerweise mussten die Nutzer gepampert werden, um sie bei der Stange zu halten. Denn die Nutzerzahlen spielten eine grosse Rolle bei dem Börsengang. Wären viele Nutzer abgesprungen, hätte Facebook sicherlich nicht diesen hohen Börsenwert erzielt. Doch die kostenlosen Zeiten sind nun Vergangenheit.

Weiterlesen »

Beitrag empfehlen

  • Facebook
  • Twitter
  • Email
  • RSS
  • Google Plus

Die re:publica im Jahr 1 nach Edward Snowden

7. Mai 2014

re:publica 2014 in Berlin: Kampf gegen Überwachung als dominierendes Thema

re:publica 2014 in Berlin: Kampf gegen Überwachung als dominierendes Thema

Die Internet-Konferenz re:publica war schon immer durch politische Diskussionen geprägt. In der Vergangenheit ging es um das Urheberrecht im digitalen Zeitalter, um Social Media als Kommunikationskanal für Protestbewegungen oder um die Netzneutralität. Nach den Enthüllungen von Edward Snowden im Sommer 2013 sind solche Themen allerdings in den Hintergrund gerückt. Stattdessen dominiert der Kampf gegen die flächendeckende, unkontrollierte und illegale Überwachung durch die Geheimdienste die re:publica 14, welche unter dem Motto «Into the Wild» steht. So riefen die vier Gründer Andreas Gebhard, Tanja Haeusler, Markus Beckedahl und Johnny Haeusler bereits in der Eröffnungsveranstaltung zur Rückeroberung des Netzes durch die Bürger auf. Unter grossem Applaus wurde zudem die Forderung nach politischem Asyl für Edward Snowden in Deutschland erneuert.

Weiterlesen »

Beitrag empfehlen

  • Facebook
  • Twitter
  • Email
  • RSS
  • Google Plus