7 Beiträge kategorisiert in "Grundlagen"

06. April 11

Studie "Web Analytics in Unternehmen"

Die Universität Fribourg (Schweiz) bzw. der dortige Lehrstuhl für Wirtschaftsinformatik beschäftigt sich schon seit längerem mit der Theatik rund um Web Analytics. Ein Ergebnis davon ist der letzthin erschienene Leitfaden für Web Analytics - eine kostenlose Broschüre mit kurzem Überblick zu Nutzen von Web Analytics und entsprechenden Produkten (als Einstieg in die Theatik übrigens empfehlenswert).

Im Rahmen einer Studie untersucht nun die Universität erstmals auf breiter und wissenschaftlicher Basis, wie Web Analytics in Unternehmen heute eingesetzt wird und was eine erfolgsversprechende Praxis darstellt. Zu Zeit und noch bis Ende April läuft eine viertelstündige Online-Umfrage, an welche interessierte Unternehmensvertreter eingeladen sind, mitzumachen. Als "Belohnung" winken die Ergebnisse der Studie, welche später darauf aufbauen publiziert werden und von denen man sich einige praktische Einblicke und Ideen erhoffen darf.

Aufforderung und Empfehlung drum an dieser Stelle an alle die Web Analytics im Unternehmen einsetzen und entsprechende Erfahrungen aufweisen, an der Umfrage teilzunehmen. Selbstverständlich werden die wichtigsten Insights der Studie später auch auch an dieser Stelle weitergegeben.

 

06. Mai 10

Einführung und Tipps & Tricks für Google Analytics

Viele der in diesem Blog vorgestellten Einträge behandeln Google Analytics Spezialfälle für Fortgeschrittene Anwender, so zum Beispiel das Tracking von Ausstiegsfeldern in Formularen, Opt-out von Google Analytics, die Messung von gelesenen Seiten oder die Bedienbarkeit der Navigation. Die ersten Schritte in Google Analytics sowie einige nützliche Tipps & Tricks für die Verwendung im täglichen Gebrauch wurden bislang etwas vernachlässigt.

Diese Lücke sei nun geschlossen mit folgender Präsentation über die ersten, zweiten und dritten Schritte in Google Analytics, welche ich heute an der Swiss IT Academy halten durfte.

Hier die Präsentation Google Analytics für Einsteiger (pdf, 2.6 MB) auch zum herunterladen.

Zusammenfassend sind folgende Punkte darin abgehandelt:

  • Die 5 Schritte zur Anmeldung zu Google Analytics
  • Überblick über die Reports
  • Wichtige Bedienungselemente für Charts und Tabellen
  • Google Analytics mit AdWords verknüpfen
  • Website-Suche tracken
  • Ziele und Trichter einrichten
  • Segmente nutzen
  • Eigener Traffic ausschliessen
  • Kampagnen und Newsletter tracken
  • Downloads und Links tracken
  • ... und noch ein paar Power-User Handgriffe die einem zum Google-Analytics Guru machen

Wer übrigens sich übrigens für die Performance-Optimierung einer Website im Allgemeinen und die Erstellung von zielorientierten Dashboards interessiert, sei auf folgende weitere Präsentationen über Performance-Steigerungen und Dashboards von Martina Klose an der IT-Academy verwiesen

10. März 09

Unique Visitors: Nie zusammenzählen!

Grad kürzlich bin ich mal wieder über einen typische Überlegungsfehler gestolpert, den Web Analysten gerne machen (und bei dem ich mich selbst auch gelegentlich wieder erwische): Unique Visitors über die Zeit zusammenzählen oder teilen!

Folgende Aussagen sind nämlich falsch bzw. beinhalten einen Überlegungsfehler:

  • 5000 Besucher gestern und 5000 Besucher heute sind insgesamt 10'000 Besucher
  • 1,2 Mio. Besucher im Jahr sind durchschnittlich 100'000 im Monat
  • usw.

Und, den Fehler entdeckt?

Zugegebenermassen ist's nicht so offensichtlich und drum fällt man auch gerne darauf herein. Besucherzahlen (und auch noch eine handvoll andere Metriken) darf man einfach nicht über die Zeit zusammenzählen oder teilen, und zwar weil die wiederkehrenden Besucher sonst aus der Rechnung fallen. Und hier kurz das Rechenbeispiel zum ersten Fall:

  • Angenommen gestern kamen 5000 Besucher auf meine Website und werden vom Web Analytics System so ausgewiesen, dann waren dies effektiv 5000 Personen (mal abgesehen von den üblichen messungsbedingten Unschärfen, die man bei Web Analytics Auswertungen hat)

  • Kommen nun heute nochmals 5000 Besucher auf meine Website, dann sind dies vielleicht 3000 neue Besucher aber 2000 wiederkehrende, welche gestern schon auf meiner Website waren

  • Folglich waren zwar heute und gestern je 5'000 Personen auf meiner Website, insgesamt über die 2 Tage waren es aber nur 8'000 Personen

Problem erkannt? Beim einfachen Zusammenzählen gehen die wiederkehrenden Besucher nämlich vergessen. Das kommt dann etwa so heraus, wie wenn man einen Kunden bei jedem Kauf aufs Neue in der Kundendatenbank erfassen würde statt seine Stammdaten zu suchen und ergänzen würde.

Und wie geht man jetzt mit dieser Situation in den täglichen Web Analytics Auswertungen um? Ganz einfach: Daten zu den Unique Visitors immer direkt aus dem Web Analytics System ziehen und keine Handrechnung machen. Die Aussage über die Anzahl Besucher ist richtig, aber nur für den Zeitraum, für den man sie im Web Analytics System ausgelesen hat. Für Aussagen zu anderen Zeiträumen, muss man sie erneut unter Angabe des neuen Zeitraums aus dem Analytics System auslesen. Dann berücksichtigt das System die wiederkehrenden Besucher und rechnet diese raus. Rechnet man stattdessen im Kopf, so macht man zwangsläufig einen Fehler, der im schlimmsten Fall zu Fehlentscheiden führen kann. Also nächstes Mal unbedingt dran denken!

02. Oktober 08

Mit geschäftsrelevanten Kennzahlen zur erfolgreichen Website

Wenige Interaktionsprozesse mit Kunden und anderen Interessengruppen lassen sich mit den verfügbaren Tools so genau dokumentieren und auswerten wie jene, die online ablaufen. In Unternehmen, in denen Kommunikation, Marketing und Verkauf vor allem über die Website stattfinden, sind Lösungen zur Webanalyse ein Muss. Dabei gilt es nicht nur die technische Leistungsfähigkeit zu messen, sondern vor allem den Erfolg der Website als Vertriebskanal, Marketinginstrument oder Serviceplattform zu beurteilen.

Längst interessieren sich nicht mehr nur Systemadministratoren für Webstatistiken. Sie waren es, die die mächtigen Werkzeuge zur technischen Analyse ursprünglich implementierten, um aufschlussreiche Leistungsdaten zu Verfügbarkeit und Performance zu erhalten. Für die Planung von Hardware- und Softwarearchitektur waren diese unverzichtbar. Inzwischen sind die Budgetverantwortlichen aus dem Marketing und Vertrieb auf den Zug aufgesprungen. Sie haben das Potenzial der Informationen entdeckt, das in den Webstatistiken schlummert.

Viele Marketingmaßnahmen zielen darauf ab, mehr Besucher auf eine Website zu ziehen. Doch der Aufwand dafür ist vergebens, wenn die Erwartungen dieser Interessenten auf der Website nicht erfüllt werden, sie versprochene Inhalte nicht vorfinden, aufgrund unklarer Navigation frustriert die Website wieder verlassen oder einen begonnenen Bestellprozess abbrechen. Nur wer weiß, wie sich seine Zielgruppe verhält, kann seine Geschäftsprozesse optimal auf deren Bedürfnisse abstimmen und langfristig einen nachhaltigen Return on Investment (ROI) erzielen. Folglich geraten geschäftsrelevante Kennzahlen und Treiber verstärkt in den Fokus des Webcontrollings - vor allem dann, wenn das Internet als aktiver Vertriebskanal genutzt wird und sich verschiedene Plattformen im Wettbewerb um Marketinginvestitionen behaupten müssen. Moderne Web Analystic Tools erlauben, detaillierte Nutzungsinformationen über das Verhalten und die Präferenzen von Kunden im Internet zu erfassen. Damit wird der Erfolg von Kampagnen ebenso transparent wie die Konvertierungsquoten – Fehlinvestitionen lassen sich vermeiden.

Die Qual der Wahl: Werkzeuge für Advanced Web Analytics
Aus technischer Sicht unterscheidet man zwei Arten von Analysen. Noch bis vor wenigen Jahren wurden klassische Logfile-Analyse-Systeme eingesetzt. Die gelieferten Aussagen genügen im besten Fall, um grobe und vor allem technische Probleme zu lokalisieren. Sie reichen jedoch bei weitem nicht aus, um feingranulare Rückschlüsse auf das Benutzerverhalten zu ziehen. Lösungen der zweiten Generation sammeln geschäftsrelevante Daten. Sie setzen auf der Seite des Clients und nicht auf der Seite des Servers an. Dazu bettet man bei der Programmierung der Website in jede auszuwertende Seite ein kleines, unsichtbares Bild plus einen JavaScript-Code ein, die den Browser jedes Besuchers dazu veranlassen, Daten an ein Drittsystem zu übermitteln. Ein Cookie identifiziert den Nutzer. Damit werden sämtliche Informationen einer Seite oder einer Besuchersitzung auswertbar: von der aktuellen Mausposition über die effektive Fenstergröße bis hin zu den angeklickten Links und Klickpfaden.

Zu den marktführenden Herstellern solcher „Advanced Web Analytics Produkte“ zählen: Google mit Google Analytics, Nedstat mit Sitestat, Omniture mit SiteCatalyst, Unica mit Affinium NetInsight sowie WebTrends mit WebTrends Analytics. Die Produkte unterscheiden sich insbesondere in den Auswertungsmöglichkeiten in den Breichen Nutzerverhalten, Konvertierung und Segmentierung, der Aktualität der Reports, der Usability der Interfaces sowie der Betriebslösung (wahlweise inhouse oder als ASP). Welches Tool für ein Unternehmen am besten geeignet ist, ergibt eine Evaluation, die die Analysebedürfnisse den Fähigkeiten der einzelnen Produkte gegenüberstellt.

Einstieg in die Detailanalyse
In die Detailanalyse steigt ein, wer ermittelt, ob es sich beim Besucher um einen bisher unbekannten oder um einen wiederkehrenden Besucher handelt und wie viel Zeit zwischen den Besuchen desselben Nutzers verstreicht (Recency). Ein hoher Prozentsatz neuer Besucher lässt etwa auf erfolgreiche Werbekampagnen oder Verlinkung schließen. Für die Qualität der Inhalte sprechen hingegen viele loyale Besucher, die die Website immer wieder aufsuchen. Je höher die durchschnittliche Anzahl besuchter Seiten je Besuch, umso mehr entspricht das Angebot den Bedürfnissen der Nutzer. Den Zeitabstand zwischen den Besuchen wird man je nach Zweck der Website unterschiedlich bewerten. So streben Nachrichtenportale eine möglichst hohe Frequenz an: Der Besucher soll möglichst täglich wiederkommen. Eine Shopping Site kann hingegen bereits mit einem Besucher zufrieden sein, der nach wenigen Wochen eine weitere Bestellung vornimmt.

Zum Standard-Repertoire einer Analyse zählen die Anzahl Aufrufe einer bestimmten Seite oder die Liste der Top-Seiten einer Website. Der reine Vergleich von Seitenaufrufen ist aber wenig aussagekräftig: Denn je weiter unten in der Navigationshierarchie sich eine Seite befindet, desto seltener kommen typischerweise auch Besucher auf die Seite. Mehr über die Qualität sagt eine Auswertung darüber aus, wie oft eine Seite eine Einstiegs- oder eine Ausstiegsseite war. Will man beantworten, wie gut eine einzelne Seite ihren Zweck erfüllt, ordnet man dieser sinnvoller Weise eine Aufgabe zu: Soll sie informieren, auf tiefer liegende Informationen weiterleiten, den Besucher neugierig machen, überzeugen und zu einer Handlung veranlassen? Um eine qualifizierte Aussage über den Erfolg einer Seite zu treffen, muss man die Vorgänger- und Folgeseiten, also den gesamten Besucherfluss, einbeziehen. Eine solche Analyse zeigt auch auf, ob eine bei der Website-Konzeption geplante Besucherführung - etwa von Informationsseiten hin zu Konversionsseiten oder innerhalb einer sequentiellen Formularabfolge bei Anmelde- oder Bestellprozessen - tatsächlich funktioniert.

Eine Website sollte immer so aufgebaut sein, dass sie einen Besucher stets zu einer oder mehreren Zielseiten führt. Diese birgt einen geschäftsrelevanten Erfolg – sei es, weil ein neuer Kontakt hergestellt wurde, ein Produkt bestellt, ein Dokument herunter geladen oder eine Support-Frage online geklärt wurde. Dabei spricht man von Konvertierung. Selbst für reine Inhaltswebsites sind so ROI-Messungen möglich.

Steuern mit strategischen Zielen: das Kennzahlen-Cockpit
Bevor man eine neue Website realisiert oder eine bestehende auf Basis von Erfahrungswerten optimiert, gilt es einige grundlegende Fragen zu beantworten: Was will mein Unternehmen erreichen? Welche strategische Rolle erfüllt dabei die Website? Soll darüber Geld verdient oder eingespart werden? Unterlegt man die Antworten darauf mit aussagekräftigen und messbaren Kennzahlen, schafft man die Basis für Web Analytics als flexibles Controlling- und Steuerungsinstrument. Die Kunst besteht darin, die relevanten Kennzahlen zu identifizieren, diese konstant zu überwachen, bei Auffälligkeiten und Abweichungen die richtigen Schlüsse zu ziehen und Verbesserungsmaßnahmen einzuleiten.

Die Kennzahlen, so genannte Key Performance Indicators (KPIs), sind so individuell wie das Unternehmen und die aktuelle Funktion und Ziele seiner Website. Für Medien- bzw. Content-Sites gelten andere Kennzahlen als für klassische E-Commerce-Sites, Dienstleister- oder Service-Sites. In der Praxis hat sich zur Darstellung eines regelmäßigen Kennzahlen-Reports eine Art Cockpit bewährt, das einen schnellen Überblick gewährt. Demnach empfiehlt es sich, die Kennzahlen nach dem typischen Zyklus von Kundenbeziehungen zu gruppieren. Führt man einen Onlineservice oder ein Produkt neu ein, befindet sich die zugehörige Website meist in einem Modus der Bekanntmachung und der Akquise, zum Beispiel durch Kampagnen und Verlinkungen von Blogs oder Drittportalen. Aussagen über die Qualität solcher Traffic-Quellen liefern KPIs wie „Anzahl betrachtete Seiten je Besucher und Quelle“ oder „Akquisitionskosten je Quelle“. Eine der Herausforderungen besteht darin, den Nutzer einer konkreten Kampagne zuzuordnen. Dazu behält man dessen Herkunft im Auge, misst die Zugriffe auf spezielle Landingpages, die ihm jeweils kommuniziert wurden, oder arbeitet mit Kampagnencodes, die sogar eine medienübergreifende Zuordnung ermöglichen. Ein Vergleich von Konversionsraten unterschiedlicher Kampagnen, verschiedener Suchmaschinenbegriffe oder referenzierender Dritt-Sites zeigt auf, wo es lohnt, Investitionen zu verstärken oder zu reduzieren.

Ist ein Produkt oder eine Dienstleistung bereits auf dem Markt etabliert, kann die zugehörige Website zum Ziel haben, aus möglichst vielen Besuchern Käufer zu machen, oder sie dazu zu bewegen, sich verbindlich für einen Service zu registrieren (Konversion). Wie bei allen Marketingmaßnahmen stellt sich die Frage, wie viel Prozent der Zielgruppe erreicht, wie viele davon zu Besuchern der Website und anschließend zu Kunden bzw. Stammkunden werden. Wie erfolgreich man damit ist, zeigen Kennzahlen wie „Anzahl der Bestellungen bzw. Höhe des Bestellwerts“ oder „Anzahl der ausgefüllten Kontaktformulare“ – jeweils in Relation zum Aufwand für eine bestimmte Kampagne. Dazu analysiert man, woher der Besucher kommt, vor allem wie er sich durch die Website bewegt (Besucherfluss) und ob er den Bestell- oder Anmeldeprozess reibungslos abschließt. Gibt es dabei Hürden, werden diese durch unterschiedliche Formen von Prozessanalysen aufgedeckt. Erfolgen etwa auffallend viele Abbrüche nach dem Aufruf der Seite mit den allgemeinen Geschäftsbedingungen, lässt dies den Schluss zu, dass der potenzielle Besteller mit diesen nicht einverstanden war. Ist ein Dropdown-Feld für die Auswahl einer Zahlungsmöglichkeit ein häufiger Ausstiegsgrund, findet der Besucher vermutlich seine favorisierte Zahlungsart nicht vor.

Unternehmen mit großem Kundenstamm verfolgen mit der Website oft auch das Ziel, die Kosten für Kundenadministration, Support oder Service gering zu halten. Im Gegensatz zu einem Call Center schneidet der Onlinekanal hier meist günstiger ab. Mögliche Kennzahlen wären in diesem Fall „Zufriedenheit des Kunden bei der Anfrage im Verhältnis zu den Kosten“. Entscheidend und messbar ist, ob und wie schnell der Kunde die gesuchte Information findet.

Betriebswirtschaftlicher Nutzen dank KPI-Reporting
Sind die KPIs definiert und technisch implementiert, beginnt ein zyklischer Prozess: Messungen erfolgen regelmäßig mindestens einmal im Monat, die Ergebnisse werden interpretiert, Maßnahmen abgeleitet und umgesetzt. Schwachstellen der Website lassen sich so kontinuierlich korrigieren. Auch die Aktivitäten des Wettbewerbs und die Auswirkungen auf die eigene Website lassen sich so frühzeitig erkennen. Startet zum Beispiel ein Wettbewerber eine Online-Kampagne mit Suchmaschinenoptimierung und Adwords-Schaltung, oder tritt ein neuer Wettbewerber mit einem ähnlichen Angebot im Internet erfolgreich auf, springen die Kennzahlen der eigenen Website meist rasch darauf an. Maßnahmen können so häufig noch rechtzeitig eingeleitet werden, bevor dies negativ zu Buche schlägt.

[Artikel kürzlich publiziert im isreport]

29. März 08

Besuchererkennung mit Cookies - Sicherheitsüberlegungen

Cookies spielen bei vielen Web Analytics Systemen eine zentrale Rolle für die Unterscheidung eines Visits und eines Visitors. Bei den Usern sind Cookies aber eher verpönt. Die diffuse Angst, dass persönliche Informationen irgendwie ausgelesen werden, bringt viele Besucher dazu, Cookies gelegentlich zu löschen oder gar nicht zu akzeptieren. Doch was steckt hinter dieser diffusen Befürchtung, wenn doch ein Webserver nur die Cookies auslesen kann, die er selbst gesetzt hat?

Wenn man nur den betreffenden Webserver anschaut, sind die Sicherheitsbedenken praktisch unbegründet. Denn der Webserver kann nicht mehr Informationen auslesen, als ihm der Benutzer zum Beispiel durch Formulareingabe mitgeteilt hat. Einzig wenn zwei oder mehr Benutzer auf dem gleichen PC mit gleichem Benutzerkonto eingeloggt sind (z.B. innerhalb einer Familie), könnte es so zu sehr beschränkten Persönlichkeitsverletzungen kommen.

Weshalb Cookies so einen schlechten Ruf haben, ist anders begründet. Bei obigen Betrachtungen sind wir davon ausgegangen, dass nur der Webserver Cookies liest und schreibt, der gerade die aktuelle Seite darstellt. In diesem Fall nennen sich Cookies im Fachjargon »First-Party-Cookies«.

Nun wissen wir aber, dass eine Webseite nicht nur aus dem Hauptdokument wie die HTML-Seite bestehen kann, sondern auch Bilder und andere Dateien innerhalb der Seite anzeigen kann. Dabei muss nicht jede der eingebundenen Ressourcen von jenem Webserver stammen, der auch die Hauptseite ausgeliefert hat. Ein auf einer Seite dargestelltes Bild kann also grad so gut auch von einem Drittserver – einer »Third Party« – angezogen werden, ohne dass der Besucher dies merkt. Beim Ausliefern eines solchen Bildes hat nun aber auch der Drittserver die Möglichkeit sein Cookie zu schreiben oder zu lesen. Dies sind sogenannte »Third-Party-Cookies«.

Das allein wäre auch noch kein Sicherheitsproblem, da der Drittserver immer noch nur seine eigenen Cookies auslesen kann und beispielsweise nicht jene des ersten Webservers, der die Seite ausgeliefert hat. Nun gibt es aber ein Spezialfall, wo es trotz diesen Restriktionen aus Datenschutzsicht kritisch wird, nämlich dann wenn ein Drittserver von sehr vielen Websites eingebunden wird. Dies ist z.B. bei Ad-Servern der Fall, welche Werbebanner für verschiedene Websites ausliefern. Wenn der Ad-Server dem Benutzer auf unterschiedlichen Webservern einen Banner ausliefert, dann kann sich der Ad-Server mittels Cookie merken, auf welchen von ihm belieferten Plattformen der Besucher war.

Da tatsächlich grad auch viele bekannte Websites von Ad-Servern einiger weniger Anbietern bedient werden, ist die Möglichkeit für die Erkennung der früher besuchten Websites eines Besuchers tatsächlich gegeben. Ob dies tatsächlich eine Gefahr für den persönlichen Datenschutz darstellt, ist aber eine andere Frage und schlussendlich jedem Nutzer überlassen. Vielfach werden es diese gar nicht so differenziert beurteilen können und drum Cookies oder zumindest die den Datenschutz tangierenden »Third Party Cookies« deaktivieren. Dieser Tatsache muss man sich beim Einsatz von Cookies bewusst sein.

12. März 08

Was ist eigentlich ein "Referer"

Ein weiterer Begriff der häufig verwendet wird und nicht immer ganz klar ist, was eigentlich dahintersteht. Interessant ist dabei voraus schon mal der Syntax, dass es korrekt geschrieben eigentlich Referrer (mit Doppel-R) heissen müssten - der Rechtschreibe-Fehler mit einem r aber in die HTTP-Spezifikation reingerutscht ist und seither wirds mit nur einem r geschrieben...

Nun aber zur Erklärung: Der Referer besagt, welche Website ein Benutzer unmittelbar vorher besucht hat, bevor er dort auf einen Link geklickt hat und auf die aktuelle Website gelangt ist. Ein Benutzer der z.B. zuerst bei Google nach »Mountain Bikes« sucht, auf einen Treffer klickt und auf einer Dritt-Site landet, hinterlässt dort z.B. den folgenden Referer-Eintrag:

http://www.google.de/search?client=opera&rls=de&q=mountain+bikes

Der Referer ist damit eine ähnliche Information wie sie im Verlauf des Browsers eines Benutzers steht. Im Vergleich dazu erhält ein Webserver die Information allerdings maximal ein Schritt zurück und nur dann, wenn auf der vorangegangenen Website ein Link auf die aktuelle Seite geklickt wurde.

Aus Sicht des Betreibers einer Website kann diese Referer-Information natürlich äusserst aufschlussreich sein. Damit wird nämlich ersichtlich, über welche anderen Sites Besucher auf die eigene Website gelangen. Ein Besucher möchte aber unter Umständen diese Information aus Persönlichkeitsgründen nicht preisgeben. Da der Referer vom Browser des Benutzers an einen Webserver übergeben wird, könnte der Benutzer grundsätzlich die Preisgabe des Referers auch unterbinden. In manchen Internet-Sicherheitspaketen oder in Firmenproxies wird so z.B. der Referer beim Aufruf einer Website entfernt. Wenn der Aufruf einer Webseite kein Referer enthlält, kann dies also zwei unterschiedliche Bedeutungen haben: Entweder wurde der Referer aus Sicherheitsgründen gelöscht, oder es gab tatsächlich keine vorhergehende Seite im Browse-Verlauf des Besuchers. Letzters ist dann der Fall, wenn er die URL der Website von Hand eingetippt hat oder über seine eigenen Bookmarks darauf gelangt ist.

09. März 08

Was ist eigentlich ein "User Agent"

Gewisse Terme in Web Analytics nimmt man mit der Zeit in den Sprachgebrauch auf, selbst wenn die Genaue Definition dahinter nicht unbedingt so bekannt ist. Hier drum aus der Reihe "Was ist eigentlich..." die Überlegungen zum User Agent.

Neben der IP-Adresse wir bei jeder Anfrage an einen Webserver auch übergeben, welcher Browser und welches Betriebssystem der anfragende Benutzer einsetzt. Diese Browser/Betriebssystem-Kombination sowie noch weitere dazugehörende Informationen wird als User Agent bezeichnet.

Ein Webserver muss diese Information kennen, da er allenfalls je nach User Agent andere Informationen ausliefern muss. So kann der Webserver zum Beispiel für einen Macintosh Rechner mit Safari Browser die gleiche Seite in einem anderen Format ausliefern als für einen Windows-Rechner mit einem Microsoft Internet Explorer als Browser. Während eine solche unterschiedliche Ausgabe für PC-Browser heute kaum mehr genutzt wird, hat es aber für Besucher für mobile Besucher je länger je mehr eine wichtige Bedeutung. Besucher welche den Browser ihres Handys verwenden um Websites aufzurufen sind aufgrund der verfügbaren Bildschirmgrösse ganz dankbar, wenn eine auf Handys optimierte Version einer Seite angeboten wird.

Die Einträge, welche zu einem User Agent in einem Logfile gespeichert werden, sehen beispielsweise folgendermassen aus:

Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0; SLCC1; .NET CLR 2.0.50727; Media Center PC 5.0; .NET CLR 3.0.04506)

Mozilla/5.0 (Windows; U; Windows NT 5.1; de; rv:1.8.1.12) Gecko/20080201 Firefox/2.0.0.12

Mozilla/5.0 (Macintosh; U; PPC Mac OS X; de-de) AppleWebKit/419.2 (KHTML, like Gecko) Safari/419.3

Der erste Beispieleintrag stammt von einem Benutzer mit einem Microsoft Internet Explorer der Version 7.0 (MSIE 7.0). Das verwendete Betriebssystem ist Microsoft Vista, welches sich aus der Versionsnummer Windows NT 6.0 ableiten lässt. Zusätzlich zu diesen Plattforminformationen werden in dem Fall noch weitere Informationen gesammelt wie die Version des installierten .NET-Frameworks oder des Microsoft Media Centers.

Der zweite Eintrag hinterliess ein Benutzer, der einen Firefox-Browser der Version 2.0 auf einer deutschsprachigen Installation (de) von Windows XP (d.h. Versionsnummer NT 5.1) einsetzte. Der letzte Eintrag stammt von einem deutschsprachigen Macintosh Benutzer mit einem Safari-Browser.

Neben solchen üblichen Besuchern sind auch spezielle Besucher anhand des User Agents identifizierbar. Eine Newsreader, welcher für die Darstellung von RSS-Feeds verwendet wird, hinterlässt genau so seine Einträge wie ein Seitenaufruf über ein Handy:

Windows-RSS-Platform/1.0 (MSIE 7.0; Windows NT 5.1)

Nokia6682/2.0 (3.01.1) SymbianOS/8.0 Series60/2.6 Profile/MIDP-2.0 configuration/CLDC-1.1 UP.Link/6.3.0.0.0

Ebenfalls häufige Besucher einer Website sind Suchmaschinen. Damit Suchmaschinen einem Suchenden überhaupt Resultate anzeigen können, durchgrasen sie tagtäglich das Web nach Inhalten. Aus Sicht eines Webservers sieht ein solcher Besuch eines Suchmaschinen-Crawlers oder -Robots – so heissen die automatischen Datensammler – ziemlich ähnlich aus wie derjenige eines menschlichen Besuchers. Gleich dem Browser einer Person fragt auch die Maschine einzelne Webseiten und Dateien an, welche der Web Server ausliefert. Einzig anhand des User Agents lassen sich Crawler von menschlichen Besuchern unterscheiden. Denn Suchmaschinenbetreiber zeichnen ihre Crawler anhand eines speziellen User Agents aus, so dass sie anschliessend im Logfile eines Web Servers erkenntlich sind. Bei den Crawlern von Google, MSN oder Yahoo! lauten die im Logfile registrierten User Agent-Einträge beispielsweise folgendermassen:

Mozilla/5.0 (compatible; Googlebot/2.1;  http://www.google.com/bot.html)

msnbot-media/1.0 ( http://search.msn.com/msnbot.htm)

Mozilla/5.0 (compatible; Yahoo! Slurp/3.0; http://help.yahoo.com/help/us/ysearch/slurp)


Über das Blog | Impressum | Nutzungsbedingungen | Ihren Besuch aufzeichnen [?]


Web Analyticson


Das Buch zum Blog:

  • Buch
    Details zum Buch Buch bei Amazon.de bestellen

Die App zum Blog:

  • iPhone App
    Download

Über den Autor

  • Marco Hassler ist Business Unit Manager und Partner beim IT- und Web-Dienstleister Namics.

    marco.hassler (at) gmail.com

Ethik Code

  • Web Analytics Association Code of Ethics

Twitter Updates

    Web Analytics Fotos

    Web Analytics Association

    • Web Analytics Association