Deprecated: Assigning the return value of new by reference is deprecated in /home/.sites/524/site181/web/googlefalle/wp-includes/cache.php on line 36

Deprecated: Assigning the return value of new by reference is deprecated in /home/.sites/524/site181/web/googlefalle/wp-includes/query.php on line 21

Deprecated: Assigning the return value of new by reference is deprecated in /home/.sites/524/site181/web/googlefalle/wp-includes/theme.php on line 540
Die Google Falle » 2008 » April 2008 April - Archiv - Die Google Falle

Archive for April, 2008

Interview auf Chip.de

Saturday, April 26th, 2008

Gerrit Blöss von Chip Online hatte mich vergangene Woche interviewt. Das ziemlich lange Interview könnt ihr hier nachlesen. Ich freue mich über euer Feedback - nicht nur auf der Seite von Chip-Online, sondern vielleicht auch hier in diesem Blog…

Achtung: Google liest bei fast jeder Webseite mit!

Thursday, April 24th, 2008

Normalerweise vermeide ich es, dass ich über Themen, die als Artikel im KURIER erscheinen, auch auf meinem Blog schreibe. Bei diesem Thema, die heute früh angekündigte Google-Enthüllung, mache ich eine Ausnahme…

Überraschungseier sind hinlänglich bekannt – man weiß nie, was drinnen ist, dennoch sind sie meist – für Kinder – lustig……Google ist auch für Überraschungen gut, allerdings stinken die Googlschen Überraschungseier…

Den wenigsten ist bewusst, dass auch dort, wo Google nicht drauf steht, Google drinnen ist. Ein neues Service, das der österreichische Suchmaschinen-Experte Walter Karban entwickelt hat (er hat einst die Suchmaschine Austronaut.at erfunden) beweist, dass der Suchgigant weit mehr schnüffelt und Daten sammelt als bisher angenommen…
ontraxx.tiff

Karbans Dienst heißt Ontraxx.net und analysiert das Internet und deckt seine Verbindungen auf – welche Subdomains auf einer Domains zu finden sind, welche Seiten auf eine Webseite linken und – das ist das eigentlich Spannende – welche externen Services auf der Webseite integriert sind. Mit Ontrexx.net kann man nicht nur jeder Webseite, sondern vor allem Google quasi auf die Finger schauen.

83 Prozent der Top-300.000 Seiten im Web verbinden sich – ohne dass die Nutzer es bemerken – mit Google-Servern. Beispiel: Wählt man etwa die Webseite des Spiegel an, so verbinden sich einige er Spiegel-Server mit Google-Servern… etwa, wenn man die Seite einestages.spiegel.de, fonds.spiegel.de, parship.spiegel.de oder den tarifvergleich.spiegel.de anwählt. Also genau dann, wenn heikle Daten im Spiel sind, speichert Google Daten mit, und zwar über das Statistik-Programm Google-Analytics, das als kostenloses Programm angeboten wird…

So funktioniert Ontraxx.net:

Einfach die Adresse aufrufen und auf “Domain-Info” klicken. Dort kann man in die Suchmaske dann jede gewünschte Webadresse eintippen und abfragen. Gibt es kein Ergebnis, so wird die Domain erfasst und kann etwa 30 Minuten später abgefragt werden. Als Ergebnis gibt es neben Sub-Domains und Links auch die Aufstellung der “externen Services”; und hier verstecken sich die diversen Google-Dienste, von “Googlesyndication” (für Google AdWords) über Doubleclick, YouTube oder Google-Analytics.

Und was Google-Analytics kann, dürfte den meisten hinreichend bekannt sein, es erstellt praktische Statistiken und speichert einige interessante Daten. Darunter auch IP-Adressen, die – ob statisch oder dynamisch – eindeutig als personenbezogene Daten zu bezeichnen sind – weil sie ausgewertet und in Kombination mit den Google-Cookies sehr detaillierte Infos ermöglichen.
ontraxx2.tiff

Interessant wird es auf der Seite vor allem dann, wenn man auf unter „externe Services“ bei den domains google-analytics auf „traxx detail“ oder „see the traxx“ klickt; bei letzterem Bereich sollte man sich die Mühe machen auf „Javascript“ zu klicken. Dort wird plötzlich sichtbar, was alles ausgelesen wird, werden kann und – aber das könnt ihr ja selbst testen und ausprobieren. Kommende Woche werde ich in diesem Zusammenhang noch eine Aktion starten….
ontraxx3.tiff

Eine kurze Anmerkung möchte ich noch machen: In der der in Google Analytics integrierten Technologie “Javascript” sogar möglich, die Position des Maus-Cursors und die gedrückten Tasten zu speichern. Alles wird zu Google geschickt. Und dort können die Daten anhand der IP-Adresse und diverser anderer Methoden verknüpft werden. Wer etwa “geheim” Sex-Portale nutzt, kann so ausspioniert werden, weil u.a. die (statische) IP-Adresse zugeordnet werden kann.

Übrigens gibt es doch Skeptiker unter den IT-Administratoren. Es gibt bei den österreichischen Behörden zwar keine Empfehlung, auf Google zu verzichten, dennoch wird – bis auf eine Ausnahme – in keinem Ministerium Google Analytics eingesetzt. Und die drei Parteien, die – wohl aus Unwissenheit – Google Analytics einsetzen, werden demnächst wohl ein anderes Statistik-Programm integrieren. Die IT-Verantwortlichen von ÖVP, FPÖ und Grünen wären jedenfalls gut beraten….Die politische Story steht in der morgigen Ausgabe des KURIER - Seite 24.

Neue Google-Enthüllung!

Thursday, April 24th, 2008

Googles wahre Absichten zu entdecken, nämlich der Kontrollor sämtlicher Informationen zu werden und alles über die Nutzer zu wissen, ist wie ein Puzzlespiel – jeder Teil hilft, dass das Bild schärfer und für die Leser und Internet-Nutzer klarer wird. Jetzt habe ich neue Puzzle-Teile gefunden: Google ist eine gefährliche Datenkrake, die nicht nur auf den eigenen Webseiten Informationen und Daten der Nutzer sammelt, sondern auch dort, wo es keiner für möglich hält. Ich recherchiere/schreibe derzeit an einer neuen Google-Enthüllung – spätestens morgen früh gibt es hier und im KURIER mehr darüber zu lesen. Wir stecken mehr in der Google-Falle als viele für möglich halten. Ich bin schon gespannt, was die vielen Google-Fan(atiker) sagen werden, die das „Verharmlosen“- und „Google-ist-so-gut“-Motto leben….

Googolopoly statt Monopoly

Wednesday, April 16th, 2008

Google ist eine gefährlich lustige Firma – jung, farbenfroh und sehr liberal, ein bunter Ikea-Kindergarten für Erwachsene. Man kann auch Spielwiese dazu sagen, wie es übrigens Google selbst hochoffiziell macht. Nachzulesen unter labs.google.com: „Google’s technology playground“.

Fast logisch, dass diese Spielwiese in Mountain View auch jene inspiriert, die nicht im legofarbenen Flowerpower-Paradies leben: Box.net hat jetzt eine neue Form des Monopoly entwickelt, das Googolopoly, weil: „We often come to the conclusion that Google’s way to do business with other companies and interest in controling the information age makes the company look more and more like the software monopoly of yesteryears. Overall, it’s questionable whether such a powerful position made the world better or worse“, schreiben sie auf ihrer Webseite. Diese Frage stellen sich immer mehr, ob die Machtposition Googles (manche sprechen sogar von Monopol) gut ist für die Welt…ich sage: NEIN.googolopoly.pngMit dem

„Googolopoly“, das man hier downloaden kann, kann man in die Welt der Mächtigen Google-Macher eintauchen und versuchen, wie es ist, an den Reglern des Internet zu drehen. Ziel des Spiel ist, wie Box.net erklärt, Google-Aktien dazu zu nutzen, um möglichst viele Firmen zu fressen, ohne in einem der toten Ecken (Deadpool) zu landen. Wie halt auch Google agiert – Konkurrenten gleich auffressen, damit sie einem nicht einmal gefährlich werden können. Google ist eben eine Datenkrake, ein Monster, ein Googzilla….

Wo sind Googles Server-Farmen?

Tuesday, April 15th, 2008

Das System Google besteht aus einem Netzwerk von Zehntausenden Computern und Servern, auf denen die Daten von 60 Prozent der Internet-Nutzer weltweit gespeichert sind. Quer über alle Kontinente verstreut. Von manchen weniger, von manchen mehr Informationen. Es hängt immer davon ab, wie viel jeder von sich preisgibt.

Wie viele Google-Server-Farmen es weltweit gibt, ist ein gut gehütetes Geheimnis. Schätzungen reichen von sieben bis 25. Auch wie viele Server die Firma in Mountain View besitzt, wird nicht bekannt gegeben. Auch hier reichen die Schätzungen von 100 000 bis 450 000, was mehr als doppelt so viel wäre, wie Microsoft nutzt. Internet-Marketing-Experte Christoph Pichler (CPC-Consulting) weist auf einen interessanten Bericht hin, den er auf Pingdom entdeckt hat. Dort wurde eine Weltkarte mit den vermeintlichen Standorten von Googles Daten-Zentren veröffentlicht. Insgesamt sollen es 36 sein – 12 davon in Europa. Wobei ich davon ausgehe, dass schlichtweg fast jede Google-Niederlassung dazu gezählt worden ist.
googledatacenters.tiff
Warum Google eine solche Geheimniskrämerei betreibt, hat den Grund, dass der Suchgigant Attacken jeglicher Art vermeiden und keine Zielscheibe sein will.

4 Sterne für das Buch “Die Google-Falle”

Friday, April 11th, 2008

Dass mein Buch „Die Google Falle“ polarisieren wird, war mir schon beim Schreiben bewusst. Auch dass es Kritiker geben wird, war mir klar – überrascht bin ich über die teilweise unsachlichen und unfairen Kritiken.

Umso mehr freut es mich, dass der Nummer-1-Rezensent von Amazon, der „Reich-Ranicki des Internet“, Dr. Werner Fuchs, der – Stand 10.4. 2008 – mehr als 1486 Rezensionen verfasst hat – meinem Buch ein gutes Zeugnis ausgestellt und es mit vier Sternen bewertet hat. Das ist eine Auszeichnung, motiviert und bestätigt mich, dass das Thema Datenschutz und Privatsphäre im Web ein wichtiges ist und dass es höchst dringlich war, auf die Gefahren, die von Google ausgehen, hinzuweisen und das wahre Gesicht des Suchgiganten zu zeigen.

covergooglefallegross.jpgHier die Rezension von Dr. Werner Fuchs:

Gegen Verschwörungstheoretiker ist kein Kraut gewachsen

Ob Mondlandung, Prinzessinnentod oder 11. September, wer eine Verschwörung wittert, ist mit Argumenten nicht mehr erreichbar. Aber es gibt auch Verschwörungstheoretiker, die gerne anderen Zeitgenossen eine Verschwörungspsyche andichten, um an geliebten Weltbildern festhalten zu können. Zu dieser Gattung scheinen Kritiker zu gehören, die dem Buch von Gerald Reischl gerade mal die Mindestnote zubilligen. Immerhin hat ihr Eifer sie dazu veranlasst, auch einmal eine Amazon-Besprechung zu schreiben. Was es allerdings heisst, zu recherchieren und aus all dem Material ein Buch zu verfassen, wissen sie nicht. Obwohl mir Jetzt-greif-ich-auch-mal-in-die-Tasten-Rezensionen höchst selten Erkenntnisschübe bringen, bin ich gegen jegliche Zensur. Das gehört eben zum Preis, den wir für Meinungsvielfalt bezahlen müssen. Aber nun zum eigentlichen Objekt des Anstosses.

Der Publizist und Autor Gerald Reischl wagt es, am Lack von Google zu kratzen. Dass dies nicht überall auf Zustimmung stossen wird, war ihm selbstverständlich bewusst. Ohne Bewunderer keine Helden. Ob das nun ein Sportverein oder ein Unternehmen ist, ein wahrer Fan zeichnet sich dadurch aus, dass er weder neutral, noch objektiv sein will. Selbstverständlich leide auch ich unter diesem menschlichen Defekt. Stichwort ZSC Lions, der Eishockeyclub schlechthin. Doch Gerald Reischl hat ja gar nicht die Absicht, Google in die Pfanne zu hauen. Er macht nur das, was eine offene Gesellschaft am Leben erhält. Er schaut genauer hin, lenkt den Blick auf Unbeachtetes, zieht seine Schlüsse und macht sie öffentlich zugänglich. Und wenn er nicht der Erste ist, umso besser. Denn seit Google meine Geburts- und Heimatstadt zum Europasitz auserkoren hat, bin ich von der Google-Euphorie unmittelbar betroffen. Wehe dem, der Google nicht cool findet. Auf eine andere Art betroffen bin ich, wenn ich immer wieder erfahre, wie wenig die Google-Gemeinde über das Unternehmen weiss. Man muss kein paranoider Datenschützer sein, um über die Gefahren von Machtkonzentration nachzudenken. Man muss nach der Lektüre dieses Buch auch nicht den PC vom Netz nehmen, sein Handy verschrotten oder zum medialen Einsiedler werden. Man muss gar nichts. Aber man wird die Entwicklungen der Informations- und Wissensgesellschaft vielleicht mit anderen Augen betrachten. Ich meine, dass genau dies zu den Pflichten seriös arbeitender Journalisten gehört.

Bei der Lektüre dieser Recherchen habe ich mich natürlich auch gefragt, wie man die Ergebnisse noch leserfreundlicher präsentieren könnte. Zumal gerade die Handygeneration zur Heldenverehrung neigt und schon aus Prinzip alles cool findet, was gratis ist. Meine Antworten auf diese Frage fallen nicht sehr positiv aus. Denn obwohl Gerald Reischl den lockeren Stil des heutigen Journalismus bestens beherrscht, gehört sein Buch nicht zum Unterhaltsamsten und Spannendsten, was ich in letzter Zeit gelesen habe. Ohne Bilder, ohne Elemente moderner Gestaltung und ohne inhaltliche Rhythmuswechsel wird die Lektüre so vieler Fakten ein eher mühsamer Marsch durch eine 190 Seiten lange Bleiwüste. Die Gefahr ist also gross, dass die wichtigen Botschaften nicht unbedingt die erreichen, die allein mit ihrem Userverhalten viel zur Gestaltung unserer Zukunft beitragen.

Mein Fazit: Bei all den unkritischen Verehrungen von Google sind Bücher wie das von Gerald Reischl notwendig. Ein Suppenkaspar mag das Vorgesetzte als zu dünn empfinden. Mir hat es geschmeckt, obwohl das Ganze in einer gestalterischen Umgebung aufgetischt wird, die mich nicht an ein Feinschmeckerlokal erinnert. Aber deswegen auch gleich den Inhalt abzustrafen, käme mir nicht in den Sinn.

Die Alternativen zu 47 Google-Diensten

Wednesday, April 9th, 2008

Was kostet es um Google zu ersetzen? Diese zugegeben spannende Frage stand am Beginn der Evaluierung zur volkswirtschaftlichen Bedeutung von Google. Zu prüfen war welche Opportunitätskosten den Usern und der Wirtschaft insgesamt entstehen würden, sollte Google seinen Dienste kurzfristig einstellen. Um eine derartige Berechnung anstellen zu können wurden von KREUTZER FISCHER & PARTNER | Marktanalyse in Wien zuerst die zum Untersuchungszeitraum (November 2007) angebotenen Dienste einer Konkurrenzanalyse unterzogen. Es wurde also geprüft, für welche Google Dienste Alternativen am Markt angeboten werden.

In einem zweite Schritt wurde untersucht mit welchen direkten und indirekten Kosten eine Umstellung von Google zu einem anderen Anbieter verbunden ist. Der “Managementtheoretiker” Michael E. Porter bezeichnet diese Umstellungskosten als Wechselkosten. Je höher die Wechselkosten, desto größer ist der Schaden, den eine Einstellung von Google-Dienstleistungen anrichten würden.

Untersucht wurden insgesamt 47 Google-Dienste vom Web Search, also der eigentlichen Google-Suchmaschine bis hin zu You Tube, dem erst kurz davor aufgekauften Videoportal. Mögliche qualitative Einbußen aus einem Wechsel wurde in der Bewertung nicht berücksichtigt, da darüber – verständlicherweise - in der Community keine Einigung erzielt werden konnte.

Anbei eine Aufstellung der Alternativen zu den verschiedenen Google-Diensten, wie sie von KREUTZER FISCHER & PARTNER | Marktanalyse erstellt wurden:

googlealternative.xls

EU-Auflagen für die Datensammler Google & Co.

Wednesday, April 9th, 2008

Der Bericht trägt den Titel „Opinion on data protection issues related to search engines“, umfasst– mit Deckblatt und Inhaltsverzeichnis – 29 Seiten und stammt von der Artikel 29 Arbeitsgruppe der EU-Kommission (ARTICLE 29 DATA PROTECTION WORKING PARTY). Ihr gehören Datenschützer aus ganz Europa an, die in den vergangenen Monaten an diesem Bericht gearbeitet haben, in dem die Suchmaschinen und ihr Verhältnis zu Datenschutz unter die Lupe genommen wurde. Suchmaschine & Datenschutz – klingt fast ein wenig nach Widerspruch, wenn ich an meine Recherchen denke… Google und Doubleclick, Microsoft und Yahoo – es geht rund im Suchmaschinen-Business. Nicht nur, was die Aquisitionen anlangt.

Werden die Forderungen, die die Artikel 29-Gruppe ausgearbeitet hat, Realität und zu EU-Auflagen, so hat das enorme Konsequenzen auf Google & Co. Das von der Artikel 29-Gruppe vorgeschlagene Maßnahmenpaket bestätigt jedenfalls die in der “Google-Falle” aufgezeigten Missstände.

Dubiose Datensammlungen

Einer der größten Missstände sei die unkontrollierte Datensammelleidenschaft. Google & Co. sammeln zu viele personenbezogene Daten und begründen nicht, warum sie diese Informationen überhaupt brauchen. Zudem würden die gesammelten Infos viel zu lange gespeichert – manche Betreiber sogar auf unbestimmte Zeit. Ein Speicherzeitraum von sechs Monaten sei absolut ausreichend. Ein Speicherzeitraum darüber hinaus ist nicht gerechtfertigt.

Exzessive Speicherdauer

Google speichert die Daten sogar 18 Monaten. Die Datenschützer fordern nun, dass die Suchmaschinen demonstrieren und erklären, warum diese lange Speicherung notwendig ist. In einer ersten Stellungnahme hat Peter Fleischer, oberster „Datenschützer“ Googles auf die 18 Monate Speicherung beharrt – nur so könnte die Suchqualität aufrecht erhalten bleiben.

Zu lange Haltbarkeit von Cookies

Kritisiert werden von der Artikel 29-Gruppe die Cookies, die die Suchmaschinen auf unseren Rechnern installieren. Cookies sind Protokolldateien, die während des Surfens auf den Computer geladen werden, uns eine unverwechselbare Identitäts-Nummer verpassen, unser Surfverhalten mitprotokollieren und diese Infos dem Webseiten-Betreiber zukommen lassen. Mache Cookies sind einige Jahrzehnte gültig. Sprich, wenn man sie nicht löscht, ist man über Jahrzehnte wieder erkennbar (theoretisch, da vorher wohl der Computer gewechselt wird.)

Benutzerprofile

Und diese Informationen, die diese Cookies sammeln, lassen genaueste Nutzer-Profile zu. Vor allem dann, wenn sie mit Informationen aus anderen Quellen angereichert werden – was ja, wie auch in der Google Falle erklärt wird, der Fall ist – man denke an die vielen Patente, die etwa Google in den Kategorien User-Tracking, User-Analyzing etc. besitzt.

Recht auf Datenbank-Korrektur

Noch genauer sind die Informationen von regisrierten Nutzern. Diese sollten nach Ansicht der Artikel29-Gruppe Zugang zu ihren Datensammlungen haben, damit sie sie löschen, korrigieren oder aktualisieren können.

Auf Google & Co. kommen schwere Zeiten zu, in den kommenden Wochen wird die unbegründete und unkontrollierte Datensammelleidenschaft noch mehrmals Thema sein. Mit Garantie.

Technische Details vom Experten

Tuesday, April 8th, 2008

Zwischen Journalisten, die der breiten Masse und den durchschnittlichen Computer-Usern Technik und Funktionsweisen der IT erklären müssen, und jenen, die tatsächlich die IT gestalten (Systemadministratoren, Entwickler, Programmierer) bzw. jenen IT-Journalisten, die für Fachmagazine schreiben, gibt es immer wieder Differenzen ob der Definitionen, Erklärungen und “Übersetzungen”, die wir in den Artikeln oder Büchern machen. Vieles, was den IT-Experten zu vereinfacht, mitunter auch falsch übersetzt wurde, ist den Lesern, Kollegen und Chefs noch immer zu kompliziert. Oft müssen wir Begriffe, Funktionsweise “noch besser” bzw. “noch einfacher” erklären.

Daher hatte ich im letzten Beitrag über “IP-Adressen und andere Zahlen, die uns überführen” am Ende des Artikels auch Experten dazu aufgefordert, uns das zu erklären. Martin Leyrer mit seinem Technik-Podcast m3s online pamphlet ist ein solcher Experte und hat den Begriff Mac-Adresse erklärt. (Übrigens: Dieser Begriff kommt in meinem Buch nicht vor, sondern wurde vom SWR1-Hörer ins Spiel gebracht…) Auch wenn Leyrer mein Buch als “Machwerk” bezeichnet, wird wohl jedem durchschnittlichen Leser bei der Lektüre seines Beitrags klar, dass sich IT und Systeme dahinter nicht immer einfach erklären lassen. Danke an Martin Leyrer.

Von IP-Adressen und anderen Zahlen, die uns verraten

Saturday, April 5th, 2008

Ich war gestern zu Gast bei SWR1. In der Radio-Sendung von Petra Waldvogel ging es um das Buch “Die Google Falle” und um die Datensammel-Leidenschaft von Google. Eines der Themen, auf das es viele Hörer-Anfragen gab, war: Kann Google aufgrund der IP-Adresse auf einen Nutzer schließen. Ein (oder sogar mehrere) Anrufer meinte(n), dass das nicht möglich sei, weil es ja nicht nur statische IP-Adressen gäbe, sondern auch dynamische und die könne man nicht rückverfolgen.

Das stimmt leider nur teilweise.Beim Surfen im Web erhält jeder Rechner eine IP-Adresse - je nach Provider - entweder eine statische (immer das gleiche “Autokennzeichen” auf der Datenautobahn) oder eine dynamische (bei jedem Mal einwählen ins Web ein anderes Kennzeichen). Der Provider weiß, mit welcher dynamischen IP-Adresse man zu einer bestimmten Zeit im Web unterwegs war. Abgesehen davon, dass es Provider geben soll, die immer wieder die gleiche dynamische IP-Adresse vergeben, womit sie fast zu statischen werden und viele Nutzer mit ihrem Rechner ständig online sind und sich die IP-Adresse seltener ändert, ist die Annahme, dass man anonym unterwegs ist und Google keine Rückschlüsse auf Nutzer dynamischer IP-Adressen ziehen kann, ein Irrglaube.

Google legt auf Rechner ein so genanntes Cookie ab, eine Protokolldatei, die das Verhalten und Surfen des Nutzers analysiert, speichert und an Google schickt - eine detaillierte Beschreibung, was ein Cookie ist, gibt’s auf ITWissen. Dieses hilft dabei, dass man wieder erkannt wird, wenn die Google-Seite anwählt. Jeder eBay- oder Amazon-Kunde hat das sicherlich selbst schon festgestellt, wenn er namentlich begrüßt wird.Mit Hilfe des Cookies können auch jene, die mit dynamischer Adresse unterwegs sind, eindeutig zugeordnet werden.Es gibt zwar die Möglichkeit, die Annahme von Cookies zu verweigern, allerdings kann man dann viele Dienste im Web nicht nutzen. Eine weitere Möglichkeit wäre, ständig die Cookies zu löschen - was aber die meisten nicht tun.

Außerdem gibt es, und das ist ein weiterer Aspekt, das “Phänomen” der Mac-Adressen (wie auch der SWR1-Hörer angemerkt hat). Bei dieser Adresse handelt es sich um so etwas wie eine Hardware-Nummer (Media Access Control) des Computers in einem Netzwerk an sich - die Definition gibt es hier auf Wikipedia. Ähnlich wie ein Handy im Netzwerk eines Mobilfunkbetreibers auch an Hand der Geräte-Nummer identifiziert werden kann. Theoretisch (und auch praktisch) könnten ja die Betreiber feststellen, wo sich ein gestohlenes Handy aufhält, bzw. welche Nummer (Teilnehmer) mit diesem gestohlenen Handy telefoniert - aber das ist eine andere Geschichte.

In diesem Zusammenhang möchte ich auf eine Diskussion aufmerksam machen, die im Februar in der Europäischen Kommission geführt worden ist. Es gab eine heftige Auseinandersetzung Googles mit Datenschützern um die Speicherung der IP-Adressen. Datenschützer, wie der deutsche Bundesdatenschützer Peter Schaar pochen darauf, dass IP-Adressen personenbezogene Daten sind. Wie Schaar darüber denkt, ist hier auf Heise.de nachzulesen.

Interessant war in dieser Diskussion ein ausführliches Statement der Google-Software-Ingenieurin Alma Whitten auf dem offiziellen Google-Blog:Whitten argumentiert hier, warum aus ihrer und Googles Sicht IP-Adressen keine personenbezogenen Daten sind. Interessant ist aber nicht Whittens Statement an sich, sondern die Kommentare der Nutzer, die der Software-Expertin mehrmals widersprechen….Eine empfehlenswerte Lektüre…Zu guter Letzt möchte ich noch auf die verschiedenen Patente aufmerksam machen, die Google im Bereich des User-Tracking und User-Analyzing hat. Dazu ein kurzer Auszug aus meinem Buch:

Jedem Suchmaschinenbetreiber ist klar, dass die Suche nur dannperfektioniert werden kann, wenn man viel über den Nutzer weiß;wenn man seine Vorlieben kennt, vorausahnen kann, wonach ersucht, und ihn so mit den passenden Treffern versorgen kann. ImJahr 2006 sind von Google beim US-Patentamt nicht weniger alsacht Erfindungen eingereicht worden, die dem Themenbereichdes »User Tracking« zuzuordnen sind.»Die Erfindungen, die mit der Benutzerverfolgung zu tun haben,haben zugenommen«, sagt US-Analyst Stephen Arnold. Dazuzählen unter anderem folgende Patente: »Determining AdvertisementsUsing User Behavior Information such as Past NavigationInformation«(20060069616),»Accelerating User Interfaces by Predicting User Actions« (Patent20060047804),»Systems and Methods for Modifying Search Results Bases ona Users’s History« (Patent 20060224587)oder das Patent Nr. 20060224583 »Systems and Methods forAnalyzing a User’s Web History«.Schon die Namen der Patente machen klar, worauf die jeweiligeErfindung abzielt – mehr über den Nutzer zu erfahren.

Egal wie man das Blatt auch dreht und wendet, es gibt verschiedenste Methoden, die Rückschlüsse auf den Nutzer zulassen: IP-Adresse, Cookie, Mac-Adresse sowie wohl eine Vielzahl an patentierten und uns unbekannten Systematiken; aber das können uns mit Garantie Software-Ingenieure und System-Administratoren erklären…