Zum Inhalt springen

Header

Inhalt

Big Data: Das grosse Vermessen Goldrausch im Zeitalter der Daten

«Big Data» ist das Schlagwort der Stunde. Noch nie hat der Mensch so viele Daten gesammelt und ausgewertet wie heute. Das Versprechen: enormer Erkenntnisgewinn und ganz neue Wirtschaftszweige. Doch was sind diese Big Data eigentlich genau? Wie lassen sie sich auswerten? Und wozu könnten sie nützen?

Immer leistungsfähigere Computer erlauben es, immer schneller immer grössere Datenberge zu durchkämmen: Millionen von Teilchenkollisionen am Cern, Messdaten von unzähligen Sensoren rund um den Globus für Klimamodelle – aber auch die digitalen Spuren, die wir Menschen in den Weiten des Internets hinterlassen.

Daten als Basis für Vorhersagen?

Big Data werden die Wissenschaft und unsere Gesellschaft fundamental verändern, glaubt der Politologe und Big-Data-Spezialist David Lazar von der Northwestern University in den USA – so verändern, dass es vor kurzem noch als Science Fiction abgetan worden wäre. Wie der Traum einiger Wissenschaftler, eine Art «Weltsimulator» mit Wirtschafts-, Mobilitäts- oder Gesundheitsdaten zu füttern und damit politische und wirtschaftliche Krisen antizipieren oder gar verhindern zu können.

Das Thema im Radio

Box aufklappen Box zuklappen

Der Beitrag über Big Data ist am 29. September in der Sendung «Rendez-vous» auf Radio SRF 1, SRF 2 Kultur und weiteren Sendern zu hören.

Doch bereits heute sind Big Data – in bescheidenerem Masse – allgegenwärtig, auch wenn uns das gar nicht bewusst ist. So einfache Dienstleistungen wie Suchmaschinen im Internet könnten nur dank grosser Datenmenge zuverlässig funktionieren. Das sagt Thomas Hoffman, Professor für Datenanalyse an der ETH Zürich. Er weiss, wovon er spricht: Vor seiner Berufung an die ETH hat er den Google-Standort in Zürich mit aufgebaut und selbst eine Firma gegründet, die grosse Datenmengen analysiert.

Durchblick in den Datenmassen

Hinter Big Data steckt ein einfacher Ansatz: Je mehr Daten wir analysieren können, desto robuster sind die Resultate, desto mehr Zusammenhänge lassen sich aufdecken und desto genauer fallen Vorhersagen aus. Die grosse Herausforderung dabei ist, aus dem «Rauschen» der Daten sinnvolle Informationen herauszufiltern. Und das kann auch schief gehen.

Ein gutes Beispiel dafür ist der Dienst «Google flu trends». Die Idee dahinter: Wenn Menschen erste Grippesymptome feststellen, suchen sie in Google mit grösserer Wahrscheinlichkeit als sonst nach Wörtern wie «Fieber» «Grippe» oder «Medikament».

Tatsächlich konnte der Dienst anfänglich Grippewellen fast in Echtzeit identifizieren, während die staatlichen Gesundheitsdienste dazu Tage oder Wochen brauchten. Doch bald schon folgte die Ernüchterung: «Google flu trends» schoss ein paar Mal klar daneben. Die Abermillionen Sucheingaben in der Suchmaske bildeten die Grippewellen schlicht zu ungenau ab.

Neue Chancen – neue Risiken

«Mehr» ist also doch nicht immer «besser», warnt David Lazar. Dass man vielen Daten habe, sei keine Ausrede dafür, damit nicht wissenschaftlich sauber zu arbeiten. Doch genau das ist das grosse Problem von Big Data. Denn die Datenmengen werden oft nicht eigens für wissenschaftliche Zwecke mit sorgfältig kalibrierten Messinstrumenten oder professionellen Umfragen erhoben, sondern fallen einfach so an, sei es bei privaten Firmen, sei es bei Behörden.

Mit Big Data eröffnen sich also nicht nur neue Möglichkeiten, sondern auch neue Probleme. Auch für den Datenschutz sind Big Data nicht unproblematisch – insbesondere, wenn es um die digitalen Spuren des Menschen geht. ETH-Experte Hoffman sagt: «Wenn man die typischen Aufenthaltsorte eines Menschen, sein Surf-Verhalten und seine Suchanfragen zusammenfügt, dann bekommt man sehr schnell eine eindeutige Datensignatur, selbst wenn alle diese Daten anonym sind.» Sprich: Mit unseren Spuren im Internet machen wir uns eindeutig identifizierbar.

Entsprechend warnen Big-Data-Kritiker bereits vor dem Ende der Privatheit. Doch vorerst dominiert noch die Goldgräberstimmung.

Meistgelesene Artikel