Es ist eine unfassbare Zahl mit 21 Nullen, die wir voraussichtlich im Jahr 2025 an Daten generieren werden: 175 Zettabyte. Zum Vergleich: 2019 waren es „noch“ 40 Zettabyte. Die Quellen, aus denen diese Datenmassen fießen, sind unerschöpfich: Sensoren in Maschinen messen Temperaturen, Luftwerte oder unsere Bewegungsaktivitäten. Facebook-Nutzer laden über 350 Millionen Bilder pro Tag hoch. Dazu kommen 306 Milliarden E-Mails täglich, Videomaterial aus unzähligen Überwachungskameras, GPS-Daten von Smartphones, intelligente Stromzähler und vieles mehr. Kein Wunder, dass sich Maßstäbe wie Exa-, Zetta- oder Yottabytes unserem Größenverständnis entziehen.
Was wir aber verstehen: Unser Leben mit Big Data ist ein Sprint ins Unbekannte. Was könnte uns hinter der Ziellinie erwarten? Im Jahr 2011 feierte der Begriff Big Data seinen großen Durchbruch und wurde in der Weltwirtschaft als die nächste große Herausforderung ausgerufen. Das Versprechen? Unternehmen könnten aus immer größeren Mengen an Daten immer wertvollere Prognosen extrahieren und damit in die Zukunft schauen. Aber die Realität sah anders aus.
Die Erwartung, Big Data werde wie eine magische Maschine Wettbewerbsvorteile wie am Fließband ausspucken, erwies sich vor allem für mittelständische Unternehmen als überzogen. Sie erwuchs aus einer falschen Einschätzung, was Analytik leisten kann – und was nicht. Soll die Maschine der Geschäftsführung nämlich verraten, wie man in die Zukunft schauen und Profite erhöhen kann, dann bräuchte es neben smarten Algorithmen auch ein Team an mathematischen Superhirnen, die die richtigen Schlüsse ziehen können. Diese aber sind rar und tummeln sich eher (noch) nicht in mittelständischen Unternehmen.
Solche Spezialisten brauche es aber dringend, sagt Marion Weissenberger-Eibl. Sie ist Leiterin des Fraunhofer-Institut für System- und Innovationsforschung in Karlsruhe und sieht in der Ausbildung von Datenexperten eine der großen Herausforderungen in Bezug auf unseren Umgang mit Big Data. „Die deutsche Bildungsgesellschaft ist bisher nur bedingt auf den Umgang mit Big Data vorbereitet. Um den Prozess aktiv mitgestalten und im internationalen Vergleich mithalten zu können, benötigen wir eine informationstechnische Grundbildung von klein auf.“
Eine wichtige Erkenntnis lautet: Die große Datenflut wird erst dann zum nützlichen Werkzeug, wenn man es auch zweckdienlich einzusetzen weiß. Der intelligente Umgang mit Daten ist aber ein mühsames und kontinuierliches Vorantasten. Das Ziel ist stets, Abläufe effizienter zu gestalten und Entwicklungen in der eigenen Branche besser vorhersagen zu können. Wie man diesen Weg beschreitet, muss jede Branche, jedes Unternehmen, müssen Wirtschaft, Wissenschaft und Gesellschaft für sich selbst herausfinden. Ein Blick auf die Bereiche Medizin, Energie und Tourismus zeigt, wie diese bereits von Big Data profitieren.
© Foto /iStock /Inok
Gar nicht so abwegig. Innovationsforscherin Weissenberger-Eibl sieht vor allem im Gesundheitswesen ein enormes Potenzial für die Wirkungsweisen von smarten Systemen. „Die Einbeziehung von Daten, die von Patienten selbst erhoben werden können, bietet ganz neue Chancen für Prävention, Diagnostik und Therapie. Die Datenmengen sind jetzt schon so groß, dass sie sich ohne künstliche Intelligenz nicht mehr auswerten lassen. Die Herausforderung für die Zukunft besteht darin, ein viel breiteres Spektrum an Daten einzubeziehen und diese sinnvoll miteinander zu verknüpfen.“
Zudem werden medizinische Technologien, die mit einem geringen Aufwand viele Daten generieren können, immer ausgefeilter. Die Spuren eines Tumors aufgrund einer kleinen Blutprobe zu entdecken, ist dann zum Beispiel keine Zukunftsmusik mehr, sondern ein Versprechen von Big Data gegen den Krebs. Liquid Biopsy heißt eine neue Art der Flüssigbiopsie, die dem Patienten die herkömmliche Gewebeentnahme mit der Nadel erspart. In nur einem Esslöffel Blut können Molekularbiologen Tumorzellen oder Erbgutabschnitte von Tumorzellen herausfiltern.
Eine Software analysiert die DNA-Abschnitte, vergleicht sie mit dem Erbgut Gesunder und erkennt so die kranken Zellen. Das System verbessert sich stetig selbst: Mit jeder erfolgreichen Analyse steigt die Aussagekraft der Methode, die Diagnosen werden genauer. Noch steht der Einsatz von Liquid Biopsy unter Vorbehalt, da die Ergebnisse nicht immer eindeutig sind. Positive Fortschritte gibt es trotzdem zu verzeichnen: Forscher am Deutschen Krebsforschungszentrum in Heidelberg konnten bei Patienten mit Lungenkarzinomen die Befunde von Liquid Biopsy bereits mit ihren klinischen Daten verknüpfen und dann in Echtzeit verfolgen, wie der Krebs auf ein individuell eingesetztes Präparat ansprach.
Die Vision? Die Zeit, in der lediglich ein Medikament für unterschiedlichste Patienten verschrieben wird, wird bald vorbei sein. Das Zusammenspiel von Genanalysen und Big-Data-Rückschlüssen läutet eine neue Ära der molekularen Medizin ein.
Was wäre, wenn Big Data nicht nur helfen könnte, kranke Zellen im Blut schneller zu erkennen, sondern die Erkrankung gleich via Ferndiagnose identifiziert? Wissenschaftler von Microsoft haben herausgefunden, dass sie Pankreaskarzinome schon Monate vor der ärztlichen Diagnose erkannten, indem sie Anfragen an die Suchmaschine Bing auswerteten. Eric Horvitz und Ryen White identifizierten dafür erst einmal Nutzer, die sich mit einer Suchanfrage im Sinne von „An Bauchspeicheldrüsenkrebs erkrankt, was tun?“ schon selbst als erkrankt eingestuft hatten. Im zweiten Schritt analysierten sie, mit welchen Begriffen die Patienten in den vorangehenden Monaten gesucht haben. Es stellte sich heraus, dass tatsächlich viele ihre Symptome kurzerhand in die Suchmaschine getippt hatten.
Die Früherkennung gelang in fünf bis fünfzehn Fällen, beeindruckender war aber die Zahl der sehr geringen Fehlalarme: Nur einer von 10.000 Nutzern wurde vom System als fälschlicherweise krank eingestuft. Die Studie war ein voller Erfolg, dennoch stellte Microsoft klar, dass sie nicht vorhätten, ihren Nutzern einen ungewollten Krebsalarm auf den Desktop zu jagen. Die psychologischen Auswirkungen solcher Warnungen seien ungeklärt, und man habe lediglich eine Diskussion unter Ärzten anregen wollen, hieß es.
|
|
/2 Der Strom aus dem Meer sicherte 2016 circa sieben Prozent unserer Stromerzeugung aus erneuerbaren Energien. |
/3 Immer individueller, immer passgenauer: Unsere Reisen werden zum ultimativen Selbsterfahrungstrip. |
Das heutige Energiesystem in Deutschland besteht aus vielen konventionellen Kraftwerken – und einem Teil erneuerbarer Energie. 54 Prozent des Nettostroms, der aus unserer Steckdose kommt, stammt noch nicht aus erneuerbaren Energien. Dies wird sich ändern – und zwar mit und dank Big Data. Wie sich der Wan - del gestalten lassen könnte, weiß Albrecht Reuter, Geschäftsführer der Fichtner IT Consulting GmbH. „Die Energiewende zielt drauf ab, unsere Energiesysteme zu dekarbonisieren. Das heißt vor allem, dass das Feuer aus unseren Wohnungen und Autos verschwinden muss. Kohle, Erdgas und Öl werden mittelfristig ersetzt werden.“
Für unsere Breitengerade bedeutet das vornehmlich, auf Fotovoltaik- und Windanlagen umzusteigen. Die vielen kleinen, dezentralen Anlagen, die in Zukunft unser Energiesystem mit Strom und Wärme versorgen werden, müssen aber grundlegend anders gesteuert werden als die großen Kraftwerke – und hier kommt Big Data ins Spiel.
Mit selbstlernenden Algorithmen wollen Wissenschaftler ein umfassendes Bild der Energieflüsse im Stromnetz erstellen. Anfang des Jahres 2017 ist dazu unter der Leitung von Albrecht Reuter das große Forschungsprojekt „C/sells“ angelaufen, gefördert und unterstützt vom Bundesministerium für Wirtschaft und Energie. Hier soll mithilfe von Big Data der Bedarf der Verbraucher genauer vorhergesagt sowie die Speicherung zu jedem Zeitpunkt optimiert werden. Auch eine verbesserte Hochrechnung des Istzustands mit hoher regionaler Au fösung steht auf der Agenda von „C/sells“. Reuter und sein Team erproben derzeit Musterlösungen in 30 Zellen im Süden der Republik.
„Bis zur Mitte des Jahrhunderts werden wir die ressourcenorientierte Ökonomie weitestgehend durch ein technologiebasiertes Wirtschaften ersetzt haben“, prognostiziert Energieexperte Reuter. „Bisher haben wir nach den Gesetzen der Ökonomie limitierte Ressourcen verbraucht und mit jedem Verbrauch stieg der Preis – bei der technologiebasierten Methode ist es umgekehrt. Je mehr Technologien wir produzieren, umso schlauer werden wir und können Skalierungseffekte besser nutzen. Die Preise für diese Anlagen werden deshalb immer weiter fallen.“
Der moderne Mensch ist unruhig, er ist immer auf dem Weg. Und dies gilt auch für einen Bereich, in dem er sich eigentlich von den Mobilitätszwängen seines Jobs erholen könnte – für seine Freizeit. Tourismus boomt, und zwar in allen Formen: von der Kurzreise bis hin zur Erlebnis-, Fern- oder Städtereise. Auch vor dem Hintergrund einer global wachsenden Mittelschicht wird die Nachfrage nach einem individuell auf die Bedürfnisse zugeschnittenen Urlaub immer weiter steigen. Ulrich Reinhardt, wissenschaftlicher Leiter der BAT-Stiftung für Zukunftsfragen, bezeichnet Authentizität als das Schlüsselwort des neuen Reisens. „Der Tourismus der Zukunft wird seinen Fokus nicht mehr auf Massenspektakel in Hotelbunkern legen, sondern auf individuelle Erlebnisse und Erholung setzen.“
Gerade der Wunsch nach intelligenten, passgenauen Reiseerlebnissen zwingt also Unternehmen dazu, ihre Angebote mithilfe von Big Data immer mehr auf die Wünsche ihrer Kunden abzustimmen. Big Data kann aber noch mehr, als die billigsten Flüge und Hotels für uns zu finden. Was wäre, wenn wir in absehbarer Zeit für unsere Urlaubsplanung nur noch unser gewünschtes Reiseziel und die Dauer unseres Aufenthalts bestimmen müssten? Smarte Algorithmen könnten dann unsere bevorzugte Airline sowie die Unterkunft zum passenden Budget und Lifestyle für uns buchen. Der selbstfahrende Mietwagen würde am Zielflughafen schon warten. Vor Ort könnten uns Reiseveranstalter perfekt abgestimmte Events, Konzerte oder Restaurantbesuche anbieten.
Big Data macht den Kunden und seine persönlichen Wünsche sichtbar. Dies ermöglicht es wiederum, maßgeschneiderte Services anzubieten. Wichtig ist aber auch, dass man den Spagat zwischen den Daten - gewinnen und einer Datensouveränität schafft. „Der transparente Umgang mit den gesammelten Daten ist unabdingbar, denn heimliche Auswertungen erwecken Misstrauen, wohingegen aktive Interaktionen zu Vertrauen und einer persönlichen Bindung führen“, erklärt der Reiseexperte Reinhardt.
Die Verantwortung mit der Datenauswertung – das ist der kleinste gemeinsame Nenner, der alle Branchen gleichermaßen beschäftigt. Gerade in Deutschland ist das Verhältnis der Bevölkerung zu privaten Daten paradox: Einerseits wird die Nutzung und Verbreitung von Daten sehr massiv und oft emotional diskutiert, andererseits kommt man heute kaum mehr umhin, sich daran zu beteiligen.
Andreas Weigend war Chefwissenschaftler bei Amazon und hat die Datenstrategie des Retail-Riesen mitentwickelt, heute lehrt er in Berkeley an der University of California und berät große Unternehmen und Organisationen wie Lufthansa, SAP oder das Weltwirtschaftsforum. Nun hat Weigend ein Buch geschrieben, dessen Titel „Data for the People“ ein neues Datenverständnis von uns einfordert. „Keine Daten zu erzeugen, ist unmöglich“, sagt er. „Der Zug der Datensparsamkeit ist also abgefahren. Leider ist die romantische Illusion ‚Zurück zur guten alten, datenarmen Zeit‘ nichts weiter als das – eine Illusion! Was bleibt uns? Wir müssen die Realität erkennen. Wir leben in einer Wirtschaft der Post-Privacy.“ Und diese ist nichts weiter als eine Ökonomie.
„Wir gehen einen Vertrag mit den datenverarbeitenden Unternehmen ein, die ich Daten-Raffinerien nenne: Wir vertrauen euch, dass ihr euch um unsere Daten kümmert, dass sie, wenn wir sie mal brauchen, auch für uns verfügbar sind, und dafür haben wir kein Problem, dass ihr damit eure Milliarden verdient.“ Auf die Frage, wie das funktionieren soll, stößt man erneut auf die Transparenz als Schlüssel-Asset im Umgang mit Big Data. „Wenn wir in das Zeitalter der Datenaufklärung schreiten, müssen wir als Konsumenten unser Recht zur Transparenz einfordern. So gehen wir mit den Datenraffinerien ein Incentive Alignment ein, also eine gemeinsame Ausrichtung von Interessen. Das heißt: Was Google möchte und was ich als Konsument möchte, geht in die gleiche Richtung.“
Die neue Evolution Im Jahr 2025 werden wir im Vergleich zu heute das Zehnfache an Daten generieren. 60 Prozent dieser Daten werden nicht wie bisher von Privatnutzern, sondern von Unternehmen erzeugt werden. Was bedeutet das für uns? Die weltweite Vernetzung von Geräten im Internet of Things wird die Datenmasse bestimmen. Der Mensch wird in ständiger Interaktion mit einem vernetzen Gerät, Haus oder Auto sein – laut einer Studie des amerikanischen Festplattenherstellers Seagate sogar bis zu 4800-mal pro Tag.
Neben allen Diskussionen über sich unendlich schnell vermehrende Daten und selbstlernende Algorithmen dürfen wir aber nicht aus den Augen verlieren, dass es die Menschen sind, die die Zahlen der Maschinen mit Leben füllen. Augmented Intelligence, die „erweiterte Intelligenz“ ist die Zukunft der künstlichen Intelligenz – und bedeutet den Eintritt in eine neue Welt. Wenn die Kreativität der Menschen mit der Rechenkraft von Computern zusammenkommt, kann eine unschlagbare Symbiose entstehen. Wir müssen begreifen, dass das, was im Zeitalter der Digitalisierung um uns herum passiert, kein Wettlauf gegen die Maschinen ist, sondern ein Wettlauf mit ihnen. Die Angst des Menschen vor seiner Überflüssigkeit nennt der deutsche Publizist und Autor Matthias Horx „einen Teil des ewigen humanen Minderwertigkeitskomplexes“. Dabei vergessen wir, dass alles, was für uns sinnstiftend ist, menschlich ist und aus einer Vernetzung von Emotionen und Informationen stammt.
Die Digitalisierung ist keine Bedrohung, sie eröffnet neue Wege und macht Raum für eine neue Komplexität der Dinge. Was auch heißt: Wir müssen uns gar nicht fragen, was uns an der Ziellinie erwartet. Sie löst sich auf, wenn wir sie immer wieder neu setzen.