BIG DATA - Polemik zum Technologietrend
Der Begriff Big Data
Wikipedia definiert zum Begriff: “→ BIG DATA bezeichnet den Einsatz großer Datenmengen aus vielfältigen Quellen mit einer hohen Verarbeitungsgeschwindigkeit zur Erzeugung wirtschaftlichen Nutzens”.
Ich möchte Big Data wie folgt skizieren.
BIG DATA ist ein IT-Technologietrend zur Datenverarbeitung gigantischer Datenvolumen unterschiedlichster Art …
… bestehend aus einem Bündel von Maßnahmen (Tools, Technologien, IT-Architekturen, Software, Hardware), …
… das nicht Stichproben, sondern möglichst jegliche Daten nutzt, …
… um Prozesse, Dinge, Vorgänge (aus Technik, Wissenschaft, Gesellschaft, Ökonomie, etc.) effizienter, transparent und vorhersehbar zu machen.
Beispiele
Nachfolgende vier Anwendungsfälle erwähne ich hier zur Verdeutlichung von BIG-DATA.
Thema Wahlforschung – nicht ein Wahltrend gilt es am Vorabend einer Wahl durch Stichproben zu ermitteln, sondern das Wahlergebnis im voraus (!).
Thema Nanotechnologie – nicht die Qualität eines Halbleiters gilt es mittels Strahlenphysik und Software zu ermitteln, sondern eine gewisse Quantität wird als Muster im Voraus erkannt und zielgerichtet ohne Reibungsverlust mit einem resultierenden Maßnahmeplan darauf zugesteuert.
Thema Medizin – Primat hat nicht mehr eine Vorsorgeuntersuchung, in der aufgrund möglicher Vorbedingungen (z. B. Erbkrankheit, Stressfaktoren, Umwelt) untersucht wird, sondern Primat wird zielgerichtetes Suchen und Sicherstellen von Mustern schon vor der Zeugung, so dass ein neu zu gebärender Mensch alle genetischen Faktoren eines idealen Menschen in einer konkret zu erwartenden Umwelt (biologisch, psychologisch, physiologisch, etc.) zu 100% erfüllt.
Thema Produktionsprozesse, u. a. Energy-Sektor – im Wertschöpfungsprozess wird nicht mehr auf einen prognostischen Bedarf reagiert, sondern es werden bei immensen, vielfältigsten Vorbedingungen kausal und quantitativ Muster ermittelt und geschaffen, die nachfolgend eine absolute Kontrolle am Markt sicherstellen (digitale Wertschöpfung in Echtzeit).
Nutzen
BIG DATA im eigenen LAN und WAN – außerhalb externer Clouds sinnvoll eingesetzt – unter Beachtung von Anforderungen aus Informationssicherheit und Qualitätsmanagement – kann für Organisationen (Unternehmen, Einrichtungen, Netzwerke) einen Quantensprung bei Geschäftsentscheidungen, erheblichen Technologiesprung und wirtschaftlichen Nutzen einleiten.
BIG DATA in der CLOUD – hier geht es m. E. um einen tiefen Hintergrund, der einen Nutzen in Frage stellt. Es geht um das nicht-propagierte Ziel ...
... gigantische Datenmengen verschiedenster Quellen in Clouds zu bündeln, ...
... dort dieses Daten durch Mustererkennung zu kanalisieren, ...
... diese Clouds wiederum in den Händen immer Weniger zu konzentrieren ...
... & ggf. nicht-legitimierten Benutzern (z. B. NSA) zur Verfügung zu stellen.
Polemik zum Technologietrend Big Data
Qualitätsmanagement und sein Strategieziel Fehlerfreiheit sind immer mehr funktionell geprägt durch ein Trendsetzen in allen Unternehmensprozessen. Es geht darum, neue Wege zu Wettbewerbsvorteilen, Nutzen und Kundenzufriedenheit zu erschließen. IT und Wertschöpfung in Organisationen sind dabei zunehmend und untrennbar verknüpft. Große Datenmengen bedürfen neuer Technologietrends – BIG DATA steht im Focus. BIG DATA – als Produktionsfaktor. BIG DATA – die Territorien der Zukunft?
Anliegen von BIG DATA ist es, Geschwindigkeit, Effizienz, Analysepotential, Nutzen und Qualität sicherzustellen bei der Verarbeitung unstrukturierter, gigantischer Datenmengen – möglichst in Echtzeit. Es soll dabei unterschiedlichste Datenquellen nutzen. BIG DATA ist u. a. in der Lage, selbständig und ohne den Faktor Mensch bis dato verborgene Muster zu finden. BIG DATA ist die Energie der Zukunft zur technologischen Verselbständigung. Hier tun sich nicht nur rechtliche, sondern vor allem ethische Probleme auf.
Wie? Eine Umsetzung bedarf neuer gekoppelter Hard- und Software-Lösungen. Aktuelle und anstehende neue Technologien, u. a. Quanten-Computing, neue Algorithmen und statistische Verfahren, Virtual Reality (Virtuelle Techniken), NoSQL (nicht-relationaler Ansatz für große Datenbanken), Hadoop, werden das zunehmend möglich machen.
Trend: Bis 2020 wird sich das digitale Universum gegenüber 2010 fünfzig mal vergrößern (!) auf unfassbare 40 Zettabyte (ZB) = 40.000.000.000.000.000.000.000 Byte. Das wären auf jeden Erdbewohner 5 Terabyte an Daten.
Wie verwaltet man diese Datenmassen? Belässt man es dezentral bei den Usern in lokalen Netzwerken – die sich wiederum frei vernetzen können? Oder – schaffen sich Wenige eine zentrale Datenmassen-Hoheit mittels technischer Lösungen – vergleichbar mit neuer Hegemoniebestrebung (Neuaufteilung der Welt)?
Aktuell ist BIG DATA das Zauberwort. Wird BIG DATA nach Virtualisierung und CLOUD wieder nur eine über die Straße getriebene Sau, die Geld locker machen soll? Andererseits – es stürzen auch auf uns ein riesige unstrukturierte Datenmengen aus unterschiedlichsten Quellen (Messergebnisse, Sensordaten, Entwicklungsdaten, Daten aus Beschaffung, Distribution und Logistik, Geo- und Infrastrukturdaten, Controlling-Daten, Kundenbeziehungsdaten, sonstige betriebliche Daten und Dokumente unterschiedlichster Art, Installationen, Netzwerke, Social Media Ressources). Es geht nicht nur um das Hier und Heute – es geht um den strategischen Umgang mit Daten.
Sicherheitsbedenken? Die haben staatlich berufene Datenschutzbeauftragte hierzulande nicht. BIG DATA könne verfassungs- und datenschutzkonform gestaltet werden mittels anonymisierter Datensätze und nachträglicher Identifizierung. Im Angesicht von → XKeyscore schwer zu glauben. Fakt ist – Compliance-Aspekte, gerade zum Schutz von Verbrauchern und Unternehmen, sind hoch gesteckt. Letztlich ist das aber nur Makulatur, solange bundesdeutsche Hoheit gemäß → Grundgesetz Artikel 2 Abs. 4 nicht das Vorrecht dieses Landes und seiner gewählten Regierung ist.
Geschäftsnutzen – gibt es den nur für Großunternehmen wie Google oder diverse Serviceprovider? Wird Geschäftsnutzen auch für kleine mittelständische Unternehmen sichtbar? Sehen auch die User ihren Nutzen oder liefern sie nur die Daten?
Praktische Themen & Ziele von BIG DATA könnten sein: Komplexe Modellierung und Simulation in Forschung und Entwicklung, Hochskalierbarkeit und Visualisierung bis in molekulare Strukturen, Optimierung der Wertschöpfungskette, Entwicklung kausaler Zusammenhänge, Anwendungsszenarien, Datenmassen in Echtzeit behandeln, pro-aktives Agieren, Sicherung Fehlerfreiheit, Fehlerdetektion vor Eintreten, Geschäftsprozess-Analyse-, -Modellierung, -Optimierung in allen unternehmerischen Bereichen. Wir können diese Kette weiter fortsetzen bis hin zum Software Engineering als der „Produktionstechnik des 21.Jahrhunderts“ (z. B. im Anlagenbau und der Nanotechnologie).
Die Software-Entwicklung für BIG DATA wird ganz besonderen Herausforderungen und Möglichkeiten gegenüberstehen. Hier wird das Primat nicht mehr bei intelligenten Algorithmen bestehen, sondern bei der hohen Menge an Daten. Daten werden vordergründig nicht geleitet – sie werden erforscht. Traditionell gab der User vor, welche Daten zu kanalisieren sind. Die Entwickler erstellten die Lösung. Der User nutzte dies und machte bei Bedarf Neuvorgaben zu Rebuilds. Der erweiterte Ansatz mittels BIG DATA besteht in der Verfolgung einer explorativen, forschenden Lösung. Definierte Datenquellen sind nach Mustern zu analysieren mittels zu entwickelnder diverser BIG DATA Plattformen. Der User nutzt die Ergebnisse und entscheidet bei Bedarf über ergänzende neue Datenquellen.
Unabhängig von Cloud? BIG DATA sollte dabei auch im lokalen Netzwerk oder WAN machbar sein – ohne Cloud, als Insellösung – respektive freier Wahl einer weiteren Vernetzung. Dabei wachsen die Datenvolumen exponentiell weiter. Mit diesen Datenmassen sichern sich auch Mittelstandsunternehmen zeitnahe Analysen. Einfach geschlussfolgert: Große Daten = große Chancen, Erster zu sein, rechtzeitig Trends zu erkennen, Problemen und Lösungen effizient auf die Spur zu kommen.
Datenchaos beherrscht uns zunehmend. Wo haben wir unsere Daten in einer typischen Organisation (Firma, Einrichtung, etc.)? Orte, wie lokales Profil (Archiv), Virtueller Server, File-Server, relationale Datenbank-Systeme, ERP-System, CRM-System, CMS-System, Relationship-System, Enterprise Wizard, Projektmanagement-System, Intranet, Extranet, Internet, Social Networks, Mobilkommunikation, Hunderte von Excel-Sheets, unendliche Präsentationen, tausende Dokumente bzw. Memos.
Vorgehen? Wie beherrschen wir das? Unsere vielen Datenquellen lassen uns erstmal immer die Kernfrage klären – wo finde ich das Gesuchte. Die zweite Frage dann – wie kanalisiere ich das. Am Ende steht die Frage – habe ich was übersehen. Vom Zeitaufwand reden wir nicht mehr. Eine Lösung muss wohl her.
Man könnte das Thema abtun, u. a. aufgrund aktueller Ereignisse (Stichpunkt NSA-Datenwahn). Die Cloud hätten wir nur für Andere geschaffen, die unsere Ressourcendurchstreifen. BIG DATA sei nun das Werkzeug, unsere komplette Daten-Welt in diese Cloud zu stellen.
Bedenkem? Abgesehen von möglichen rechtlichen Fragen (Datenerhebung) gäbe es auch ethische Bedenken bei konkreten Anwendungen (Genetik, u. a. Genom-Sequenzierung als Euthanasie-Entscheidung im Voraus). Eine ungeahnteInnovationswelle könnte weiterhin die Folge sein. Würde sie auch beherrschbar sein? Wäre die Zivilisation dazu bereit? Massive kollaterale Folgen in Ökonomie, Wissenschaft und Gesellschaft würden sich auftun. Wäre dem so?
BIG DATA – das Ende der wissenschaftlichen Theorie? Nein, automatisierte Korrelationen in einer Machine-to-Machine-Communication können sich als wenig „durchdacht“ erweisen. Letztlich können sie falsifiziert und sogar gefährlich für Organisationen und Einzelne werden. Mögliche verselbstständigte Prozessableitungen ohne menschliche Einflussnahme, selbst in gesellschaftlichen & hoheitlichen Prozessen, wären nicht mehr in der Welt des Science Fiction angesiedelt, sondern im Heute.
Vision
Stell Dir vor ...
... dieser Trend könnte nur im globalen Kontext betrachtet und gelöst werden.
Nicht eine Zentralisierung von Big-Daten in Clouds und den Händen weniger Provider kann das Ziel sein. Das Ziel wäre eine Dezentralisierung von Datenmassen (einzelnen Big Data Strukturen) in einer fraktal organisierten Welt (Ebene).
Es ginge um freiwilliges Bereitstellen in Netzwerken, neue Echtzeit-Technologien zur Nutzen großer Datenmengen in einem Umfeld des Teilens.
Das geschähe analog des Internets oder einer dezentralen Energieversorgung (Energy Web), wo Jeder gefordert und gefördert ist, in einem Umfeld von Geben und Nehmen. Dezentralität bedeutet Nutzen für Alle und geringe Anfälligkeit für das Ganze.
Dezentralität eines fraktalen BIG DATA bedeutet die Möglichkeit von Kontrolle, ständiger Erneuerung und Partizipation für alle Bestandteile – wie in einem Organismus, wie in einem Quantenprozess der ständigen Erneuerung.