Forscher: Explodierende Datenmengen sind neue Herausforderung für Analyse

Potsdam. Das explosionsartige Wachstum von Datenmengen stellt selbst neuste Hochleistungsverfahren zur Echtzeit-Analyse vor immer größere Herausforderungen. Das ergab eine Tagung von Informatikforschern am Hasso-Plattner-Institut (HPI) in Potsdam. 50 führende Experten aus Wissenschaft und Wirtschaft hatten sich beim zehnten "Future SOC Lab Day" über aktuelle Forschungsergebnisse ausgetauscht, die mit neuster Hard- und Software im HPI-Spitzenforschungslabor erzielt worden sind.

Deutlich wurde: Blitzschnelle und flexible Big Data-Auswertungen mit der am HPI erforschten und mitentwickelten In-Memory-Technologie stoßen auf Seiten der Hardware mittlerweile auf physikalische Grenzen. Das neuartige Hauptspeicher-Datenmanagement lässt riesige Datenmengen ausschließlich im schnellen Hauptspeicher eines Computers mit vielen Rechenkernen residieren und verarbeitet sie mit Hilfe einer speziell organisierten Höchstgeschwindigkeits-Datenbank.

"Echtzeit-Analysen auf immer größeren Datenmengen erfordern ganz neue Kniffe sowohl auf Hardware- als auch auf Software-Seite. Wir kümmern uns darum, das Potenzial der neuen Systeme auszureizen", sagte HPI-Wissenschaftler Frank Feinbube. „Derzeit ist die Situation praktisch so, als säße ein Formel-1-Pilot in einem Jet und fährt damit nur, statt abzuheben und rasant zu fliegen", erklärte der Tagungssprecher.

Logische Konsequenz wäre es, dass die Hardware anders gebaut werden müsste, aber das funktioniere nicht, so ein Wissenschaftler. Deshalb müssten Wege gefunden werden, wie die entsprechende Soft- und Hardware optimal harmonieren könnten. Anwendungsszenarien müssten zunächst einmal bis ins letzte Detail bedacht werden, um die Hardware- und Big Data-Management-Systeme optimal anzupassen. So könnten beispielsweise im Zeichen von "Industrie 4.0" Anwendungen entstehen, bei denen Lagerkapazitäten, Materiallieferung und Herstellung aufs Genauste abgestimmt werden mit aktuellsten Rohstoffpreisen, Verkaufsmargen und anderen Optimierungsprozessen.

HPI-Forschungspartner Hewlett Packard kündigt Innovation an

Hewlett Packard, einer der Ausrüster und Partner des HPI-Spitzenforschungslabors, stellte in Potsdam seinen Ansatz für eine völlig neue Computer-Generation mit einer andersartigen Netzwerkarchitektur vor. Kernstück der Neuentwicklung sind so genannte Memristoren, an denen HP bereits seit 2008 experimentiert, wie HP-Entwickler Axel Simon auf dem Future SOC Lab Day erklärte.

Bei Memristoren handelt es sich um passive Bauelemente, deren Widerstand variabel ist. "Der jeweilige Wert hängt stets davon ab, wie viele Ladungen in welcher Richtung vorher geflossen sind. Auch wenn kein Strom mehr zugeführt wird, bleibt dieser Zustand erhalten", erklärte Simon. Dies haben sich die Forscher zu Eigen gemacht und wollen es zum Speichern von Daten und zum Rechnen nutzen.

Memristoren verfügen theoretisch über sehr hohe Kapazitäten und extrem schnelle Zugriffszeiten im Nanosekundenbereich. Wermutstropfen: Bislang liegen HP noch keine Muster vor. Simon versprach, dass 2016 erste Bauteile verfügbar seien. Zudem sollen Memristoren auch Eingang in neuartige Prozessoren (Systems-on-Chips) finden und über "Photonics", eine serielle optische Verbindung, kommunizieren. So könnten noch gewaltigere Datenmengen blitzschnell ausgewertet werden. Herkömmliche Verbindungen seien dabei nicht praktikabel, hieß es.

Komplettiert wird "The Machine", wie Hewlett Packard das visionäre Konzept nennt, durch so genannte Moonshot-Systeme. Pro Rack sollen sich so enorme Datenmengen von mehr als 150 Petabyte speichern lassen. Herkömmliche Festplatten fassen nur einen Bruchteil. Angedacht für "The Machine" soll ein Setting von bis zu acht Racks sein.

Cloud Computing verbraucht weltweit so viel Strom wie ganzes Land

Mit dieser Struktur auf Memristoren-Basis ließe sich auch extrem viel Energie einsparen. Aktuell lässt sich der Energieverbrauch des weltweiten Public Cloud-Computings mit dem ganzer Industriestaaten vergleichen. In einem in Potsdam präsentierten Vergleich rangiert der Energieverbrauch für Cloud-Computing auf dem fünften Platz hinter dem von China, den USA, Russland und Japan. HP wolle sein neues System in zwei bis drei Jahren zur Marktreife bringen und dann vorstellen, so Simon.

HPI-Wissenschaftlerin Dr. Mariana Lara Neves stellte auf dem Future SOC Lab vor, wie wissenschaftlichen Texte per Echtzeit-Analyse bei der Bewertung biomedizinischer Daten für Erkrankungen helfen und so auch ganz neue Zusammenhänge erkennen helfen können.

Göttinger Forscher präsentierten auf der HPI-Veranstaltung ihr "Intelligent Data Replication for Ontology-Based Query Answering". Das System sucht nach Ähnlichkeiten und es gelingt, Suchanfragen intelligent mit einer speziellen Bibliothek zu verknüpfen. So ist es beispielsweise möglich, in medizinischen Datenbanken nach dem Stichwort Influenza zu suchen, und das System wertet auch artverwandte Daten aus wie zu Husten und Schnupfen aus. Alles wird anschließend in einem übergeordneten Kontext zusammengestellt und ermöglicht so einen ganz neuen Erkenntnisgewinn.

Zudem beschäftigten sich die Big Data-Experten auf der Potsdamer Veranstaltung mit verlässlichen Eckdaten für die Software-Verifikation in der Cloud. Dieser Prozess stellt sicher, dass Software zu ihrer Spezifikation konform, also richtig gebaut ist oder dass sie die Anforderungen in der Praxis erfüllt und richtig funktioniert.

Der nächste Future SOC Lab Day wird vom HPI am 4. November veranstaltet. Es werde sehr spannend werden, die im nächsten Halbjahr erzielten Forschungsergebnisse kennenzulernen, versprach HPI-Professor Andreas Polze zum Ende der Tagung.

Kurzprofil Hasso-Plattner-Institut

Das Hasso-Plattner-Institut für Softwaresystemtechnik GmbH (HPI) in Potsdam ist Deutschlands universitäres Exzellenz-Zentrum für IT-Systems Engineering. Als einziges Universitäts-Institut in Deutschland bietet es den Bachelor- und Master-Studiengang "IT-Systems Engineering" an – ein besonders praxisnahes und ingenieurwissenschaftliches Informatik-Studium, das von derzeit 480 Studenten genutzt wird. Die HPI School of Design Thinking, Europas erste Innovationsschule für Studenten nach dem Vorbild der Stanforder d.school, bietet pro Jahr 240 Plätze für ein Zusatzstudium an.

Insgesamt zehn HPI-Professoren und über 50 weitere Gastprofessoren, Lehrbeauftragte und Dozenten sind am Institut tätig. Es betreibt exzellente universitäre Forschung – in seinen neun Fachgebieten, aber auch in der HPI Research School für Doktoranden mit ihren Forschungsaußenstellen in Kapstadt, Haifa und Nanjing. Schwerpunkt der HPI-Lehre und -Forschung sind die Grundlagen und Anwendungen großer, hoch komplexer und vernetzter IT-Systeme. Hinzu kommt das Entwickeln und Erforschen nutzerorientierter Innovationen für alle Lebensbereiche. Das HPI kommt bei den CHE-Hochschulrankings stets auf Spitzenplätze. Mit openHPI bietet das Institut seit September 2012 ein interaktives Internet-Bildungsnetzwerk an, das jedem offen steht.

Hasso-Plattner-Institut für Softwaresystemtechnik GmbH

Das Hasso-Plattner-Institut (HPI) ist einmalig in der deutschen Universitätslandschaft: Nirgendwo sonst in Deutschland kann man „IT-Systems Engineering“ studieren – eine praxisnahe Alternative zum …