Forscher: Explodierende Datenmengen sind neue Herausforderung für Analyse

Das explosionsartige Wachstum von Datenmengen
stellt selbst neuste Hochleistungsverfahren zur Echtzeit-Analyse vor
immer größere Herausforderungen. Das ergab eine Tagung von
Informatikforschern am Hasso-Plattner-Institut (HPI) in Potsdam. 50
führende Experten aus Wissenschaft und Wirtschaft hatten sich beim
zehnten „Future SOC Lab Day“ über aktuelle Forschungsergebnisse
ausgetauscht, die mit neuster Hard- und Software im
HPI-Spitzenforschungslabor erzielt worden sind.

Deutlich wurde: Blitzschnelle und flexible Big Data-Auswertungen
mit der am HPI erforschten und mitentwickelten In-Memory-Technologie
stoßen auf Seiten der Hardware mittlerweile auf physikalische
Grenzen. Das neuartige Hauptspeicher-Datenmanagement lässt riesige
Datenmengen ausschließlich im schnellen Hauptspeicher eines Computers
mit vielen Rechenkernen residieren und verarbeitet sie mit Hilfe
einer speziell organisierten Höchstgeschwindigkeits-Datenbank.

„Echtzeit-Analysen auf immer größeren Datenmengen erfordern ganz
neue Kniffe sowohl auf Hardware- als auch auf Software-Seite. Wir
kümmern uns darum, das Potenzial der neuen Systeme auszureizen“,
sagte HPI-Wissenschaftler Frank Feinbube. „Derzeit ist die Situation
praktisch so, als säße ein Formel-1-Pilot in einem Jet und fährt
damit nur, statt abzuheben und rasant zu fliegen“, erklärte der
Tagungssprecher.

Logische Konsequenz wäre es, dass die Hardware anders gebaut
werden müsste, aber das sei schwierig, so ein Wissenschaftler.
Deshalb solle vorerst nach Wegen gesucht werden, wie entsprechende
Soft- und Hardware optimal harmonieren könne. Anwendungsszenarien
müssten zunächst einmal bis ins letzte Detail bedacht werden, um die
Hardware- und Big Data-Management-Systeme bestmöglich anzupassen. So
könnten beispielsweise im Zeichen von „Industrie 4.0“ Anwendungen
entstehen, bei denen Lagerkapazitäten, Materiallieferung und
Herstellung aufs Genauste abgestimmt werden mit aktuellsten
Rohstoffpreisen, Verkaufsmargen und anderen Optimierungsprozessen.

HPI-Forschungspartner Hewlett Packard kündigt Innovation an

Hewlett Packard, einer der Ausrüster und Partner des
HPI-Spitzenforschungslabors, stellte in Potsdam seinen Ansatz für
eine völlig neue Computer-Generation mit einer andersartigen
Netzwerkarchitektur vor. Kernstück der Neuentwicklung sind so
genannte Memristoren, an denen HP bereits seit 2008 experimentiert,
wie HP-Entwickler Axel Simon auf dem Future SOC Lab Day erklärte.

Bei Memristoren handelt es sich um passive Bauelemente, deren
Widerstand variabel ist. „Der jeweilige Wert hängt stets davon ab,
wie viele Ladungen in welcher Richtung vorher geflossen sind. Auch
wenn kein Strom mehr zugeführt wird, bleibt dieser Zustand erhalten“,
erklärte Simon. Dies haben sich die Forscher zu Eigen gemacht und
wollen es zum Speichern von Daten und zum Rechnen nutzen.

Memristoren verfügen theoretisch über sehr hohe Kapazitäten und
extrem schnelle Zugriffszeiten im Nanosekundenbereich.
Wermutstropfen: Bislang liegen HP noch keine Muster vor. Simon
versprach, dass 2016 erste Bauteile verfügbar seien. Zudem sollen
Memristoren auch Eingang in neuartige Prozessoren (Systems-on-Chips)
finden und über „Photonics“, eine serielle optische Verbindung,
kommunizieren. So könnten noch gewaltigere Datenmengen blitzschnell
ausgewertet werden. Herkömmliche Verbindungen seien dabei nicht
praktikabel, hieß es.

Komplettiert wird „The Machine“, wie Hewlett Packard das visionäre
Konzept nennt, durch so genannte Moonshot-Systeme. Pro Rack sollen
sich so enorme Datenmengen von mehr als 150 Petabyte speichern
lassen. Herkömmliche Festplatten fassen nur einen Bruchteil.
Angedacht für „The Machine“ soll ein Setting von bis zu acht Racks
sein.

Cloud Computing verbraucht weltweit so viel Strom wie ganzes Land

Mit dieser Struktur auf Memristoren-Basis ließe sich auch extrem
viel Energie einsparen. Aktuell lässt sich der Energieverbrauch des
weltweiten Public Cloud-Computings mit dem ganzer Industriestaaten
vergleichen. In einem in Potsdam präsentierten Vergleich rangiert der
Energieverbrauch für Cloud-Computing auf dem fünften Platz hinter dem
von China, den USA, Russland und Japan. HP wolle sein neues System in
zwei bis drei Jahren zur Marktreife bringen und dann vorstellen, so
Simon.

HPI-Wissenschaftlerin Dr. Mariana Lara Neves stellte auf dem
Future SOC Lab vor, wie wissenschaftlichen Texte per Echtzeit-Analyse
bei der Bewertung biomedizinischer Daten für Erkrankungen helfen und
so auch ganz neue Zusammenhänge erkennen helfen können.

Göttinger Forscher präsentierten auf der HPI-Veranstaltung ihr
„Intelligent Data Replication for Ontology-Based Query Answering“.
Das System sucht nach Ähnlichkeiten und es gelingt, Suchanfragen
intelligent mit einer speziellen Bibliothek zu verknüpfen. So ist es
beispielsweise möglich, in medizinischen Datenbanken nach dem
Stichwort Influenza zu suchen, und das System wertet auch
artverwandte Daten aus wie zu Husten und Schnupfen aus. Alles wird
anschließend in einem übergeordneten Kontext zusammengestellt und
ermöglicht so einen ganz neuen Erkenntnisgewinn.

Zudem beschäftigten sich die Big Data-Experten auf der Potsdamer
Veranstaltung mit verlässlichen Eckdaten für die
Software-Verifikation in der Cloud. Dieser Prozess stellt sicher,
dass Software zu ihrer Spezifikation konform, also richtig gebaut ist
oder dass sie die Anforderungen in der Praxis erfüllt und richtig
funktioniert.

Der nächste Future SOC Lab Day wird vom HPI am 4. November
veranstaltet. Es werde sehr spannend werden, die im nächsten Halbjahr
erzielten Forschungsergebnisse kennenzulernen, versprach
HPI-Professor Andreas Polze zum Ende der Tagung.

Pressekontakt:
HPI: presse@hpi.de
Hans-Joachim Allgaier, M.A., Pressesprecher, Tel.: 0331 55 09-119,
Mobil: 0179 267 54 66, Mail: allgaier@hpi.de;

Rosina Geiger, Tel.: 0331 55 09-175, Mail: rosina.geiger@hpi.de.

Leave a Reply

Your email address will not be published.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.