Dynatrace und JKU knüpfen Bande: "Dürfen keine Geistesblitze übersehen"
Der Softwarekonzern mit Linzer Wurzeln gründet mit der Universität ein Forschungslabor.
Brücken zwischen Wirtschaft und Wissenschaft zu bauen, fällt bei vielen Unternehmen und Forschungseinrichtungen auf fruchtbaren Boden. Das gilt nun auch für den aus Linz stammenden Softwarekonzern Dynatrace und die Johannes Kepler Universität. Das Unternehmen und die Universität gründen ein gemeinsames Forschungslabor am Linz Institute of Technology (LIT). Ziel der Zusammenarbeit ist es, die Grundlagenforschung bei intelligenter Software mit angewandter Forschung enger zu verschränken.
In der Herangehensweise haben beide Seiten rasch zu einem gemeinsamen Nenner gefunden. Dynatrace profitiere vom "Kontakt zur akademischen Elite, ohne ökonomische Zwänge und Termindruck zu verfolgen", sagt Alois Reitbauer, der die vor einem Jahr ins Leben gerufene Forschungseinheit von Dynatrace leitet. "Wir können es uns nicht leisten, Geistesblitze zu übersehen, die möglicherweise einen Innovationsschub oder gar eine Disruption auslösen", sagt Reitbauer.
Die JKU wiederum bringe "Forschungsexzellenz im Bereich von IT-Sicherheit, Industrie 4.0, künstlicher Intelligenz und Big Data" ein, wie es Vizerektor Christopher Lindinger formuliert. Das neu gegründete Forschungslabor sei beispielgebend als Schnittstelle zwischen Wissenschaft und Wirtschaft.
Dynatrace, 2005 von drei JKU-Absolventen gegründet, seither auf 2800 Mitarbeiter angewachsen und darauf spezialisiert, IT-Systeme mit künstlicher Intelligenz fehlerfrei zu halten, sieht die Grundlagenforschung an der JKU als "ein Radarsystem für kommende Entwicklungen", sagt Reitbauer.
Die aus sieben Mitarbeitern bestehende Dynatrace-Forschungsabteilung wird dafür am JKU-Campus Quartier beziehen. Binnen eines Jahres soll sich die Zahl der Beschäftigten verdoppeln. Leiten wird das Labor Andreas Hametner, der an der JKU das Diplomstudium Informatik absolviert hat. Zu den Forschungsschwerpunkten gehören: verteilte Datensysteme, Analysen in Echtzeit, Datenwissenschaft und Cloud-Sicherheit.
All diesen Bereichen liege zugrunde, die enormen Datenmengen des täglichen Lebens beherrschbar zu machen, erklärt Reitbauer. Er rechnet damit, dass sich die Datenmengen in den nächsten Jahren um den Faktor 100.000 oder sogar um eine Million erhöhen könnten. Mit aktuellen Instrumenten und Methoden könne man das nicht mehr stemmen: "Wir sollten darauf vorbereitet sein, dass wir Speicherkapazitäten bald nicht mehr in Tera-, sondern in Peta- oder Exabyte angeben."
Komplexität und mehr Daten
Während der Coronakrise sei der digitale Komfort beim Einkaufen, Bezahlen, Parken oder bei Bankgeschäften weiter erhöht worden, sagt Reitbauer. Diese Spirale aus Komplexität und wachsender Datenmenge aufzuzeigen und zu analysieren, werde zum zentralen Thema im Labor. Leiter Andreas Hametner sagt: "Wir können hier spannende Forschungsansätze verfolgen und unterstützen, deren Potenzial sich heutzutage noch nicht abschätzen lässt."