Elektroniknet Logo

Interview mit Aroosh Thillainathan

»Wir erfinden das Rechenzentrum neu«

Aroosh Thillainathan
Aroosh Thillainathan ist CEO von Northern Data.
© Northern Data

Schneller, effizienter, leistungsfähiger – so könnte man das Rechenzentrum der Zukunft beschreiben. Im Sinne der Nachhaltigkeit, sollte es außerdem möglichst mit erneuerbaren Energiequellen versorgt werden. Wie das heute schon funktioniert, zeigt Northern Data.

Gebürtig stammt Aroosh Thillainathan aus Hanau (Hessen). 2014 gründete er die Whinstone Group und leitete sie als Managing Director. Mit der Fusion von Northern Bitcoin und Whinstone im Jahr 2020 wurde er CEO der neuen Gesellschaft Northern Data.

Relevante Anbieter

Herr Thillainathan, Ihr Unternehmen ist Vorreiter bei High Performance Computing. Wie entstand Northern Data, und warum sind Sie derzeit so erfolgreich?

Das Unternehmen Northern Data wie es heute existiert, entstand Anfang 2020 aus dem Zusammenschluss zweier Gesellschaften: von Northern Bitcoin und Whinstone US. In den Zusammenschluss mündete die rund siebenjährige Vorarbeit meines Teams und mir, wobei es uns gelang, tiefes Know-how in allen Bereichen des High Performance Computings (HPC) zu generieren. Begonnen haben wir mit Bitcoin Mining. Mit der Fusion können wir ab sofort die nötige Infrastruktur zugunsten kosten- und energieeffizienter HPC-Anwendungen für jedes technische Umfeld betreiben. Hierzu zählen Blockchain, IoT, künstliche Intelligenz (KI), autonomes Fahren, Rendering – und ebenso Bitcoin Mining.

Warum kommen HPC-Kunden zu Ihnen?

Wir orientieren uns daran, die Kosten für unsere Kunden zu senken und gleichzeitig eine hohe Energieeffizienz zu gewährleisten. Hierbei verfolgen wir das Prinzip »design-to-cost«. Das heißt, wir bauen für unsere Kunden genau die HPC-Infrastruktur auf, die ihren Anforderungen entspricht. Angefangen bei den Servern, die wir Kunden-spezifisch konfigurieren, über spezifische Einstellungen der Schnelligkeit, Sicherheit und Redundanz bis hin zu Fragen der Energieversorgung, gewünschten Bandbreite und Latenz. Außerdem bieten wir unterschiedliche Pakete, die sich an individuellen Kundenvorstellungen orientieren. Wir können sowohl die Hardware für den Kunden betreiben (»Infrastructure as a Service«), als auch Aufträge temporär oder komplett für Kunden ausführen (»Plattform as a Service«). Das alles ist in der Regel kurzfristig skalierbar. Zusammengefasst könnte man sagen, wir bieten eine hohe Rechenleistung – schnell, günstig und flexibel.

Inwieweit bedienen Sie die Themen Blockchain und KI?

Wir bauen eine globale Infrastruktur für High Performance Computing auf. Bei HPC sind große Datenmengen in kurzer Zeit zu verarbeiten. Aufgrund der hohen Rechendichte entsteht hierbei sehr viel Abwärme. Beispielsweise ist das ist bei Berechnungen für die Bitcoin Blockchain der Fall, denn hierbei werden heute fast ausschließlich application-specific integrated circuit (Asic)-Chips verwendet. Ebenfalls ist das jedoch bei anderen HPC-Anwendungen rund um KI, autonomes Fahren oder wissenschaftlichen Simulationen in der Forschung der Fall, die meist auf GPUs beruhen. Die große Herausforderung besteht darin, die Anlagen effizient zu betreiben. Das betrifft sowohl deren Auslastung als auch den energie- und somit kosteneffizienten Betrieb. Entscheidend ist hierbei ein ausgeklügeltes Management der hohen Abwärmemengen.

Northern_Data_Rockdale_texas
Ein Northern-Data-Rechenzentrum in den USA.
© Northern Data

Was unterscheidet Ihre Rechenzentren von der Konkurrenz?

Wir erfinden gerade das Rechenzentrum neu, denn die Ansprüche an Rechenleistung, Hardware sowie Energiekonzepte unterliegen gerade einem massiven Wandel. Die Zukunft sind GPU-basierte Systeme. Sie sind billiger, schneller und energieeffizienter als alles Dagewesene. Hierauf basiert unsere Hardware: Sie ist kundenspezifisch und gründet auf unserer langjährigen Expertise sowie der engen Zusammenarbeit mit unseren Partnern AMD und Gigabyte. Neben den Blockchain-Anwendungen im Bereich Bitcoin Mining, richten wir unsere komplette Struktur auf GPUs aus. Hiermit wollen wir die Rechenleistung in den Bereichen Deep Learning und KI optimieren.

Außerdem wenden wir eine von uns selbst entwickelte KI bereits an, um die Server in unseren Rechenzentren zu managen. Hiermit minimieren wir sowohl die Ausfallzeiten – weil das System Störungen servergenau sofort meldet – als auch den Personaleinsatz. So erreichen wir Power Usage Effectiveness (PUE)-Werte von 1,1 und darunter. Das heißt, weit über 90 Prozent der zugeführten Energie fließen tatsächlich in die Rechenleistung, weil die KI jeden einzelnen Server so steuert, dass er immer bei optimaler Leistung arbeitet. Außerdem automatisieren wir mit ihrer Hilfe die Prozesse vom Aufbau bis hin zur Inbetriebnahme der Hardware. Weiterhin haben wir eine eigene Kühltechnik entwickelt, die im Zusammenspiel mit KI die hohe Effizienz unserer Rechenzentren ermöglicht.

Welche Rolle spielt Nachhaltigkeit in Ihrem Konzept?

Tatsächlich ist ein hundertprozentiger, regenerativer Betrieb unserer HPC-Anlagen noch nicht überall möglich – wir arbeiten jedoch daran und verbessern uns ständig. Bei unserem GPU-Cluster, das wir gerade an Standorten in Kanada, den Niederlanden und Skandinavien bauen, ist Nachhaltigkeit ein wichtiger Faktor.

Beispielsweise haben wir in Schweden gerade einen Standort übernommen, der zu 100 Prozent mit regional überschüssiger Wasserkraft versorgt wird. HPC ist ein wichtiger Motor für die Digitalisierung und somit für die Weiterentwicklung der globalen Gesellschaft mit dem Ziel, Wohlstand für alle zu schaffen. Mittel- bis langfristig ist die Entwicklung lediglich mit dem Nutzen nachhaltiger Energiequellen möglich.

Vielen Dank für das Gespräch.


Das könnte Sie auch interessieren

Verwandte Artikel

elektroniknet