Zum Inhalt

Interview „Wir haben nur diesen einen Planeten“

  • Free Access
  • 01.12.2025
  • Titelthema
Erschienen in:

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …
download
DOWNLOAD
print
DRUCKEN
insite
SUCHEN
Im Titelinterview erklärt Florian Sippel, Chief Operations Officer beim IT-Service-Provider noris network AG, warum der Wunsch nach digitaler Souveränität, Nachhaltigkeitsregu-larien und vor allem die extremen Technologiesprünge in der Künstlichen Intelligenz das Geschäft derzeit richtig spannend machen.
Florian Sippel
Alter: 43 Jahre
Familienstand: verheiratet, zwei Kinder
Derzeitige Position: Executive Board, Chief Operations Officer (COO)
Interessen: Nachhaltigkeit, Architektur, Heimautomatisierung, Wassersport und Skifahren
© noris network AG
Bild vergrößern
Die noris network AG hat sich auf Betreiber kritischer Infrastrukturen (Kritis) und Unternehmen mit besonders missionskritischen Applikationen spezialisiert. Dazu gehört ab nächstem Jahr etwa auch das Bayerische Landesamt für Steuern, das hoheitlich für den Betrieb der Elster-Plattform zuständig ist und einen Fullservice Colocation bei dem Anbieter bezieht. Man kann sich leicht ausmalen, welche Folgen es hätte, wenn eine solche Plattform ausfällt, über die Deutschland seine Steuergelder einnimmt. Aus Sicht von Florian Sippel liegt für viele Unternehmen der Fokus jetzt darauf, dass Anwendungen in Deutschland reibungslos laufen – ohne dass sich ausländische Regierungen Zugriff verschaffen können. Der COO spricht auch darüber, warum sich Rechenzentren heute nur noch modular planen lassen und wie nachhaltiges Wirtschaften am besten gelingt.
Herr Sippel, welche Themen brennen Ihren Kunden derzeit am meisten unter den Nägeln?
Der größte Schmerzpunkt ist ganz klar das Thema „Resilienz“. In der aktuellen weltpolitischen Lage denken viele Unternehmen verstärkt über Souveränität und Unabhängigkeit von ausländischen In-frastrukturen nach – auch diejenigen, für die das bisher kein Thema war. Mittlerweile schaut sicherlich jeder IT-Entscheider, wie man aufgestellt ist, wenn die Lage noch turbulenter wird – und wie sich erreichen lässt, dass es nicht sofort einen wirtschaftlichen Einfluss auf das eigene Unternehmen hat, wenn etwa Cloud-Anbieter ausfallen. Das andere wichtige Thema ist das Energieeffizienzgesetz. Hier stellt sich für viele Unternehmen die Frage, ob es energetisch noch vertretbar ist, wie sie ihre IT-Systeme betreiben.
Wodurch heben sich Ihre Rechenzentren und Ihre Strategie vom Markt ab? Was sind die besonderen Herausforderungen?
Ein kurzer Blick zurück ist hilfreich: Das Unternehmen wurde 1993 von drei Informatikstudenten der Universität Erlangen gegründet – noch vor dem Zeitalter des World Wide Web. Die Idee bestand darin, dass die Text- und Datenkommunikation über das Netz etwa mit Usenet und FTP viel Nutzen nicht nur im universitären Umfeld, sondern auch in der Wirtschaft bringen könnte. Daraus entstand das Angebot von Internetdienstleistungen als Internet-Service-Provider. In der Dotcom-Zeit ist das Unternehmen stark gewachsen. In 2002 waren wir Geburtshelfer des ersten Online-Kredits, des Easycredit, und zuvor für die Consorsbank des ersten Online-Aktienhandels in Deutschland. Auf dieser Vertrauensbasis wurde auf Wunsch der Kunden das Angebot über Website- und E-Mail-Infrastruktur hinaus immer weiter ausgebaut, um das volle Spektrum von IT-Aufgaben an uns auslagern zu können. Wir standen dann selbst vor der Herausforderung, sichere und zuverlässige Rechenzentrumskapazitäten für unsere Services zu schaffen, und haben uns intensiv mit der dafür nötigen Technik befasst.
© noris network AG
Bild vergrößern
Was waren dabei die größten Herausforderungen?
Gerade bei Stromversorgung und Kühlung haben wir schon Anfang der 2000er-Jahre diese Erfahrung gemacht: Die Menschen, die Rechenzentren planen, bauen und betreiben, kommen meist aus der klassischen Gebäudetechnik. Sie haben aber weniger Kenntnisse von IT-Infrastrukturen. So haben wir vor gut 20 Jahren angefangen, uns das ganze Bauwissen selbst anzueignen, und haben da auch viel Lehrgeld hineingesteckt. Wir sind praktisch Informatiker, die das Bauen gelernt haben, um Rechenzentren so zu gestalten, dass sie der IT möglichst dienlich sind. Das war vielleicht auch der größte Differenzierungsfaktor zu unseren Marktbegleitern. Viele von ihnen kommen aus der Immobilienbranche, haben den Schwerpunkt auf Facility Management und bauen Rechenzentren in erster Linie, weil es dort den höchsten Mietzins gibt. Zwar gleicht sich das inzwischen im Markt stärker an, gerade bei Branchengrößen wie NTT oder Equinix. Genau diese Ausrichtung versetzt uns jetzt allerdings in die Lage, die neuen Workloads und die Leistungsverdichtung rund um KI-Hardware besser zu adressieren als andere.
Durch Künstliche Intelligenz (KI) und jetzt insbesondere auch generative KI steigt der Rechenbedarf noch einmal enorm an. Was ist hier für Konzeption und Design bestehender und neuer Rechenzentren wichtig?
Wir verfügen über ein eigenes Inhouse-Ingenieurbüro mit Bauvorlageberechtigten, Bauingenieuren, Architekten, Versorgungstechnikern und Elektrotechnikern. Wir machen das ganze Engineering komplett selbst und da war für uns schon früh abzusehen: Die Prämissen für künftige Leistungsreserven, die wir vor sechs, sieben Jahren angesetzt haben, sind innerhalb von einer Computergeneration von Graphics Processing Unit (GPU) und Central Processing Unit (CPU) mehr als aufgebraucht. Der atemberaubende technologische Fortschritt ist die größte Herausforderung für Rechenzentren – oft ist Hardware im Prinzip schon nach zwei Jahren überholt. Die neuere GPU-, Netzwerk- und Storage-Infrastruktur ist dann so viel energieeffizienter, dass sich die Investition tatsächlich rechnet. Modulare Rechenzentren sind hier eine wichtige Antwort. Wir haben deshalb vor zwei Jahren die Modulbaufirma InnovIT mit einem 120-köpfigen Team übernommen. Damit setzen wir unser Wissen aus dem Rechenzentrumsbau verstärkt in Produkte um. Die Marktsituation ist derzeit sehr spannend und ich glaube, als Gewinner werden die Unternehmen hervorgehen, die einen möglichst hohen Integrationsanteil haben – also die Datacenter-Module entwickeln, bauen und auf Basis der eigenen IT-Erfahrung betreiben.
Warum ist das aus Ihrer Sicht – vielleicht gerade mit Blick auf die für KI typischen High-Density-Racks – so wichtig?
Es ist heute praktisch unmöglich, ein Rechenzentrum für die KI-Infrastruktur in drei Jahren zu planen und auszulegen – weil man schlicht nicht weiß, wie weit die Leistungsverdichtung noch zunimmt. Neben Strom und Kühlung geht es auch um Zugriffsschutz, den Schutz vor Elementar-einflüssen und Naturkatastrophen, gleichzeitig muss ein KI-System möglichst kompakt beieinanderstehen. Das ist der Grund, warum die Leistungsverdichtung immer weiter zunimmt. Die Signallaufzeiten und damit die Abstände zwischen den einzelnen GPUs sollen physisch so gering wie möglich sein und deswegen müssen sie immer weiter aneinanderrutschen. In der nächsten Generation von AI-PODS (Point of Delivery) erreichen wir bereits die Megawattgrenze pro Rack. Insbesondere dort, wo es auf Geschwindigkeit ankommt, reicht Umrüsten nicht aus. Stattdessen ist es sinnvoll, sich ein fertiges Modul hinzustellen.
Wie sieht ein modulares Rechenzentrum für Artificial Intelligence (AI) aus und was kann es heute leisten?
Man kann es sich ein bisschen vorstellen wie eine Fertiggarage. Es ist im Grunde ein mit Stahlskelettbau hergestellter Container, in dem sich sechs AI-Racks mit je 100 Kilowatt befinden. Damit steht ein Rechenzentrumsmodul mit 600 Kilowatt nur für die GPU-Systeme zur Verfügung, das sich auf einem Lkw transportieren lässt, auf zwei Streifenfundamente gestellt wird und direkt betriebsbereit ist. Das Modul wurde im Werk bereits mit IT-Hardware entsprechend bestückt und getestet, so kommt es relativ schnell in einen stabilen Betriebszustand. Es führt ein Strom- und ein Glasfaserkabel hinein, ebenso die Rohre für das Rückkühlregister und die Freikühlung. Hier sprechen wir von der Blackwell-Generation bei Nvidia. Bei der nächsten Generation Rubin sind wir im Standard-Rack schon bei etwas mehr als 200 Kilowatt, im Rubin-Ultra-Rack bei einem Megawatt, also bei 1.000 Kilowatt pro Serverschrank.
Insgesamt klingt es sowohl für die Unternehmen als auch für IT-Service-Provider nach einer Situation, in der man für seine Planung eine Glaskugel bräuchte, oder?
Ja, diese Entwicklungsgeschwindigkeit verändert alles. Es ist praktisch nicht möglich, ein Gebäude zu designen, das wirtschaftlich für 20 Kilowatt in einem Standard-Colocation-Rack funktioniert und für 1000 Kilowatt in einem AI-Rack. Aus meiner Sicht ist das Interessanteste an der momentanen Marktsituation, dass derzeit nicht klar ist: Wo geht die Reise hin und wie sehen die Geschäftsmodelle aus? Es gibt derzeit ganz viele Unbekannte. Bei einem so leistungsfähigen Rack mit entsprechend hohen Energieverbräuchen müssen durch die Modelle, die darauf trainiert und betrieben werden, auch entsprechend hohe Beträge erwirtschaftet werden. Die Situation hat Ähnlichkeiten mit der Entwicklung der Dampfmaschine, als die Nutzungsszenarien ebenfalls noch nicht klar waren. Das ist auch ein Grund, warum wir jetzt gerade in Nürnberg ein komplett modulares Rechenzentrum bauen: Wir wissen, dass wir 30 Megawatt Leistung auf dem Grundstück haben, aber wir wissen heute noch nicht, wie viel der Fläche wir dafür nutzen und was wir damit tun.
Was verändert sich durch die Dezentralisierung in diesem sogenannten Cloud-to-Edge-Kontinuum? Wo verläuft dann die Grenze zwischen Colocation und Edge? Wie werden solche Gesamtkonzepte überhaupt von den Unternehmen gemanagt?
Im Grunde gestaltet sich das genauso wie ein Multi-Cloud-Management. Es gibt beispielsweise Industriekunden, die am Produktionsstandort Edge-Recheneinheiten betreiben, um speicherprogrammierbare Steuerungen (SPS) zu virtualisieren, oder die ein Edge-AI-Rechenzentrum betreiben, weil sie so viele Bilddaten mit Künstlicher Intelligenz bearbeiten, dass diese Mengen sich nicht mehr transportieren lassen. Dennoch werden solche Edge Stacks ebenso verwendet, als würden sie in einem Rechenzentrum stehen. Es wirkt für den Kunden wie eine weitere Region in seiner Cloud-Orchestrierung. Das bietet neue Möglichkeiten, flexibler zu entscheiden, wo eine Anwendung laufen soll – aber Deployment, Application Lifecycle und Cloud Lifecycle funktionieren genauso wie an allen Standorten. Hier hat sich gerade in den letzten zwei, drei Jahren sehr viel getan, damit sich diese Herausforderungen bewältigen lassen, ohne dass der Verwaltungsaufwand untragbar wird.
Wenn Unternehmen ihr Wissensreservoir in Generative KI und Agentensysteme einbringen, geht es um wertvolle Daten. Einige wollen sie aus diesem Grund nicht mehr den großen Cloud-Anbietern überlassen. Wie lassen sich diese Herausforderungen in Ihren Rechenzentren abbilden?
Wir führen zu diesem Thema momentan mehrere Gespräche die Woche. Oft geht es gerade bei generativer KI mit Large Language Models (LLMs) um Daten, in denen ein großer Teil des Intellectual Property steckt. Für viele Unternehmen ist es zunehmend ausgeschlossen, diese Daten US- oder chinesischen Unternehmen zugänglich zu machen. Hier kommt daher infrage, die KI-Infrastruktur in der Colocation selbst zu betreiben oder als GPU as a Service in unserem Cloud Stack zu nutzen. Die Nachfrage ist so hoch, dass wir Anfang nächsten Jahres ein standardisiertes Produkt namens LLM as a Service auf den deutschen Markt bringen – das auch strengste deutsche Compliance-Anforderungen für die kritische Infrastruktur oder DORA im Finanzumfeld erfüllt. Diese Infrastruktur in Deutschland verfügbar zu machen, ist nicht ganz günstig, weil Inferenz – also Vorhersagen mit einem trainierten KI-Modell – bei großen Modellen eben sehr energieintensiv ist.
Was bedeutet die zunehmende KI-Nutzung für die bisherigen Rechenzentrumsstrategien der Unternehmen? Lassen sich bestehende Datacenter umrüsten?
Je besser die Use Cases für KI werden, desto lohnenswerter werden auch Investitionen in deren Nutzung. Schon jetzt erhöhen LLMs die Produktivität der menschlichen Kollegen – bei uns beispielsweise rund um Marketing und Informationsverarbeitung. Für solche Aufgaben lassen sich zwar theoretisch viele bestehende Rechenzentren als Inferenz-Cluster umrüsten und ertüchtigen – das funktioniert allerdings weder energieeffizient noch wirtschaftlich. Im nächsten Schritt geht es um KI-Agenten, die ganze Aufgabenbereiche übernehmen, autonom abarbeiten und gegebenenfalls ihr Ergebnis zur Freigabe vorlegen. Damit wird der Leistungsbedarf immer weiter steigen. Hier kommt man kaum an einem Neubau vorbei – oder an modularen Konzepten.
Da kommen wir dann zum zweiten Pain Point: die Auswirkungen, die das Energieeffizienzgesetz darauf hat, wie Unternehmen an ihre Datacenter-Strategie herangehen, und ob es überhaupt zu schaffen ist, die neuen Nachhaltigkeitsregularien zu erfüllen.
Alle Rechenzentren, die wir in den vergangenen 15 Jahren gebaut haben, übererfüllen bereits das Energieeffizienzgesetz in der letzten Ausbaustufe mit einer maximalen Power Usage Effectiveness (PUE) von 1,2. Für uns ist es vom Engineering-Standpunkt her zentral, die ressourcenschonendste Lösung zu finden, auch wenn sich das vielleicht erst nach zehn Jahren amortisiert – denn wir haben nur diesen einen Planeten. Das ist für uns möglich, weil das ganze Unternehmen in den Händen der drei Gründer ist und nicht wie bei börsennotierten Unternehmen quartalsgetrieben geführt werden muss. Für Unternehmen wird es zunehmend schwieriger, diese Nachhaltigkeitsanforderungen selbst zu erfüllen.
Welche Strategien setzen Sie ein, um möglichst klimaneutral zu arbeiten?
Wir haben beispielsweise das Konzept „Cloud on Top“ entwickelt, um die Abwärme in der doppelten Decke unseres Rechenzentrums in Nürnberg zur Kühlung unserer Cloud-Systeme zu nutzen. Dabei wird der interne Luftstrom ein zweites Mal für spezielle Cloud-Hardware verwendet, die auf wärmere Umgebungsbedingungen ausgelegt ist. Im Colocation-Bereich können zum Beispiel Kunden, die auch eigene KI-Dienstleistungen anbieten, auf unsere Erfahrungen und Konzepte zurückgreifen. In den neuen Rechenzentren erreichen wir mit unserem patentierten Ansatz „Combined Energy and Cooling Cells (CECC)“ weniger Energieverbrauch bei Kühlung und Betrieb. Auch Re-Use und Kreislaufwirtschaft sind wichtig: Seit den letzten vier Rechenzentren bauen wir Betonwände, die nicht gestrichen werden. Bei einem Rückbau lässt sich sehr gut sortenreines Betonrecycling als Baumaterial wiederverwenden. Das sind äußerst langfristig ausgelegte Nachhaltigkeitsmaßnahmen. Das optimale Zusammenspiel aus der Rechenzentrumsgebäudetechnik mit den IT-Komponenten ist mit Blick auf Energieeffizienz entscheidend: Wenn sowohl die IT-Systeme als auch der Gebäudebetrieb in einer Hand liegen, ist das Potenzial deutlich höher.
© noris network AG
Bild vergrößern
Welche Rolle spielt Liquid Cooling, also die Kühlung von Server-Racks mit Flüssigkeit statt wie bisher üblich mit Luft?
Schon allein aufgrund der immer höheren Leistungsaufnahme pro Rack in den aktuellen und kommenden GPU-Generationen kommt man nicht um Flüssigkeitskühlung herum: Das ist schon bei 100 Kilowatt je Rack in Luft einfach nicht mehr möglich. Es wird aber zugleich zu mehr Effizienz führen, wenn für den Wärmeabtransport ein flüssiges Medium gewählt wird, das eine bessere Wärmeleitfähigkeit hat. In diesem Bereich investieren wir sehr viel ins Engineering, denn eine GPU oder eine CPU kann ohne Probleme im Kern 70 Grad warm werden. Sie lassen sich mit 40 Grad warmem Wasser das ganze Jahr über frei kühlen. Nach der Kühlung ist das Wasser 55 Grad warm und die Abwärme hat damit noch genügend Energie, um etwa zum Heizen von Gebäuden, zur Warmwasserbereitung oder zur Einspeisung in Fernwärmenetze weiterverwendet zu werden. Damit können auch ganz einfach konventionelle Gebäude beheizt werden, ohne dass es eine Wärmepumpe braucht – bei der luftbasierten Kühltechnologie entsteht 30 Grad warmes Wasser und man kommt bei der Weiterverwendung nicht ohne Großwärmepumpen aus.
Sie hatten eingangs gesagt, dass die digitale Souveränität heute einen ganz neuen Stellenwert bekommen hat. Was bedeutet das in Bezug auf die großen Cloud- Anbieter?
Es ist nachweislich so, dass solche Konstrukte wie eine europäische Cloud von US-amerikanischen Anbietern nicht greifen und halten, weil die Firmen etwa mit dem Cloud Act rechtlich in den USA dazu gezwungen werden können, die Daten herauszugeben – auch wenn die Services in Europa erbracht werden. Erst vor Kurzem hat etwa das Innenministerium von Baden-Württemberg angegeben, dass auch bei der Lösung eines deutschen Anbieters, die Microsoft Azure und Microsoft 365 nutzt, der Cloud-Anbieter auf Anweisung der US-Regierung gezwungen sein könnte, Daten abzuziehen. Das ist das große Problem, vor dem nun viele stehen.
Wie kann die Lösung dafür aussehen?
Ein Beispiel: Vor drei Jahren haben wir angefangen, uns mit Servicenow zu beschäftigen. Das ist eine Cloud-Plattform für die digitale Transformation unter anderem für IT-Service-Management (ITSM), Ticket- und Incident-Management, aber auch Security- und Risikomanagement. Diese Plattform betreiben wir nun lizenzbasiert On-Premises in eigener Hoheit in Deutschland. Wir laden Updates herunter und installieren sie, der US-Hersteller hat keine Möglichkeit, an die Daten zu kommen. Auch für unsere Kunden bieten wir Servicenow in unseren Rechenzentren komplett souverän an, einschließlich passender lokaler KI-Erweiterung.
Welche Bedeutung kann generative KI für das IT-Service-Management entfalten?
Aus unserer Sicht liegt ein erhebliches Potenzial darin, in einem bürokratisch geprägten Umfeld wie den Information-Technology-Infrastructure-Library-Betriebsprozessen (ITIL) im IT-Service-Management KI-Sprachmodelle zu nutzen. Im nächsten Jahr investieren wir dafür einen hohen sechsstelligen Betrag in GPU-Hardware, um große Modelle dafür laufen zu lassen und Künstliche Intelligenz so als Hebel zu nutzen, mit dem sich sowohl die Produktivität steigern als auch einige Prozesse und Tasks komplett automatisieren lassen. Der nächste Schritt ist das Thema „AIOps“, bei dem es darum geht, dass Computer andere Computer betreiben, patchen, updaten, Fehlermeldungen interpretieren und daraus Schlussfolgerungen ziehen. Obwohl das Umfeld bereits hoch reguliert und zugleich hochkritisch ist, hat AIOps dennoch Potenzial.
Wie ist denn Ihre eigene IT aufgestellt und welchen Stellenwert hat sie?
Ich würde sagen, bei uns herrscht die Devise „Drink your own Champagne“. Wir probieren an uns intensiv alles aus, was wir unseren Kunden anbieten, wie dieses Beispiel auch zeigt. Von unseren fast 700 Mitarbeitern sind über 500 IT-ler. Das hat den großen Vorteil, dass wir immer sehr schnell direktes Feedback bekommen, ob etwas gut funktioniert und ob es performant ist. Wir testen zum Beispiel unseren Schwachstellen-Scanner, der auch Exploits ausprobiert, an uns selbst. Das Gleiche gilt für unser Security-Information-and-Event-Management-System (SIEM) und die Endpoint-Security, die unsere Endgeräte sicher macht. Im Grunde sind wir selbst gewissermaßen einer unserer größten Colocation-Kunden mit unseren Cloud- und IT-Dienstleistungs-Stacks. Es ist vielleicht aber auch eine Stärke, dass die Entwicklung unserer eigenen Unternehmens-IT ganz eng vom Markt, von unserem Geschäft und von den Lösungen, die Unternehmen von uns benötigen, getrieben ist.
© noris network AG
Bild vergrößern
Welche Ziele will Ihr Unternehmen mittel- und langfristig erreichen und welche Rolle spielt die IT bei Ihrer Strategie?
Wir wollen als verlässlicher Service-Provider die erste Anlaufstelle sein, wenn es um IT in Deutschland und den Betrieb missionskritischer Applikationen geht. Dazu gehören IT-gestützte Prozesse der Kernwertschöpfung von Unternehmen, aber auch Anbieter, bei denen der IT-Prozess die Kernwertschöpfung ist, etwa bei Kernbankensystemen oder E-Commerce-Plattformen. In den vergangenen zwei Jahrzehnten sind wir konstant mit mindestens 10, manchmal auch mit über 20 Prozent gewachsen. Wir wollen auch weiterwachsen – zum einen, um von Skaleneffekten zu profitieren, zum anderen, weil der Markt für Digitalisierung und IT-Dienstleistungen gerade in unserem Segment durch die geopolitische Lage noch mal viel größer geworden ist. Vor drei Jahren war noch nicht abzusehen, dass Unternehmen sich wieder auf Deutschland fokussieren wollen – statt sich auf die großen Cloud-Anbieter zu verlassen. Daher geht unsere Wachstumsstrategie jetzt sogar noch besser auf als ursprünglich erwartet. Die IT spielt dabei für uns eine mehr als entscheidende Rolle. Es geht weg von manuellen Prozessen und unstrukturierten Daten: Dazu tragen große Sprachmodelle mit Blick auf Produktivität und Qualitätssicherung bei. Daher liegt der Fokus derzeit darauf, unsere Systeme mit Künstlicher Intelligenz weiter aufzuwerten.
download
DOWNLOAD
print
DRUCKEN
Titel
Interview
„Wir haben nur diesen einen Planeten“
Verfasst von
Daniela Hoffmann
Publikationsdatum
01.12.2025
Verlag
Springer Fachmedien Wiesbaden
Erschienen in
IT-Director / Ausgabe 11-12/2025
Print ISSN: 3005-1363
Elektronische ISSN: 3005-1371
DOI
https://doi.org/10.1007/s44380-025-0371-5
    Bildnachweise
    AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, ams.solutions GmbH/© ams.solutions GmbH, Wildix/© Wildix, arvato Systems GmbH/© arvato Systems GmbH, Ninox Software GmbH/© Ninox Software GmbH, Nagarro GmbH/© Nagarro GmbH, GWS mbH/© GWS mbH, CELONIS Labs GmbH, USU GmbH/© USU GmbH, G Data CyberDefense/© G Data CyberDefense, Vendosoft/© Vendosoft, Kumavision/© Kumavision, Noriis Network AG/© Noriis Network AG, WSW Software GmbH/© WSW Software GmbH, tts GmbH/© tts GmbH, Asseco Solutions AG/© Asseco Solutions AG, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, Ferrari electronic AG/© Ferrari electronic AG, Doxee AT GmbH/© Doxee AT GmbH , Haufe Group SE/© Haufe Group SE, NTT Data/© NTT Data