Künstliche Intelligenz (KI) wird in Unternehmen heute immer intensiver eingesetzt. In Deutschland ergab eine von GitHub durchgeführte Umfrage unter 2.000 Fachleuten, dass der Einsatz von KI in der Softwareentwicklung erheblich zugenommen hat. Dieser Anstieg ist vor allem darauf zurückzuführen, dass die Entwickler KI als ein wertvolles Instrument zur Verbesserung der Softwaresicherheit, der Codequalität und der Geschwindigkeit bei der Einführung neuer Programmiersprachen anerkennen.

Optimierung von Kosten und Verbrauch

Es ist allgemein bekannt, dass für die Integration von KI eine beträchtliche Rechenleistung benötigt wird. Um diese Leistung zu gewährleisten, reicht es nicht aus, sich nur auf CPUs (Central Processing Units) zu verlassen. Stattdessen müssen GPUs (Graphic Processing Units) eingesetzt werden, damit die erforderliche Leistung erreicht werden kann.

GPUs können vor Ort eingesetzt werden, was allerdings die Installation von Ressourcen und die Verfügbarkeit einer geeigneten Infrastruktur erforderlich macht. Die Implementierungs- und Wartungskosten können, auch im Hinblick auf die häufige Notwendigkeit von GPU-Upgrades, recht hoch sein. Im Gegensatz dazu stellt die Verwendung von GPUs in der Cloud eine ebenso effiziente Alternative dar, die jedoch kostengünstiger ist.

Die Nutzung von GPU-Ressourcen in der Cloud, beispielsweise für die Entwicklung von KI-Code, sorgt für Flexibilität und eine Optimierung der Kosten. Besonders vorteilhaft ist dies für Projekte im Bereich der künstlichen Intelligenz (KI) und des maschinellen Lernens (ML), bei denen sich häufig Spitzenwerte bei der Auslastung von Computerressourcen mit Zeiten der Inaktivität abwechseln. Für solche Projekte ist eine ständige Verfügbarkeit von Ressourcen nicht zwingend notwendig. Sie erfordern eher einen intensiven Zugang zu bestimmten Zeiten, mit Perioden, in denen die Ressourcen überhaupt nicht genutzt werden.

Die Cloud-Technologie ermöglicht dementsprechend Zugang zu einer flexiblen Zuweisung dieser Ressourcen und schafft so die Voraussetzung für Kostenoptimierung und Energieeinsparungen. Gleichzeitig steht dabei auch die ökologische Nachhaltigkeit im Vordergrund.

Integration und Skalierbarkeit

Ein weiterer Vorteil der GPU-Cloud-Dienste besteht darin, dass sie problemlos mit anderen Technologien integriert werden können. Es ist nicht nur möglich, die GPU-Server-Ressourcen in der Cloud zu erweitern, z. B. durch die Erweiterung des Festplattenspeichers oder die Aktivierung beliebiger Appliances durch den GPU-Anbieter selbst, sondern diese GPU-Server können auch in bereits betriebene Supercomputing-Infrastrukturen integriert werden, unabhängig davon, ob diese vor Ort oder in der Cloud verwaltet werden.

Wir nehmen konkret die Situation in den Blick, in der Entwicklungsteams bereits Zugang zu Diensten haben, die Grafikkarten mit ausreichender Leistung anbieten, aber ihre Rechenkapazität weiter erhöhen müssen. Dieses Szenario sieht vor, dass die Leistung erweitert werden muss, ohne dass weitere freie Hardware-Ressourcen oder ein zusätzliches Investitionsbudget zur Verfügung stehen.

Bei diesen Ausgangsvoraussetzungen kann die Containertechnologie für Infrastrukturen, die auf KI ausgerichtet sind, besonders effektiv sein. Sie schafft die Möglichkeit, die Rechenleistung dynamisch und bedarfsgerecht zu erweitern und die Anzahl der Cluster je nach Anforderung zu erhöhen.

Serverless GPU ist die fortschrittliche Cloud-Lösung von Seeweb (verfügbar unter https://www.seeweb.it/en/products/serverless-gpu), einem europäischen Cloud-Anbieter der Gruppe Dominio Hosting Holding. Dieser GPU-as-a-Service ist so konzipiert, dass er sich nahtlos in jeden bestehenden GPU-Cluster integrieren lässt und die Entwicklungsteams für künstliche Intelligenz in die Lage versetzt, schnell und bedarfsgerecht zu arbeiten. Mit Serverless GPU ist es möglich, die Rechenleistung durch Hinzufügen neuer GPUs entsprechend den spezifischen Projektanforderungen problemlos zu erweitern.