Führungskräfte in allen Branchen stehen unter Druck, Generative AI aus der Experimentierphase herauszuführen und messbaren geschäftlichen Mehrwert zu schaffen. Dieser Artikel führt das Konzept des Atomic Delivery Teams als erprobtes Modell ein, um skalierbare, unternehmensweit einsetzbare Generative AI Lösungen Ende zu Ende umzusetzen. Er beschreibt die zentralen Rollen, technischen Fähigkeiten und betrieblichen Prinzipien, die notwendig sind, um über Prototypen hinauszugehen und nachhaltige Wertschöpfung zu ermöglichen.
Im Kontext von Generative AI Projekten entsteht Erfolg nicht aus der Technologie selbst, sondern durch das Team, das das AI System baut. Daher betrachten wir die Rollen und Kompetenzen, die ein Atomic Delivery Team benötigt, und zeigen auf, wie sich diese Anforderungen weiterentwickeln, wenn man von klassischen GenAI Systemen hin zu komplexeren Agentic AI Architekturen geht.
Was ist ein Atomic Delivery Team?
Boyan Angelov führt in seinem Buch Elements of Data Strategy das Konzept des Atomic Teams ein. Es beschreibt die kleinste funktionale Einheit aus Rollen, die notwendig ist, um ein vollständiges Datenprojekt durchzuführen.
Wir erweitern dieses Konzept für Generative AI Projekte. Ein Atomic Delivery Team ist ein funktionsübergreifendes, eigenständiges Team, das alle Fähigkeiten vereint, die nötig sind, um ein abgegrenztes, wertstiftendes AI Produkt oder einen AI Service Ende zu Ende zu liefern.
Zentrale Rollen in einem Atomic Delivery Team für Generative AI Projekte
Bei HMS identifizieren wir typischerweise die folgenden Kernrollen in unseren GenAI Projekten. Jede dieser Rollen ist in der Regel im Atomic Delivery Team vertreten.
AI Architect: Skalierbare, unternehmensfähige AI Systeme gestalten
AI Architect – Definiert die AI Systemarchitektur, stellt Skalierbarkeit und Qualität sicher und führt frühe Prototypen.
Warum diese Rolle entscheidend ist:
- Ein aktueller MIT Bericht zeigt, dass die meisten GenAI Projekte scheitern. Hauptgründe sind instabile Workflows, fehlerhafte Implementierung, mangelnde Skalierbarkeit und schlechte Integration in bestehende IT Systeme.
- Erfolgreiche GenAI Projekte benötigen deshalb architektonische Weitsicht. Die Rolle verlangt nicht nur exzellente AI Expertise, sondern auch Erfahrung in Cloudinfrastruktur, Software und Codequalität, Data Engineering, Requirements Engineering und User Adoption.
- Ein Beispiel ist unser erstes GenAI Projekt aus dem Frühjahr 2023, das bis heute produktiv und skalierbar läuft. Dass es kontinuierlich neue Funktionen, Modellupdates und Systemintegrationen aufnehmen kann, liegt an der starken Architektur, die zu Beginn geschaffen wurde.
AI Engineer: Zuverlässige GenAI Workflows und Modellorchestrierung umsetzen
AI Engineer – Implementiert das System durch die Kombination aus Prompt Engineering, Modellorchestrierung und Datenintegration.
- Die ausführende Kraft des Projekts und verantwortlich für die technische Umsetzung der AI Workflows.
- Starke Entwicklungsfähigkeiten sind unverzichtbar, um Architektur sauber in hochwertigen Code zu übersetzen, technische Schulden zu vermeiden und das Schicksal vieler gescheiterter GenAI Projekte zu umgehen.
AI Ops oder Cloud Engineer: AI Systeme produktiv betreiben und skalieren
Cloud oder AI Ops Engineer – Baut die Cloudinfrastruktur und CI/CD Pipelines auf und stellt sicher, dass das System performant und skalierbar betrieben wird.
Da AI Systeme üblicherweise in der Cloud laufen, umfasst die Rolle unter anderem:
- Verwaltung von Modellendpunkten wie Updates, Kosten und Performance
- Pflege der unterstützenden Infrastruktur wie Vektorspeicher oder UI Bausteine
- Automatisierung von Deployments und Development Workflows
Frontend Engineer: Nutzerakzeptanz durch gute UX sicherstellen
Frontend Engineer – Entwickelt intuitive Benutzeroberflächen und integriert AI Funktionen in Geschäftsapplikationen.
- Ein wesentlicher Unterschied zu klassischen ML Projekten ist, dass GenAI Anwendungen deutlich häufiger direkte Benutzerinteraktionen und UI Komponenten brauchen.
- MVPs lassen sich zwar oft durch AI Engineers mit Tools wie Streamlit, Chainlit oder Gradio realisieren. Mit wachsender Komplexität und steigenden UX Anforderungen sind jedoch spezialisierte Frontend Technologien und Expertise notwendig.
- Obwohl Kunden manchmal zögern, Frontend Entwickler einzuplanen, sehen wir regelmäßig, dass eine gute Nutzererfahrung größeren Mehrwert schafft als kleine Backend Optimierungen.
Wie funktionsübergreifende Teams die AI Umsetzung verbessern
Hier stellt sich die Frage:
Benötigt jedes GenAI Projekt vier einzelne Personen für diese Rollen?
Natürlich nicht.
Idealerweise besitzen Teammitglieder überlappende Kompetenzen. Beispiele:
- Ein AI Architect kann häufig auch Aufgaben eines AI Engineers übernehmen und grundlegende AIOps Verantwortung tragen. Architekturkompetenz setzt ohnehin viel praktische Erfahrung voraus.
- Ein Frontend Engineer mit breiterem Skillset kann auch in die AI Systementwicklung oder UI Infrastruktur beitragen.
- Bei kleinen Projekten wie 2 FTEs führt die Besetzung von 4 Personen mit je 0,5 FTE eher zu Reibungsverlusten. Ein vielseitiger AI Engineer ist oft wirkungsvoller, ohne dass die Rolle oberflächlich wäre. Erfolgreiche AI Engineers verstehen das Gesamtbild und schauen über die AI Komponente hinaus.
Wir sind überzeugt, dass dieser crossfunktionale Ansatz einer der Gründe für die hohe Produktionsquote unserer GenAI Projekte ist. Unsere Consultants bringen die technischen Fähigkeiten mit, um nicht nur MVPs, sondern produktionsreife Systeme zu liefern.
Je nach Projektumfang können erweiterte Rollen sinnvoll sein:
- Data Scientist – für Analysen und hybride AI Ansätze
- Data Engineer – Aufbau und Betrieb von Datenpipelines
- Software Engineer – für breitere Systemintegration
- Projektleitung – für Stakeholdermanagement und Koordination
Was ändert sich bei Agentic AI Systemen? Auswirkungen auf Architektur und Team
Für Agentic AI Systeme bleiben die oben genannten Rollen relevant, jeweils auf Ebene der einzelnen Agenten. Zusätzlich kommen weitere Anforderungen hinzu:
- Kommunikation und Koordination zwischen Agenten
- Standardisierung und API Design
- Telemetrie und Monitoring
- Ereignisgesteuerte Architekturen
- Rollenbasierte Zugriffskontrolle
- Sicherheit und Fallback Mechanismen
- Höhere Infrastrukturanforderungen
- Infrastructure as Code
Zentrale Erkenntnisse für AI Delivery in Unternehmensumgebungen
Dies erhöht die Bedeutung der Engineering und Architekturanteile der AI Engineer oder Architect Rolle sowie der Betriebsaspekte der AIOps Rolle. AI Expertise bleibt essenziell, aber die Bandbreite an möglichen Full Stack Implementierungskompetenzen oder entsprechender Erfahrung wird immer wichtiger.
Wichtiger Hinweis: Diese Beobachtungen beziehen sich auf die Rollen des AI Engineers und AI Architects in Implementierungsprojekten, nicht in der AI Forschung.