Viele Unternehmen nutzen KI. Doch zwischen einzelnen 'Copilots' und einer produktionsfähigen Organisation liegt eine operative Lücke. 'AI Factory' schließt diese, doch nur, wenn Unternehmen KI nicht als Tool, sondern als Betriebsmodell verstehen.
Die 'AI Factory' ist kein weiterer Use Case, sondern ein neues Betriebsmodell für Unternehmen, die aus KI produktive Skalierung machen wollen.
KI ist in den Unternehmen angekommen. Laut Bitkom wird sie von 41 Prozent der Unternehmen in Deutschland genutzt, weitere 48 Prozent planen den Einsatz oder diskutieren den Einsatz. 77 Prozent der Unternehmen, die KI einsetzen, sagen zudem, dass sich dadurch ihre Wettbewerbsposition verbessert hat.
Die Richtung ist also klar. Offen bleibt, wie sich diese Leuchtturmerfolge in eine belastbare Produktionsstrategie übersetzen lassen; denn inzwischen verläuft genau hier die eigentliche Trennlinie: zwischen Organisationen, die KI punktuell verwenden, und solchen, die sie in ein wiederholbares Betriebsmodell überführen. Nicht zwischen Unternehmen, die KI einsetzen, und solchen, die noch zögern.
Vom Werkzeug zur Wertschöpfung
AI Factory ist grundsätzlich keine neue Bezeichnung für den nächsten Chatbot oder Copilot. Der Begriff beschreibt vielmehr den Übergang von isolierten KI-Projekten zu einer Struktur, in der KI systematisch in Prozesse, Rollen, Datenflüsse und Betriebsabläufe eingebettet wird.
Der Unterschied ist fundamental: Aus einem Werkzeug wird eine Produktionslogik.
Das ist für IT-Entscheider und Systemarchitekten entscheidend. Denn produktive KI scheitert heute nur selten daran, dass Modelle grundsätzlich nicht funktionieren. Sie krankt deutlich häufiger daran, dass Daten unstrukturiert vorliegen, Abläufe nicht standardisiert sind, Zuständigkeiten fehlen und aus einem Pilotprojekt kein skalierbarer Betrieb wird.
Vom Problem zum AI Native
Bei Synaigy, Teil der Timetoact Group, hat am Anfang der wirtschaftlicher Druck gestanden: Ein Projekt hat gedroht verloren zu gehen, weil das eigene Angebot rund 40 Prozent über dem des Wettbewerbs gelegen hat. Nicht die Qualität ist das Problem gewesen, sondern die Wirtschaftlichkeit.
Genau daraus ist eine grundsätzliche Frage entstanden, die für viele Unternehmen relevant ist:
An welchen Stellen im Delivery-Modell entstehen die größten Aufwände?
Setzen wir KI dort überhaupt mit dem größten Hebel ein?
Denn AI Native wird man nicht, indem man einem allgemeinen Standardweg folgt, sondern indem man KI gezielt in den Bereichen verankert, die für das eigene Geschäftsmodell den größten Unterschied machen.
Die Organisation wird Teil der Architektur
Die Timetoact Group hat sich daher die Fragen gestellt, wie Erkenntnisse von einem in andere Projekte ausgerollt werden können und welchen Stellenwert dabei Change-Management einnimmt. In ihrem AI Factory-Modell beschreibt sie zwei Rollen: die der „Verstärker“ und „Maker“.
Damit verbunden Funktionen, die in vielen Unternehmen bislang fehlen, werden auf diejenigen vereint, die KI-Kompetenz, Best Practices und Veränderung in die Projekte tragen, und auf jene, die Agents, Workflows und Integrationen bauen. Ergänzt wird das Konzept als wiederholbares Format durch einen KI-Vitalitätscheck pro Projekt.
Der Engpass liegt oft nicht im Coding
In vielen KI-Initiativen richtet sich der erste Blick auf die Entwicklung. Dort ist der Effekt am sichtbarsten, dort lassen sich Erfolge schnell in einem Business Case demonstrieren. Der größte Hebel liegt aber häufig nicht im Coding selbst, sondern im Zusammenwirken von Coding und den umgebenden Bereichen.
Nach eigenen, projektbezogenen Statistiken entfallen nur 35 Prozent des Aufwands auf die Entwicklung, aber 25 Prozent auf Projekt-Management, 20 Prozent auf Requirements Engineering, 12 Prozent auf Qualitäts-Management und Testing sowie 8 Prozent auf Abstimmungen. Wer also nur die Entwicklung beschleunigt, optimiert vor allem den sichtbarsten Teil des Problems, vernachlässigt aber die übrigen 65 Prozent.
Mit diesen 65 Prozent aber verschiebt sich die wirtschaftliche Logik von KI. Der größte Nutzen entsteht nicht allein dort, wo Code schneller geschrieben wird.
Timetoact Group lädt zur Insights Conference 2026
Momentaufnahme der Veranstaltung „Insights Conference 2025“
(Bild: Rimetoact Group)
Unter dem Motto „Prompt the Future – Together!“ diskutiert die „Insights Conference 2026“der Timetoact Group mit rund 500 CIOs, IT-Strategen und Digitalexperten zentrale Hebel moderner IT: Agentic AI, souveräne Cloud-Infrastrukturen und smarte Strategien zur Kosten- und Risikominimierung. DataCenter-Insider ist Medienpartner.
Der Autor dieses Gastbeitrags Wolfgang Seyppel, Chief Delivery Officer bei Synaigy, spricht dort über „AI Factory – Unternehmen auf das nächste Level bringen“.
Auf der Agenda stehen zudem weitere Kunden-Cases und Expertentalks, unter anderem von der Sparkasse, Hitachi, MAN Truck & Bus, Schaeffler und Lehmann&Voss. Als Keynotespeaker angekündigt sind der Tech-Experte und -Investor Philip „Pip“ Klöckner und Zukunftsforscher Dirk Herrmann.
Die Veranstaltung findet am 23. April 2026 im „Smartvillage“, Köln, statt. Hier geht es zur Anmeldung
=
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Er entsteht im Alltag: bei der Erstellung von Excel- und Powerpoint-Dokumenten sowie von Protokollen oder beim Extrahieren von Tasks, kurzum dort, wo teure, kleinteilige und wiederkehrende Routinen aus Projektsteuerung, Analyse, Abstimmung und Qualitätssicherung systematisch entlastet werden können.
Zur Realität gehören aber auch Halluzinationen, fehlerhafte Tool-Calls und verlorener Kontext, obwohl die Informationen vorhanden sind. Fortschritt bringt daher nicht ein anderes Modell, sondern eine bessere Struktur der Informationen und die richtige Datenablage.
Bottleneck ist die Informationsarchitektur
Das Nadelöhr produktiver KI ist die Informationsarchitektur: Wenn Informationen in Silos liegen, bleibt der KI-Einsatz fragmentiert.
Erst wenn Anforderungen, technische Dokumentationen und Projektwissen zusammengeschlossen, konsistent und maschinenlesbar bereitstehen, entsteht der Kontext, den produktive KI zwingend braucht. In diesem Sinne ist Infrastruktur breiter zu verstehen als reine Hardware.
Die Datenqualität und -ablage wird für Unternehmen somit zunehmend relevant. Hinterlegt beispielsweise ein Entwickler in JIRA nicht seine aufgebrachten Aufwände in einem Ticket, kann der AI Agent auch keine realistische Aufwandsberechnung erstellen.
KI skaliert dort, wo Routinen maschinenfähig werden
Gerade für einen Technologie-Dienstleister wie die Timetoact Group liegt viel Aufwand in der Abschätzung von Arbeits-Tasks und neuen Projekten. Ziel ist es, dies über KI zu steuern.
Das spart viel unbezahlten Aufwand und bringt im besten Fall noch Qualität. Besonders aufschlussreich ist daher ein entwickeltes Schätz-Tool, das historische Projektdaten nutzt, um Aufwände präziser abzuleiten. Aus einer pauschalen Acht-Tage-Schätzung wird eine datengestützte Prognose von etwa 7,3 Tagen. In solchen Mikro-Entscheidungen zeigt sich die Logik einer AI Factory: weniger Bauchgefühl, mehr Muster, weniger Reibung, mehr Reproduzierbarkeit.
Für weitere kleine und teure Routinen hat das Unternehmen einen Controlling Agent gebaut, bei dem „Github“, „JIRA“, „Confluence“ und „Claude“ miteinander verbunden sind. Vorausgesetzt, alle Informationen sind gepflegt, ist es dem Projektmanager auf Knopfdruck möglich, den aktuellen Status entsprechend dem Projektfortschritt und Budgetverbrauch zu lesen.
Was bisher einen großen manuellen Aufwand erforderte, ist nun schnell machbar. Ein Change-Request-Agent, der Vertrags- und Pflichtenheftlogik in Sekunden prüft, sowie eine Risiko-Analyse mit „Copilot“, die fehlende Deadlines oder schwache Beschlüsse sichtbar macht, sind ebenfalls möglich.
Hybridität und Governance gehören in den Kern
Für viele Unternehmen wird diese Produktionsfähigkeit durch Tools in hybriden Architekturen entstehen. Cloud beschleunigt, kontrollierte Umgebungen schützen. Vieles lässt sich on-premises abbilden, Cloud-basiert geht das aber oft schneller.
Zugleich gibt es bei Kundendaten, Datenschutz und Compliance gute Gründe, in kontrollierten Umgebungen zu bleiben. Damit wird die AI Factory auch zur Betriebsfrage moderner Hybrid-IT: Welche Daten dürfen wo verarbeitet werden, wie werden Integrationen kontrolliert und wie funktioniert Governance über Systemgrenzen hinweg?
*Der Autor Wolfgang Seyppel ist Chief Delivery Officer und Prokurist bei Synaigy . Er sagt: Am Ende steht deshalb kein Appell, mehr KI-Tools einzuführen. Der eigentliche Sprung heißt, Prozesse nicht nur zu beschleunigen, sondern teilweise zu ersetzen. Genau das ist die AI Factory: kein weiterer Use Case, sondern ein neues Betriebsmodell für Unternehmen, die aus KI produktive Skalierung machen wollen.