Zum Inhalt springen

IT-Qualitätsmanagement im Fokus: Was die Forschung heute weiß

24. März 2026 durch
IT-Qualitätsmanagement im Fokus: Was die Forschung heute weiß
Steinbeis-Beratungszentrum Electronic Business (SBZEB)

Durch das zunehmende Erzeugen und Verarbeiten von Daten in Unternehmen, steigt auch die Bedeutung eines professionellen Informationsmanagements – und insbesondere eines wirksamen IT-Qualitätsmanagements. 

Ein weiteres Forschungsprojekt, das unter der Leitung von Prof. Dr. Helmut Beckmann am Institut für Wirtschaftsinformatik (IWI) der Hochschule Heilbronn entstanden ist, untersucht systematisch, wie gut die Wissenschaft die verschiedenen Teilbereiche des Informationsmanagements bereits abdeckt und wo noch Lücken bestehen.

Ein Satz aus der Arbeit bringt die Ausgangslage auf den Punkt: „Die Anzahl an zu verarbeitenden Unternehmensdaten ist […] exponentiell gestiegen.“ Gleichzeitig wird deutlich: Qualitätsmanagement ist längst keine Randaufgabe mehr, sondern eine strategische Führungsdisziplin.


Warum IT-Qualitätsmanagement so wichtig ist


Informationsmanagement sorgt dafür, „dass die richtige Information zur richtigen Zeit am richtigen Ort […] zur Verfügung steht“. Damit das gelingt, müssen Daten zuverlässig, relevant, zugänglich und sicher sein. Genau hier setzt das IT-Qualitätsmanagement an: Es definiert Standards, überwacht deren Einhaltung und stellt sicher, dass Informationsprozesse im Unternehmen stabil funktionieren.

Die Forschungsarbeit untersucht 38 Themenfelder entlang des etablierten Informationsmanagement Modells von Krcmar – von Datenqualität über Prozessmanagement bis hin zu modernen Kommunikationstechnologien.


Zentrale Erkenntnisse aus der Literaturanalyse

1. Management der Informationswirtschaft

Hier geht es um Informationsqualität entlang des gesamten Lebenszyklus. Die Analyse zeigt:

  • Wenig Forschungsbedarf bei Data Availability und Data Accessibility: Daten sind verfügbar – die Herausforderung liegt eher in ihrer Verarbeitung.

  • Hohe Relevanz bei Data Traceability und Data Reliability: Technologien wie Distributed Ledger (Blockchain) werden intensiv diskutiert.

  • Kaum Forschung zur Data Suitability: Offenbar wird dieses Kriterium oft durch andere Qualitätsmerkmale mitabgedeckt.

2. Management der Informationssysteme

Dieser Bereich umfasst Datenmanagement, Prozesse, Anwendungslebenszyklus und Systemlandschaften.

  • Datenmanagement: Viele Fallstudien, aber stark kontextbezogen. Besonders die Datenmodellierung zeigt steigenden Forschungsbedarf – getrieben durch Big Data und komplexe Systemlandschaften.

  • Prozessmanagement: Prozessidentifikation und -standardisierung sind weitgehend erforscht. Neue Impulse gibt es vor allem zur Reduktion von Modellkomplexität.

  • Anwendungslebenszyklus: Bedarf besteht vor allem bei der Softwarewartung und beim Umgang mit komplexen Ablösungsprozessen.

  • Systemlandschaften: Multi Projektmanagement ist gut untersucht, zum IS Portfoliomanagement fehlen jedoch aktuelle Studien.

3. Management der Informations- und Kommunikationstechnik (IKT)

Hier wurden 140 relevante Publikationen ausgewertet.

  • Verarbeitung: Automatisierung und KI-gestützte Datenaggregation sind zentrale Zukunftsthemen – insbesondere im Kontext der „5V“ von Big Data (Volume, Variety, Velocity, Value, Veracity).

  • Speicherung: Forschung konzentriert sich auf Sicherheit, Redundanz, IoT-Datenhaltung und Blockchainbasierte Speicherlösungen.

  • Kommunikation: 5G dominiert die Diskussion. Besonders relevant ist die Frage, wie sich neue Standards auf Mensch-Maschine- und Maschine-Maschine-Kommunikation auswirken.


Wo besteht Forschungsbedarf?


Die Analyse zeigt klar: Nicht alle Bereiche sind gleich gut erforscht. Besonders relevant sind:

  • Enterprise Content Management – hier fehlen praxisnahe Studien und Erfahrungsberichte.

  • Prozess- und Datenmodellierung – steigende Datenmengen und komplexe Wertschöpfungsnetzwerke erfordern neue Ansätze.

  • Automatisierte Datenverarbeitung – insbesondere im Umgang mit Big Data Herausforderungen.

  • Prävention von Datenverlust – bisher liegt der Fokus eher auf Wiederherstellung als auf Vermeidung.


Ein weiteres Zitat aus dem Dokument unterstreicht die Bedeutung dieser Erkenntnisse: „Insgesamt wurden 341 relevante Publikationen identifiziert […] und ein Forschungsbedarf innerhalb einzelner Teilbereiche identifiziert.“


Fazit: Ein Forschungsfeld mit Dynamik – und klaren Aufgaben für die Zukunft


Das IT-Qualitätsmanagement ist ein entscheidender Erfolgsfaktor für moderne Unternehmen. Die vorliegende Analyse zeigt, dass viele Grundlagen gelegt sind – gleichzeitig aber wichtige Themen noch nicht ausreichend erforscht wurden. Besonders die zunehmende Datenkomplexität, neue Kommunikationstechnologien und der Bedarf an praxistauglichen Standards eröffnen Raum für weitere wissenschaftliche und praktische Entwicklungen.

Für Organisationen bedeutet das: Wer Informationsmanagement strategisch denkt, sollte Qualitätsmanagement nicht als Pflicht, sondern als Chance begreifen – um Daten verlässlich nutzbar zu machen, Risiken zu minimieren und digitale Wertschöpfung nachhaltig zu sichern



Die vollständige Arbeit bietet eine detaillierte Übersicht über alle untersuchten Teilbereiche und ist besonders für Fach- und Führungskräfte im Informationsmanagement empfehlenswert. Der Beitrag ist Teil des Bands 4, Forschung Informationsmanagement, der Schriftenreihe Wirtschaftsinformatik und kann kostenlos über den Shop der Steinbeis Edition als eBook heruntergeladen werden:


Zum Download