Durch das zunehmende Erzeugen und Verarbeiten von Daten in Unternehmen, steigt auch die Bedeutung eines professionellen Informationsmanagements – und insbesondere eines wirksamen IT-Qualitätsmanagements.
Ein weiteres Forschungsprojekt, das unter der Leitung von Prof. Dr. Helmut Beckmann am Institut für Wirtschaftsinformatik (IWI) der Hochschule Heilbronn entstanden ist, untersucht systematisch, wie gut die Wissenschaft die verschiedenen Teilbereiche des Informationsmanagements bereits abdeckt und wo noch Lücken bestehen.
Ein Satz aus der Arbeit bringt die Ausgangslage auf den Punkt: „Die Anzahl an zu verarbeitenden Unternehmensdaten ist […] exponentiell gestiegen.“ Gleichzeitig wird deutlich: Qualitätsmanagement ist längst keine Randaufgabe mehr, sondern eine strategische Führungsdisziplin.
Warum IT-Qualitätsmanagement so wichtig ist
Informationsmanagement
sorgt dafür, „dass die richtige Information zur richtigen Zeit am
richtigen Ort […] zur Verfügung steht“. Damit das gelingt,
müssen Daten zuverlässig, relevant, zugänglich und sicher sein.
Genau hier setzt das IT-Qualitätsmanagement an: Es definiert
Standards, überwacht deren Einhaltung und stellt sicher, dass
Informationsprozesse im Unternehmen stabil funktionieren.
Die Forschungsarbeit untersucht 38 Themenfelder entlang des etablierten Informationsmanagement Modells von Krcmar – von Datenqualität über Prozessmanagement bis hin zu modernen Kommunikationstechnologien.
Zentrale
Erkenntnisse aus der Literaturanalyse
1. Management der Informationswirtschaft
Hier geht es um Informationsqualität entlang des gesamten Lebenszyklus. Die Analyse zeigt:
Wenig Forschungsbedarf bei Data Availability und Data Accessibility: Daten sind verfügbar – die Herausforderung liegt eher in ihrer Verarbeitung.
Hohe Relevanz bei Data Traceability und Data Reliability: Technologien wie Distributed Ledger (Blockchain) werden intensiv diskutiert.
Kaum Forschung zur Data Suitability: Offenbar wird dieses Kriterium oft durch andere Qualitätsmerkmale mitabgedeckt.
2. Management der Informationssysteme
Dieser Bereich umfasst Datenmanagement, Prozesse, Anwendungslebenszyklus und Systemlandschaften.
Datenmanagement: Viele Fallstudien, aber stark kontextbezogen. Besonders die Datenmodellierung zeigt steigenden Forschungsbedarf – getrieben durch Big Data und komplexe Systemlandschaften.
Prozessmanagement: Prozessidentifikation und -standardisierung sind weitgehend erforscht. Neue Impulse gibt es vor allem zur Reduktion von Modellkomplexität.
Anwendungslebenszyklus: Bedarf besteht vor allem bei der Softwarewartung und beim Umgang mit komplexen Ablösungsprozessen.
Systemlandschaften: Multi Projektmanagement ist gut untersucht, zum IS Portfoliomanagement fehlen jedoch aktuelle Studien.
3. Management der Informations- und Kommunikationstechnik (IKT)
Hier wurden 140 relevante Publikationen ausgewertet.
Verarbeitung: Automatisierung und KI-gestützte Datenaggregation sind zentrale Zukunftsthemen – insbesondere im Kontext der „5V“ von Big Data (Volume, Variety, Velocity, Value, Veracity).
Speicherung: Forschung konzentriert sich auf Sicherheit, Redundanz, IoT-Datenhaltung und Blockchainbasierte Speicherlösungen.
Kommunikation: 5G dominiert die Diskussion. Besonders relevant ist die Frage, wie sich neue Standards auf Mensch-Maschine- und Maschine-Maschine-Kommunikation auswirken.
Wo besteht Forschungsbedarf?
Die Analyse zeigt klar: Nicht alle
Bereiche sind gleich gut erforscht. Besonders relevant sind:
Enterprise Content Management – hier fehlen praxisnahe Studien und Erfahrungsberichte.
Prozess- und Datenmodellierung – steigende Datenmengen und komplexe Wertschöpfungsnetzwerke erfordern neue Ansätze.
Automatisierte Datenverarbeitung – insbesondere im Umgang mit Big Data Herausforderungen.
Prävention von Datenverlust – bisher liegt der Fokus eher auf Wiederherstellung als auf Vermeidung.
Ein weiteres Zitat aus dem Dokument unterstreicht die Bedeutung dieser Erkenntnisse: „Insgesamt wurden 341 relevante Publikationen identifiziert […] und ein Forschungsbedarf innerhalb einzelner Teilbereiche identifiziert.“
Fazit: Ein Forschungsfeld mit Dynamik – und klaren Aufgaben für die Zukunft
Das IT-Qualitätsmanagement ist ein
entscheidender Erfolgsfaktor für moderne Unternehmen. Die
vorliegende Analyse zeigt, dass viele Grundlagen gelegt sind –
gleichzeitig aber wichtige Themen noch nicht ausreichend erforscht
wurden. Besonders die zunehmende Datenkomplexität, neue
Kommunikationstechnologien und der Bedarf an praxistauglichen
Standards eröffnen Raum für weitere wissenschaftliche und
praktische Entwicklungen.
Für Organisationen bedeutet das: Wer Informationsmanagement strategisch denkt, sollte Qualitätsmanagement nicht als Pflicht, sondern als Chance begreifen – um Daten verlässlich nutzbar zu machen, Risiken zu minimieren und digitale Wertschöpfung nachhaltig zu sichern
Die vollständige Arbeit bietet eine detaillierte Übersicht über alle untersuchten Teilbereiche und ist besonders für Fach- und Führungskräfte im Informationsmanagement empfehlenswert. Der Beitrag ist Teil des Bands 4, Forschung Informationsmanagement, der Schriftenreihe Wirtschaftsinformatik und kann kostenlos über den Shop der Steinbeis Edition als eBook heruntergeladen werden: