Fallstudie Geschäftsprozessmanagement (FSGPM)

Inhaltsverzeichnis[Verbergen]
Ausgangssituation
Prozessanalyse
Prozessverbesserung
Prozessevaluierung
Beurteilung

Aufgaben- und Methodenverweise

Quellen

  • Mertens, P.: Process focus considered harmful? In: WIRTSCHAFTSINFORMATIK 4/1996, 446–447

Vertiefungsliteratur

  • Karagiannis, D.: Workflow-Management-System. In: Kurbel, K. et al. (Hrsg.): Enzyklopädie der Wirtschaftsinformatik - Online-Lexikon. München 4. A. 2010, o. S. http://www.enzyklopaedie-der-wirtschaftsinformatik.de

  • Mende, U. / Berthold, A.: SAP® Business Workflow – Konzept, Anwendung, Entwicklung. 2. A. München 2000

Links

Fallstudie Erfolgsfaktorenanalyse (FSERF)

Inhaltsverzeichnis[Verbergen]
Ausgangssituation
Messmodell
Prozess der Qualitätsbestimmung
Feldstudien
Praxistauglichkeit

Aufgaben- und Methodenverweise

Quellen

  • Riedl, R.: Analytischer Hierarchieprozess vs. Nutzwertanalyse: Eine vergleichende Gegenüberstellung zweier multiattributiver Auswahlverfahren am Beispiel Application Service Providing. In: Fink, K. / Ploder, C. (Hrsg.): Wirtschaftsinformatik - Schlüssel zum Unternehmenserfolg. Wiesbaden 2006, 99-127

  • Riedl, R.: Application Service Providing - Entwicklung eines Modells zur Qualitätsmessung. Wiesbaden 2005

Vertiefungsliteratur

  • Siehe dazu die in den beiden Quellen angegebene Literatur.

Normen

  • DIN EN ISO 9000:2005. Qualitätsmanagement-Systeme, Grundlagen und Begriffe

Links

Fallstudie Dokumentenmanagement (FSDOK)

Inhaltsverzeichnis[Verbergen]
Ausgangssituation
Problemstellung
Ziel der Untersuchung
Untersuchungsdesign
Bezugsrahmen
Ablauf der Untersuchung
Ergebnis
Implikationen

Aufgaben- und Methodenverweise

Quellen

  • Rückel, D. / Steininger, K.: Fallstudie: Einführung eines Enterprise-Content-Management-Systems. In: HMD - Praxis der Wirtschaftsinformatik 258/2007, 78–88

Vertiefungsliteratur

  • Siehe dazu die in den Quellen angegebene Literatur.

Links

  • Abbildungsarchiv: Fallstudie Dokumentenmanagement (FSDOK)

Evaluierungsmethoden (EVALU)

Inhaltsverzeichnis[Verbergen]

Lernziele

Sie kennen den Zweck von Evaluierungsmethoden und können daraus die Aufgaben der Evaluierung ableiten. Sie können diese Aufgaben mit eigenen Worten beschreiben. Sie kennen die Organisation des Evaluierungsprozesses und eine Vorgehensweise beim Evaluieren. Sie können die Anwendung von Evaluierungsmethoden in die Aufgaben des Informationsmanagements einordnen.

Definitionen und Abkürzungen

  • CC = Common Criteria for Information Technology Security Evaluation; Weiterentwicklung und Harmonisierung der ITSEC und anderer Sicherheitsstandards.
  • Evaluierungskriterium (evaluation criterion) = Eigenschaft des Evaluierungsobjekts, die unter Berücksichtigung des Evaluierungsziels aus diesem abgeleitet und mit der im Einzelnen festgelegt wird, was zu evaluieren ist.
  • Evaluierungsobjekt (evaluation object) = beliebiges Objekt, für das ein Evaluierungsbedarf besteht und das zur Evaluierung vorgegeben ist.
  • Evaluierungsziel (evaluation objective) = Aussage darüber, welche Information der Auftraggeber einer Evaluierungsstudie erwartet bzw. der Evaluator erarbeiten soll.
  • Extremalkriterium (unlimited criterion) = Kriterium, das hinsichtlich des Ausmaßes der Zielerreichung unbegrenzt (maximal oder minimal) formuliert ist.
  • HGB = Handelsgesetzbuch (Deutschland, Österreich).
  • ITSEC = Information Technology Security Evaluation Criteria.
  • ITSEF = Information Technology Security Evaluation Facility.
  • ITSEM = Information Technology Security Evaluation Methodology; Vorgehensweise zur Prüfung und Bewertung der Sicherheit von IT-Produkten.
  • Kriterium (criterion) = Eigenschaft eines Evaluierungsobjekts, dessen Ausmaß durch Messung, Schätzung oder Prognose ermittelt wird. Synonym: Zielkriterium.
  • Kriterienertrag (criterion production) = Ausmaß der Zielerreichung der Kriterien.
  • Kriteriengewicht (criterion weight) = relative Bedeutung der Kriterien in einer bestimmten Evaluierungssituation (Präferenzordnung).
  • Limitierungskriterium (limited criterion) = Kriterium, das hinsichtlich des Ausmaßes der Zielerreichung begrenzt formuliert ist.
  • Messen (measuring) = Zuordnen von Zahlen oder anderen Symbolen zu Objekten, Ereignissen oder Situationen nach einem festgelegten Verfahren (einer Regel).
  • Messgröße (metric) = Eigenschaft eines Objekts, deren Ausprägung mit einer Messmethode ermittelt werden kann. Synonym: Metrik.
  • Metrik (metric) = Synonym für Messgröße.
  • Präferenzordnung (preference order) = durch ein Individuum oder eine Gruppe vorgenommene Ordnung einer Menge von Kriterien auf Grund bestehender Präferenzen.
  • Re-Evaluierung (re-evaluation) = erneute Evaluierung eines Objekts nach erfolgter Vornahme von Änderungen am Objekt auf Grundlage einer Evaluierung.
Zweck der Evaluierungsmethoden
Vorgehensweise bei der Evaluierung
Organisation des Evaluierungsprozesses

 

Forschungsbefunde

Gappmaier/Häntschel berichten über die Evaluierung von Workflow-Management-Systemen (WFMS) u. a. Folgendes (Hypothesenprüfung in zwei Laborstudien an drei Softwareprodukten, Untersuchungszeitraum 1994-1995): Die Befunde erlauben die Schlussfolgerung, dass WFMS mit Laborstudien anhand betriebswirtschaftlich relevanter Kriterien, wie sie für Entscheidungen über den Technologieeinsatz in der Praxis verwendet werden, evaluiert werden können. Die Anforderungen, die an Laborexperimente gestellt werden müssen, konnten allerdings nicht voll erfüllt werden (z. B. konnte Objektivität, insbesondere Durchführungsobjektivität, nicht immer gesichert werden). Trotz dieser Einschränkung wird behauptet, mit Laborstudien Informationen über WFMS erarbeiten zu können, die mit gleicher Qualität mit keiner anderen Untersuchungsmethode gewonnen werden können. Es kann angenommen werden, dass diese Aussage auch für andere Softwareprodukte gilt.

Gappmaier, M. / Häntschel, I.: Die Evaluierung von Workflow-Management-Systemen in Laborstudien. In: Grün, O. / Heinrich, L. J. (Hrsg.): Wirtschaftsinformatik – Ergebnisse empirischer Forschung. Wien/New York1997, 63–77


Goldberg untersuchte die Anwendung der Fehlerbaumanalyse (FBA) in fehlertoleranten Systemen und erarbeitete eine Reihe von Anwendungsproblemen, u. a. die Schwierigkeit der Vorhersage der Fehlerwahrscheinlichkeit von Basisereignissen (Art und Zeitpunkt der Untersuchung nicht bekannt).
Goldberg, J.: A Survey of the Design and Analysis of Fault-Tolerant Computers. In: Proceedings of the Conference an Reliability and Fault Tree Analysis, Berkeley/CA 1974, 687-732


Fryer untersuchte die Anwendung der Fehlerbaumanalyse (FBA) bei Hardware-/Softwaresystemen; er bezeichnet die FBA als eine brauchbare Methode zur Bestimmung der Zuverlässigkeit von derartigen Systemen und sieht in der FBA insbesondere ein ergänzendes Instrument zum traditionellen Testen von Softwareentwürfen (Art und Zeitpunkt der Untersuchung nicht bekannt).
Fryer, O. M.: Risk Assessment of Computer Systems. In: IEEE Transactions on Software Engineering, Vol. Se-11 No. 1, January 1985, 125-129


Heinrich/Roithmayr berichten über die Ergebnisse von Benchmarktests, bei denen lokal vernetzte PCs Evaluierungsobjekte waren. Die Messergebnisse führten u. a. zu einer Veränderung der geplanten Organisation der Arbeitslast, um das Leistungspotenzial der optimalen Alternative besser nutzen zu können. Derartige Aussagen seien nur mit empirischen Verfahren wie dem Benchmarktest zu gewinnen.
Heinrich, L. J. / Roithmayr, F.: Leistungsmessung mit Benchmarks. In: Information Management 3/1986, 46-49


Miller et al. berichten über Ergebnisse von Benchmarktests, mit denen die Zuverlässigkeit des Betriebssystems UNIX gemessen wurde. Im Ergebnis wird festgestellt, dass über 24 % der 90 getesteten Systemprogramme zum Absturz gebracht werden konnten.
Miller, B. P. / Fredriksen, L. / So, B.: An Empirical Study on the Reliability of UNIX Utilities. In: Communications of the ACM 12/1990, 32-44


Herring berichtet über Ergebnisse von Benchmarktests mit dem TPC-A, deren Zweck es war, verschiedene DEC-Systeme (Hardware und Systemsoftware) zu evaluieren.
Herring, J. B.: TPC Benchmark A – An Industry standard performance test. In: Duisterhout, J. S. / de Moel, E. J. P. M. (Eds.): Proceedings of the Fifteenth Annual Meeting of the MUMPS User´s Group Europe, Rotterdam 1990, 111-115


Dirlewanger berichtet über die Anwendung des Verfahrens nach DIN 66271 zur Evaluierung von Rechnern mit Betriebssystemen verschiedener Hersteller u. a., dass das Betriebssystem BS2000 bei einer für Mainframes typischen Arbeitslast erhebliche Leistungsvorteile gegenüber MSV hat. Für vergleichbare Hardware-Konfigurationen ergab sich nach DIN eine bis zum Faktor 3 höhere Arbeitslast. Das Verfahren sei für alle Systemarten – vom Mainframe bis zum Minirechner – einsetzbar und vergleicht die Systeme mit einer bisher nicht möglichen Objektivität. Im Gegensatz zu bisherigen herstellerspezifischen Leistungsangaben stellt das Verfahren eine neutrale Messlatte dar.
Dirlewanger, W.: Messung und Evaluierung der DV-Leistung auf Basis der Norm DIN 66273. Heidelberg 1993


Die Forschungsgruppe Leistungsmessung der Universität Kassel (Leitung Dirlewanger) befasst sich u. a. mit der Entwicklung und Erprobung von Verfahren zur Messung und Bewertung der IT-Leistung sowie der Softwareeffizienz. In einem aktuellen Projekt erfolgt eine vergleichende Untersuchung von Verfahren zur Messung der Intranet-Performance. Untersucht werden in der Praxis verwendete Netz-Performance-Messverfahren und einem Betriebstest unterzogen. Es werden mehrere Verfahren zur Vermessung eines Versuchnetzes im Labor implementiert und Messserien durchgeführt. Auf diese Weise soll die Aussagekraft der Verfahren bezüglich ihrer Fähigkeit zur Quantifizierung der Netz-Performance ermittelt werden. Die Verfahren werden mit dem Kriterium Messaufwand verglichen, um Anforderungen an ein neu zu entwickelndes Verfahren abzuleiten. Kennzeichnend für das Projekt ist der interdisziplinäre Ansatz, insbesondere die Verwendung von Erkenntnissen der Wirtschaftsinformatik, um neben den technischen Merkmalen von Rechnerlast-Modellen auch betriebswirtschaftliche Ziele (z. B. IT-Kosten) zu berücksichtigen.
Dirlewanger, W.: Lastsimulation; Normenlast; Benutzerorientierte DV-Leistungsmessung nach dem DIN-Verfahren. iX – Magazin für professionelle Informationstechnik 12/1994, 172-174


Thong et al. evaluierten vier Sets von Rahmenbedingungen für die Implementierung von Informationssystemen in Klein- und Mittelbetrieben (schriftliche Befragung, N = 114), die mit den Dimensionen Top Management Support (high vs. low) und External Expertise (high vs. low) gebildet wurden; sie fanden, dass das Set „Top Management Support high / External Expertise high“ den größten Beitrag zur Effektivität der IT leistet.
Thong, Y. L. / Yap, Ch. S. / Raman, K. S.: Environments for Information Systems Implementation in Small Business. In: Jour¬nal of Organizational Computing and Electronic Commerce 4/1997, 253-278


Lewe leitet aus den Ergebnissen der Evaluierung von computerunterstützter Teamarbeit mit GroupSystem und anderen Versuchsanordnungen (Laborstudien, Untersuchungszeitraum 1993 bis 1995) folgende Empfehlung ab: „Soll die Produktivität von Sitzungen nachhaltig verbessert werden, dann sollte nicht allein auf Moderation, sondern auch auf Computerunterstützung gesetzt werden. Sie ist in der Lage, dem Leistungsabfall nicht nur zu begegnen, sondern zusätzliches Leistungspotenzial aus der Beteiligung weiterer Personen zu erschließen.“
Lewe, H.: Messung der Produktivitätswirkung einer Computerunterstützung in Sitzungen. In: Grün, O. / Heinrich, L. J. (Hrsg.): Wirtschaftsinformatik – Ergebnisse empirischer Forschung. Sprin¬ger, Wien/New York 1997, 79-89


Miller/Dunn stellen bezüglich der Ex-post-Evaluierung von IT-Projekten mit einer in Großbritannien durchgeführten Feldstudie (schriftliche Befragung, N = 150, Rücklaufquote 22 %, Befragungszeitraum 2+3/1996) fest, dass 85 % der befragten Unternehmen Ex-post-Evaluierungen durchführen und dass die Größe der IT-Abteilung (IS/IT department) der entscheidende Einflussfaktor ist. Dies führt zu folgender Hypothese: Je kleiner die IT-Abteilung, desto weniger wahrscheinlich ist die Durchführung von Ex-post-Evaluierungen. 61 % der Befragten vertreten die Meinung, dass das Ausmaß, in dem Ex-post-Evaluierung in ihrem Unternehmen durchgeführt wird, zu gering ist.
Miller, K. / Dunn, D.: Post-Implementation evaluation of information systems/technology: a survey of UK practice. In: Berghout, E. W. / Remenyi, D. S. J. (Eds.): Evaluation of Information Technology. Delft 1997, 47-55

 

Demonstrationsbeispiel

Es wird das Gewichten der Evaluierungskriterien mit einem Verfahren des paarweisen Vergleichs gezeigt. Bei jedem Vergleich werden zehn Punkte vergeben (vgl. Abbildung 1). Das Ergebnis wird in Abbildung 2 dargestellt. Es wurde wie folgt vorgegangen (EVK = Evaluierungskriterien):

  • Vergleich von „1 anwenderbezogene EVK“ mit „2 systemtechnische EVK“. Die anwenderbezogenen EVK werden als sehr viel wichtiger beurteilt als die systemtechnischen EVK; Ergebnis: 9 Punkte für die anwenderbezogenen EVK und 1 Punkt für die systemtechnischen EVK.
  • Vergleich von „1 anwenderbezogene EVK“ mit „3 anbieterbezogene EVK“. Beide EVK werden als gleich wichtig beurteilt; Ergebnis: 5 Punkte für die anwenderbezogenen EVK, 5 Punkte für die anbieterbezogenen EVK.
  • Vergleich von „2 systemtechnische EVK“ mit „3 anbieterbezogene EVK“. Die systemtechnischen EVK werden als weniger wichtig beurteilt als die anbieterbezogenen EVK; Ergebnis: 4 Punkte für die systemtechnischen EVK, 6 Punkte für die anbieterbezogenen EVK.
Die Quersummen der Zeilen in Abbildung 2 sind das Evaluierungsergebnis je Evaluierungskriterium (z. B. 14 Punkte für die anwenderbezogenen Evaluierungskriterien). Die Quersummen werden in Prozentwerte in Bezug auf die Gesamtzahl der Punkte aller Evaluierungskriterien einer Ebene umgerechnet. Die Summe aller Punkte, also die Basis für die Umrechnung in Prozente, lässt sich nach der Formel Summe = 5n (n-1) errechnen und die Evaluierung damit überprüfen, wobei n die Anzahl der Evaluierungskriterien ist.

evalu_gewichtung_der_evaluierungskriterien

Abb. 1: Gewichtung der Evaluierungskriterien (Quelle: nach SVD)

evalu_beispiel_fr_die_gewichtung_eines_kriterienbereichs

Abb. 2: Beispiel für die Gewichtung eines Kriterienbereichs (Quelle: nach SVD)

Quelle

Schweizerische Vereinigung für Datenverarbeitung (Hrsg.): Evaluation von Informatiklösungen. Bern/Stuttgart 1985, 101-188

Aus der Praxis

Aufgabenverweise

  • Evaluierungsprobleme gibt es bei fast allen strategischen und administrativen IM-Aufgaben.

Kontrollfragen

  1. Welche Aufgaben ergeben sich aus dem Zweck der Evaluierungsmethoden?

  2. Welcher Unterschied besteht zwischen Evaluierungsziel und Evaluierungskriterium?

  3. Warum müssen die meisten Evaluierungskriterien in Messgrößen transformiert werden?

  4. In welche Phasen wird der Evaluierungsprozess gegliedert und was ist Zweck jeder dieser Phasen?

  5. Welche Entscheiungsprobleme auf strategischer Aufgabenebene erfordern die Verwendung von Evaluierungs- methoden?

  6. Wie kann das Gewichten der Evaluierungskriterien methodisch unterstützt werden?

Quellen

  • Daumenlang, K. / Altstötter, C. / Sourisseaux, A..: Evaluation. In: Roth, E. / Holling, H. (Hrsg.): Sozialwissenschaftliche Methoden. 5. A., München/Wien 1995, 702-713

  • Mäder, B. / Ziegler, M.: Erfolgsfaktoren im Auswahlprozess betriebswirtschaftlicher Software für KMU. In: BFuP 5/2010, 558–574

  • Michaels, A.: Die große Begehung der Mittelbaustelle. F.A.Z. vom 11.8.2010, N5

  • Miller, K. / Dunn, D.: Post-implementation evaluation of information systems technology: a survey of UK practice. In: Berghout, E. W. / Remenyi, D. S. J. (Eds): Evaluation of Infor­ma­tion Technologiy. Delft 1997, 47-55

  • Osterloh, M. / Frey, S.: Evaluations - hidden costs, questionable benefits, and superior alternatives. Unveröffentlichtes Manuskript, Universität Zürich 2007

  • Sibley, E. H. / Editor, P.: Post Implementation Evaluation of Computer-Based Information Systems: Current Practices. In: Communications of th ACM 2/1990, 203–212

  • Schweizerische Vereinigung für Datenverarbeitung (Hrsg.): Evaluation von Informatiklösungen. Bern/Stuttgart 1985, 101-188

Vertiefungsliteratur

  • Irani, Z.: Information systems evaluation: navigating through the problem domain. In: Information & Management 2002, 111–124

  • Reichwald, R. et al.: Telekooperation im Innovationstest – Strategieorientierte Evaluation von Pilotprojekten. In: WIRTSCHAFTSINFORMATIK 3/1998, 205–213

  • Walter, S. G. / Spitta, T.: Approaches to the Ex-ante Evaluation of Investments into Information Systems. In: WIRTSCHAFTSINFORMATIK 3/2004, 171–180

Informationsmaterial

Normen

  • DIN 66273 Teil 1: Messung und Evaluierung der Leistung von DV-Systemen; Teil 2: Normlast Typ A. 1991

  • DIN ISO/IEC 15408-2 bzw. ÖNORM ISO/IEC 15408-2: Information technology - Security techniques - Evaluation criteria for IT security - Security functional requirements. 2007

  • EN 1325-1: Value Management, Wertanalyse, Funktionenanalyse Wörterbuch, Teil 1: Wertanalyse und Funk­tio­nen­analyse. 1996

  • ISO/IEC 9126: Information Technology - Software Product Evaluation - Quality Characteristics and Guidelines for their Use. 2001

  • ISO/IEC 14598: Information Technology - Software Product Evaluation. 2001

  • ISO/IEC 15408-1: Information technology - Security techniques - Evaluation criteria for IT security. 2005

  • ÖNORM A 6757: Wertanalyse-Management: Planung, Durchführung und Controlling der Wertanalyse (WA). 1991

  • Abbildungsarchiv: Evaluierungsmethoden (EVALU)

Erklärungsmodell (ERMOD)

Inhaltsverzeichnis[Verbergen]

Lernziele

Sie kennen den Zweck und die Struktur des Informationsmanagement-Modells (IM-Modell) und können für jede der drei Managementebenen typische Aufgaben und Methoden nennen. Sie können die Denkweisen und Ziele des Informationsmanagements erläutern und kennen den Unterschied zwischen Sachzielen und Formalzielen. Sie erkennen, dass ein unterneh- mensspezifisches Konzept des Informationsmanagements (IM-Konzept) auf Grundlage eines IM-Modells entwickelt werden muss. Sie können den Entwicklungsprozess für IM-Konzepte beschreiben und erkennen die Zweckmäßigkeit der Verwendung von Referenzmodellen.

Definitionen und Abkürzungen

  • Aufgabenträger (task bearer) = Mensch (Person oder Gruppe) oder Mensch/Technik-System, dem eine Aufgabe zur Aufgabenerfüllung übertragen ist.
  • Entwurfsmuster (design pattern) = wiederverwendbare Vorlage zur Lösung eines Entwurfsproblems, die in einem spezifischen Kontext genutzt werden kann.
  • Erfolgspotenzial (success potential) = durch Art und Umfang verwendeter Technologien bestimmte Fähigkeit der Informationsinfrastruktur, Leistungspotenzial der Informationsfunktion in Unternehmenserfolg umzusetzen.
  • Geschäftsmodell (business model) = Modell, das Aussagen darüber macht, durch welche Kombination von Produktionsfaktoren die Unternehmensstrategie verfolgt wird, wie Erlöse erzielt werden und welche Rolle die daran beteiligten Akteure spielen.
  • Handlungsspielraum (action scope) = mehrdimensionaler Begriff, der Entscheidungsspielraum, Tätigkeitsspielraum und Freiheitsspielraum umfasst.
  • Information Engineering = Methodik des Informationsmanagements im Sinne einer Lehre von den Methoden und ihrer planmäßigen, wissenschaftlichen Anwendung.
  • Informationsfunktion (information function) = Teilmenge des betrieblichen Aufgabensystems, dessen Zwecke Information und Kommunikation sind.
  • Informationsinfrastruktur (information infrastructure) = Einrichtungen, Mittel und Maßnahmen zur Beschaffung, Verteilung und Nutzung von Information und Ermöglichung von Kommunikation.
  • kritischer Wettbewerbsfaktor (critical competitive factor) = Wettbewerbsfaktor, der für den Erfolg oder Misserfolg des Unternehmens maßgeblich bestimmend ist.
  • Leistungspotenzial (performance potential) = durch Art und Umfang der Informations- und Kommunikationsaufgaben möglicher Beitrag der Informationsfunktion zum Unternehmenserfolg.
  • Rationalisierung (rationalization) = Vorgehensweise, ein System so zu gestalten, dass es gesetzten Zielen besser entspricht (von lat. ratio = Vernunft).
  • Referenzmodell (reference model) = eine zweckorientierte Spezifikation des generellen Modellbegriffs, die als Vorlage für das Gestalten von Artefakten dient.

XE

Zweck des IM-Modells
Informationsfunktion und Informationsinfrastruktur
Methodik des Informationsmanagements
Ziele des Informationsmanagements
Managementaufgaben
Managementebenen
Methoden & Techniken
Entwickeln des IM-Konzepts
Weitere Referenzmodelle

Forschungsbefunde

Wigand schlägt folgenden, mit vier Ecksteinen (cornerstones) beschriebenen Einführungsprozess von Informationsmanagement (Information Resource Management, IRM) vor:

1.Definieren eines auf das Unternehmen abgestimmten IRM-Konzepts.

2.Einführen von Grundsätzen, Regeln und Standards für den Umgang mit der Resource Information (IRM-Verfassung).

3.Entwickeln einer mit der Unternehmensstrategie abgestimmten IT-Strategie.

4.Einführen von Standards für Hardware, Software und IRM-Qualifikationen, die geeignet sind, die geplante Informationsumgebung herzustellen 4. und zu erhalten.

Wigand, R. T.: Fünf Grundsätze für die erfolgreiche Einführung des Informationsmanagements. In: Information Management 2/1988, 24-30


Eine Weiterentwicklung der IM-Modelle könnte die Anpassung des so genannten Recource-Based View of the Firm (RBV) sein, wie Wade/Hull es behaupten. Sie zeigen, dass RBV in der Information Systems (IS) Forschung brauchbar ist und schlagen Richtlinien vor, wie dabei vorgegangen werden sollte. Die fünf major IS resources sind: IS planning and change management; IS infrastructure; IS technical skills; IS development; Cost effective IS operations. Die Resources werden mit folgenden Attributen beschrieben: Value; Rarity; Appropriability (ex ante limits to competition); Limitability; Substitutability; Mobility (ex post limits to competition). RBV hat in anderen Managementfeldern große Beachtung gefunden; für das Informationsmanagement bietet RBV – nach Überzeugung der Autoren – die Möglichkeit, „to understand the role of information systems within the firm“.
Wade, M. / Hulland, J.: The resource-based view and information systems research. In: MIS Quarterly 1/2004, 107-142


Baumöl beschreibt ein als Changed Method Engineering (CME) bezeichnetes Vorgehensmodell, das einen Prozess zur Methodenkonstruktion unterstützt, mit dem das Veränderungsprojekt „Vernetzung Business und IT“ gesteuert wird. Mit dem Veränderungsprojekt wird die Grundlage für den Prozess geschaffen, mit dem das Business/IT-Alignment im Unternehmen fortlaufend zu betreiben ist. Ergebnis des Konstruktionsprozesses ist eine individuelle Methode, die eine situativ angepasste Kombination von standardisierten Methodenfragmenten in einer definierten Sequenz bereitstellt. Die Modellentwicklung erfolgte auf Basis der Ergebnisse einer empirischen Studie zu Methoden, die in Veränderungsprojekten zum Einsatz kamen.
Baumöl, U.: Methodenkonstruktion für das Business/IT-Alignment. In: WIRTSCHAFTSINFORMATIK 5/2006, 314-322

Aus der Praxis

Kontrollfragen

  1. Wodurch unterscheidet sich ein Erklärungsmodell von anderen Modellarten?
  2. Welchem Zweck dient das IM-Modell und worin besteht der Unterschied zum IM-Konzept?
  3. Welche Denkweisen und Ziele sind für das Informationsmanagement typisch?
  4. Welche Phänomene werden durch die drei Dimensionen des IM-Modells abgebildet?
  5. Wie wirkt sich der Referenzcharakter des IM-Modells beim Entwickeln eines IM-Konzepts aus?

Quellen

  • Baumöl, U.: Methodenkonstruktion für das Business/IT-Alignment. In: WIRTSCHAFTSINFORMATIK 5/2006, 314-322

  • Carr, N. G.: The Big Switch – Rewiring the World, from Edison to Google. Hüthig, Heidelberg 2009

  • Finkelstein, C.: Information Engineering. Strategic Systems Development. Reading/MA 1992

  • Heinrich, L. J. / Heinzl, A. / Riedl, R.: Wirtschaftsinformatik – Einführung und Grundlegung. 4. A., Berlin/ Heidelberg 2011

  • Luftman, J. / McLean, E. R.: Key Issues for IT Executives. In: MIS Quarterly Executive 3/2004, 89–104

  • Martin, J.: Information Engineering. Book I Introduction. Englewood Cliffs/NJ 1989, Book II Planning & Analysis. Englewood Cliffs/NJ 1990, Book III Design & Construction. Englewood Cliffs/NJ 1990

  • Thomas, O.: Das Referenzmodellverständnis in der Wirtschaftsinformatik. In: IWi – Veröffentlichungen des Instituts für Wirtschaftsinformatik im Deutschen Forschungszentrum für Künstliche Intelligenz 187/2006, 1–35

  • Ulich, E.: Differentielle Arbeitsgestaltung. In: Zeitschrift für Arbeitswissenschaft 1983, 12–15 Wade, M. / Hulland, J.: The resource-based view and information systems research. In: MIS Quarterly 1/2004, 107–142

  • Rohloff, M.: Ein Referenzmodell für die Prozesse der IT-Organisation. In: HMD – Theorie und Praxis der Wirtschaftsinformatik 256/2007, 27–36

  • Abbildungsarchiv: Erklärungsmodell (ERMOD)