Marketing- und Vertriebscontrolling/ Instrumente MVC/ Szenario-Technik Version 2

Grundlagen der Szenario-TechnikBearbeiten

DefinitionBearbeiten

Bei der Szenario-Technik handelt es sich um ein Analyseinstrument zur Prognose zukünftiger Entwicklungen. Dabei sollen diese Entwicklungen in die unternehmerischen Strategien mit einbezogen werden. Diese Methode wurde in den fünfziger Jahren von Hermann Kahn für die Militärbranche entwickelt. Wobei Schell in den siebziger Jahren das erste Unternehmen war, das diese Methode erfolgreich in der Wirtschaft umsetzte. Die Bildung von Szenarien basiert auf vernetztem Denken und somit auf einer Vielzahl relevanter Einflussfaktoren. Damit eine möglichst umfangreiche Darstellung des zukünftigen unternehmerischen Umfeldes erzielt werden kann, sind alle wesentlichen Entwicklungen und ihre Wechselwirkungen zu beachten.[1] Weitere Ansätze zur Analyse strategischer Basisentscheidungen stellen zum Beispiel neben der Szenario-Technik die Lebenszyklus-Analysen oder die Analyse sogenannter kritischer Faktoren dar. Während diese Methoden sich auf gegenwärtige Analyse beziehen, wird mit der Szenario-Technik der Versuch unternommen die Zukunft zu prognostizieren und dafür Strategien zu entwickeln.[2]

Die Abbildung 1 zeigt eine trichterförmige Darstellung. Diese ergibt sich aus dem Zeit-planungshorizont und der Anzahl der möglichen Zustände für den zukünftig festgelegten Zeitpunkt. Die vermeintlich unmessbare Anzahl an Szenarien lässt sich durch bestimmte Vorgaben extrem reduzieren. Betrachtet werden ausschließlich die Szenarien, aus denen differenzierte unternehmerische Strategien abgeleitet werden können. Dabei werden mehrere Szenarien, welche die gleiche Strategie zur Folge haben auf ein Szenario dezimiert. Des Weiteren haben die Extremszenarien am Rande des Trichters eine niedrige Eintrittswahrscheinlichkeit.[3] Unternehmen profitieren von der Anwendung der Szenario-Technik, indem sie die relevanten Faktoren erkennen und weiterhin in ihrer Entwicklung verfolgen können. Außerdem können somit temporäre Vorteile gegenüber der Konkurrenz ausgenutzt werden, indem auf neue Entwicklungen schneller reagiert werden kann, die möglicherweise zu außerordentlichen Situationen führen. In der Praxis hat sich der Ansatz durchgesetzt, drei bis fünf Szenarien zu beschreiben und für zwei oder drei von diesen Alternativstrategien zu entwickeln. Eine höhere Anzahl an Szenarien und damit zusammenhängenden Alternativstrategien kann zu redundanten Ergebnissen führen.[4]


  1. Vgl. Raab, G./ Unger, A. und Unger, F. (2009), S. 301ff.
  2. Vgl. Raab, G./ Unger, A. und Unger, F. (2009), S. 291ff.
  3. Vgl. v. Reibnitz, U. (1992), S. 26ff.
  4. Vgl. Raab, G./ Unger, A. und Unger, F. (2009), S. 303ff.

SzenariotypenBearbeiten

Abhängig von Funktionen werden unterschiedliche Szenariotypen charakterisiert. Das Visionsszenario wird nur auf der Topmanagementebene angewendet, wobei strategische Visionen instinktiv entwickelt werden. Ein weiterer Typ ist das Megatrendszenario, welches die Resultate bedeutender Trends analysiert und die daraus ableitbaren Veränderungen für unterschiedliche Lebens- und Wirtschaftsbereiche. Dabei werden zukünftig bedeutende Trends in bestimmten Bereichen wiedergespiegelt, um Veränderungen der Umfeld-bedingungen schneller sichtbar zu machen. Bei dem Direct-Writing-Szenario handelt es sich um eine Mischform zwischen dem Visions- und Megatrendszenario. Zusätzlich zu der Betrachtung der relevanten Trends werden Strategien entwickelt, wie sich das Unternehmen bei diesen Entwicklungen aufstellt und darauf reagiert. Des Weiteren wäre noch das modellorientierte Szenario zu nennen, welches mit Hilfe von rechnergestützten Simulationsmodellen Daten in quantifizierter Form benötigt und dementsprechend quantitative Ergebnisse liefert. Bei dem determinierten Szenario geht es darum, die Konsequenzen von einem ganz bestimmten Zukunftsbild aufzuzeigen. Der letzte Typ der Szenarien ist das Umfeldszenario. Anstatt des Untersuchungsfeldes werden im Rahmen dieses Szenarios die relevanten Umfelder analysiert und daraus konsistente Zukunftsbilder geschaffen.[1] Zu den zehn Funktionen nach denen die Differenzierung vorgenommen werden kann, gehören beispielweise konsistente Zukunftsannahmen, Handlungsempfehlungen, Aufzeigen von Alternativen, EDV-gestützt oder Nachvollziehbarkeit. Das Umfeldszenario erfüllt beispielsweise im Vergleich zu den anderen Typen alle Funktionen. Bei der Betrachtung des Visionsszenarios wird deutlich, dass lediglich die Funktionen, Erarbeitung der Einflussfaktoren, Handlungsempfehlungen, Fortschreibungsfähigkeit und Entwicklungspfade erfüllt werden. Abhängig von den notwendigen Funktionen oder Ressourcen, die im Unternehmen bereit stehen, kann ein Szenariotyp ausgewählt werden.[2]


  1. Vgl. Zerres, C. & M. (2005), S. 100f.
  2. Vgl. Zerres, C. & M. (2005), S. 101f.

Szenario-Technik als Element der strategischen UnternehmensplanungBearbeiten

Die strategische Unternehmensplanung ist ein Bestandteil des strategischen Managements. Dabei setzt sich der Prozess des strategischen Managements wie in Abbildung 2 ersichtlich, aus vier Hauptphasen zusammen.

Die erste Phase der strategischen Zielplanung beinhaltet die Festlegung der Unternehmenspolitik und des im Unternehmen verfolgtem Leitbildes. Dafür stellt die Unternehmenspolitik Grundsätze auf, die das Unternehmen repräsentieren, damit durch die Identifikation im Sinne des Leitbildes gehandelt wird. Der zweite Bestandteil dieser Phase ist die Planung strategischer Ziele. Diese spielen eine wichtige Rolle für die zukünftige Entwicklung der Unternehmung.[1]

Die zweite Phase der strategischen Analyse & Prognose basiert auf der Umweltanalyse und der Unternehmensanalyse. Daraus lassen sich Prognosen und die strategische Früh-aufklärung ableiten. In dieser Phase ist die Szenario-Technik als ein Prognoseinstrument einzugliedern. Die zuvor gewonnen Informationen aus der strategischen Analyse beziehen sich in erster Linie auf die Vergangenheit. Diese Informationen sollen durch die Prognosen den zukünftigen Horizont erweitern und somit Trends aufdecken. Für zukünftige Pläne eines Unternehmens sind Prognoseverfahren ein grundsätzlicher Bestandteil und eine notwendige Ergänzung zur Umwelt- und Unternehmensanalyse.[2] Ein verändertes Nachfrageverhalten, technologischer Fortschritt, ein zusätzlicher Konkurrent auf dem Markt, politische oder wirtschaftliche Krisen lösen Störungen im Absatzbereich, dem Produktionsbereich und dem Beschaffungsbereich aus und somit einen Zustand der Unausgeglichenheit. Die Unternehmen können den Ausbruch von Krisen oder die Neuaufstellung der Konkurrenz nicht verhindern. Die Unternehmen haben allerdings die Möglichkeit die Reaktion auf solche Ereignisse zu beeinflussen, durch den Einsatz der Szenario-Technik. Dieses Analyseinstrument erlaubt es dem Unternehmen sich auf mehrere wahrscheinliche Ereignisse in der Zukunft vorzubereiten. Im Rahmen dieser Analyse wird das lineare Denken, durch das vernetzte Denken ersetzt, um das Unternehmen als eine vernetzte Einheit mit offenen Grenzen zu verstehen.[3] Auf diese Weise kann das betrachtete Unternehmen einen Wettbewerbsvorteil vorweisen. Das Pionierunternehmen Schell hat mit Hilfe von Zukunftsszenarios die Angebotsdrosselung am Rohölmarkt als mögliches Ereignis in Betracht gezogen. Damit wurde Schell von der Ölkrise in den siebziger Jahren nicht unvorbereitet getroffen. Das hatte zur Folge, dass Schell im Gegensatz zu den Konkurrenten sich durch bessere Bilanzen profilieren konnte und seitdem die zu entwickelnden Strategien auf der Szenario-Technik basieren.[4] Nach der Entwicklung verschiedener Zukunftsbilder, geht es in der dritten Phase darum, für die möglichen Szenarien die Strategien zu formulieren und zu bewerten. Dabei können Strategien sowohl auf der gesamten Unternehmensebene, als auch für einzelne Bereiche oder für spezielle Funktionen entwickelt werden. Die Ausrichtung der Strategie kann sich auf Wachstum, Stabilisierung oder Schrumpfung beziehen. Ein weiterer Grund der Ausrichtung könnte eine Krise sein, in der das Unternehmen sich bereits befindet. Schließlich werden im Rahmen der Szenario-Technik Strategien für die zwei bis drei ausgewählte Szenarien formuliert und nach ihrer Güte beurteilt.[5] Die vierte Phase sieht vor, dass im Falle des eintreffenden Szenarios das Unternehmen die Lösung bereits als eine formulierte Strategie ausgearbeitet hat und zum Einsatz bringen kann. Eine weitere Möglichkeit besteht darin, die Strategie direkt nach der Formulierung und Auswertung zu implementieren, um sich auf diese Weise ebenso einen Vorteil im Bezug auf die Konkurrenz zu sichern. Nach der Umsetzung der Strategie kann zusätzlich eine Kontrolle durchgeführt werden, in der die Ergebnisse der implementierten Strategie ausgewertet werden. Beispielweise wird in dieser Phase mit Hilfe von Soll-Ist-Analysen der Erfolg der Strategie gemessen. Dies sollte auch in regelmäßigen Abständen für die Leitstrategie des Unternehmens erfolgen. Diese Kontrollen dienen dazu Fehler aufzudecken. Bei stetigen Kontrollen besteht die Möglichkeit in den Prozess einzugreifen und den Fehlern oder Störungen entgegenzuwirken.[6]


  1. Vgl. Welge, M. & Al-Laham, A. (2001), S. 101ff.
  2. Vgl. Welge, M. & Al-Laham, A. (2001), S. 183ff.
  3. Vgl. Gassmann, O. & Kobe, C. (2006), 357 ff.
  4. Vgl. Leendertse, J. (2009), S. 71.
  5. Vgl. Welge, M. & Al-Laham, A. (2001), S. 313ff.
  6. Vgl. Welge, M. & Al-Laham, A. (2001), S. 527ff.

Prozess der Szenario-Technik anhand eines BeispielsBearbeiten

Schritt 1: AufgabenanalyseBearbeiten

Der Prozess der Szenario-Technik setzt sich aus acht Schritten zusammen. Der erste Schritt beinhaltet die Problemanalyse. Dabei wird das Untersuchungsumfeld definiert und strukturiert. Des Weiteren findet eine räumliche, zeitliche und thematische Abgrenzung des Untersuchungsumfeldes statt. Daraufhin werden alle für die Analyse wichtigen Fragen ausformuliert. Dabei ist es wichtig das Thema sinnvoll abzugrenzen und nicht zu weitläufig auszuformulieren. Ansonsten führt es zu Verwirrung und Verkettungen, da die Menge an notwendigen Einflussfaktoren den Rahmen sprengen würde. Schließlich ist das Resultat der Problemanalyse die detaillierte Wiedergabe der Ist-Situation des zu untersuchenden Bereiches, mit der Beschreibung der dazugehörigen Fragestellungen und Probleme.[1] Im Detail wird die Aufgabenanalyse aus verschieden Blickwinkeln betrachtet. Zum einen wird das aktuelle Leistungsspektrum des Unternehmens untersucht. Dabei werden alle Produkte, Dienstleistungen und sonstige Services aufgelistet und definiert. Weiterhin werden das Leitbild des Unternehmens oder des einzelnen Unternehmensbereiches und die gegenwärtigen Ziele und Strategien aufgezeigt. Ziele und Strategien können hierbei in kurz-, mittel- oder langfristig unterteilt werden. Ein weiterer Schritt bei der Aufgabenanalyse ist die Durchführung einer Stärken-Schwächen-Analyse, entweder auf der gesamtunternehme-rischen Ebene oder für eine spezielle strategische Einheit. Im Anschluss an diese Schritte werden interne Rahmenbedingungen festgehalten, die unter anderem auch als Company Policies bezeichnet werden. Dabei geht es zum Beispiel um Bestimmungen hinsichtlich der Kapitalrendite für bestimmte Unternehmensdivisionen oder um Regeln im Bezug auf das Handeln bestimmter Unternehmensbereiche. Nachdem alle Schritte der Aufgabenanalyse abgearbeitet wurden, wird eine Prüfung hinsichtlich des Themas durchgeführt. Dabei geht es darum festzustellen, ob das Thema auf Grund der Analyse angepasst werden muss oder in der anfänglich formulierten Form weiterhin bestehen kann. Nach der endgültigen Entscheidung über die Definition des Themas, wird hierfür ein Zeitfenster festgelegt.[2] Das fiktive Unternehmen an dem der Prozess der Szenario-Technik verdeutlich werden soll, ist ein Unternehmen, welches sich mit alternativen Energien beschäftigt. Speziell geht es hierbei um ein Windkraftenergieunternehmen, welches auf der einen Seite die Anlagen für die Erzeugung der Windenergie baut und auf der anderen Seite auch die erzeugte Energie anbietet. Die Problemstellung im Rahmen des Schrittes Aufgabenanalyse ist die Marktführerschaft bei den alternativen Energien zu erreichen und die Windenergie mit fossilen Brennstoffen gleichzustellen. Des Weiteren werden Ziele verfolgt, wie beispielweise die Erschließung von neuen Märkten. Aus der Analyse der Stärken und Schwächen geht hervor, dass das Unternehmen sich zum einen durch die Herstellung umweltfreundlicher Energie auszeichnet. Eine weitere Stärke des Unternehmens ist die motivierte und innovationsbereite Belegschaft. Allerdings ist das Unternehmen im Nachteil, wenn es um den Preiskampf geht und darum Energie konstant bereitzustellen. Für die Festlegung des Zeithorizontes werden bei diesem Beispiel 10 bis 20 Jahre vorgesehen.


  1. Vgl. Dönitz E. J. (2009), S.10.
  2. Vgl. v. Reibnitz, U. (1992), S. 30ff.

Schritt 2: EinflussanalyseBearbeiten

Der zweite Schritt der Szenario-Technik beschäftigt sich mit der Einflussanalyse. Dabei wird das Ziel verfolgt die externen Einflussbereiche, die auf ein Unternehmen als ganzes oder auf spezielle strategische Bereiche einwirken, zu bestimmen. Dazu gehört beispielsweise der Absatzmarkt, Beschaffungsmarkt, Wettbewerb, gesetzliche Regelungen, Technologie, Wirtschaft und Gesellschaft. Abhängig von dem Unternehmen und der Branche haben einige Einflussbereiche einen höheren Einfluss und somit einen höheren Stellenwert. Deswegen ist es sinnvoll als erstes eine relative Rangfolge zu bilden und im Anschluss die wichtigsten Bereiche weiter zu untergliedern. Der Absatzmarkt kann in Struktur, Verhaltensweisen und Ansprüche der Abnehmer unterteilt werden. In der Praxis wird diese Aufteilung mit Hilfe von Checklisten durchgeführt, die in Abhängigkeit von der Branche eine detaillierte Aufteilung empfehlen. Danach müssen Einflussfaktoren für die entsprechenden Bereiche gefunden werden. Für das Windkraftenergieunternehmen sind dies Technologie, Gesellschaft, Gesetzgebung, Wettbewerb, Kunden und Umwelt. Die dazugehörigen Einflussfaktoren sind der Tabelle 1 zu entnehmen.

Erst wenn diese Schritte abgearbeitet wurden, kann eine Vernetzung durchgeführt werden. Das bedeutet, mit Hilfe einer Vernetzungsmatrix soll herausgefunden werden, wie stark jeder Bereich jeweils alle anderen Bereiche beeinflusst. Die Einflussbereiche werden dabei durch den jeweils wichtigsten Einflussfaktor gekennzeichnet. Die Art des Einflusses wird durch null, eins oder zwei symbolisiert. Wobei null für keinen Einfluss, eins für schwachen beziehungsweise indirekten Einfluss und zwei für starken Einfluss steht. Des Weiteren wird zusätzlich eine Aktiv- und Passivsumme errechnet. Die Aktivsumme beschreibt die Höhe des Einflusses, die von einem Bereich auf alle anderen ausgeht. Bei der Passivsumme hingegen wird verdeutlicht, wie stark ein einzelner Bereich von allen anderen insgesamt beeinflusst wird.[1] Für das Windkraftenergieunternehmen hat die Vernetzungsmatrix ergeben, dass beispielweise der Einflussbereich Technologie den größten Einfluss auf alle anderen Bereiche hat. Die Bereiche Gesellschaft, Wettbewerb und Kunden haben den geringsten Einfluss auf die anderen Bereiche. Des Weiteren resultierte aus der Analyse, dass Gesetzgebung und Wettbewerb am meisten von den anderen Bereichen beeinflusst werden.[2] Nach der Vernetzungsanalyse können die Zahlen für eine bessere Auswertung in ein so genanntes System-Grid übertragen werden. Dieses System unterteilt die Werte in vier Bereiche. Feld I beinhaltet alle aktiven Systemelemente, die einen hohen Einfluss auf andere Elemente haben, selbst aber kaum beeinflusst werden. Im Feld II hingegen sind ambivalente Einflussfaktoren zu finden. Diese weisen eine hohe Aktivität und Passivität auf. Bei dem dritten Feld handelt es sich um das Gegenteil des zweiten Feldes. Hier sind alle Einflussfaktoren enthalten, die kaum Auswirkungen auf das System haben und nur gering von diesem beeinflusst werden. Das letzte Feld ist das Passivfeld mit den Systemelementen die eine hohe Passivität und eine geringe Aktivität aufweisen. In Hinblick auf die Bedeutung der einzelnen Felder können die Einflussfaktoren in eine Rangfolge gebracht werden. Nach der Durchführung der Analyse mit Hilfe der Vernetzungsmatrix und des System-Grid, geht es darum die Systemdynamik zu begreifen und für die einzelnen Maßnahmen oder Strategien zu nutzen. Für die Nutzung der Synergie-Effekte ist es notwendig die Grundregeln zu beachten. Zum einen muss ein Hebel im System an der Stelle gesetzt werden, wo die höchste Verstärkerwirkung erzielt werden kann. Dabei handelt es sich um Systemelemente die sich entweder durch eine hohe Aktivität oder durch Aktivdominanz auszeichnen. Zum anderen sollen die puffernden und passiven Systemelemente nicht direkt sondern auch indirekt von den aktiven Elementen beeinflusst werden.[3] Die Grid-Analyse bei dem Windkraftenergieunternehmen hat ergeben, dass die Grenzen für die Quadranten bei 14 und der Schnittpunkt bei 3,3 liegen. Daraus resultierte die Rangfolge: Technologie, Umwelt, Gesellschaft, Gesetzgebung, Kunde und Wettbewerb.[4] Bei der Anwendung von Analysen mit vernetzten Systemen treten in der Praxis häufig Fehler auf. Die Angst vor der ungewissen Zukunft und die Folgen von größeren Problemen nach der Analyse, sorgen dafür, dass das System nicht richtig analysiert wird und das verantwortliche Team bevorzugt auf die altbekannten Methoden zurückgreift. Ein weiterer Fehler, der häufig bei dieser Analyse auftritt, ist die Reduktion des ganzen Systems auf ein leicht sichtbares Problem. Damit wird fälschlicherweise das Ziel verfolgt die Komplexität zu dezimieren und die Transparenz zu fördern. Allerdings kann es keine Lösung für ein vereinzelt betrachtetes Kernproblem geben. Dazu kommt, dass durch diese fehlerhafte Betrachtung sogar Störungen und ungeplante Veränderungen auftreten. Wenn Unternehmen diese Fehler vermeiden und gleichzeitig Synergie-Effekte nutzen, Sensibilität für interne und externe Einflüsse und Neuerungen entwickeln und klare Ziele für ein Gesamtsystem definieren, kann von einem erfolgreichen System gesprochen werden. Der Vorteil dabei ist, dass die einzelnen Bereiche Verantwortung- und Steuerungsfunktionen übernehmen. Das wiederum führt zu steigender Motivation und zur Entlastung der Unternehmensleitung von den Detailfragen.[5]


  1. Vgl. v. Reibnitz, U. (1992), S. 33ff.
  2. Siehe Anhang I: Vernetzungsmatrix.
  3. Vgl. v. Reibnitz, U. (1992), S. 36ff.
  4. Siehe Anhang II: Analyse-Grid.
  5. Vgl. v. Reibnitz, U. (1992), S. 41ff.

Schritt 3: TrendprojektionenBearbeiten

Der dritte Schritt der Szenario-Technik beschäftigt sich mit den Trendprojektionen. Dabei wird das Ziel verfolgt für die in Schritt zwei definierten Einflussfaktoren neutrale Kenngrößen zu finden. Diese Deskriptoren charakterisieren sich dadurch, dass diese jetzige und zukünftige Entwicklungen beschreiben. Die wertneutrale Formulierung spielt bei den Deskriptoren im Gegensatz zu den Einflussfaktoren eine wichtige Rolle. Wenn Deskriptoren diese Neutralität nicht erfüllen, führt es dazu, dass für die Zukunftsprojektionen nicht in Alternativen sondern nur in eine Richtung weiter überlegt werden kann. Als erstes werden die Ist-Zustände für die Deskriptoren ausformuliert, sollte dies nicht bereits im zweiten Schritt der Szenario-Technik passiert sein. Dabei ist es sinnvoll auf bereits vorhandene Angaben oder Marktanalysen zurück zu greifen. Danach wird der Deskriptor in den ersten festgelegten Zeitpunkt projiziert, um festzustellen ob es eine eindeutige Entwicklung gibt oder Gefahren bei der Entwicklung auftreten können. Bei denkbar möglichen Unsicherheiten ist es notwendig hierfür Alternativen zu entwickeln und diese zu begründen. Danach wird das ganze Verfahren für den zweiten festgelegten Zeitpunkt in der Zukunft wiederholt. Das ermöglicht hinterher die Erkenntnis über eindeutige oder alternative Deskriptoren. Wichtig für die Projektionen ist vor allem bei der Verwendung von Markt- und Technologieinformationen oder Prognosen die Vielfalt der zugänglichen Daten auszunutzen. Dadurch wird die Anzahl der zu betrachtenden Alternativen erhöht, da nicht alle Institute die gleichen Ausgangsvoraussetzungen haben. Des Weiteren gehen auch die Ansichten darüber in welchem Zeitraum die Entwicklungen stattfinden auseinander.[1] Im Rahmen der Anwendung der Szenario-Technik an dem Beispiel des Windkraftenergie-unternehmens zeit die Tabelle 2 einen Ausschnitt der Trendprojektionen für drei ausgewählte Einflussbereiche.


  1. Vgl. v. Reibnitz, U. (1992), S. 45ff.

Schritt 4: AlternativenbündelungBearbeiten

Im Anschluss an den Schritt 3, in dem verschiedene Alternativentwicklungen ermittelt wurden, bedarf es danach deren Bündelung. Im Rahmen der Alternativenbündelung werden die einzelnen Alternativen auf ihre Konsistenz, Verträglichkeit und Logik untersucht. Abhängig von der Anzahl der Deskriptoren gibt es zwei Arten diese Untersuchung durchzuführen. Eine Variante wäre die Gegenüberstellung der verschiedenen Alternativen, wobei die konsistenten Bündel intuitiv ermittelt werden. Die zwei Variante, die bei komplexeren Problemen und bei einer hohen Anzahl an Deskriptoren angewendet wird, ist die Analyse anhand einer Konsistenzmatrix. Bei der Konsistenzanalyse wird im ersten Schritt untersucht, ob bei den alternativen Ausprägungen der Deskriptoren eine Korrelation besteht oder nicht. Sollte keine Korrelation bestehen, wird dies in der Matrix mit einer null bewertet. Für alle Ausprägungen ohne Korrelation sind die weiteren drei Schritte nicht mehr relevant. Sollte allerdings eine abhängige Beziehung vorliegen, wird im nächsten Schritt überprüft, ob diese konsistent, widerspruchsfrei oder widersprüchlich ist. Bei einer konsistenten und widerspruchfreien Beziehung wird in der Matrix eine positive Bewertung und bei der widersprüchlichen eine negative Bewertung durchgeführt. Darauf aufbauend kann im nächsten Schritt festgelegt werden, ob die konsistenten und widerspruchsfreien Ausprägungen eine wechselseitige Verstärkung oder keine Verstärkung aufweisen. Liegt eine wechselseitige Verstärkung vor, wird dies in der Matrix mit „+2“ bewertet und ohne jegliche Verstärkung wird eine Bewertung von „+1“ vorgenommen. Bei Ausprägungen die eine Widersprüchlichkeit aufweisen wird untersucht, ob es sich dabei um eine teilweise oder absolute Inkonsistenz handelt. Sollte eine teilweise Widersprüchlichkeit vorliegen, werden diese in der Konsistenzmatrix mit einer „-1“ und die absolute Widersprüchlichkeit mit „-2“ beschrieben.[1]

Die Auswertung der Konsistenzmatrix für das Windkraftenergieunternehmen für ausgewählte Bereiche und Deskriptoren hat ergeben, dass beispielweise Marktwachstum und die Entwicklung eines neuen Akkus eine wechselseitige Beziehung mit Verstärkung aufweist. Diese Analyse basiert nur auf kritischen Deskriptoren.[2]

Nach der Vollendung der Konsistenzmatrix können die Daten in ein Rechenprogramm eingepflegt und mit Hilfe einer Software ausgewertet werden. Dabei werden alle Szenariobündel berechnet, die theoretisch vorstellbar sind. Danach werden die Szenarien ausgewählt, die sowohl konsistent als auch intern stabil sind. Dabei geht es darum die Szenarien herauszufiltern, die sich durch eine längerfristige Gültigkeit auszeichnen. Anschließend werden aus den übrigen Szenarien zwei Szenarien nach dem Kriterium Unterschiedlichkeit ausgewählt. Diese beiden Szenarien sollten im optimalen Fall die drei wichtigsten Kriterien Konsistenz, Stabilität, und Unterschiedlichkeit erfüllen. Ein weiterer Ansatz, um die Konsistenz- und Stabilitätsanalyse zu kontrollieren, ist die sogenannte Cluster-Analyse.[3] Die Auswertung der Annahmebündel nach den Kriterien Konsistenz, Stabilität und Unterschiedlichkeit war im Rahmen dieser Untersuchung nicht möglich. Deswegen wurden die Annahmebündel nach der zweiten intuitiven Methode ausgewählt. Das Resultat der intuitiven Methode ergab die beiden in Tabelle 3 dargestellten Szenarien.

Datei:Szenario A und B.png
Abb.5: Szenario A und B

  1. Vgl. v. Reibnitz, U. (1992), S. 49ff.
  2. Siehe Anhang III: Konsistenzanalyse.
  3. Vgl. v. Reibnitz, U. (1992), S. 52f.

Schritt 5: SzenariointerpretationBearbeiten

Nach der Konsistenzanalyse, der Ermittlung von eindeutigen Deskriptoren und unter der Berücksichtigung der Ergebnisse aus der Vernetzungsanalyse werden nun die Szenarien ausgestaltet und interpretiert. Nun ist es möglich die eindeutigen Deskriptoren in Hinblick auf die Alternativ-Deskriptoren und ihrer Verträglichkeit zu bewerten. Das Durchführen dieser Bewertung hängt davon ab, wie viel Aufwand das Unternehmen in die Szenario-Technik investieren will. Man kann die Bewertung der eindeutigen Deskriptoren auch manuell dazu schalten, sie qualitativ interpretieren und sie dann an die strukturprägenden Alternativdeskriptoren anpassen. Somit entfällt der Einsatz eines Rechenprogramms. Da die Szenarien sich nicht statisch in die Zukunft hinein entwickeln, sondern eine Eigendynamik haben, kommt es zu Schwierigkeiten. Je nach dem, wie die Konstellation eines Szenarios ist, kann es zu Reaktionen kommen, die neue Entwicklungen in dem jeweiligen Szenario hervorrufen. Bei der Szenario-Interpretation muss darauf geachtet werden und die Veränderungen müssen dementsprechend mit berücksichtigt und verarbeitet werden. Dieses Vorgehen führt zu mehr Plausibilität und erhöht die Identifikationsbereitschaft der Planer mit den Szenarien. Am Ende dieses Schrittes entstehen zwei konträre, jedoch in sich logische und plausible Szenarien. Zwei beispielhafte Szenarien werden in Anhang 4 dargestellt.

Nun sollte noch einmal eine Systemanalyse durchgeführt werden, die eine Vernetzungs-analyse und ein System-Grid für die unterschiedlichen Szenarien erstellt. In Schritt 2 wurden für die Vernetzungsanalyse Einflussfaktoren mit ihrer gegenwärtigen Ausprägung als Basis gebildet. In diesem Schritt bilden nun die Szenarien in ihrer unterschiedlichen Zukunftsausprägung den inhaltlichen Bezugspunkt für die Analyse. Es lässt sich der Unterschied der Szenarien zur gegenwärtigen Situation und die Dynamik der Weiterentwicklung von der Gegenwart in eine Zukunft A oder B ermitteln. Außerdem bildet sich der Unterschied zwischen den beiden Zukunftsszenarien und ihrer Systemdynamik heraus.[1] Die Szenarien werden nun in Form eines Textes beschrieben.[2] Die Zukunfts-Szenarien können zur besseren Charakterisierung mit Überschriften versehen werden, die den Hauptansatz der Szenarien wiedergeben.[3] Es wird die mögliche Entwicklung beschrieben in Zeitschritten von ungefähr 5 Jahren bis zum Zieljahr. So werden die Deskriptoren verständlicher dargestellt und dies erleichtert die Identifikation des Entscheidungsträgers mit dem jeweiligen Zukunftsbild.[4] Die Formulierung der Szenarien sollte nur von ein oder zwei Personen durchgeführt werden, da es nicht effizient ist, wenn sich eine Gruppe mit Formulierungsarbeiten beschäftigt. Nach der Formulierung der Szenarien, kann dann in der Gruppe über Verbesserungsvorschläge gesprochen werden.[5]


  1. Vgl. Reibnitz v., U., (1992), S. 53 ff..
  2. Vgl. Dönitz, E., (2009), S. 20.
  3. Vgl. Reibnitz v., U., (1992), S. 55.
  4. Vgl. Dönitz, E., (2009), S. 20.
  5. Vgl. Reibnitz v., U., (1992), S. 55.

Schritt 6: KonsequenzanalyseBearbeiten

In diesem Schritt werden die Chancen und Risiken für ein Unternehmen abgeleitet und bewertet. Außerdem werden diese mit geeigneten Maßnahmen und Aktivitäten versehen.

Wie anhand der Grafik zu erkennen ist, bilden Chancen und Risiken die Brücke zwischen den beiden Szenario-Aussagen und dem Unternehmen. Die Aktivitäten sollten gewährleisten, dass Chancen so früh und so gut wie möglich genutzt werden. Außerdem sollten Risiken soweit wie möglich vermindert oder in Chancen umgewandelt werden. Ein Auschnitt der Chancen und Risiken für Szenario A wird im Anhang 5 dargestellt. Bei Szenarien mit mehreren Zeithorizonten muss die Relevanz der Chancen und Risiken für die ganze Zeit beachtet werden. Des Weiteren wird die Wichtigkeit der Chancen und Risiken für das Unternehmen bewertet. Auf Basis der Konsequenzanalyse wird eine zukunftsorientierte Stoffsammlung entwickelt, aus der später eine Leitstrategie abgeleitet wird. Daher ist die Konsequenzanalyse der wichtigste Schritt, in der gesamten Szenario-Bearbeitung, für die Planung. Um die zukünftige Leitstrategie bestmöglich zu entwickeln, sollten die Aktivitäten so detailiert und konkret wie möglich formuliert werden. Probleme können hier auftreten, wenn Mitarbeiter die Zukunftsszenarien nicht akzeptieren und dementsprechend den Prozess behindern. Als Ergebnis von Schritt 6 steht eine vorläufige Leitstrategie fest.[1]


  1. Vgl. Reibnitz v., U., (1992), S. 56.

Schritt 7: StörereignisanalyseBearbeiten

In diesem Schritt geht es darum, mögliche externe und interne, abrupt auftretende Ereignisse zu generieren, die das Unternehmen erheblich beeinflussen oder verändern können. Das gilt im positivem, wie auch im negativen Sinne. Nachdem die Ereignisse festgelegt wurden, werden diese in Bezug auf ihre Signifikanz bewertet und es werden entsprechende Präventiv- und Reaktivmaßnahmen erstellt. Eine Wahrscheinlichkeits-bewertung ist hier nicht vorzunehmen, da Störereignisse generell mit einer niedrigen Eintrittswahrscheinlichkeit bewertet werden, da es sich hier um Ausnahmen handelt. Gerade diese Ausnahmen können gefährlich für das Unternehmen sein. Unternehmen sollten daher besonders Acht auf Störereignisse geben, die eine existenzgefährliche Auswirkung hätten, aber als unwahrscheinlich angesehen wurden. Daher genügt die Signifikanzbewertung bei der Auswahl von Störereignissen. Nach Festlegung der wichtigsten Störereignisse für die weitere Bearbeitung, sollten diese kurz definiert werden. Hierbei ist es sinnvoll, Störereignisse aus verschiedenen Bereichen zu analysieren, wie zum Beispiel Wirtschaft, Technologie, Politik und Absatzmarkt. Störereignisse auf die das Unternehmen kaum reagieren kann, wie große Kriege oder Ähnliches, sollten nicht mit einbezogen werden. Nur durch eine konkrete Definition der Störereignisse können die Auswirkungen erkannt werden, ohne dass es zu Missverständnissen in der Analyse kommt. Bei der Auswirkungsanalyse der Störereignisse werden die betroffenen oder veränderten Szenarien hinsichtlich der Auswirkungen in den Szenarien als auch im Unternehmen betrachtet. Treten Störereignisse auf, können sich die Szenarien in eine andere Richtung entwickeln. Je nachdem, welche Störereignisse vorkommen, haben sie Einfluss auf das ganze Szenario oder nur auf bestimmte Bereiche. Die Auswirkungsanalyse für ein Unternehmen beinhaltet die Szenario-Änderungen und die direkten Störereignissauswirkungen auf das Unternehmen. Mit der Störereignissanalyse soll nicht die exakte Vorhersage solcher Ereignisse bezweckt werden, sondern eher eine Sensibilisierung darauf, um vorbeugende Maßnahmen zu treffen. Ein weiterer Vorteil dieser Analyse ist, dass Schwachstellen im Unternehmen aufgedeckt werden.[1] Werden wiederholt Unternehmensbereiche von Störereignissen beeinflusst, sollte man hier untersuchen, ob es Schwachstellen zu beseitigen gibt. Im Folgenden wird eine beispielhafte Analyse der Störereignisauswirkungen anhand von Szenario A gezeigt.

Störereignis: Ein Hauptlieferant fällt weg für die Herstellung der Windkrafträder.

Die bereits erwähnten Präventiv- und Reaktivmaßnahmen werden im Folgenden näher erläutert. Präventivmaßnahmen Damit sind Maßnahmen gemeint, die ein Unternehmen oder einen Bereich gegen Störereignisse vorbereiten und stabilisieren sollen. Bei nicht zu verhindernden Störereignissen geht es darum, intern Maßnahmen zu ergreifen, die bei Eintritt eines Störereignisses das Unternehmen nicht in eine gravierende Krise rutschen lassen. Die Auseinandersetzung mit Störereignissen kann auch Chancen aufdecken, da das Szenario-Team dabei zu neuen Ideen kommen kann. Typische Präventivmaßnahmen sind zum Beispiel Risikostreuung, verschiedene Diversifikationsideen und die Suche nach Alternativen in Bezug auf Lieferanten, Produkten und anderen Bereichen. Bei internen Störereignissen für die das Unternehmen selbst verantwortlich ist, müssen Maßnahmen gefunden werden, die die Schwachstellen im Unternehmen eliminieren. Generell können Notfallprogramme entwickelt werden, die bei Eintreten des Störereignisses aktiviert und umgesetzt werden. Die Präventivmaßnahmen werden in die Leitstrategie integriert, damit eine spätere Umsetzung überhaupt möglich ist. Präventivmaßnahmen, die bei mehreren Störereignissen angewandt werden können, sind mit einer hohen Priorität in die Leitstrategie zu integrieren. Reaktivmaßnahmen Reaktivmaßnahmen sind Krisenpläne, die vorab aufgestellt werden sollten. Werden sie erst nach dem Eintreten eines Ereignisses entwickelt, kann die Qualität leiden, da sie dann unter Druck aufgestellt werden. Beispiel hierfür, ist das Aufstellen eines Konzeptes für den Umgang mit der Öffentlichkeit, wenn die Krise eingetroffen ist.[2]


  1. Vgl. Reibnitz v., U., (1992), S. 59 ff..
  2. Vgl. Reibnitz v., U., (1992), S. 62 ff..

Schritt 8: Szenario-TransferBearbeiten

In diesem Schritt werden auf der Basis gleichartiger und innovativer Aktivitäten aus Schritt 6 eine Leitstrategie entwickelt und es werden eventuell Alternativstrategien festgelegt. Außerdem wird ein Umfeldbeobachtungssystem etabliert. Gleichartige Aktivitäten sind Aktivitäten, die kompatibel mit beiden Szenarien sind. Dies ist allerdings nicht genug, um eine fundierte Leitstrategie zu entwickeln. Daher sollte man die besonders attraktiven und innovativen Aktivitäten analysieren und prüfen, ob beispielsweise die Aktivitäten aus Szenario A auch unter den Rahmenbedingungen von Szenario B wirksam wären. In der Regel können so zwei Drittel aller Aktivitäten in die Leitstrategie integriert werden. Dabei kann eine Umformulierung einiger Aktivitäten von Nöten sein, damit diese kompatibel mit beiden Szenarien sind. Es muss darauf geachtet werden, dass der Innovationsgehalt bei der Umformulierung nicht verloren geht. Die restlichen Aktivitäten bilden die Basis für die Alternativstrategien A und B. Sie können als Ergänzung beziehungsweise Präzisierung zur Leitstrategie definiert werden, falls Szenario A oder B eintritt. Je länger der Zeithorizont des Szenarios, desto sinnvoller ist es, Alternativstrategien zu formulieren, da die Vorhersage von Ereignissen auf lange Sicht immer ungenauer wird. Die in Schritt 7 erarbeiteten Präventiv- und Reaktivmaßnahmen werden ebenfalls in die Leitstrategie integriert. Somit werden mögliche interne und externe Störereignisse abgesichert. Die Leitstrategie wird nach den verschiedenen Aufgaben und Funktionsbereichen eines Unternehmens untergliedert. Jedem Bereich werden so konkrete Handlungsanweisungen zugewiesen. Außerdem wird eine methodische Gliederung vorgenommen, indem jeder Gliederungspunkt ein Ziel, eine Strategie und die dazugehörigen Maßnahmen beinhaltet. Zusätzlich werden den Gliederungspunkten der Leitstrategie, auf Basis der Konsequenzanalyse, Prioritäten und Fristigkeitsaspekte zugewiesen. Somit ist eine zeitliche und prioritätsmäßige Struktur der Leitstrategie möglich. Das ist die Basis für eine sinnvolle Bearbeitung der Strategie. Nach Fertigstellung der Leitstrategie wird diese noch einmal auf Konsistenz geprüft. Eine Strategie ist in sich konsistent, wenn die einzelnen Aspekt aufeinander aufbauen und möglichst große Synergie-Effekte erzielt werden können. Die Leitstrategie muss außerdem auf die System-Grids zurückgekoppelt werden, die auf Basis der Szenarien erarbeitet wurden. Aspekte mit der Priorität 1 sollten vor allem die Kräfte der aktiven Bereiche nutzen und nicht nur auf die passiven zielen. Die Rückkopplung der Leitstrategie kann eine neue Gewichtung oder Verschiebung der Akzentsetzung bewirken und wird danach angepasst. In diesem Fall muss die Leistrategie noch einmal rückgekoppelt werden, zu der Ausgangssituation des Unternehmens in Schritt 1. Die in diesem Schritt aufgelisteten Ziele und Strategien müssen hinsichtlich der neuen Leitstrategie auf Übereinstimmung untersucht werden.[1] Zusätzlich muss geprüft werden, ob es Schwächen gibt, die sich negativ auf die Erreichung der Ziele auswirken oder Stärken, die sich positiv auf die Umsetzung der Leitstrategie auswirken. Hauptsächlich gibt es hierbei Unternehmen, die sich eher konservativ verhalten oder eher progressiv. Die konservative Verhaltensweise äußert sich in einer Konzentration auf Aspekte, die auf Stärken entsprechend der Ausgangssituation basieren. Hierbei werden gerne Aspekte außer Acht gelassen, die zu stärkeren Veränderungen im Unternehmen führen würden. Unternehmen mit einer progressiven Verhaltensweise versuchen gleichzeitig die interne Ausgangssituation zu verändern, um neue, attraktive, sich aus dem Szenario-Prozess ergebende Ziele zu erreichen. Einen Ausschnitt einer Leitstrategie befindet sich in Anhang 6. Ist diese nun also endgültig formuliert, wird ein Umfeldbeobachtungssystem aufgebaut. Hier werden die wichtigsten externen Entwicklungen, die das Unternehmen betreffen, mit den Leitstrategie-Aspekten verknüpft. Die daraus resultierenden Deskriptoren, mit dem höchsten Einfluss, werden in ein Beobachtungssystem überführt. Hierzu werden die Erkenntnisse aus der Sensitivitätsanalyse genutzt. Sie zeigen, welche Faktoren im externen Umfeld den größten Einfluss haben, folglich durch deren Veränderungen die meisten anderen Deskriptoren des Szenarios sich mit verändern. Aufgabe dessen ist es, Störereignisse so früh wie möglich zu erkennen. Eine weitere Aufgabe des Beobachtungssystems ist die Verknüpfung der tatsächlichen Entwicklungen der externen Faktoren mit der Leitstrategie und diese bei Abweichungen vorsichtig und so gut wie möglich anzupassen. Bei Veränderungen, die sich über einen längeren Zeitraum manifestieren, muss eine solche Anpassung unbedingt vorgenommen werden. Die Anpassung an die Strategie sollte nicht fundamental erfolgen, da so vorschnelle Veränderungen in der Strategie auf Dauer wieder hinfällig sein können. Erst wenn sich Veränderungen bei externen Entwicklungen nach mehreren Beobachtungs-zeitpunkten bestätigen, wird vorsichtig die Leitstrategie angepasst, ohne sie grundsätzlich zu verändern. Generell ist die Vorgehensweise eher langfristig ausgerichtet, da die Meilensteine weiter in der Zukunft liegen und schon daher kurzfristige Aktivitäten zu vermeiden sind.[2]


  1. Vgl. Reibnitz v., U., (1992), S. 65 ff..
  2. Vgl. Reibnitz v., U., (1992), S. 65 ff..

Ausgewählte Verfahren der AnnahmenbündelungBearbeiten

Hier kann in intuitive und algorithmische Verfahren unterschieden werden. Ein Beispiel für die intuitiven Verfahren ist das Best-guess-Verfahren, bei dem rein intuitiv festgelegt wird, welche Annahmen am wahrscheinlichsten sind. Im Folgenden werden jedoch nur die algorithmischen Verfahren näher betrachtet, die sich generell danach unterscheiden, ob sie sich als Basis der Konsistenzbewertungen oder der Wahrscheinlichkeiten bedienen.

Verfahrensgruppen nach Mißler-BehrBearbeiten

Die Gesamtmenge der Annahmebündel soll durch die algorithmischen Verfahren begrenzt werden. Hierbei unterscheidet man zwischen zwei Vorauswahlstufen, in denen die Annahmebündel schrittweise reduziert werden. Die nach einer ersten Vorauswahl verbleibenden Annahmebündel werden durch die sogenannten Klassifikationsverfahren auf die vom Anwender bestimmte Menge weiter reduziert. Je nach dem, wie die Bewertungskriterien definiert werden kommt es erst gar nicht zu einer zweiten Vorauswahlstufe, da die gewünschte Anzahl von Annahmebündeln schon erreicht ist. Im Folgenden werden die Verfahren der ersten Vorauswahlstufe ausführlicher erläutert.[1]


  1. Vgl. Dönitz, E., (2009), S. 25.

Enumerations- und Branch-und-Bound-VerfahrenBearbeiten

Die Enumerations- und Branch-und-Bound-Verfahren bauen auf der Konsistenzmatrix auf und der gesamte Szenarioraum wird in einer Baumstruktur abgebildet. Alle möglichen Kombinationen an Annahmen werden untersucht und hinsichtlich ihrer Gesamtkonsistenz bewertet. Die daraus entstehenden hochkonsistenten Annahmebündel kommen in die Vorauswahl. Hierbei spielt auch die durchschnittliche Konsistenz eine Rolle, da diese zur Ermittlung der Prägnanz des Annahmebündels dient. Je höher die durchschnittliche Konsistenz des Annahmebündels ist, desto größer ist die Prägnanz. Generell gibt es zwei verschiedene Vorgehensweisen. Eine Vorgehensweise untersucht mit Hilfe der vollenumerativen Verfahren alle Kombinationsmöglichkeiten.[1] Hier wird mit Hilfe wahrscheinlichkeitstheoretischer Zusammenhänge die Verteilung der zu erklärenden Größe auf dem analytischen Weg hergeleitet. Für jede denkbare Kombination der Inputgrößen wird die zu erklärende Größe berechnet und die zugehörige Wahrscheinlichkeitsverteilung konstruiert. Dieses Verfahren ist jedoch sehr aufwendig und wird eher selten verwendet. Die zweite Vorgehensweise, die beschränkten Enumerations- bzw. Branch-und-Bound-Verfahren schließen mit Inkonsistenzen behaftete Annahmebündel vorzeitig aus. Die Ausschlusskriterien können vom Anwender selbst festgelegt werden. Somit werden auch die Auswahlstufen, die zur Festlegung von Rohszenarien durchlaufen werden festgelegt.[2]

Folgende Ausschlusskriterien sind möglich:

Es kann eine Mindestkonsistenzgrenze für die Bündelkonsistenz eingeführt werden. Annahmebündel werden ausgeschlossen, wenn der durchschnittliche Konsistenzwert eine bestimmte Grenze unterschreitet. Annahmebündel die partielle Inkonsistenzen beinhalten, werden ausgeschlossen. Annahmebündel mit totalen Inkonsistenzen werden bei dem Auswahlverfahren nicht berücksichtigt. Außerdem können die Szenarien ausgewählt werden, die sich deutlich voneinander unterscheiden.

Algorithmische Verbesserungen gibt es bei den Verfahren von Nietsch, Weber und Wietheger aus dem Jahre 1985. Ein weiteres Verfahren hierzu ist das Programmpaket INKA von Geschka, 1998, sowie von Herzhoff, 2005. Vorteil bei diesen Verfahren ist, dass nur eine überschaubare Menge an Eingangsvariablen, also Konsistenzwerten benötigt wird. Bei der beschränkten Enumeration kann eine große Auswahl an Deskriptoren und Annahmen berücksichtigt werden und auf die Qualität der Ergebnisse kann Einfluss genommen werden. Hauptkritik ist hier die fehlende Berücksichtigung der Wahrscheinlichkeiten.[3]


  1. Vgl. Dönitz, E., (2009), S. 26.
  2. Vgl. Berndt, R., (2005), S. 98.
  3. Vgl. Dönitz, E., (2009), S. 26ff..

SimulationsverfahrenBearbeiten

Mit Hilfe von Simulationsverfahren werden die Auswirkungen untersucht, welche bei Eintritt oder Nichteintritt von Annahmen auf die restlichen Annahmen entstehen. Es werden hier dementsprechend sogenannte direkte und indirekte Kreuzeinflüsse der verschiedenen Annahmen aufeinander geprüft. Diese Kreuzeinflüsse werden auch als Cross-Impacts bezeichnet. Die entstehenden Auswirkungen werden mit Anpassungsfunktionen bewertet und zur Lösung derer wird die Simulation verwendet. Ziel von Simulationsmodellen ist es, die Realität in einem Modell nachzubilden und Erkenntnisse durch mehrmaliges Durchspielen dessen zu gewinnen. Pro Simulationslauf wird eine Annahme pro Deskriptor ausgewählt, um ein einziges Szenario pro Simulationslauf zu erstellen. Szenarien die insgesamt am häufigsten ermittelt werden, werden in die strategische Unternehmensplanung aufgenommen. Zu den Simulationsverfahren zählt die Cross-Impact-Analyse, welche auf der Konsistenzanalyse aufbaut. Das Fehlen jeglicher Aussagen bezüglich der Eintrittswahrscheinlichkeiten, wie bei andern Methoden der Szenarioerstellung, wird mit dieser Methode behoben. Die Cross-Impact-Methode ist ebenfalls eine Technik zur Prognose von Umweltentwicklungen, auf der Basis von Expertenurteilen und kann zur Erstellung von Szenarien verwendet werden.[1] Die verschiedenen Verfahren der Cross-Impact-Analyse lassen sich in drei Gruppen einteilen. Die korrelierte Cross-Impact- Analyse Hier werden Kreuzeinflüsse als bedingte oder gemeinsame Wahrscheinlichkeiten dargestellt. Bedingte Wahrscheinlichkeiten sagen etwas aus über die Abhängigkeit des Eintritts einer Annahme vom Eintritt bzw. Nichteintritt einer anderen Annahme. Gemeinsame Wahrscheinlichkeiten geben Auskunft über die Wahrscheinlichkeit des gleichzeitigen Eintritts zweier Annahmen.[2] Beide Wahrscheinlichkeitsformen können anhand von Eintritts-wahrscheinlichkeiten der Zukunftsprojektionen und der Konsistenzwerte mit Hilfe der linearen Optimierung ermittelt werden. Die statisch-kausale Cross-Impact-Analyse Dieses Verfahren basiert auf den kausal bedingten Wahrscheinlichkeiten, die sich auf einen Zukunftshorizont beziehen.[3] Hierzu ist die Eintrittsrangfolge der Annahmen festzulegen. Die dynamisch-kausale Cross-Impact-Analyse Im Gegenzug dazu werden bei dieser Analyse mehrere Zeithorizonte mit einbezogen. Dementsprechend können sich die Wirkungen der Wahrscheinlichkeiten über die Zeit entwickeln.[4]


  1. Vgl. Berndt, R., (1995), S. 46.
  2. Vgl. Dönitz, E., (2009), S. 28.
  3. Vgl. Gausemeier, J., Fink, A., Schlake, O., (1995), S. 263 f..
  4. Vgl. Dönitz, E., (2009), S. 28 f..

Weitergehende Reduktion der AnnahmebündelungBearbeiten

Falls die erste Vorauswahlstufe nicht ausreicht, um die Annahmebündel auf die ausgewählten Rohszenarien zu reduzieren, wird die Verwendung von Heuristiken und Klassifikationsverfahren empfohlen. Die Bewertungskriterien sind hier hohe Konsistenz, Stabilität und Unterschiedlichkeit. Eine heuristische Auswahl wird vorgenommen, indem das stimmigste Annahmebündel genommen wird und dazu dann das unterschiedlichste Bündel. Bei den Klassifikationsverfahren wird die Clusteranalyse bzw. die multidimensionale Skalierung eingesetzt. Bei der Clusteranalyse werden die Annahmebündel zu homogenen Gruppen zusammengefasst, die untereinander möglichst heterogen sein sollen. Die Multidimensionale Skalierung kann zur Ermittlung der optimalen Clusteranzahl miteinbezogen werden oder zur grafischen Darstellung der Distanzen zwischen den Clustern.[1]


  1. Vgl. Dönitz, E., (2009), S. 30 f..

Vor und Nachteile der Szenario-TechnikBearbeiten

Die Literatur der Zukunftsforschung wird von der Methode der Szenario-Technik dominiert. Allerdings gibt es keine fundierten empirischen Studien über die Effektivität dieser Methode in der Praxis. Abgesehen von der Shell-Studie, welche der Vorreiter auf diesem Gebiet war, gibt es kaum Studien zur Anwendung dieser Methode in der Unternehmensplanung. Die letzte Studie aus dem Jahr 1992 bestätigte, dass vor allem die Anwendung der Szenario-Technik von der Größe der Unternehmen, der Branche, der Stabilität des Umfeldes und der Zielbindung abhängt. In der Regel wird diese Methode in großen Unternehmen angewendet, die in kapitalintensiven Branchen agieren. Die Problematik der geringen Anwendung der Szenario-Technik liegt im lückenhaften Verständnis der Methode. Außerdem haben die Unternehmen oft nicht das notwendige Know-how zur Anwendung dieser Methode.[1] Bei der Betrachtung der Vor- und Nachteile bei der Planung mit Szenarien kann eine Differenzierung nach drei Kriterien vorgenommen werden. Dazu gehört zum einen die Beurteilung nach den primären Funktionen der Szenario-Technik, die sich auf ihre Zielsetzung beziehen. Ein Vorteil nach diesem Kriterium wäre die mögliche Erstellung von Szenarien basierend auf qualitativen und quantitativen Daten. Des Weiteren können Antriebskräfte zukünftiger Entwicklungen und Risikofaktoren identifiziert werden. Ein weiterer Vorteil ist die Erhöhung des Anregungswertes für neue Ideen. Auf der anderen Seite können Probleme bei der Auswahl der Basisszenarien entstehen oder Uneinigkeit über die strategische Ausrichtung des Unternehmens. Hinzuzufügen wäre weiterhin ein abnehmender Grad der Vorhersagbarkeit, mit der Verlängerung des Planungszeithorizonts auf der einen Seite und der Arbeit mit unsicheren Größen auf der anderen Seite. Das zweite Kriterium nach dem differenziert werden kann, sind die erwünschten und unerwünschten Nebeneffekte. Dazu gehört zum einen die Einbettung des jeweiligen Fachwissens zur Steigerung des globalen vernetzten Denkens. Zum anderen wird das Verständnis der Mitarbeiter für geplante Maßnahmen und entwickelte Strategien sensibilisiert. Das bedeutet für das Unternehmen aber gleichzeitig auch einen hohen Aufwand bei der Datenbeschaffung und Erstellung. Des Weiteren ist es möglich die Methode der Szenario-Technik auf ihre Vor- und Nachteile hinsichtlich der Methodik zu untersuchen. Der Vorteil liegt bei der systematischen Vorgehensweise und der Transparenz dieser Methode. Weiterhin ist die Nachvollziehbarkeit der Ereignisse als ein Vorteil zu nennen. Nachteilig sind aus der Sicht der Methodik die Einschränkung bei der Formulierung, die Eingrenzung des Themas und die fehlende Möglichkeit zur späteren Aufnahmen von Einflussfaktoren.[2]


  1. Vgl. Dönitz E. J. (2009), S.41.
  2. Vgl. Dönitz E. J. (2009), S. 42ff.