[Home]

Projektmanagement Plattform / Methoden Lexikon
 
StartSeite | ProjektmanagementPlattform/ | Beiträge | TestSeite | Teilnehmer | Projekte | Kategorien | Index | Einstellungen | Ändern

ProjektmanagementPlattform: /DefinitionsPhase /KonzeptionsPhase /SpezifikationsPhase /UmsetzungsPhase /AbschlussPhase

/MethodenLexikon /SchwarzesBrett (/Navigationsleiste)


Methodenverzeichnis
Die Informationsrecherche   
Die Befragung   
Multimomentstudie   
ABC-Analyse   
Ishikawadiagramm   
Brainstorming   
Methode 635   
Morphologische Matrix   
Synektik   
Nutzwertanalyse   
Kosten-Wirksamkeits-Analyse   

/SeiteXy

Die Informationsrecherche    

Methodische Grundlagen

Die Informationsrecherche ist eine indirekte Erhebungstechnik und wird meist verwendet, um sich einen Überblick über eine Materie zu schaffen. Es wird dabei auf bereits bestehende Unterlagen zurückgegriffen, so z.B. auf Patente, Berichte, Gutachten, Statistiken, Akten etc., wodurch eine beträchtliche Zeit- und Kostenersparnis zu erzielen ist (vgl. Haberfellner, 1994, S.481). Weil die Erhebungen mittels dieser Technik nicht vor Ort durchgeführt werden, sondern am Arbeitsplatz des Rechercheurs, wird in diesem Zusammenhang auch von Desk Research gesprochen (vgl. Schmidt, 1997, S.185).

Ablauf

Vor Beginn der Recherchetätigkeit sollte eine Checkliste der möglichen Datenquellen erstellt werden, die anschließend systematisch abzuarbeiten ist. Sind die Rechercheergebnisse für mehr als eine Person relevant und/oder sind darüber hinaus die Quellen zahlreich, bietet sich die Möglichkeit einer strukturierten Auswertung an, wobei die für die vorausgehende Idee interessanten Punkte tabellarisch zu Vergleichszwecken herausgehoben werden (vgl. Schmidt, 1994, S.186).

Regeln

Mit Anwendung dieser Methode sollte immer eine Prüfung der Daten auf ihre Richtigkeit, Vollständigkeit und Aktualität einhergehen, um eine seriöse Grundlage im weiter zu verwendenden Denkmodell zu schaffen (vgl. Aggteleky/Bajna, 1992, S.66). Hilfreich in diesem Zusammenhang sind Fragestellungen wie beispielsweise:

Stärken und Schwächen, Chancen und Risiken

Zu den Vorteilen der Informationsrecherche zählen die geringen Kosten, die Möglichkeit einer schnellen anfänglichen Orientierung innerhalb einer Thematik, sowie – speziell im Zusammenhang mit zu untersuchenden soziologischen beziehungsweise soziotechnischen Systemen – die Vermeidung von Unruhe bei den betroffenen Personen, die bei direkten Erhebungen auftreten können (vgl. Schmidt, 1994, S.186). Als nachteilig sind die durch den Vergangenheitsbezug naturgemäß mangelnde Aktualität sowie die Unsicherheit über die Richtigkeit der Daten zu sehen. Daraus ergibt sich das mögliche Risiko, zwischenzeitlich aufgetretene Entwicklungen zu übersehen und bereits überholte Planungsinhalte zu erstellen. Um die kurze Dauer des xPD-Prozessdurchlaufes zu gewährleisten, ist es gerade in diesem Fall wünschenswert, unter Verwendung eines Wissensmanagementsystems möglichst rasch die vorhandenen Datenbestände durchsuchen zu können. Eine Möglichkeit zur systematischen Erfassung von bestehenden Erkenntnissen und somit zur Optimierung dieser Methodik stellt das Prinzip des Knowledge Mining dar (vgl. Schweizer, 2001, S.264 f.). Hierbei wird nicht auf eine herkömmliche Stichwortsuche auf Dokumentebene zurückgegriffen, sondern es werden Textinhalte erkannt und systematisch erfasst. Der sogenannte SAO-Algorithmus (Subjekt Aktion Objekt) von Valery Tsurikov besitzt die Fähigkeit, Ursache-Effekt-Relationen im Text zu erkennen, womit Probleme und deren Lösungen jeweils in eigenen Kategorien erfasst werden. Der Nachteil der Suche auf Dokumentebene besteht darin, dass Probleme und deren Lösungen oftmals in unterschiedlichen Texten enthalten sind und somit nicht gemeinsam in einem Suchergebnis aufscheinen. Der SAO-Algorithmus jedoch schafft eine übergeordnete Verbindung und referenziert erst bei Bedarf auf die zutreffenden Dokumente. Die dazugehörige Softwareapplikation trägt den Namen „Goldfire“ und wird von der Firma Invention Machine, deren Besitzer wiederum Valery Tsurikov ist, vertrieben (vgl. http://www.invention-machine.com).

Die Befragung    
Weil Innovationen per definitionem immer einen soziologischen Bestandteil aufweisen, sollten bei Unklarheiten hinsichtlich der weiteren Entwicklung immer potentielle Kunden befragt werden (z.B. Lead User). Damit können aus erster Hand Erwartungen, Informationen über bestehende Missstände, Ideen und Erfahrungen erhalten werden.

Methodische Grundlagen

Es wird grundsätzlich zwischen schriftlicher Befragung via Fragebogen beziehungsweise mündlicher Befragung via Interview unterschieden (vgl. Schmidt, 1997, S.156 ff.):

Im Interview antwortet der Befragte auf Fragen, die entweder vom Interviewer vorgelesen oder frei formuliert werden. Diese Art der Befragung findet vor allem bei komplexeren und spezifischeren Thematiken ihre Anwendung, vor allem, wenn damit gerechnet werden muss, dass während der Beantwortung individuelle Erklärungen notwendig werden. Das Prinzip des Fragebogens zielt dagegen aufgrund der möglichst hohen Anzahl von Rückmeldungen auf eine breite Informationsbeschaffung ab, um stichhaltige quantitative, statistische Schlussfolgerungen zu gewährleisten. Die beiden Befragungsarten können unterschiedliche Freiheitsgrade in der Beantwortung aufweisen und werden daher klassifiziert in

Klassische Fragebögen sind die typische Ausprägung von standardisierten Befragungen: Die Antwortmöglichkeiten sind vorgegeben und erleichtern so die Auswertung. Dadurch dass der Befragte durch den nicht gegebenen Spielraum keine zusätzlichen Aspekte einbringen kann, sind die Fragen bereits bei der Erstellung auf die Abdeckung des zu eruierenden Sachverhalts zu prüfen (vgl. Schmidt, 1997, S.168). Da der Rücklauf von Fragebögen in der Regel gering ausfällt, besteht auch die Möglichkeit, Interviews – eventuell auch telefonisch – nach diesem Schema zu führen. Halbstandardisierte Befragungen fixieren zwar Rahmen und Themen, allerdings bleiben die Antwortmöglichkeiten dem Befragten überlassen. Diese Art der Fragestellung wird oftmals mit dem standardisierten Schema kombiniert, um neben quantitativen Aussagen auch qualitative Eindrücke zu erhalten (vgl. Atteslander, 2003, S.147). Um grundsätzliche Stimmungsbilder und grobe Orientierungsrahmen im Sinne einer Sondierung zu erhalten, eignen sich nicht-standardisierte Befragungen, bei denen nur das Thema, nicht jedoch konkrete Fragestellungen oder Antwortmöglichkeiten vorgegeben sind. Während sich so der Vorbereitungsaufwand minimal ausnimmt, gestaltet sich die Auswertung sehr schwierig, da Aussagen oftmals nur sehr grob kategorisiert werden können (vgl. Atteslander, 2003, S.147).

Ablauf

Bei der Betrachtung der Befragung als Instrument der empirischen Sozialforschung lassen sich die dafür typischen fünf Phasen identifizieren (vgl. Atteslander, 2003, 22):

  1. Problembenennung: In dieser Phase wird das Problem näher definiert und geklärt, inwieweit Befragungen Klarheit schaffen können.
  2. Gegenstandsbenennung: Es werden der Zeitraum, der Gegenstandsbereich und der Feldzugang definiert.
  3. Durchführung der Befragung: Hier werden die Befragungsmethoden gewählt, konkretisiert und einem Tauglichkeitstest unterzogen, welcher besonders bei Fragebögen aufgrund der fehlenden Feedbackmöglichkeiten vonnöten ist. Ziel hierbei ist es, die Zuverlässigkeit, Richtigkeit und die Verständlichkeit der Fragen sicherzustellen. Anschließend erfolgt die Haupterhebung.
  4. Analyse der Befragungsergebnisse: Die erhobenen Daten werden aufbereitet, wobei diese Tätigkeit bereits in die nächste xPD-Phase, in die Analyse fällt, und nur der Vollständigkeit halber in diesem Kontext erwähnt werden soll.
  5. Verwendung der Ergebnisse: Es gilt der Sachverhalt analog zu Schritt vier, jedoch können die Ergebnisse nicht nur in der Entwurfsphase des xPD-Verfahrens verwendet werden, sondern auch dessen vierte Phase, den Test, beeinflussen.
Regeln

Eine Voraussetzung für die Verwendung dieser Methode ist darin zu sehen, dass die geforderten Sachverhalte verbal darstellbar sind und die befragten Personen kompetent Stellung dazu nehmen können (vgl. Haberfellner et al., 1994, S.483). Allein die Form der Fragestellungen reicht aus, um Antworten stark zu beeinflussen und somit den Aussagegehalt in hohem Maße zu verfälschen. Aus diesem Grund bietet sich diesem Zusammenhang die so genannte KROKUS-Regel an (vgl. Schmidt, 1997, S.165):

Kurze Fragen stellen

Redundante Fragen vermeiden

Offene Fragen stellen (betrifft Befragungen nach halb- oder nicht-standardisiertem Schema)

Konkrete Fragen stellen

Unterfragen und Kettenfragen vermeiden

Suggestive Fragen vermeiden

Stärken und Schwächen, Chancen und Risiken

Die meisten Vorteile der beiden Befragungstechniken lassen sich realisieren, wenn diese in Kombination eingesetzt werden (vgl. Schmidt, 1997, S.170). Denkbar wären einige nicht-standardisierte Interviews zur Sondierung und Hypothesenbildung, anschließend standardisierte Fragebögen zur stichhaltigen Überprüfung der Annahmen und zuletzt halbstandardisierte Interviews zur Klärung von etwaigen offenen Punkten. Ein spezieller Vorteil von Fragebögen ist die Möglichkeit der Anonymisierung, womit die Wahrscheinlichkeit einer ehrlichen, unverfälschten Antwort steigt.

Der generelle Nachteil von Befragungstechniken besteht darin, dass die Ergebnisse nie die exakte tatsächliche Situation widerspiegeln. Dies liegt vor allem daran, dass das Umfeld durch individuelle, nicht vorhersehbare Wertvorstellungen und Erwartungen der Befragten nie vollständig kontrolliert werden kann. Es wäre daher risikoreich, nur auf die Methode der Befragung zurückzugreifen. Die Methodik der Beobachtung stellt den Versuch dar, diese Subjektivität weitgehend zu verhindern, wobei nachfolgend stellvertretend die Multimomentstudie vorgestellt werden soll.

Multimomentstudie    

Methodische Grundlagen

Der Begriff Multimomentstudie wurde 1954 vom niederländischen Ingenieur de Jong geprägt, wobei über die Anwendung dieser Methodik bereits in den Zwanziger und Dreißiger Jahren des vorigen Jahrhunderts in Deutschland beziehungsweise in den USA berichtet wurde (vgl. Haberfellner et al., 1994, S.507).

Die Multimomentstudie zielt darauf ab, aus einer begrenzten Anzahl beobachteter Fälle, einer Stichprobe, auf die Grundgesamtheit zu schließen. Somit können Aussagen über die Dauer permanent wiederkehrender Vorgänge und Größen beliebiger Art mit einer statistischen Sicherheit von 95% getroffen werden (vgl. Schmidt, 1997, S.172). Verwendungsmöglichkeiten sind beispielsweise die Ermittlung von Störungen von Abläufen, Materialbewegungen, Nutzungszeiten von technischen Einrichtungen etc. (vgl. Haberfellner et al., 1994, S.507).

Ein Anwendungsfall im xPD-Prozess könnte beispielsweise die Messung des tatsächlichen Nutzungsgrades eines neuen Systems in einer Organisation sein, indem die Arbeitsweisen der Mitarbeiter beobachtet werden. Der konkrete Anlass könnte beispielsweise eine durch Tests festgestellte mangelnde Akzeptanz des Prototyps sein, die im Sinne einer Systemverbesserung zuerst untersucht werden muss.

Ablauf

Folgende Schritte sind zur Erstellung einer Multimomentstudie zu empfehlen (vgl. Schmidt, 1997, S.173 ff.):

Die Ermittlung der Beobachtungszeitpunkte sollte auf Zufallszahlen basieren (vgl. Deym et al., 1979, S.329): So könnte beispielsweise eine Zahl zwischen 1 und 100 den zeitlichen Abstand in Minuten zwischen zwei Beobachtungsvorgängen festlegen.

Regeln

Folgende Voraussetzungen müssen für den erfolgreichen Einsatz der Multimomentstudie gegeben sein (vgl. Deym et al., 1979, S.329 f.):

  1. Die betroffenen Personen müssen über Sinn und Zweck der Erhebung ausreichend informiert sein, um einerseits das Arbeitsklima nicht zu gefährden und um andererseits nicht mit rechtlichen Bestimmungen in Konflikt zu geraten.
  2. Die Beobachter sollten sich so diskret wie möglich verhalten, um die Ergebnisse möglichst wenig zu verzerren.
Stärken und Schwächen, Chancen und Risiken

Verglichen mit der alternativen Methodik der ständigen Beobachtung weist die Multimomentstudie die besonders im xPD-Kontext geforderten Merkmale geringe Zeit- und Kostengünstigkeit auf, während bei erstgenannter Technik neben der hohen Ressourcenbelastung auch eher die Gefahr einer Beeinflussung der zu untersuchenden Thematik besteht (vgl. Schmidt, 1997, S.171). Als weitere Vorteile sind die schnelle Auswertbarkeit der Daten durch EDV-Systeme und die Möglichkeit mehrerer simultaner Multimomentstudien aufgrund des kurzen Beobachtungsvorganges zu nennen (vgl. Schmidt, 1997, S.182). Es ist jedoch darauf zu achten, dass die Anzahl der Beobachtungsvorgänge, d.h. die Häufigkeit der Stichproben, ausreichend dimensioniert sein muss, um die für die jeweilige Situation gewünschte Stichhaltigkeit zu erreichen (vgl. Haberfellner et al., 1994, S.507).

ABC-Analyse    

Methodische Grundlagen

Die ABC-Analyse - auch unter dem Namen Pareto-Diagramm bekannt - geht auf eine Entwicklung des Italieners Vilfredo Pareto aus dem Jahr 1895 zurück und basiert auf der Beobachtung, dass in der Regel „mit 20 bis 30% der vorgesehenen Maßnahmen bereits 70 bis 80% des Ergebniseffekts realisiert werden können“ (vgl. Seibert, 1998, S.43). Die ABC-Analyse ist ein strategisches Instrument der Ist-Erhebung, das dazu dient, eine größere Anzahl von Daten nach bestimmten Kriterien zu klassifizieren. Somit können Schwerpunkte gefunden werden, die es leichter ermöglichen sollen, beschränkte Kapazitäten für ausschlaggebende Aufgaben zu verwenden (vgl. Domschke/Scholl, 2000, S.134 f.). Die ABC-Analyse kann in Bezug auf den Problemlösungsprozess dazu dienen, Aufgaben zu analysieren und Prioritäten zu setzen, indem die einzelnen Aufgaben nach ihrer Relevanz gegliedert werden und dann die Anteile der Aufgaben am Gesamtumfang gemessen werden. Durch Kombination mit der XYZ-Analyse kann eine weitere Priorisierungskategorie hinzugenommen werden (vgl. Domschke/Scholl, 2000, S.136).

Ablauf

Die ABC-Analyse besteht aus folgenden sechs Schritten:

1. Betrachtungsobjekt wählen: In diesem Schritt wird festgelegt, welcher Sachverhalt zu analysieren ist. In den meisten Fällen sind dies Aufgaben, Produkte, Kunden, Lieferanten, Einkaufteile oder Fehler.

2. Kategorisierung des Betrachtungsobjekts: Hier gilt es, die oben ausgewählten Sachverhalte für die weitere Verwendung sinnvoll einzuteilen. Es gibt einerseits die Möglichkeit, beispielsweise alle Produkte aufzuzählen, oder andererseits auch Produktklassen zu bilden (vgl. Domschke/Scholl, 2000, S.204). Anschließend werden die Objektkategorien anhand ihrer Größe gereiht (z.B. Länge der Aufgabendauer, Anzahl der Produkte etc.)

3. Festlegen des Entscheidungskriteriums: Meist werden folgende Kriterien angewandt (vgl. z.B. Seibert, 1998, S.44 oder Schmidt, 1997, S.237):

4. Bedeutung der Objektkategorie gemessen am Kriterium: Nun wird bestimmt, welchen Anteil die jeweilige Objektkategorie am Gesamtumfang des Kriteriums ausmacht. Hierbei können einerseits absolute Werte verwendet werden, oder andererseits auch Prozentanteile (wobei sich immer eine Summe von 100% ergeben muss).

5. Definieren der Klassen-Intervalle: In diesem Schritt werden die oben bewerteten Objektkategorien in folgende Klassen zusammengefasst (vgl. Schierenbeck, S.1989, S.186):

Folgende Richtwerte zur Klassenbildung seien genannt (vgl. Deym et al. 1979, S.327):
 Klasse	Wertanteil	Mengenanteil
 A	ca. 60 – 85 %	ca. 10 %
 B	ca. 10 – 25 %	ca. 20 – 30 %
 C	ca. 5 – 15 %	ca. 70 – 80 %
Die Rangfolge der Objektkategorien bietet oftmals eine Hilfestellung bei der Klassifizierung.

6. Treffen von Maßnahmen: Die Ergebnisse der ABC-Analyse können nun für die weitere Planung oder Problemlösung verwendet werden. Es besteht auch die Möglichkeit, zwei Entscheidungskriterien gleichzeitig zu verwenden. Dies geschieht mit der kombinierten ABC/XYZ-Analyse. Diese kann beispielsweise in der Risikoanalyse eingesetzt werden (vgl. ABC Analyse.info, http://www.abc-analyse.info/abc-xyz). Eine Dimension beschreibt die Eintrittswahrscheinlichkeit, die andere die Folgekosten. Das Resultat ist eine 3x3-Matrix mit neun Feldern Sie wird auch häufig in der Materialwirtschaft eingesetzt, wo zusätzlich beispielsweise der Verbrauch der Güter klassifiziert wird (vgl. Schierenbeck, 1989, S.187)

Regeln

Um eine zulässige ABC-Analyse zu ermöglichen, müssen die Betrachtungsobjekte homogen sein.

Stärken und Schwächen, Chancen und Risiken

Ein wichtiger Vorteil der ABC-Analyse im Problemlösungsprozess liegt darin, dass in relativ kurzer Zeit die wirklich entscheidenden Faktoren aus einer Menge herausgefiltert werden können und - darauf basierend - im weiteren Verlauf Verbesserungsmöglichkeiten möglichst effizient durchgeführt werden können. Da die zugrundeliegenden Daten entscheidend für den Aussagegehalt dieser Analyse sind, ist es unumgänglich, diese im Vorfeld ausführlich auf ihre Richtigkeit zu prüfen. Auch wenn die Daten direkt aus einem EDV-System entnommen werden, sollte hinterfragt werden, inwieweit die Datenbestände gepflegt wurden. Die ABC-Analyse ist ein Instrument der (Ist-)Analyse, d.h. Ergebnisse basieren auf Daten aus der Vergangenheit und lassen sich deshalb nur bedingt in die Zukunft projizieren. So ist es beispielsweise durchaus möglich, dass aus einem C-Kunde ein A-Kunde wird und umgekehrt.

Ishikawadiagramm    

Methodische Grundlagen

Das Ishikawadiagramm bezieht seinen Namen von dem Japaner Kaoru Ishikawa (1915-1989), der zahlreiche Werkzeuge zur Qualitätssicherung entwickelte. Das Ishikawadiagramm ist eine grafische Technik zur Systemoptimierung und Fehlerursachenanalyse, mit der logische Zusammenhänge zwischen Fehlern und daraus entstehenden Ereignissen dargestellt werden können. Mit dieser Analysemethode ist es möglich, auch sehr komplexe Problemstellungen beziehungsweise ganze Prozesse gut überschaubar zu gestalten (vgl. http://www.quality.de/lexikon/ishikawa-diagramm.htm). Synonyme für diese Darstellungsart sind „Fehlerbaum“, „Fischgrätdiagramm“, „Fishbonediagramm“, „Ursache-Wirkungsdiagramm“ oder „Tannenbaum-Diagramm“ (vgl. http://www.projektmanagement-glossar.de/glossar/gl-0516.html).

Ablauf

Die Analyse der Fehlerursachen lässt sich in drei Schritte gliedern: 1. Gruppierung der Ursachen: Hier werden Problemfaktoren zu Typen zusammengefasst, die in Summe schließlich das bestehende Problem verursachen. Es bietet sich in diesem Zusammenhang die 7-M-Methode an, die alle möglichen Ursachen auf die Bereiche Mensch, Maschine, Material, Methode (Verfahren), Messung, Milieu und Management zurückführt (vgl. Seibert, 1998, S.35).

Es ist jedoch auch möglich, Prozesse zu analysieren, indem mehrere Diagramme in Serie erstellt werden, die jeweils einen Prozessschritt symbolisieren (vgl. Abbildung).

(Quelle: Seibert, 1998, S.36, abgeändert)

2. Erfassung der Einzelursachen: Nun wird in Gruppendiskussionen unter Rückgriff auf Kreativitätsmethoden wie beispielsweise Brainstorming versucht, für alle Faktorentypen einzelne Ursachen zu finden (vgl. Seibert, 1998, S.36).

3. Bewertung der Ursachen: Hier werden die Ursachen anhand der Schwere ihrer Auswirkungen priorisiert, um für den nächsten Schritt, die Entwurfsphase (vgl. Kapitel 4.3), einen Problemkatalog zu schaffen.

Regeln

Das Problem sollte vor Erstellung des Ishikawadiagramms bereits so genau wie möglich beschrieben werden, um eine korrekte Grundlage für die Ursachenfindung zu schaffen (vgl. Paral, 2000, http://www.uni-karls-ruhe.de/~map/nursache_wirkungsdiagramm_b.html)

Stärken und Schwächen, Chancen und Risiken

Die Methodik des Ishikawadiagramms kann sehr rasch und unkompliziert eingesetzt werden, wodurch eine schnelle Reaktion auf plötzlich auftretende Probleme ermöglicht wird. Des weiteren ist eine gute Kombinationsmöglichkeit mit den vorhin besprochenen Erhebungsmethoden gegeben, da letztere möglichst detaillierte Problembeschreibungen liefern und somit die Grundlage für die stichhaltige Ursachenanalyse schaffen können. In umgekehrter Weise können auch die durch das Ishikawadiagramm identifizierten Ursachen zur Grundlage einer weiteren Erhebung werden, um diese weiter zu spezifizieren.

Weitere Vorteile dieser Technik sind in den folgenden Punkten zu sehen (vgl. Seibert, 1998, S.37): Die Problemlöser können alle Aspekte des Problems betrachten und müssen sich nicht auf einen Problemausschnitt beschränken. Es ist jedoch möglich, zur Vereinfachung vorübergehend Teilbereiche herauszunehmen - beispielsweise Prozessschritte - um diese dann später wieder zu integrieren. Als nachteilig ist anzumerken, dass das Ishikawadiagramm nur reaktiver und nicht präventiver Natur ist (vgl. Paral, 2000, http://www.uni-karls-ruhe.de/~map/nursache_wirkungsdiagramm_b.html).

Brainstorming    

Methodische Grundlagen

Diese wohl bekannteste Kreativitätsmethode wurde von A. Osborn Ende der Dreißiger Jahre des vorigen Jahrhunderts entwickelt. Es handelt sich um „eine Form gemeinsamen Nachdenkens und gemeinsamer Ideenfindung über ein vorgegebenes Problem unter Leitung eines Diskussionsmoderators“ (vgl. Deym et al., 1979, S.288).

Ablauf

Die mit einer maximalen Dauer von 30 Minuten festzusetzende Brainstorming-Sitzung besteht aus zwei Phasen, die auch öfters abwechselnd durchlaufen werden können.

In der ersten Phase werden Ideen entwickelt, wobei die vier Prämissen gelten: „(1) Criticism is ruled out. Adverse judgement of ideas must be withheld until later. (2) “Free-wheeling” is welcomed. The wilder the idea, the better; it is easier to tame down than to think up. (3) Quantity is wanted. The greater the number of ideas the more likelihood of useful of ideas. (4) Combination of improvement are sought. In addition to contributing ideas of their own, participants should suggest how ideas of others can be turned into better ideas; or how to or more ideas can be joined into still another idea.” (vgl. Osborn, 1966, S.151 ff., zit. nach Hauschildt, 1997, S.315).

In der zweiten Phase können die Ideen gestaltet werden und um weitere Einfälle ergänzt werden. Gestaltungsmöglichkeiten sind beispielsweise eine Verwendung in anderem Kontext, eine Modifizierung, das Kombinieren, Substituieren, Magnifizieren, Minifizieren etc. (vgl. Sikora, 1975, S.44). Diese Phase scheint relativ unbekannt sein, in vielen Abhandlungen der Brainstorming-Methodik fehlt sie völlig (vgl. z.b. Deym et al., 1979, S.288 ff., Schmidt, 1979, S.274 f., Vahs/Burmester, 2002, S.166 ff.).

Nach Abschluss der Kreativitätsphase und Generierung möglichst vieler Ideen werden diese in der Gruppe hinsichtlich ihrer Realisierbarkeit überprüft, d.h. erst jetzt darf Kritik angebracht werden (vgl. Deym et al., 1979, S.291).

Regeln

Die Einhaltung folgender Regeln ist die Voraussetzung für produktive Brainstorming-Sitzungen (vgl. z.b. Haberfellner et al., 1994, S.446). Es ist auf die strikte Vermeidung von Kritik und so genannten Killerphrasen zu achten, um die Spontaneität der Gruppenmitglieder zu wahren und zu fördern. Die Größe der Gruppe sollte zwischen fünf und zwölf Teilnehmern liegen, wobei die Gruppe selbst „fachlich heterogen“ und „sozial homogen“ sein sollte, um Interdisziplinarität zu nutzen und gleichzeitig Hemmungen durch Rangunterschiede zu vermeiden (vgl. Hauschildt, 1997, S.315).

Stärken und Schwächen, Chancen und Risiken

Durch die rasche Einsetzbarkeit ist die Brainstorming-Methode generell sehr beliebt. Es besteht jedoch das Risiko, dass sich aufgrund von Hemmungen nicht alle Gruppenmitglieder in vollem Ausmaß beteiligen. Durch empirische Untersuchungen wurde inzwischen belegt, dass reine interaktive Gruppen weniger Ideen liefern als Teams, deren Mitglieder zuvor eine individuelle Ideensuche durchführen (vgl. Hauschildt, 1997, S.316 ff.). Die Methode 635 ist ein Beispiel für die letztgenannte Kombination.

Methode 635    

Methodische Grundlagen

Die Methode 635 wurde von B. Rohrbach entwickelt und stellt insofern eine Weiterentwicklung des Brainstorming-Prinzips dar als diese sehr formalisierte Technik stark die Weiterentwicklung und Verfeinerung individueller Einfälle aufgreift (vgl. Vahs/Burmester, 2002, S.168). Die sechs teilnehmenden Gruppenmitglieder werden dazu angehalten, für sich selbst jeweils drei Ideen zu einem vorgegebenen Problem niederzuschreiben, die anschließend mittels fünf Weitergaben von den weiteren Mitgliedern sukzessive ergänzt werden, wodurch die akustische Wiedergabe von Einfällen wie beispielsweise im Brainstorming entfällt.

Ablauf

Der Ablauf einer 635-Sitzung gestaltet sich wie folgt: Im Vorfeld wird in der Gruppe über eine Problemstellung diskutiert, ohne jedoch Lösungsvorschläge einzubringen. Ist Anonymität gefordert oder sollte jegliche Interaktion zwischen den Teilnehmern vermieden werden, ist die Aufgabenstellung naturgemäß einzeln vorzulegen. Dieses Vorgehen ist bei großen Rangunterschieden zwischen den Teilnehmern durchaus zu empfehlen (vgl. Hauschildt, 1997, S.317). Anschließend beschreibt jeder Teilnehmer jeweils drei Ideen auf spezielle Formulare, welche dann an das jeweils nächste Gruppenmitglied weitergegeben werden. Die folgende Abbildung zeigt diesen Ablauf (vgl. Deym et al., 1979, S.293). Aufgrund des im Verlauf einer 635-Sitzung steigenden Informationsgehalts sollten auch die Bearbeitungszeiten schrittweise vergrößert werden, beispielsweise von fünf Minuten für die erste Runde bis zu zehn Minuten für den letzten Schritt (vgl. Deym et al., 1979, S.294).

In der Nachbereitungsphase gilt es schließlich Doppelnennungen und eventuelle Unklarheiten zu beseitigen (vgl. Vahs/Burmester, 2002, S.169).

Regeln

Um die 635-Methode möglichst effizient ablaufen zu lassen, sollte auf die Einhaltung folgender Regeln geachtet werden:

1. Um während der Kreativphase eine erhöhte Konzentration der Teilnehmer zu gewährleisten, sollten diese nicht miteinander sprechen.

2. Die offene oder verdeckte Nennung von Lösungsmöglichkeiten sollte in der Vorbereitungsphase unbedingt vermieden werden, soll eine unbeeinflusste Ideenproduktion stattfinden.

Stärken und Schwächen, Chancen und Risiken

Aufgrund der schriftlichen Festhaltung und der Assoziation mit bereits bestehenden Einfällen sind die generierten Ideen meist fundierter, abgerundeter und deshalb insgesamt besser verwendbar als jene, die in vergleichbaren Brainstorming-Sitzungen entstanden sind. Der Preis dafür ist jedoch eine meist geringere Originalität und Spontaneität (vgl. Deym et al., 1979, S.294).

Darüber hinaus ist die Gefahr der sozialen Überforderung der Gruppe durch große Rangunterschiede zwischen den Teilnehmern mittels der Option auf Anonymität ausschließbar (vgl. Hauschildt, 1997, S.318). Es bietet sich an, das Brainstorming mit dieser Brainwritingmethode zu kombinieren, wobei die vielversprechendsten Ergebnisse der Brainstormingsession als Vorgabe zur weiteren schriftlichen Vertiefung dienen (vgl. Schmidt, 1997, S.276).

Morphologische Matrix    

Methodische Grundlagen

Die Morphologische Matrix - auch bekannt als morphologischer Kasten - wurde 1966 vom Schweizer F. Zwicky mit der Absicht entwickelt, aus einer endlichen Zahl an Kriterien ganzheitliche Lösungskombinationen zu erstellen. Der Begriff Morphologie bezieht sich auf die Gestaltung und Formung eines Sachbereichs (vgl. Hauschildt, 1997, S.325).

„Die Anwendung der Morphologischen Methode gibt uns die größtmögliche Sicherheit, daß nichts vergessen wird, was für die Beleuchtung aller Aspekte eines vorgegebenen Problems von Wichtigkeit ist.“ (vgl. Zwicky, 1966, S.114, zit. nach Hauschildt, 1997, S.326)

Ablauf

Die Morphologische Matrix wird auf folgende Weise erstellt (vgl. Schmidt, 1997, S.277): 1. Im Rahmen der Vorbereitung ist das Problemfeld zu bestimmen und abzugrenzen.

2. Anschließend ist das Problemfeld in mehrere voneinander unabhängige Teilfelder - auch Parameter genannt - zu untergliedern, für die jeweils möglichst alle Lösungsmerkmale aufgelistet werden. Dies kann entweder analytisch oder auch intuitiv etwa in Form von Brainstormings geschehen.

3. Jede Kombination von Lösungsmerkmalen stellt eine Lösungsvariante für das Gesamtproblem dar, wobei die vielversprechendsten noch ohne kritische Bemerkung mittels einer Profilkurve gekennzeichnet werden. Erst im letzten Schritt werden die zuvor herausgefilterten Varianten einer Bewertung unterzogen und auf ihre Tauglichkeit hin überprüft.

Regeln

Es ist unbedingt darauf zu achten, dass die Gestaltungsparameter unabhängig, d.h. vollständig voneinander abgrenzbar sind, um in sich widersprüchliche Kombinationen zu vermeiden. Gegebenenfalls müssen stark verflochtene Parameter zusammengefasst werden (vgl. Deym et al., 1979, S.305). Um die Zahl an Lösungskombinationen nicht zu hoch werden zu lassen, erscheint die Begrenzung auf je fünf Parameter und Lösungsmerkmale sinnvoll, wobei sich auch hier schon 3125 Lösungsmöglichkeiten ergeben (vgl. Deym et al., 1979, S.305).

Stärken und Schwächen, Chancen und Risiken

Der Vorteil der morphologischen Matrix besteht primär in der übersichtlichen und im Idealfall vollständigen Darstellung der Problemstruktur (vgl. Vahs/Burmester, 2002, S.171). Der Aufwand zur Erfassung möglichst vieler Parameter ist jedoch hoch und erfordert detailliertes Fachwissen. Darüber hinaus ist die Bewertung für die Vielzahl an Lösungsmöglichkeiten ebenfalls sehr zeitaufwendig. Hauschildt (1997, S.329) sieht daher den Wert der morphologischen Matrix eher im Prozess als im Ergebnis: Das Gespräch der Spezialisten wird durch die systematische Abarbeitung von vielversprechenden Kombinationen geordnet und ausgerichtet.

Synektik    

Methodische Grundlagen

Die Methode der Synektik, in den USA der Sechziger Jahre von W.J.J. Gordon entwickelt, ist eine Kreativitätsmethode, die sowohl aus intuitiven als auch systematischen Elementen besteht. Die Basis bildet die Brainstormingtechnik, die „in einem Prozess stufenweiser Analogiebildung angewendet wird“ (vgl. Haberfellner, 1994, S.544).

Gordon selbst sieht zwei Vorgänge im Synektikprozess: „(i) making the strange familiar; (ii) making the familiar strange.” (vgl. Gordon, 1961, S.33-35, zit. nach Hauschildt, 1997, S.322).

Die Synektik ist auch als eine Methode der intuitiven Konfrontation bekannt, da der Umstand genutzt wird, dass neue Ideen oft durch Beobachtung von Objekten oder Prozessen gefunden werden, die sich zwar in völlig anderem Kontext befinden, sich jedoch analog zur Problemstellung verhalten (vgl. Vahs/Burmester, 2002, S.171).

Ablauf

Eine Synektiksitzung besteht in der Regel aus fünf bis sieben kreativen und fachlich heterogenen Teilnehmern und dauert meist mindestens 90 Minuten. Die erforderlichen Arbeitsschritte werden im Anschluss beschrieben.

Präparation: Zu Beginn erläutert der Moderator das vorgegebene Problem und die Gruppe analysiert und definiert die Thematik, wobei bereits spontane Einfälle festgehalten werden. Nun beginnt der Verfremdungsprozess, indem nach Analogien in anderen Bereichen gesucht wird, z.B. in der Natur. Stellt die Gruppe fest, dass der Verfremdungseffekt bereits wurde, kann direkt zur Illuminationsphase übergegangen werden. Inkubation: Um die Verfremdung zu forcieren, werden weitere persönliche, symbolische und möglichst phantasiereiche Analogien, oftmals mit inhärenten Widersprüchen, gebildet. Diese ergeben in Kombination mit den Analogien der Präparationsphase das mögliche Lösungsspektrum. Illumination: Hier werden die Analogien durch die Übertragung auf die Problemstellung auf ihre Verwendbarkeit hin überprüft. Dieser Schritt wird auch als force-fit bezeichnet, da die Übertragung oftmals erzwungen werden muss (vgl. Haberfellner et al., 1994, S.544). Verifikation: Nun werden Lösungskonzepte erarbeitet und die Synektiksitzung gilt als beendet.

Regeln

Es gilt auch bei dieser Kreativitätsmethode die Regel, dass Lösungsvorschläge außer in der Abschlussphase nicht kritisiert oder bewertet werden dürfen, um den Ideenfluss nicht ins Stocken geraten zu lassen. Da an den Moderator hohe Anforderungen gestellt werden, empfiehlt es sich, externe, speziell in dieser Methodik geschulte Experten zu engagieren (vgl. Hauschildt, 1997, S.324).

Stärken und Schwächen, Chancen und Risiken

Die Methode der Synektik produziert meist wenige, dafür jedoch sehr nützliche Ideen, wobei die Stärke der Technik in der Forcierung des lateralen Denkens liegt. Damit ist die Synektik eine ideale Ergänzung zu den intuitiv-systematischen Vorgehensweisen wie etwa Brainstorming oder die 635-Methode (vgl. Hauschildt, 1997, S.324). Die Nachteile der Methode liegen im großen zeitlichen Aufwand und in den hohen Anforderungen, die an alle Beteiligte gestellt werden. Darüber hinaus sind aufgrund des unkonventionellen Vorgehens im Rahmen der Lösungsfindung Akzeptanzprobleme möglich, die meist erst durch mehrere Wiederholungen ausgeräumt werden können (vgl. Haberfellner et al., 1994, S.545).

Nutzwertanalyse    

Methodische Grundlagen

Die Nutzwertanalyse ermittelt den in Zahlen ausgedrückten subjektiven Nutzen von Lösungsvarianten in bezug auf die Zielvorgaben und macht so einen stichhaltigen Vergleich möglich. Die Zielvorgaben wiederum können unterschiedlich gewichtet werden, um Prioritätensetzungen zu ermöglichen. Das Resultat der Nutzwertanalyse ist eine Reihung der Lösungsvorschläge abhängig vom Grad der Zielerreichung. (vgl. Haberfellner et al., 1994, S.510).

Ablauf

Die Nutzwertanalyse läuft in Anlehnung an Schmidt (1997, S.302 ff.) in sechs Schritten ab, die zur Verdeutlichung in untenstehender Abbildung auch graphisch festgehalten werden sollen.

1. Ermittlung der Ziele: Aus den impliziten Wertvorstellungen der Idee oder Problemstellung, die einen xPD-Prozess initiieren, werden die Zielvorstellungen so abgeleitet, dass diese überschneidungsfrei und unabhängig voneinander sind. Damit soll verhindert werden, dass bei der späteren Bewertung der jeweiligen Lösungsmerkmale Ziele mehrfach einfließen (vgl. Schweizer, 2002, S.178).

2. Gewichtung der Ziele: Abhängig von ihrem Wirkungszusammenhang werden die Ziele nun gewichtet. Hierbei bietet sich zwecks höherer Übersichtlichkeit die Verwendung von Prozentsätzen an.

3. Bewertung der Lösungsvarianten: In diesem Schritt wird jedes Variantenmerkmal gemäß dessen Zielerreichung hin bewertet. Ein hoher Nutzen, d.h. ein hoher Zielerreichungsgrad drückt sich in einer hohen Punktezahl aus. Die Reichweite der Skalierung spielt keine Rolle, es ist jedoch unbedingt erforderlich, diese über die ganze Bewertung hinweg konstant zu halten.

4. Multiplikation der Gewichtungen mit den jeweiligen Einzelbewertungen.

5. Addition aller Produkte pro Lösungsvariante: Nun werden alle in Schritt vier ermittelten Produkte einer Lösungsvariante addiert, um deren Gesamtbewertung zu erhalten. Anhand dieser Summen werden die einzelnen Lösungsvarianten gereiht und so die optimale davon bestimmt.

6. Sensitivitätsanalyse: Um die Robustheit der errechneten Nutzwerte zu überprüfen, werden die Zielgewichtungen (vgl. Schritt 2) und Merkmalsbewertungen (vgl. Schritt 3) innerhalb einer realistischen Bandbreite variiert. Im Idealfall liegt die zuvor als optimal ermittelte Lösungsvariante dabei immer an der Spitze. Ist dies nicht der Fall, ist eine Risikoabwägung sinnvoll, da davon ausgegangen werden muss, dass die Variante bei einer Veränderungen im Projektumfeld nicht effektiv sein könnte (vgl. Seibert, 1998, S.71).

Regeln

Für eine korrekte und praktikable Verwendung der Nutzwertanalyse sollten folgende Bedingungen eingehalten werden:

1. Wenn möglich ist darauf zu achten, dass mit dem Zielkatalog die wirtschaftlichen, technischen, sozialen und rechtlichen Belange abgeklärt werden, um eine wirklich umfassende Bewertung vornehmen zu können.

2. Es ist erforderlich, die Punkteskala für alle Kriterien gleichzuhalten.

3. Die Bewertung der einzelnen Merkmale wiederum muss so gestaltet sein, dass eine ausreichende Differenzierung der möglich wird.

4. Um die Punktevergabe für die einzelnen Varianten transparent zu halten, sollten einzelne Punktwerte oder Klassen ähnlich wie im Schulnotensystem verbalisiert werden.

Stärken und Schwächen, Chancen und Risiken

Die Vorteile der Nutzwertanalyse liegen in folgenden Punkten: Dadurch, dass alle Lösungsvarianten denselben Bewertungsmaßstäben unterliegen, ist der Vergleichsgrundlage stichhaltig und die Entscheidung transparent. Es besteht die Möglichkeit, die Lösungsmerkmale von mehreren Beteiligten durchführen zu lassen und somit zumindest in Ansätzen eine gewisse Objektivität zu schaffen (vgl. Schmidt, 1997, S.308). In dieser Methode eine grundsätzliche Objektivität zu sehen ist jedoch trügerisch: Bewertungen sind durch die notwendige Einbindung von Personen gezwungenermaßen immer subjektiv. Zusätzlich tritt bei der Nutzwertanalyse das Problem auf, dass wirtschaftliche Aspekte, die in der Regel in Geldeinheiten ausgedrückt werden, zwecks Schaffung einer gemeinsamen Bewertungsskala in abstrakte Punktwerte transformiert werden müssen. Besonders wenn die Kosten eine erhebliche Rolle spielen, sollten diese getrennt und in realen Zahlenwerten vorliegen. Dies ist in der Kosten-Wirksamkeits-Analyse im Rahmen der qualitativ-quantitativen Bewertung der Fall.

Kosten-Wirksamkeits-Analyse    

Methodische Grundlagen

Um die Genauigkeit bei rechnerisch ermittelten, d.h. quantitativen Bewertungen nicht zu verlieren, sollte die Nutzwertanalyse auf die qualitativen Ziele beschränkt werden. Die in Geldeinheiten erfassbaren Faktoren sollten hinge-gen rechnerisch bewertet werden. Dies wird besonders bei Problemlösungen wesentlich, die mit hohen Investitionen verbunden sind (vgl. Aggteleky/Bajna, 1992, S.79).

Ablauf

Die Kosten-Wirksamkeits-Analyse greift auf die Nutzwertanalyse, bereinigt um die Kostenkomponente, zurück. Zusätzlich sind nun in Anlehnung an Haberfellner et al. (1994, S.200) folgende Schritte vonnöten, wobei untenstehende Abbildung den gesamten Vorgang skizziert.

1. Aufstellung der Kosten: In einer eigenen Tabelle werden nun pro Variante die auftretenden Kostenkriterien eingetragen. Hierbei erfolgt jedoch keine Gewichtung, was dazu führt, dass die Gesamtkosten der einzelnen Lösungsvarianten in absoluten Geldeinheiten vorliegen.

2. Ermittlung des Kosten-Wirksamkeits-Index: Nun werden pro Variante die jeweiligen Kosten durch das dazugehörige Ergebnis der Nutzwertanalyse (Wirksamkeitszahl) dividiert. Das Ergebnis ist der Kosten-Wirksamkeitsindex, der angibt, wie viel ein Punkt auf der Wirksamkeitsskala kostet. Die Lösungsvariante mit dem geringsten Kosten-Wirksamkeits-Wert ist zu bevorzugen.

Regeln

Für eine sinnvolle Verwendung dieser Methode müssen folgende Voraussetzungen gegeben sein (vgl. Schmidt, 1997, S.310): Die Kostenverursachung einer Variante muss eindeutig feststellbar sein, um die getrennte Auflistung zu rechtfertigen. Ansonsten würde ein in die Nutzwertanalyse integrierter abstrakter Wert genügen. Die finanziellen Ziele sollten mit den Wirksamkeitszielen in etwa gleichbedeutend sein, andernfalls würden entweder reine Kostenvergleichs- oder Rentabilitätsrechnungen genügen oder - im anderen Extremfall - bereits eine einfache Nutzwertanalyse ausreichend sein.

Stärken und Schwächen, Chancen und Risiken

Die Kosten-Wirksamkeits-Analyse ermöglicht eine transparente Ausweisung der Kostenkomponenten und schafft so einen Verbindung von qualitativen und quantitativen Zielen. Eine Schwäche ist jedoch in der in manchen Situationen mangelhaften Differenzierung des Kosten-Wirksamkeits-Index zu sehen: So erhält man für zwei Varianten, von denen die eine bei beispielsweise doppelten Kosten die doppelte Wirksamkeit gegenüber der anderen einbringt die identischen Verhältniszahlen. Hier muss vom Auftraggeber die grundsätzliche Entscheidung zwischen geringen Kosten oder maximalem Nutzen gefällt werden (vgl. Haberfellner et al., 1994, S.200).


StartSeite | ProjektmanagementPlattform/ | Beiträge | TestSeite | Teilnehmer | Projekte | Kategorien | Index | Einstellungen | Ändern
Text dieser Seite ändern (zuletzt geändert: 11. Juni 2003 17:11 (diff))
Suchbegriff: gesucht wird
im Titel
im Text