Management-Konzepte: Reengineering, Benchmarking, OLAP, Six Sigma & mehr

Eingeordnet in Informatik

Geschrieben am in Deutsch mit einer Größe von 9,58 KB

Reengineering: Prozesse radikal neu gestalten

Reengineering ist ein Prozess zur grundlegenden Neugestaltung von Geschäftsprozessen, um drastische Verbesserungen in Bezug auf Kosten, Qualität, Service und Geschwindigkeit zu erzielen.

Schlüsselprinzipien des Reengineering

  • Fundamental: Hinterfragen der grundlegenden Annahmen und des 'Warum' einer Tätigkeit.
  • Radikal: Umfassende und tiefgreifende Veränderungen, die an der Wurzel ansetzen.
  • Dramatisch: Ziel sind signifikante, sprunghafte Verbesserungen, nicht nur inkrementelle.

Wann ist Reengineering notwendig?

  • Die Unternehmensleistung hinkt der Konkurrenz hinterher.
  • Die Organisation befindet sich in einer Krise.
  • Es gibt grundlegende Marktveränderungen.
  • Das Unternehmen will eine führende Marktposition erreichen.
  • Der Wettbewerb ist aggressiv.
  • Die Führungsposition soll beibehalten werden.

Benchmarking: Best Practices vergleichen & lernen

Benchmarking ist ein vergleichender Prozess, der Produkte, Dienstleistungen und Prozesse bewertet.

Kategorien des Benchmarking

  • Internes Benchmarking: Vergleich von Prozessen und Leistungen innerhalb verschiedener Abteilungen oder Geschäftseinheiten eines großen Unternehmens.
  • Wettbewerbs-Benchmarking: Vergleich mit den Produkten, Dienstleistungen und Prozessen direkter Konkurrenten.
  • Funktionales Benchmarking: Vergleich mit Unternehmen, die nicht direkte Wettbewerber sind, aber ähnliche Funktionen oder Prozesse aufweisen.
  • Generisches Benchmarking: Vergleich von allgemeinen Geschäftsprozessen (z.B. Logistik, Kundenservice) über verschiedene Branchen hinweg.

Der Benchmarking-Prozess

Phase 1: Planung

  1. Identifizierung des zu benchmarkenden Prozesses oder Produkts.
  2. Identifizierung vergleichbarer Unternehmen oder Best Practices.
  3. Festlegung der Datenerhebungsmethoden und Nutzung vorhandener Informationen.

Phase 2: Analyse

  1. Bestimmung der aktuellen Leistungslücke (Gap-Analyse):
    • Negativer Gap: Externe Praktiken sind besser.
    • Operations Parity: Kein signifikanter Unterschied in der Praxis.
    • Positiver Gap: Interne Praktiken sind besser.
  2. Prognose zukünftiger Leistungsniveaus.

OLAP: Online Analytical Processing für Business Intelligence

OLAP (Online Analytical Processing) wird im Bereich Business Intelligence eingesetzt. Es zielt darauf ab, die Abfrage und Analyse großer Datenmengen zu beschleunigen.

  • Verwendet multidimensionale Datenstrukturen, die zusammengefasste Daten aus großen Datenbanken enthalten.
  • Ziel ist die Optimierung des Abfrageprozesses.
  • Wird in Bereichen wie Vertrieb, Marketing und für Managementberichte eingesetzt.
  • Kann relationale Datenbanken als Datenquelle nutzen.

Datenanalyse: Ermöglicht die Analyse von Daten basierend auf verschiedenen Parametern.

Indizierung: Optimierung der Datenbank für schnelle Abfragen durch Indizes basierend auf vordefinierten Parametern.

OLTP: Online Transaction Processing für operative Daten

OLTP (Online Transaction Processing) ist die erste Phase in einem Data-Warehouse-System. Es ist verantwortlich für die Durchführung von Routine-Transaktionen und die Bereitstellung ausreichender Daten für Speichersysteme.

Merkmale von OLTP-Systemen

  • Akzeptiert gleichzeitige Zugriffe.
  • Repräsentiert den aktuellen operativen Zustand der Daten.
  • Verarbeitet große Datenmengen.
  • Hat komplexe Datenstrukturen.
  • Bietet die notwendige technologische Infrastruktur.

Herausforderungen bei OLTP-Systemen

  • Mangel an technischen Fachkenntnissen für Ad-hoc-Abfragen.
  • Abfragen, die große Datenmengen zusammenfassen, sind ineffizient.
  • Die Daten ändern sich häufig.
  • Die Sicherheit ist ein komplexer Prozess bei Online-Transaktionen.

Kaizen: Kontinuierliche Verbesserung in Unternehmen

Kaizen zeichnet sich durch einen humanistischen Ansatz aus, der die Beteiligung aller Mitarbeiter fördert.

  • Der Ansatz besteht darin, aus vergangenen Erfahrungen zu lernen, sowohl aus positiven als auch aus negativen.
  • Der Design-Ansatz zielt darauf ab, eine bessere Zukunft mit klar definierten Zielen zu gestalten.

„Heute besser als gestern, morgen besser als heute!“ Dies ist die Grundlage der Kaizen-Philosophie und bedeutet, dass man sich ständig verbessern sollte.

ERP: Enterprise Resource Planning für integrierte Prozesse

ERP-Systeme (Enterprise Resource Planning) sind Management-Informationssysteme, die die Integration und Verwaltung vieler Geschäftsfunktionen, insbesondere in den Bereichen Produktion, Vertrieb und Dienstleistungen, ermöglichen.

Der Begriff ERP leitet sich vom Manufacturing Resource Planning (MRP II) ab, das wiederum auf dem Material Requirements Planning (MRP) basiert.

ERP-Systeme umfassen typischerweise Funktionen für Fertigung, Logistik, Vertrieb, Lagerverwaltung, Versand, Rechnungsstellung und Finanzbuchhaltung.

Pareto-Prinzip: Die 80/20-Regel verstehen

Das Pareto-Prinzip, auch bekannt als 80/20-Regel, beschreibt die empirische Beobachtung, dass in vielen Fällen 80 % der Auswirkungen von 20 % der Ursachen herrühren. Es besagt, dass etwa 80 % der Ergebnisse aus 20 % des Aufwands resultieren. Diese Zahlen sind Richtwerte und können variieren.

Anwendungen im Software-Engineering

  • 80 % der Softwarefehler finden sich in 20 % des Codes, während die restlichen 80 % des Codes nur 20 % der Fehler verursachen.
  • 80 % des Entwicklungsaufwands produzieren 20 % des Codes, während die restlichen 20 % des Aufwands 80 % des Codes produzieren.

Anwendungen im Handel

  • 20 % der Kunden generieren 80 % des Umsatzes.
  • 80 % des Umsatzes entfallen auf nur 20 % der Produkte in einem Katalog.

Anwendungen in der Qualitätskontrolle

  • Das Pareto-Prinzip ermöglicht den effektiven Einsatz von Management-Tools.
  • 80 % der Mängel treten in 20 % der Prozesse auf.

Six Sigma: Prozessoptimierung für höchste Qualität

Six Sigma ist eine Managementmethode und ein Werkzeug zur Verbesserung der Leistung, Steigerung der Rentabilität und Erhöhung der Kundenzufriedenheit. Basierend auf statistischen Methoden zielt es darauf ab, Prozesse so zu optimieren, dass nicht mehr als 3,4 Fehler pro Million Operationen auftreten. Das Hauptziel von Six Sigma ist es, eine nahezu fehlerfreie Leistung zu erreichen (Null-Fehler-Prinzip).

Die DMAIC-Phasen von Six Sigma

  1. Definieren: Identifizierung potenzieller Projekte und der Kundenanforderungen.
  2. Messen: Charakterisierung des aktuellen Prozesses und Erfassung relevanter Daten.
  3. Analysieren: Bewertung der aktuellen und historischen Leistungsdaten, um Ursachen für Fehler zu identifizieren.
  4. Verbessern: Entwicklung und Implementierung von Lösungen zur Optimierung der Prozessleistung.
  5. Steuern: Implementierung von Kontrollen und Dokumentation, um sicherzustellen, dass die Verbesserungen nachhaltig sind.

Total Quality Management (TQM): Qualität als Erfolgsfaktor

Qualität ist der wichtigste Faktor bei der Kundenentscheidung. Sie führt zu organisatorischem Erfolg und Wachstum des Unternehmens auf nationalen und internationalen Märkten.

Vorteile des Total Quality Management (TQM)

  • Potenzial ist erreichbar, wenn Entscheidungen auf höchster Ebene getroffen werden.
  • Verbessert die Beziehungen im Personalmanagement.
  • Reduziert Kosten durch Steigerung der Produktivität.
  • Total Quality ist eine kundenorientierte Strategie.
  • Die gesamte Organisation eines Unternehmens muss auf Qualität ausgerichtet sein und diese als zentralen Motor verstehen.
  • Die Vorteile der Umsetzung von Total Quality sind ein höherer Wettbewerbsvorteil.

Data Warehouse: Datenbasis für strategische Entscheidungen

Ein Data Warehouse ist eine Sammlung von Daten, die zielorientiert (auf Unternehmensebene), integriert, nicht-flüchtig und zeitvariant sind, um die Entscheidungsfindung zu unterstützen.

Es ist im Wesentlichen eine vollständige Aufzeichnung der Transaktions- und operativen Informationen einer Organisation, die in einer Datenbank gespeichert und für analytische Verarbeitung (insbesondere OLAP) konzipiert ist, um die effiziente Analyse und Verbreitung von Daten zu fördern.

Die Speicherung der Daten sollte die aktuelle Datennutzung nicht beeinträchtigen. Data Warehouses enthalten oft große Mengen an Informationen, die strukturiert oder in kleinere logische Einheiten (Data Marts) unterteilt sind, je nach den Anforderungen der jeweiligen Unternehmensbereiche.

Wichtige Konzepte im Data Warehouse Betrieb

  • Integration: Zusammenführung von Daten aus verteilten Datenbanken verschiedener Organisationseinheiten, die oft unterschiedliche Strukturen aufweisen.
  • Trennung: Klare Trennung der Daten, die im täglichen operativen Betrieb verwendet werden, von den Daten im Data Warehouse, die für Analyse, Berichterstattung und Entscheidungsfindung dienen. Diese Trennung ist wichtig, da die unterschiedlichen Ziele der Systeme sich gegenseitig stören könnten.

Verwandte Einträge: