Analyse der Computerverfügbarkeit mit Qualitätswerkzeugen

Gesendet von Anonym und eingeordnet in Elektronik

Geschrieben am in Deutsch mit einer Größe von 13,1 KB

Häufigkeitsanalyse der Computerverfügbarkeit

Für die Erstellung dieses Berichts wurden die Daten einer repräsentativen Stichprobe über 7 Tage aus dem Computerraum tabellarisch erfasst.

Basierend auf diesen tabellarischen Daten haben wir Häufigkeitsgrafiken erstellt, um das Problem der unzureichenden Computerverfügbarkeit im Labor zu veranschaulichen.

Es wurde eine Häufigkeitsgrafik für die 210 Beobachtungen der letzten 7 Tage erstellt, die über alle drei Schichten (morgens, nachmittags und abends) gesammelt wurden. Diese Grafik zeigt die Anzahl der nicht verfügbaren Computer pro Stichprobe von 10 Computern.

Zusätzlich wurde ein Diagramm der relativen Häufigkeit berechnet, das den durchschnittlichen Prozentsatz der nicht verfügbaren Computer über die 3 Schichten zeigt. Dies verdeutlicht, dass die Anzahl der nicht verfügbaren Computer im Laufe des Tages in jeder Schicht zunimmt.

Ursache-Wirkungs-Diagramm

Das Ziel des Ursache-Wirkungs-Diagramms ist es, die Haupt- und Nebenursachen eines Qualitätsproblems zu identifizieren, das in diesem Fall der Nichtverfügbarkeit von Computern im Computerlabor entspricht.

Die Ursachen wurden basierend auf Erfahrungen und Befragungen der am Labormanagement beteiligten Fachleute formuliert.

Die Methode zur Erstellung des Ursache-Wirkungs-Diagramms war die Auflistung der Ursachen, die hauptsächlich auf Brainstorming basierte.

Anschließend wurden die aufgelisteten Ursachen im Diagramm nach den 5 M's (Materialien, Methoden, Manpower, Medien und Umwelt) kategorisiert und als primär oder sekundär zugeordnet.

Das folgende Diagramm zeigt die Ursachen und Wirkungen.

Pareto-Diagramm

Das Ziel des Pareto-Diagramms ist es, zu ermitteln, welche der zuvor identifizierten Ursachen des Qualitätsproblems am häufigsten auftreten und für welche Abhilfemaßnahmen ergriffen werden müssen.

Basierend auf diesen Ursachen wurde nach Statistiken gesucht, die aufzeigen, welche Ursachen das Problem der Nichtverfügbarkeit am stärksten beeinflussen. Durch Expertenbefragungen und Annahmen wurden die Gewichtungen dieser Ursachen geschätzt und als prozentuale Häufigkeiten dargestellt.

Basierend auf dem in der Abbildung dargestellten Pareto-Diagramm wird deutlich, dass die Hauptursachen für die Nichtverfügbarkeit von Computern den Bereichen Materialien, Medien und Mitarbeiter zuzuordnen sind.

Anschließend werden die wichtigsten Faktoren, die zu diesen Komponenten gehören, detailliert aufgeführt:

  • Material: Wartung, Vorrichtungen in einem schlechten Zustand
  • Medien: Absturz, Internet-Versagen, fehlerhafte Daten
  • Mitarbeiter: Fehlzeiten, schlechte Ausbildung.

Diese drei Ursachen machen zusammen etwa 80 % der Gründe für die Nichtverfügbarkeit aus.

Attribut-Regelkarte

Für die Erstellung der Attribut-Regelkarte wurde die p-Karte verwendet, wobei die Abszisse den Anteil der defekten Einheiten darstellt.

Die Grenzwerte der p-Karte wurden wie folgt ermittelt:

Der Z-Wert liegt in der Regel nahe bei 3, daher wurde dieser Wert für die Grafik verwendet.

Wie zu sehen ist, zeigt die Karte Punkte außerhalb der Grenzwerte, woraus geschlossen wird, dass der Prozess nicht unter statistischer Kontrolle steht. Die Ursachen für die Punkte außerhalb der Grenzwerte sind keine zufälligen oder häufigen Ursachen, sondern zuweisbare Ursachen, die zu Prozessabweichungen führen. Diese können aufgrund der Ineffizienz des Prozesses eindeutig identifiziert und behoben werden.

Prozessfähigkeitsindex

Das Ziel des Index ist es, die gemessene Fähigkeit eines bestimmten Prozesses anzuzeigen, zu prüfen, ob der Prozess stabil oder instabil ist und ob die Schwankungsbereiche des Kontrollmerkmals in der Grafik eine zufriedenstellende Übereinstimmung mit dem erforderlichen Standard aufweisen. Dazu wird eine Standardspezifikation benötigt, mit der wir den Prozess vergleichen können, besser bekannt als Spezifikationsgrenzen.

Für den angewandten Fall wurde angenommen, dass die Anzahl der verfügbaren Computer im Computerlabor nicht unter 80 % der Gesamtzahl liegen sollte. Bezogen auf die Spezifikationsgrenzen gäbe es somit nur eine obere Spezifikationsgrenze für nicht verfügbare Computer, die entsprechen würde:

Einseitige Spezifikationsgrenzen:

Wie zu sehen ist, ist der Prozessfähigkeitsindex basierend auf der angenommenen Spezifikation kleiner als Eins, daher ist die Prozessfähigkeit unbefriedigend.

Annahmestichprobenprüfung

Um die erforderliche Annahmestichprobenprüfung zu bestimmen, und da die genaue Anzahl der zu prüfenden Computer nicht bekannt ist, wird angenommen, dass sich im Labor zwischen 51 und 90 Computer befinden. Mit dieser Annahme können die Anhänge des Buches 'Statistische Qualitätskontrolle' verwendet werden.

  1. Erstens: Mit der Losgröße (51-90) wird in Tabelle I: Codebuchstaben für Los- und Stichprobengrößen nachgeschlagen. Entsprechend der Losgröße und unter Berücksichtigung eines allgemeinen Prüfniveaus II Normal wird der entsprechende Buchstabe gesucht. Der Buchstabe E wird erhalten.
  2. Zweitens: Mit dem gewählten Buchstaben wird in den Tabellen MIL-STD-105D, Tabelle II, Einfachstichprobenprüfung, Normalprüfung nachgeschlagen. Hieraus ergibt sich eine Stichprobengröße von 13.
  3. Drittens: In derselben Tabelle wird anhand eines annehmbaren Qualitätsniveaus (AQL) die Anzahl der Annahme (Ac) und Ablehnung (Re) ermittelt. Für unseren Fall haben wir ein Kriterium von Acceptable Quality Level (AQL) 3 %. Damit ist unsere Annahmezahl 1 und unsere Ablehnungszahl 2.

Daher sieht der Annahmestichprobenplan nach den zugrunde gelegten Annahmen wie folgt aus:

  • N: Populationsgröße = 51-90 (Losgröße oder Anzahl Computer)
  • n: Stichprobengröße = 13 Computer
  • Ac: Annahmezahl = 1 Computer
  • Re: Ablehnungszahl = 2 Computer

Es ist darauf hinzuweisen, dass dieser Stichprobenplan auf einer Verbesserung der aktuellen Bedingungen im Labor basiert. Derzeit weist das Labor einen Prozentsatz von etwa 75 % nicht verfügbarer oder defekter Computer auf. Daher müssen die zuweisbaren Ursachen eindeutig untersucht und der Prozess verbessert werden. Dieser Annahmestichprobenplan ist somit für den zukünftigen Betrieb des Computerlabors anzuwenden, nachdem Verbesserungen vorgenommen wurden.

Operationscharakteristik-Kurve

Für einen gegebenen Stichprobenplan (n, Ac, Re) bezogen auf ein Los der Größe N gibt es eine eindeutige Operationscharakteristik-Kurve, die die Annahmewahrscheinlichkeit in Beziehung zum Prozentsatz defekter Einheiten im Prüflos setzt.

Die repräsentativen Elemente der Kennlinie sind AQL (Acceptable Quality Level), Alpha (Lieferantenrisiko), LQ (Limiting Quality) und Beta (Kundenrisiko). Diese sind auf der Kurve gekennzeichnet.

Die AQL wird oft unter Annahme einer Binomial- oder Poisson-Verteilung berechnet, was das Problem vereinfacht. Unter Verwendung der Poisson-Verteilungstabelle wurde bei Ac = 1 und einer Annahmewahrscheinlichkeit von 95 % der Wert n*p ermittelt. Da unsere Stichprobengröße n = 13 beträgt, ergibt sich ein Anteil fehlerhafter Einheiten (AQL) von 3 %.

Auf ähnliche Weise wurde die Grenzqualität (LQ) ermittelt, indem in der Tabelle bei einer Annahmewahrscheinlichkeit von 10 % nachgeschlagen wurde. Der LQ-Wert beträgt 27 %.

Somit beträgt das Kundenrisiko (Beta) = 10 % und das Lieferantenrisiko (Alpha) = 5 %.

Schlussfolgerungen

Eine Analyse des Problems im Labor mittels der Häufigkeitsgrafik zeigt, dass in den Abend- und Nachtschichten eine größere Anzahl von Computern nicht verfügbar oder fehlerhaft ist. Daraus können wir schließen, dass die Wartung ein wichtiger Faktor für die zuweisbaren Ursachen ist.

Mithilfe des Ursache-Wirkungs-Diagramms konnten die Haupt- und Nebenursachen ermittelt werden, um diese anschließend zu gewichten und so das Pareto-Diagramm zu erstellen. Dieses liefert wertvolle Informationen darüber, was im Labor verbessert werden muss, wie z. B. die Verbesserung der Computerwartung, der Netzwerk- und Internetsysteme sowie eine fundierte Schulung des Personals. Diese drei Ursachen machen etwa 80 % der Fehlerursachen aus.

Die Attribut-Regelkarte (p-Diagramm) zeigte uns, dass der Prozess nicht unter statistischer Kontrolle steht und auf zuweisbare Ursachen zurückzuführen ist, die nicht zufällig, sondern identifizierbar sind. Diese Ursachen sind messbar und können beseitigt werden. Für ein gutes Labormanagement empfehlen wir daher, diese Ursachen zu beheben, die den Prozess ineffizient machen. Die Bestimmung des Prozessfähigkeitsindex Cp = -6,276 zeigt, dass die Prozessfähigkeit unbefriedigend ist, was auf die obere Spezifikationsgrenze (OSG) = 0,2 zurückzuführen ist.

Zur Bestimmung der Annahmestichprobenprüfung wurde angenommen, dass die Größe des Labors zwischen 51 und 90 Computern liegt. Mit diesen idealen Parametern wurde ein Stichprobenplan mit einer Stichprobengröße von 13, einer Annahmezahl von 1 und einer Ablehnungszahl von 2 erstellt. Dies gilt eindeutig für einen idealen Prozess. Würde dieser Plan jedoch auf den aktuellen Prozess mit seinen sehr schlechten Indikatoren angewendet, würden alle Stichproben abgelehnt werden.

Die Operationscharakteristik-Kurve, die aufgrund der geringen Stichprobengröße und Annahmezahl einzigartig ist, zeigt uns die Annahmewahrscheinlichkeit in Abhängigkeit vom Anteil fehlerhafter Produkte. Wichtige Indikatoren sind hier der geschätzte AQL = 3 % und der LQ = 27 %.

Wir schließen daraus, dass die Anwendung statistischer Qualitätskontrolle ein enormes Potenzial als Instrument und Werkzeug zur besseren Qualitätskontrolle im Unternehmen bietet. Es ist ein wichtiges Werkzeug für Entscheidungen über notwendige Anpassungen. Es ist eine hervorragende Methode zur Analyse von Systemen, die korrigiert werden müssen. Sie reduziert das Risiko sowohl für den Kunden als auch für den Lieferanten und macht Prozesse nicht zufällig, sondern deterministisch.

Viele Führungskräfte, die sich des Themas Statistische Qualitätskontrolle nicht bewusst sind, investieren enorme Ressourcen in die Suche nach den Gründen für das Versagen ihrer Prozesse, oder die Inspektionskosten sind einfach sehr hoch und unnötig. Es kommt auch vor, dass durch die Nichtdurchführung von Qualitätskontrollen und die Ablehnung von Produkten der gesamte Wert, den das Unternehmen in den Prozess investiert hat, verloren geht, was zu Verlusten aufgrund schlechten Qualitätsmanagements führt.

Referenzen

  • Statistische Qualitätskontrolle. Autor: Rodrigo Mendiburu Sanabria. Herausgeber: Distance Education Center der Universidad Catolica del Norte, 2008. Verfügbar unter: http://web.frm.utn.edu.ar/estadistica/TablasEstadisticas/TD4_PoissonAcumulada.pdf
  • Hinweise zum Total Quality Management. Autor: Dr. Edward Johns (c), Business Studies an der Autonomen Universität Madrid, Spanien. Master of Science in "Integrated Management System", University of Birmingham, England. Ingeniero Civil Industrial, Universidad Técnica Federico Santa Maria. Diplom in "Advanced Total Quality Management", Stockholm, Schweden.

Anhänge

Zugrunde gelegte Annahmen

  • Für die Erstellung des Berichts wurden die Daten der 7 Tage aus der gegebenen Tabelle verwendet, da dies als repräsentative Stichprobe für die Untersuchung des Falls angenommen wurde.
  • Die Ursachen für die Nichtverfügbarkeit von Computern wurden basierend auf Erfahrungen und Befragungen der für das Labormanagement zuständigen Fachleute erhoben.
  • Basierend auf diesen angenommenen Ursachen wurde nach Statistiken gesucht, die aufzeigen, welche Ursachen das Problem der Nichtverfügbarkeit am stärksten beeinflussen. Durch Annahmen und Expertenbefragungen wurden die Gewichtungen dieser Ursachen geschätzt und als prozentuale Häufigkeiten des Auftretens dargestellt.

Tabellarische Daten der Ursachengewichtung

Material35%
Medien25%
Manpower20%
Methoden10%
Umgebung5%
Mehrere5%
Überall100%

Weitere Annahmen

  • Für den angewandten Fall wurde angenommen, dass die Anzahl der verfügbaren Computer im Computerraum nicht unter 80 % der Gesamtzahl liegen sollte. Bezogen auf die Spezifikationsgrenzen gibt es somit nur eine obere Spezifikationsgrenze für nicht verfügbare Computer, die entsprechen würde:
  • Es wurde angenommen, dass die Losgröße, d. h. die Anzahl der Computer im Labor, zwischen 51 und 90 liegt.
  • Für unseren Fall haben wir ein Kriterium von Acceptable Quality Level (AQL) 3 %.

Referenztabellen

Poisson-Verteilung

MIL-STD-105D

Verwandte Einträge: