Technischer Informationsfluß

Der technische Informationsfluß von der Entwicklung und Konstruktion über die Planung zum Prozeß ist vielfach noch durch wiederholte Ermittlung identischer Daten und entsprechende Redundanz gekennzeichnet. Hier ist also noch durchaus eine Entwicklungsmöglichkeit durch integrierte Systeme gegeben, die diese Redundanz verringern und die Zusammenarbeit zwischen den verschiedenen Entwicklern fördern soll. Vorrangig sind ein gemeinsames Datenmodell sowie geeignete Datenstrukturen für die Teillösungen. Der Informationsfluß muß allerdings bidirektional sein, damit später erworbene Kenntnisse bzw. Daten zur direkten Korrektur und Aktualisierung in die Entwicklung und Konstruktion zurückgeführt werden können, wenn auch vielleicht nur zum Soll-Ist-Vergleich für die Qualitätssicherung (Selbstlernende Systeme). Dieser kurze und schnelle Regelkreis muß geschlossen werden, da die Toleranz des Kunden und Gesetzgebers gegenüber Fehlern immer mehr abnimmt (Künstliche Intelligenz in Fertigungssystemen, auch falls nur stark eingeschränkt vorhanden, wie z. B. bei Expertensystemen, kann dies stark verbessern, da die Regelung mit viel geringerer Zeitverzögerung arbeitet und meist auch weniger Eingangsdaten benötigt). Gelingt es, die Fertigungstoleranzen sehr gering zu halten, so minimiert sich der informationstechnische Aufwand für die Qualitätssicherung, da fast keine Fehler mehr auftreten. Da eine Verringerung der Fertigungstoleranzen jedoch mit hohen Kosten verbunden sein kann, ist genau abzuwägen, wie groß die Ersparnis bei weniger Fehlern ist, wobei natürlich auch nicht monetäre Faktoren wie der Ruf wegen seltener Fehler oder starker Fehleranfälligkeit miteinbezogen werden muß.

Im Idealfall erreicht man die "totale Qualität", worunter man versteht, daß die Prozeßtoleranz mindestens der sechsfachen statistischen Streuung entspricht und sich dadurch die Anzahl der Fehler auf maximal etwa drei pro Million Stück verringert. Dies ist besonders wichtig unter dem Gesichtspunkt, daß ein neu auf den Markt kommendes Produkt sofort besser sein muß als das Produkt, das es ersetzen soll. Eine stabile, unter Qualitätsgesichtspunkten einwandfreie Produktion muß deshalb möglichst schnell nach Produktionsbeginn erreicht werden. Auf diese Weise wird der kostspielige Zeitverzug zwischen Auftreten und Erkennen von Fehlern minimiert (Dies ist ähnlich wie in der Softwareentwicklung, wo die Fehlerbehebung exponentiell teurer wird, je später der Fehler entdeckt wird).

In dieser Hinsicht ist besonders die starke Verbilligung von Rechenleistung in den letzten Jahren wichtig, da dadurch eine genauere Simulation von Produkteigenschaften und Prozessen möglich wird. Diese Simulation kann bereits in Stadien erfolgen, wo noch nicht einmal das Produkt komplett fertig konstruiert ist und ist um ein vielfaches schneller, als wenn einige Stücke probeweise produziert werden. Die Zahl und die Kosten für die natürlich immer noch notwendigen Prototypen verringern sich und die Gesamt-Entwicklungskosten sinken. Fehler können bereits früher entdeckt werden, was ebenso zu einer Verbilligung der Entwicklung führt. Mit steigender Rechenleistung können nicht nur Produkteigenschaften sondern mitunter auch die gesamte Produktion simuliert werden, sodaß mit der Umrüstung auch bereits alle Fehler behoben sind die nicht zufällig auftreten, sondern systematischer oder grundsätzlicher Art sind.