Fakultät für Maschinenbau und Sicherheitstechnik

9:30 - 10:00 Uhr

Fehler vermeiden heißt Fehler verstehen – Anforderungen an eine neue Methodik

Marén Willing, M.Sc. - Bergische Universität Wuppertal
Prof. Dr.-Ing. Petra Winzer - Bergische Universität Wuppertal

Zahlreiche prominente Beispiele aus der Praxis zeigen, dass das Qualitätsversprechen „Made in Germany“ nicht leicht zu halten ist. Eine mögliche Ursache ist die zunehmende Komplexität moderner mechatronischer Produkte. Diese liegt zum einen in den Schnittstellenproblemen, welche durch die Vielzahl verschiedener Ingenieursdisziplinen hervorgerufen werden. Zum anderen besteht ein mangelndes Verständnis dafür, wie Teilsysteme verschiedener Hersteller in einem Gesamtsystem zusammenwirken. Dementsprechend schwer fallen die Identifikation kritischer Komponenten und die Spezifikation von Bauteilen, da die Auswirkungen von Bauteileigenschaften im Systemkontext nur unzureichend abgeschätzt werden können.

Um Fehler in solch einer Systemarchitektur nachvollziehen zu können, bedarf es einer ganzheitlichen Methodik, die das Systemverständnis erhöht, bei der Identifikation kritischer Komponenten unterstützt und die verschiedenen Systemebenen mit einbezieht. Nicht nur Fehler, die zu einem Systemausfall führen, sollten betrachtet werden, sondern auch solche, die das System in seiner Funktion einschränken. Hierfür ist es notwendig, die Kausalkette zwischen Ursache und Wirkung eines Fehlers über mehrere Systemebenen hinweg zu verstehen und systematisch in einem Modell abbilden zu können.

Welche Anforderungen müsste eine Methodik erfüllen, um der beschriebenen Problemstellung gerecht zu werden?

Warum reichen die etablierte Qualitäts- und Zuverlässigkeitsmethoden wie FMEA und FTA hierfür nicht aus?

Dies sind die grundlegenden Fragestellungen, welche in dem geplanten Beitrag beleuchtet werden sollen.

 

10:00 - 10:30 Uhr

„Industria lGemba“: Tiefgreifende Erhebung von Produktanforderungen zur Erhöhung der Erfolgsaussichten von Produktinnovationen im B2B-­‐Umfeld

Prof. Dr. Hartmut H. Holzmüller - TU Dortmund
Dipl.-Kfm. Florian Kopshoff - TU Dortmund
Prof. Dr. Robert Refflinghaus - Universität Kassel
Dr. rer. pol. Sandra Klute-Wenig - RIF e.V.

Ausbleibenden Erfolg von Produktinnovationen lässt sich häufig auf eine mangelnde Berücksichtigung der „Stimme des Kunden“ zurückführen. Trotz zahlreicher direkter

Berührungspunkte zwischen Kunde und Anbieter im B2B-­‐Umfeld, sind gerade hier hohe Misserfolgsquoten von Produktinnovationen zu verzeichnen, was zu einem gesamtwirtschaftlichen Schaden in Milliardenhöhe führt (Scheier/Held 2012).

Insbesondere für die Realität kleiner und mittelständischer Unternehmen ist das Problem in zwei Kerndefiziten zu suchen: 1) Kunde und Anwender von Produkten sind im

Industriegüterkontext nicht gleichzusetzen. Während der direkte Kontakt zwischen Anbieter und Einkäufer intensiv gepflegt wird, wird die operative Ebene in die Anforderungserhebung nicht systematisch einbezogen. 2) Mittels traditioneller Marktforschungsmethoden lassen sich oft nur sehr allgemeine Anforderungen erheben,

insbesondere weil Kunden nur begrenzt fähig sind, ihre Anforderungen und Wünsche zu benennen bzw. diese präzise zu artikulieren (Sanders, 2006).

Im Qualitätsmanagement existieren zwar bereits Methoden zur Umsetzung für die Berücksichtigung von Kundenanforderungen (z.B. House of Quality oder Nutzwertanalysen), es fehlen aber Methoden, die die Erfassung und Verarbeitung von weichen, latenten und unvollständigen Anforderungen berücksichtigen [Crostack 07].

Diesem Mangel widmen sich Wissenschaftler der Fachbereiche Industriegütermarketing und Qualitätsmanagement des RIF e.V. Dortmund und der Technischen Universität Dortmund. Methoden aus der Managementforschung (Go-­‐to-­‐the-­‐Gemba: Analyse unternehmensinterner Prozesse durch Betrachtung am Ort des Geschehens) und

der Konsumgüterforschung (Ethnografie: Beobachtung von Konsumentenverhalten am Ort der Produktnutzung) werden für einen zweckdienlichen Einsatz im Industriegüterbereich kombiniert und modifiziert. Das entstehende Instrument soll zur strukturierten und tiefgehenden Erfassung von Produktanforderungen von Nutzern in Kundenunternehmen eingesetzt werden können, zugleich aber auch den Erfordernissen der Entwicklungs-­‐und Konstruktionsmethoden im Anbieterunternehmen gerecht werden.

 

10:30 - 11:00 Uhr

Das DOE Desaster! Viel Aufwand und kaum Resultate?

Dipl.-phys. Peter Weikel - Continental Automotive GmbH

Die statistische Versuchsplanung (DOE) ist eine bewährte Methode in den Naturwis-senschaften und immer mehr auch im betrieblichen Umfeld wie z.B. bei der Prozessoptimierung in der Produktion oder der Entwicklung. Die zunehmende Verbreitung von z.B. Six Sigma oder Design für Six Sigma und die Verfügbarkeit einer ganzen Reihe von unterstützenden Computerprogrammen trägt ebenfalls dazu bei, dass diese Methode immer häufiger angewandt wird.

Und trotzdem erfüllen die Ergebnisse von Versuchen, die nach dieser Methodik durch-geführt wurden, häufig nicht die Erwartungen der Beteiligten. Dies kann dann schlimmstenfalls zu einer ablehnenden oder skeptischen Haltung gegenüber statistischen Methoden führen.

Für die erfolgreiche Anwendung statistischer Methoden sind bestimmte Voraussetzun-gen und Grundlagen erforderlich. Es hat sich gezeigt, dass diese häufig nicht ausrei-chend berücksichtigt werden, oder es wird z.B. eine aufwendige DOE durchgeführt, obwohl andere Methoden besser geeignet wären. Das rechtzeitige Erkennen dieser Probleme hilft viel Zeit, Aufwand und Kosten zu sparen.

 

11:00 - 11:30 Uhr

Je mehr desto besser? – Wie Qualitätsmanagement und Daten-Know-how zukünftig korrelieren müssen

Dipl.-Ing. Reik Krappig - Fraunhofer IPT
Dipl.-Ing. Laura Niendorf - Fraunhofer IPT
Prof. Dr.-Ing. Robert Schmitt - RWTH Aachen

Der Zusammenhang von Qualitätsmanagement mit Daten ist bislang vor allem durch die Motivation der Vernetzung der Daten entlang der Automatisierungspyramide gekennzeichnet. Ging der Trend noch vor einiger Zeit zur zentralen und über alle Ebenen der Automatisierungspyramide integrierten Datenerfassung und -bereitstellung, so zeigt der Trend um Industrie 4.0 eine zunehmende dezentralisierte Datenerfassung mit dem Ziel der Selbstregulierung der Maschinen. Schnittstellen des Qualitätsmanagements mit in der Produktion zum Produkt erfassten Daten, gibt es bislang unter anderem in der Prüfplanung und der generellen Überprüfung der Anforderungskonformität der Produkte. Unabhängig davon, welchem Trend sich ein Unternehmen zuordnet, wird die Komplexität der zu bewältigenden Datenerfassungsaufgaben oftmals unterschätzt. Um relevante Informationen aus den akquirierten Daten zu extrahieren und einen Mehrwert für zukünftige Produkte und Produktionsprozesse zu schaffen, bedarf es einer bewussten Qualitätsmanagement-getriebenen Vorgehensweise.

Vor allem in technisch anspruchsvollen Produktionsprozessen birgt die Datenerfassung neben den Vorteilen auch versteckte Herausforderungen in Form meist inhomogen vorliegender Datenstrukturen. Die zentrale Aufgabe besteht dabei in der Überführung der aus unterschiedlichsten Maschinen und Systemen stammenden, inhomogenen Daten(strukturen) in ein einheitliches, nach Möglichkeit standardisiertes Format.

Am Beispiel des 5-achs-Fräsprozesses, einem in der Praxis etablierten Fertigungsverfahren zur Herstellung komplexer Bauteilgeometrien, werden Vorgehen, Herausforderungen und Chancen der produkt- und prozessbezogenen Datenerfassung dargestellt. Dabei spielen die Schnittstellen verschiedener proprietärer Formate eine entscheidende Rolle. Die Verarbeitung, Homogenisierung und verknüpfte Abspeicherung der Daten stellen die anspruchsvollsten Aufgaben dar. Der so erzielte, datengetriebene Erkenntnisgewinn kann dazu genutzt werden, aktuelle Prozesse zu verbessern, und auch a priori künftige Prozessvarianten zu planen und deren Qualität dauerhaft positiv zu beeinflussen.

 

Weitere Infos über #UniWuppertal: