Hochschule Niederrhein. Dein Weg.

Computer Simulation & Design Optimization Institutsleiter Institut für Modellbildung und Hochleistungsrechnen

IMH - Institut für Modellbildung und Hochleistungsrechnen

Lehrveranstaltungen

Abgeschnittene Normalverteilung

Lehrgebiet: Computersimulation und Design Optimization (seit 03/2011)

Wissenschaftliche Konzeption (seit 01/2017)

  • Masterstudiengang Industrie 4.0, BMBF-Projekt: Aufstieg durch Bildung, Hochschule Niederrhein
  • Wissenschaftliche Weiterbildung und Wissenstransfer für die Region

Wissenschaftliche Weiterbildung (seit 04/2016)

Gastvorlesungen (seit 01/2008)

  • ETH Zürich, TU-Braunschweig, TU-Dresden, TU-Darmstadt
  • im Bereich Optimierung und Stochastik

Deutsch- und englischsprachige Seminare und Schulungen (seit 07/2002)

  • an verschiedenen Industrie- und akademischen Forschungseinrichtungen zu den Themen
    • Multidisziplinäre Optimierung und Sensitivitätsanalyse
    • Robustheitsanalyse, Zuverlässigkeitsanalyse, Robust-Design-Optimierung und Design for Six Sigma

Erstbetreute Promotionen

Probabilistische Analyse von Turbomaschinen (seit 07/2016)

  • unter Berücksichtigung von Fertigungstoleranzen, RWTH Aachen
  • Kooperative Promotion zusammen mit Prof. Dr.-Ing. Stefan Reh, DLR, Institut für Werkstoff-Forschung

Methoden der effizienten zuverlässigkeitsbasierten (seit 12/2104)

  • Mehrzieloptimierung in der Elektromotorenentwicklung, Ruhr-Universität Bochum
  • Kooperative Promotion zusammen mit Prof. Dr.-Ing. Tamara Nestorović, Institut für Computational Engineering

Varianz- und zuverlässigkeitsbasierte Mehrzieloptimierung (seit 01/2014)

  • Forschungsschwerpunkt „Probabilistic Design“ der Siemens AG, Energy Sector, RWTH Aachen
  • Kooperative Promotion zusammen mit Prof. Dr.-Ing. Stefan Reh, DLR, Institut für Werkstoff-Forschung

 

 

Zweitbetreute Promotionen

Stochastischen Analyse und Modellvalidierung im Tunnelbau

  • SFB 837 – Interaktionsmodelle maschineller Tunnelbau, Ruhr-Universität Bochum
  • Kooperative Promotion zusammen mit Prof. Dr.-Ing. Tamara Nestorović, Institut für Computational Engineering

Themen

Bild Lehre

Industrie 4.0 und die damit einhergehende Digitalisierung sind zwei wesentliche Erfolgsfaktoren und treibende Kräfte für die Zukunftsfähigkeit von Unternehmen. Es besteht ein hoher Bedarf an grundlagenorientiert und gleichzeitig praxisnah ausgebildeten akademischen Fachkräften in diesen Bereichen. Der moderne virtuelle Entwicklungsprozess ist ohne den Einsatz numerischer Verfahren der Stochastik in Verbindung mit der Optimierung nicht mehr denkbar. Diese Verfahren setzen das Verständnis von abstrakten mathematischen Modellen voraus. In den Vorlesungen und begleitenden Übungen wird die Allgemeingültigkeit dieser Modelle und damit die möglichen Einsatzgebiete in allen Naturwissenschaften deutlich gemacht. Am Ende des Bachelor- bzw. Master-Studiums sollen die vermittelten numerischen Verfahren in praktischen Analysen für den virtuellen Entwicklungsprozess angewendet und vertieft werden.

Das Hauptziel der Lehre innerhalb des Bachelor- und Masterstudiums in dem Fachgebiet „Computersimulation und Design Optimization“ ist die Vermittlung der mathematischen Grundlagen der Wahrscheinlichkeitsrechnung, der Statistik sowie eine Einleitung in die Datenanalyse großer Datenmengen, des maschinellen Lernens und der numerischen Optimierung vor. Zentrale Themen bilden die stochastische Modellierung von Einwirkungen und Unsicherheiten sowie die Analyse der Sicherheit, der Zuverlässigkeit und des Risikos von mechanischen Strukturen, Prozessen und technischen Systemen.

Der Master-Studiengang sieht ein vertiefendes Studium auf dem Gebiet der Robustheits-, Zuverlässigkeits- und Risikoanalyse, der Modellvalidierung und weiterhin der stochastischen Optimierung vor. Im Master-Studium werden die aktuellen Forschungsergebnisse möglichst zeitgleich an die Studierenden weitergegeben, damit die Möglichkeit zu aktiver Mitarbeit an der Forschung geboten wird. Darauf aufbauende Themen sind die Modellierung und Analyse von Zufallsfeldern und stochastischen Prozessen, die stochastische Finite-Elemente-Methode sowie die Numerik und Software-Entwicklung für die Behandlung solcher komplexer Aufgabenstellungen der Ingenieur und Naturwissenschaften.

Die Mathematik bildet als Querschnittswissenschaft eine Brücke zwischen allen Naturwissenschaften und der Informatik. Im Vordergrund stehen dabei Algorithmen, die für ein breites ingenieur und naturwissenschaftliches Anwendungsspektrum eingesetzt werden können. Schwerpunkte in den Bachelor- und Master-Studiengängen sind Projekt- bzw. Abschlussarbeiten, in denen konkrete Aufgaben aus den Naturwissenschaften und vorzugsweise in Verbindung mit verschiedenen Industriebereichen, bis hin zu einer fertigen Software-Lösung bearbeitet werden. Die Studierenden werden befähigt, komplexe Aufgaben mathematisch zu modellieren und mit numerischen Methoden zu lösen und das Wesen von Lösungen zu untersuchen. Die Studierenden erwerben Methodenkompetenz für einen sicheren Umgang mit numerischen Methoden für den virtuellen Entwicklungsprozess und können diese Methoden auf dem Rechner mit der Programmiersprache Python und MATLAB umsetzen und die Ergebnisse bewerten sowie kritisch hinterfragen.

 

1 Wahrscheinlichkeitstheorie

  • Stochastische Modellierung
    • Wahrscheinlichkeitsräume
    • Wahrscheinlichkeitsmaße
    • Zufällige Ereignisse
    • Zufallsexperiment
  • Ereignisalgebra
    • Ergebnismenge
    • Gesamtheit der Ergebnismenge
    • Teilmengen
    • Elementarereignisse
    • Ergebnismenge
  • Zufallszahlen
  • Laplace-Experimente
  • Absolute Häufigkeit
  • Relative Häufigkeit
  • Definition der Wahrscheinlichkeit
    • Definition nach Laplace
    • Axiome nach Kolmogoroff
  • Bedingte Wahrscheinlichkeit und Unabhängigkeit
    • Die bedingteWahrscheinlichkeit
    • Multiplikationssatz
    • Unabhängigkeit von Ereignissen
  • Mehrstufige Zufallsexperimente
    • Baumdiagramme
    • Ereignisbäume
    • Formel der totalenWahrscheinlichkeit
    • Bayes’sche Formel
  • Gesetz der großen Zahlen
  • Zentraler Grenzwertsatz
  • Zufallsvariable
  • Verteilungsfunktion einer Zufallsvariable
  • Wahrscheinlichkeitsverteilung für diskrete Zufallsvariablen
  • Wahrscheinlichkeitsverteilung für stetige Zufallsvariablen
  • Funktionalparameter
    • Lageparameter
      • Mittel- bzw. Erwartungswert
      • Median- oder Zentralwert
      • Modalwert
      • Quantilwerte
    • Streuungsparameter
      • Varianz
      • Standardabweichung
      • (Inter-)Quartilabstand
      • Formparameter
        • Schiefe
        • Wölbung bzw. Exzess
  • Diskrete Verteilungen
    • Gleichverteilung
    • Binomialverteilung
    • Hypergeometrische Verteilung
    • Poisson-Verteilung
    • Geometrisch Verteilung
    • Negative Binomialverteilung
  • Stetige Verteilungen
    • Gleichverteilung
    • Allgemeine Normalverteilung
    • Standardnormalverteilung
    • Logarithmische Normalverteilung
    • Exponentialverteilung
    • Weibull-Verteilung
    • Gammaverteilung
  • Wahrscheinlichkeitsverteilungen von mehreren Zufallsvariablen
    • Mittelwertsvektor
    • Kovarianzmatrix
    • Korrelationsmatrix
    • Funktionen von mehreren Zufallsvariablen
      • Summen und Produkte von Zufallsvariablen
      • Additionssatz für Mittelwerte
      •  Multiplikationssatz für Mittelwerte
      •  Additionssatz für Varianzen
      •  Stochastisch unabhängige Zufallsvariablen
      •  Zentraler Grenzwertsatz
      •  Wahrscheinlichkeitsverteilung einer Summe von Zufallsvariablen
      •  Grenzwertsatz von Moivre-Laplace
    • Diskrete Zufallsvektoren
    • Stetige Zufallsvektoren
    • BedingteWahrscheinlichkeitsdichtefunktion
    • Multivariate Wahrscheinlichkeitsdichtefunktionen (Copulae)
      •  Multivariate Gaußsche Normalverteilung
      •  Bivariate Gaußsche Normalverteilung
      •  Gaußsche Copula-Methode

 

2 Statistik

  • Deskriptive Statistik
    • Zufallsstichproben aus einer Grundgesamtheit
    • Grundgesamtheit und Stichprobe
    • Stichprobenverfahren
      • Pseudo-Zufallszahlen
      • Erzeugung von Zufallszahlen
      • Monte-Carlo-Simulation
      • Latin-Hypercube-Simulation
    • Häufigkeitsverteilung einer Stichprobe
      • Häufigkeitsfunktion einer Stichprobe
      • Verteilungsfunktion einer Stichprobe
      • Gruppierung der Stichprobenwerte bei umfangreichen Stichproben
      • Histogramm, Punktdiagramm, Box-Plot
    • Kennwerte und Maßzahlen einer Stichprobe
      • Eindimensionale Merkmale
        • Mittelwert
        • Varianz
        • Standardabweichung
        • Variationskoeffizient
      • Mehrdimensionale Merkmale
        • Mittelwertsvektor
        • Vektor der Standardabweichungen
        • Kovarianzmatrix
        • Korrelationsmatrix
  • Induktive Statistik
    • Statistische Schätzverfahren
      • Aufgaben der Parameterschätzung
      • Schätzfunktionen und Schätzwerte für die unbekannten Parameter einer Wahrscheinlichkeitsverteilung
      • Schätz- und Stichprobenfunktionen
      • Schätzungen für den Mittelwert
      • Schätzungen für die Varianz
      • Maximum-Likelihood-Methode
      • Güte einer Schätzung
      • Vertrauens- oder Konfidenzintervalle
      • Statistische Sicherheit
      • Vertrauensintervalle für den Mittelwert
      • Vertrauensintervalle für die Varianz
    • Statistiscbe Prüfverfahren
      • Statistische Hypothesen und Parametertests
      • Tests für den unbekannten Mittelwert
      • Tests für die Gleichheit zweier unbekannter Mittelwerte
      • Anpassungs- oder Verteilungstests
      • Aufgaben eines Anpassungs- oder Verteilungstests
      • Chi-Quadrat-Test
  • Explorative Statistik
    • Korrelationsanalyse
      • Korrelationskoeffizient einer zweidimensionalen
      • Stichprobe
      • Korrelationskoeffizient einer zweidimensionalen
      • Grundgesamtheit
    • Regressionsanalyse
      • Gaußschen Methode der kleinsten Quadrat
      • Lineare Regression
      • Schrittweise lineare Regression
      • Mehrfache lineare Regression
      • Rangtransformiert lineare Regression
      • Nichtlineare Regression
      • Bestimmtheitsmaße
      • Wichtigkeitsmaße
      • Verallgemeinertes Bestimmtheitsmaß
      • Prognosemaße
      • Konfidenzbereiche

 

3 Maschinelles Lernen und Datenanalyse

  • Designs of Experiment
    • Factorial design
    • Simplex design
    • Full factorial design
    • Central composite design
    • Box-Behnken design
    • Koshal design
    • Optimal design
      • D-optimality
      • A-optimality
      • E-optimality
    • Monte-Carlo-Simulation
    • Latin Hypercube Sampling
      • Space filling Latin Hypercube Sampling
      • Latin Hypercube Sampling with minimized spurious correlations
    • Sobol-Sequenzen
  • 2D-, 3D-Anthill-Plot
  • Clusteranalyse
  • Sensitivitätsanalyse
    • Hauptkomponentenanalyse
    • Korrelationsanalyse
    • Kovarianzanalyse
    • Diskriminanzanalyse
    • Faktoranalyse
    • Globale varianzbasierte Sensitivitätsanalyse
      • Decomposition of variance
      • First-order indices
      • Total-effect index
      • Sobol indices
      • Sampling sequences
  • Klassifikation und Regression
    • Polynomiale Regressionanalyse
    • Schrittweise Regression
    • Moving Least Square Approximation
    • Support Vector Machines
    • Neuronale Netzwerke
    • Kriging-Approximation
    • Gaußprozesse
    • Support Vector Regression
    • Modellselektion
      • Bayes’sche Modellselektion
      • Maximum Likelihood
      • Bootstrap-Methode
      • Cross Validation
    • Adaption der Hypermodellparameter

 

4 Sicherheitstheorie und Risikobewertung.

  • Statistische Modellierung von Einwirkungen und Beanspruchbarkeiten
    • Einwirkungen und Beanspruchungen
      • Modellierung von Eigenlasten
      • Statistische Verteilung von Einwirkungen
      • Räumliche Verteilung von Einwirkungen
      • Zeitliche Änderung von Einwirkungen
      • Statistische Modellierung von Einwirkungen
      • Einführung in die Modellierung von Windlasten
      • Modellierung von Temperatureinwirkungen
    • Materialparameter und Beanspruchbarkeiten
      • Verteilungen von Werkstoffparametern
      • Verteilungen von Festigkeitskennwerten
      • Zeitliche Änderung von Festigkeitskennwerten
  • Globale Varianz-basierte Robustheitsanalyse
  • Zuverlässigkeitsanalyse
    • Grenzzustände linearer und nichtlinearer
      • Strukturen
    • Six sigma design
    • Formulierung der Versagenswahrscheinlichkeit für zeitinvariantes Strukturverhalten
      • Einfluss der Verteilungsfunktionen
      • Einfluss statistischer Unsicherheiten
    • Einführung in die Bewertung der Systemzuverlässigkeit
    • Zuverlässikeitstheoretische Verifikation
      • klassischer Sicherheitskonzepte
      • Charakteristische Werte Versagenswahrscheinlichkeit und Teilsicherheitsfaktoren
      • Teilsicherheitsfaktoren in Euronormen
    • Methode der zweiten Momente erster Ordnung
    • Zuverlässigkeitsverfahren erster und zweiter Ordnung
    • Simulationssverfahren
      • Monte-Carlo-Simulation
      • Latin hypercube sampling
      • Importanzstichprobenwahl
      • Importance Sampling Using Design Point
      • Adaptive importance sampling
      • Richtungsstichprobenverfahren
    • Approximationsverfahren
  • Risikoanalyse
    • Systemanalyse
      • Ereignisbäume
      • Ausfalleffektanalyse
      • Fehlerbaumanalyse
      • Störfallablaufanalyse
    • Schadenskosten und Risikoberechnung
      • Sachschäden
      • Personenschäden
    • Risikobewertung
      • Sensitivitätsanalyse
      • Risikoreduktion

 

5 Optimierung

  • Unrestringierte Optimierungsaufgaben
    • Schrittweitenverfahren
      • Schrittweitenstrategien: Wolfe- und Armijo-Schrittweite
      • Konvergenz des Modellalgorithmus
      • Newton-, Quasi-Newton- und BFGSVerfahren
      • Verfahren der konjugierten Gradienten
    • Trust-Region-Verfahren
      • Ein Modellalgorithmus
      • Das Trust-Region-Hilfsproblem
      • Globale Konvergenz
      • Nichtlineare Ausgleichsprobleme
  • Theoretische Grundlagen restringierter Optimierungsaufgaben
    • Trennung konvexer Mengen
      • Definitionen, Projektionssatz, starker Trennungssatz
      • Farkas-Lemma, Trennungssatz
    • Notwendige und hinreichende Optimalitätsbedingungen
      • Notwendige Optimalitätsbedingungen
      • Hinreichende Optimalitätsbedingungen
    • Dualität bei konvexen Optimierungsaufgaben
      • Definition des dualen Programms, schwacher
      • Dualitätssatz
      • Starker Dualitätssatz
      • Dualität in der linearen Optimierung
      • Quadratisch restringierte quadratische
      • Programme
  • Innere-Punkt-Verfahren bei linearen Optimierungsaufgaben
    • Grundlagen
      • Kompaktheit von Lösungsmengen
      • Logarithmische Barrieren, zentraler Pfad
    • Das primal-duale Innere-Punkt-Verfahren
  • Quadratische Optimierungsaufgaben
    • Das primale Verfahren von Fletcher
      • Gleichungen als Restriktionen
      • Das Verfahren von Fletcher
    • Das duale Verfahren von Goldfarb-Idnani
  • Linear restringierte Optimierungsaufgaben
    • Die Methode der aktiven Mengen
      • Lineare Gleichungsrestriktionen
      • Der allgemeine Fall
    • Verfahren der zulässigen Richtungen
      • Schrittweitenstrategien
      • Richtungsstrategien
      • Konvergenzaussagen
  • Nichtlinear restringierte Optimierungsaufgaben
    • Penalty- und Barriere-Verfahren
      • Differenzierbare Straffunktionen
      • Barriere-Funktionen
      • Nichtdifferenzierbare, exakte Straffunktionen
      • Erweitertes Lagrange-Verfahren
    • SQP-Verfahren
      • Ungedämpftes SQP-Verfahren
      • Gedämpftes SQP-Verfahren
  • Evolutionary Algorithms
    • Introduction
      • The Basic Principles from Nature
      • The Basic Cycle of Evolutionary Algorithms
      • Classification of Evolutionary Algorithms
      • Configuration Parameters of evolutionary algorithms
    • Fitness Assignment
      • Weighted Sum Fitness Assignment
      • Pareto Ranking
      • Variety Preserving Ranking
      • Tournament Fitness Assignment
    • Selection
      • Truncation Selection
      • Fitness Proportionate Selection
      • Tournament Selection
      • Ordered Selection
      • Ranking Selection
  • Genetic Algorithms
    • Genomes in Genetic Algorithms
    • Fixed-Length String Chromosomes
      • Creation: Nullary Reproduction
      • Mutation: Unary Reproduction.
      • Permutation: Unary Reproduction
      • Crossover: Binary Reproduction
    • Variable-Length String Chromosomes
      • Creation: Nullary Reproduction
      • Mutation: Unary Reproduction
      • Crossover: Binary Reproduction
    • Schema Theorem
      • Wildcards
      • Holland’s Schema Theorem
      • The Building Block Hypothesis
    • The Messy Genetic Algorithm.
      • Reproduction Operations
      • Splice: Binary Reproduction
      • Overspecification and Underspecification
    • Genotype-Phenotype Mappings and Artificial Embryogeny
  • Genetic Programming
    • (Standard) Tree Genomes
      • Creation: Nullary Reproduction
      • Mutation: Unary Reproduction.
      • Recombination: Binary Reproduction
      • Permutation: Unary Reproduction
      • Editing: Unary Reproduction
      • Encapsulation: Unary Reproduction
      • Wrapping: Unary Reproduction
      • Lifting: Unary Reproduction
    • Genotype-Phenotype Mappings
      • Cramer’s Genetic Programming
      • Binary Genetic Programming
      • Gene Expression Programming
      • Edge Encoding
    • Grammars in Genetic Programming
      • Strongly Typed Genetic Programming
      • Grammatical Evolution
      • Christiansen Grammar Evolution
      • Tree-Adjoining Grammar-guided Genetic Programming
    • Linear Genetic Programming
      • The Compiling Genetic Programming System
      • Automatic Induction of Machine Code by Genetic Programming
      • Bytecode Evolution
      • Homologous Crossover: Binary Reproduction
      • Page-based LGP
  • Evolution Strategy
    • Populations in Evolution Strategy
      • (1 + 1)-ES
      • (μ + 1)-ES.
      • (μ + )-ES
      • (μ, )-ES
      • (μ/, )-ES
      • (μ/ + )-ES
    • Differential Evolution
  • Evolutionary Programming
  • Ant Colony Optimization
  • Particle Swarm Optimization
  • Hill Climbing
    • Multi-Objective Hill Climbing
    • Hill Climbing with Random Restarts
  • Random Optimization
  • Simulated Annealing.
  • Multi-Objective Simulated Annealing
  • Memetic Algorithms
  • Downhill Simplex (Nelder and Mead)

 

6 Stochastische Optimierung

  • Design for six sigma
  • Robust-Design-Optimierung
  • Varianzbasierte Robust-Design-Optimierung
  • Zuverlässigkeitsbasierte Robust-Design-Optimierung
  • Zuverlässigkeits- und kostenorientierte Optimierung
  • Zeitvariante zuverlässigkeitsorientierte Kosten-Nutzen-Optimierung

 

7 Modellvalidierung

  • Parameteridentifikation, Data fitting
  • Modellverifikation
  • Modellkalibrierung
  • Modellqualifikation
  • Modellvorhersage

Berufliche Tätigkeiten

Institutsleiter

Professor für Computersimulation und Design Optimization

  • Fachbereich Maschinenbau und Verfahrenstechnik, Hochschule Niederrhein
  • seit 03/2011

Head of Robust Design Optimization

  • DYNARDO Dynamic Software and Engineering GmbH, Weimar
  • 07/2002 – 02/2011

Technical Solutions Specialist

  • CADFEM GmbH, Grafing b. München
  • Gesellschaft für computerunterstützte Konstruktion und Berechnung mbH
  • 07/2000 – 12/2008

Wissenschaftlicher Mitarbeiter

  • Bauhaus-Universität, Weimar
  • Fakultät Bauingenieurwesen
  • Institut für Strukturmechanik (Prof. Christian Bucher)
  • 06/1996 – 06/2000

Lehrbeauftragter

  • Hochschule für Architektur und Bauwesen (Universität), Weimar
  • Fakultät Bauingenieurwesen
  • Lehrstuhl für Baustatik (Prof. Gerhard Burkhardt)
  • 10/1995 – 05/1996

Tragwerksplaner (Statiker)

  • Ingenieurbüro Bauen GmbH, Weimar
  • Prof. Dr.-Ing. Schmidt und Partner GmbH
  • 05/1995 – 05/1996

 

 

Hochschulbildung

Bauhaus-Universität Weimar

  • Promotion zum Thema
    • Approximation von Grenzzustandsfunktionen zur Sicherheitsbewertung nichtlinearer Strukturen
  • 06/1996 – 01/2002

Hochschule für Architektur und Bauwesen (Universität)

  • Dipl.-Ing., Bauingenieurwesen, Weimar
  • Studienrichtung „Konstruktiver Ingenieurbau - Strukturmechanik"
  • 10/1989 – 09/1994

 

 

Ehrungen & Mitgliedschaften

Gutachter

  • BMBF im Programm FH-Kooperativ
  • seit 2019

Mitglied des Scientific Committee

  • International Probabilistic Workshop
  • seit 2017

Mitgliedschaft im Graduierteninstitut

  • für angewandte Forschung der Fachhochschule in NRW, Bochum
  • Fachgruppe Digitalisierung in Wirtschaft und Gesellschaft
  • seit 2017

Wissenschaftliches Mitglied des Forschungsnetzwerks

  • Energiesystemanalyse, BMWi
  • Energiewende-Plattform, Forschung und Innovation
  • seit 2017

Wissenschaftliches Mitglied des Forschungsnetzwerks

  • Flexible Energieumwandlung, BMWi
  • Energiewende-Plattform, Forschung und Innovation
  • seit 2017

Gutachter

  • AiF Forschung - Technik - Kommunikation GmbH, Köln
  • seit 2017

Co-Session-Chair

  • ASME Turbo Expo 2018: Turbomachinery Technical Conference and Exposition
  • Design Optimization and Probabilistic Modelling
  • seit 2017

Mitglied des Forschungsverbundes

  • AG Turbo, BMWi
  • COORETEC-Strategie des Bundesministeriums für Wirtschaft und Technologie
  • seit 2015

Mitglied im Gremium

  • ATOL - Arbeitsgemeinschaft Toleranzmanagement
  • seit 2013

optiSLang Award 2012

  • Weimar Optimization and Stochastic Days, Weimar
  • DYNARDO Dynamic Software and Engineering GmbH
  • 2012

Berater für Robust-Design-Optimierung

  • Robert Bosch GmbH
  • Rahmenforschungsvertrag für alle deutschen Standorte
  • seit 2011

Drittmittelprojekte

 Bild Kostenoptimierung

Bild: Um ein Produkt oder einen Prozess kostenoptimal zu realisieren, müssen die Gesamtkosten, daher die Summe der Herstellungs- und der Versagens- bzw. Ausfallkosten minimiert werden. Da die Eigenschaften und die Qualität aller realen Prozesse und Produkte entscheidend von den streuenden Umwelt-, Prozess-, Material- und Geometrieparametern abhängen, müssen in dem kostenbasierten Robust-Design-Optimierungsprozess weitere Ziele wie Sicherheit, Robustheit und Zuverlässigkeit berücksichtigt werden, um in der realen Produktion unter dem Einfluss aller Unsicherheiten er Produktionsprozesse Kostenoptimalität zu erreichen. Das abgeleitete Optimierungsproblem kann mit den erforschenden Methoden in den Bereichen "Big Data und Machine Learning" und "Robust-Design-Optimierung" gelöst werden.

 

Öffentlich geförderte Drittmittelprojekte an der Hochschule Niederrhein

Forschungsprojekt

  • im Rahmen des BMBF-Förderprogramms Forschung an Fachhochschulen mit Unternehmen (FHprofUnt)
  • 10/2019 – 09/2023
  • Multivariate Machine-Learning-Algorithmen zur echtzeitfähigen Lebensdauerprognose von Kraftwerkskomponenten
  • Eingeworbene Drittmittel: 1.206.000 €
  • Industriepartner: Siemens AG
  • Hochschulpartner: Bergische Universität Wuppertal
  • 2 kooperative Promotionen: mit der Bergischen Universität Wuppertal als universitärer Kooperationspartner
  • Neuronale Netzwerke in Kombination mit Gaußprozessen: damit die abgeleiteten ML-Algorithmen sowohl zeit- als auch ortsabhängige Optimierungsparameter und Ergebnisgrößen hoch-effizient, mit maximaler Prognosequalität klassifizieren und approximieren können
  • Stochastische Optimalsteuerung: Erweiterung neueratiger Gauß-Kovarianznetzwerke für die Anwendung in der Optimalsteuerung unter der Berücksichtigung von Unsicherheiten sowie die Eignung für die Analyse großer Datenmengen (Big Data Analysis)
  • Echtzeitfähigkeit der Optimierungsalgorithmen: durch effiziente Implementation der Algorithmen auf einen GPU HPC Cluster

 

Verbundforschungsprojekt

  • im Rahmen des INTEREG-Programms Deuschland-Nederland, Deutsch-Niederländisches Zentrum für High-Throughput-Formulation, EU
  • Technology zur intelligenten Formulierungsentwicklung für die Klebstoff, Lack- und Beschichtungsindustrie
    • Eingeworbene, anteilige Drittmittel 138.000€
    • Projektpartner
      • Industriepartner: Westdeutsche Farben GmbH, DSM Resins BV, Global Paint Products BV u.a.
      • Hochschulpartnern: Maastricht University, Universiteit Wageningen u.a.
    • Multivariate Statistik und Metamodelle:
    • Stochastische Versuchsplanung und multivariate Statisti in Kombination mit adaptiven Metamodellen. Optimierung der Hyperparameter zur Erstellung von Metamodellen.
    • Robust-Prozess-Mehrzieloptimierung: Methodenentwicklung für die varianzbasierten, toleranzrobusten Mehrzieloptimierung mit Metamodellen
  • 01/2017 – 09/2020

 

Forschungsprojekt

  • im Rahmen der AGTurbo-Verbundforschung, BMWi
  • Kraftwerksforschungsinitiative COORETEC
  • Probabilistische Auslegung von Dampfturbinenkomponenten - Robust-Design-Optimierung
    • Eingeworbene Drittmittel 213.000€
    • Projektpartner
      • Industriepartner: Siemens AG
      • Hochschulpartnern: RWTH Aachen und der DLR - Deutsches Zentrum für Luft- und Raumfahrt e.V. in der Helmholtz-Gemeinschaft
    • Kooperative Promotion: mit der RWTH Aachen als universitärer Kooperationspartner
    • Machine Learning: Deep Gaussian Processes, rekurrente Neuronale Netzwerke, Metamodellselektion bzgl. maximaler Prognosequalität und minimalen Konfidenzbereichen, Adaption der Hypermodellparameter
    • Big Data Analysis: Kombination rekurrente und Convolutional-Netze mit Deep Gaussian Processes, globaler varianzbasierter Sensitivitätsanalyse, Autoencoder und Karhunen-Loève-Transformation zur Datenkompression und Dimensionsreduktion
    • Robust Design Optimization: Methodenentwicklung für die zuverlässigkeitsbasierte, toleranzrobuste Mehrzieloptimierung mit Metamodellen
  • 09/2015 – 08/2018

 

Forschungsprojekt

  • im Rahmen des BMBF-Förderprogramms, BMBF
  • Forschung an Fachhochschulen mit Unternehmen (FHprofUnt)
  • Methoden der effizienten zuverlässigkeitsbasierten Mehrzieloptimierung in der Elektromotorenentwicklung
    • Eingeworbene Drittmittel 387.000 €
    • Projektpartner
      • Industriepartner: Robert-Bosch-GmbH
      • Hochschulpartner: Ruhr-Universität Bochum
    • Kooperative Promotion: mit der Ruhr-Universität Bochum als universitärer Kooperationspartner
    • Stochastische Optimierung: Adaptive Verfahren der Zuverlässigkeitsanalyse. Methodenentwicklung für die zuverlässigkeitsorientierte Mehrzieloptimierung.
    • Pareto-Mehrzieloptimierung: Methoden der effizienten Mehrzieloptimierung mittels lokaler und globaler Sensitivitätsanalyse
  • 12/2014 – 09/2018

 

Verbundforschungsprojekt

  • im Rahmen der Förderinitiative Energiespeicher,BMWi, BMU, BMBF
  • Forschung und Entwicklung auf dem Gebiet von Energiespeichertechnologien
  • Wiederaufladbare Zink-Luft-Batterien zur Stromspeicherung aus regenerativer Energien
    • Eingeworbene, anteilige Drittmittel 220.000€
    • Projektpartner
      • Industriepartnern: Bayer MaterialScience AG, Grillo Werke AG, ThyssenKrupp Uhde GmbH, Zentrum für Brennstoffzellen-Technik GmbH
      • Hochschulpartnern: Technische Universität Clausthal, Universität Duisburg-Essen, Universität des Saarlandes
    • Elektrochemische Simulation: Modellierung elektrochemischer Vorgänge mittels partieller Differentialgleichungssysteme, Implementation effizienter numerischer Lösungsstrategien
    • Software-Entwicklung: Softwareentwicklung in der C++-Bibliothek Diffpack
    • Stochastische Modellvalidierung: System- und Modellidentifikation zur Simulation von Zink-Luft-Energiespeichern
    • Stochastische Optimierung: Robust-Prozess-Optimierung der Be- und Endladevorgänge von Zink-Luft-Energiespeichern
  • 09/2012 – 08/2015

 

Industrielle Forschungstätigkeit

Bild Produktionsoptimierung

Bild: Über die üblichen Anwendungen der Industrie-4.0-Technologien innerhalb der Herstellungsprozesse (Six Sigma Design) hinaus, wird in den Modulen gezeigt, dass mittels der Nutzung Cyber-physikalischer Systeme, digitaler Zwillinge unter Nutzung virtuelle Prototypen der numerischen Simulation in Kombination mit Machine-Learning-Algorithmen und Big-Data-Analysen eine Verlagerung der Optimierungsprozesse in die frühen Phasen eines Produktentstehungsprozesses (Design for Six Sigma) möglich und sinnvoll ist, da somit, mit der Forschung beginnend, Kriterien wie hohe Qualität, Sicherheit und Zuverlässigkeit in den Entwicklungsprozess möglichst früh integriert werden können. Dies ist wirtschaftlich besonders sinnvoll, da in diesen frühen Phasen der Freiheitsgrad an Änderungsmöglichkeiten besonders hoch und die Änderungskosten besonders niedrig sind.

 

Industrielle Forschungstätigkeit (DYNARDO GmbH, 07/2002 – 02/2011)

Forschungs- und Entwicklungsvorhaben

der einzelbetrieblichen Technologieförderung, Land Thüringen

  • Identifikation von Zufallsfeldern mit wenigen stochastischen Parametern für die Robustheitsbewertung und die Zuverlässigkeitsanalyse in der virtuellen Produktentwicklung
  • Finite Elemente: Geometrisch und physikalisch nichtlineare finite Volumen- und Schalenelemente für die Umformsimulation
  • Stochastische Felder: Modellierung räumlich korrelierter Unsicherheiten in der Umformsimulation und in der Crash-Berechnung.
  • Software-Entwicklung: Software-Entwicklung des Programms „RandomFieldSLang“
  • 05/2007 – 04/2010

 

Industrielles Forschungsprojekt

  • im Rahmen von PRO INNO II, AIF
  • Arbeitsgemeinschaft industrieller Forschungsvereinigungen
  • Robust Design Optimization
  • CAE-gestützte Parameteroptimierung und Zuverlässigkeitsanalyse: Entwicklung effizienter adaptive Anntwortflächenverfahren.
  • Robuste Design-Optimierung: Methodenentwicklung zur robustheitsrelevanten und zuverlässigkeitsbasierten Optimierung
  • Software-Entwicklung: Softwareentwicklung der C++-Bibliothek „RobustDesignSLang“
  • 05/2006 – 12/2009

 

Industrielles Forschungsprojekt

  • im Rahmen einer Forschungskooperation, ZF Friedrichshafen AG
  • Zuverlässigkeit und stochastische Betriebsfestigkeit von Bauteilen und Bauteilgruppen
  • Betriebsfestigkeit: Schädigungsrelevante Analyse und Lebensdauerberechnungen von Maschinenbauteilen
  • Optimierung: Topologieoptimierung und multidisziplinäre Parameteroptimierung von Maschinenmodellen
  • Stochastische Strukturmechanik: Zuverlässigkeitsanalyse der Bauteile und Bauteilgruppen
  • 09/2003 – 05/2005

 

Industrielles Forschungsprojekt

  • Verbundforschungsprojekt mit mehreren Industrieunternehmen sowie den Universitäten Stuttgart und Karlsruhe, BMBF
  • SimCAT - Integration von CA-Techniken zur ganzheitlichen Simulation und Optimierung von Fertigungseinrichtungen vom CAD bis hin zur Hardware-in-the-Loop-Simulation
  • Integrierte Simulationsumgebung: Abbildung des dynamischen Verhaltens von Werkzeugmaschinen durch rechnerbasierte virtuelle Modelle
  • Optimierung: Topologieoptimierung und multidisziplinäre Parameteroptimierung von Maschinenmodellen (FEM/MKS/MKS+FEM)
  • 10/2003 – 12/2005

 

Forschungs- und Entwicklungsprojekt

  • Verbundforschungsprojekt mit dem Institut für Strukturmechanik, Bauhaus-Universität Weimar, Thüringer Wirtschaftsministerium
  • Entwicklung eines hybriden MKS/FE Solvers für nichtlineare dynamische Aufgabenstellungen
  • Finite Elemente: Geometrisch und physikalisch nichtlineare finite Volumen- und Schalenelemente für große Verzerrungen und Rotationen, Kopplung von MKS+FEM
  • Numerische Methoden: Zuverlässigkeit und numerische Stabilisierung von Zeitschrittintegrationsverfahren für die Analyse nichtlinearer kinetischer Finite-Elemente-Strukturen
  • Software-Entwicklung: Software-Entwicklung des Programms „SPEEDYNE“
  • 07/2002 – 06/2006

 

 

Industrielle Forschungstätigkeit (CADFEM GmbH, 07/2000 – 12/2008)

 

Industrielles Forschungsprojekt

  • Verbundforschungsprojekt mit dem Mathematischen Institut der Universität Bayreuth, AIF
  • Entwicklung eines benutzerfreundlichen FE-Tools für die Optimierung der Konstruktion von Massivbauteilen
  • Strukturoptimierung: Topologie- und Formoptimierung von Finite-Elemente-Strukturen.
  • Software: Software-Entwicklung des Programms „TopoSLang“
  • 07/2000 – 04/2003

Forschungsthemen

Bild Optimierung

Bild: Aus den abgeleiteten Zielversagenkosten aller Komponenten eines komplexen Produktes oder eines Prozesses kann mittels einer abgeleiteten Risikomatrix ein vorgegebenes Gesamtrisiko der technischen Anlage oder des Produktionsprozesses eingehalten werden und für alle Komponenten die spezifische Zielausfallwahrscheinlichkeit abgeleitet werden. Unter Berücksichtigung dieser, können innerhalb einer toleranzrobusten Design- oder Prozessoptimierung optimale Komponenten im realen Einsatz entwickelt, hergestellt und deren Funktionalität und Qualität über die gesamte Lebensdauer garantiert werden.

Einleitung

Eine ureigenste Aufgabe einer u.a. natur- und wirtschaftswissenschaftlich ausgerichteten akademischen Forschungseinrichtung ist sowohl die angewandte wissenschaftliche Entwicklung von neuen innovativen Techniken, Verfahren, Produkten und Prozessen mit unmittelbarem Nutzungs-, Verwertungs- und Marktbezug als auch die grundlagenorientierte Forschung für eine ressourcen und umweltschonende Entwicklung einer wettbewerbsfähigen Wirtschaft. In meinen laufenden Forschungsaktivitäten werden u.a. einerseits mathematische Methoden erforscht
und weiterentwickelt und anderseits an unterschiedlichen Anwendungsbereichen der Luft- und Raumfahrt, des Schiffbaus, des Turbomaschinenbaus, der Speichertechnologien, der
Elektromotorenentwicklung und der chemischen Verfahrenstechnik erprobt. Die erfolgreiche Erforschung und Weiterentwicklung komplexer Algorithmen und Lösungsstrategien mit breitem
transdisziplinären Anwendungspotential gelingt in einer intensiven, interdisziplinären Forschungskooperation mit herausragenden universitären, wissenschaftlichen und industriellen
Partnern.

Zentrale Themen meiner aktuellen Forschungsarbeit sind die Entwicklung mathematischer Methoden der stochastischen Struktur- und Strömungssimulation, der Modellierung und der Finite-Elemente-Analyse von Zufallsfeldern und partieller stochastischer Differentialgleichungen, der Robustheits- und Zuverlässigkeitsanalyse innerhalb der Sicherheitstheorie, des maschinellen Lernens, der multidisziplinären Optimierung sowie die Numerik und Softwareentwicklung für die Entwicklung und Risikobewertung komplexer Systeme unter Berücksichtigung großer Datenmengen in den folgenden Technologien

  • Industrie 4.0
  • Cyber-physische Syteme
  • Digital Twins
  • Machine Learning
  • Datenbasierte Optimierung
  • Big Data Analysis

und den folgenden industriellen Anwendungsbereichen:

  • Flexibilisierung der Kraftwerke, Energieeffizienz
  • Erneuerbare Energien
  • Speichertechnologien
  • Turbomaschinen
  • Automobilität
  • Luft- und Raumfahrt
  • Schifffahrt
  • Medizintechnik

in Kooperation mit zahlreichen Partnern aus Universitäten sowie zahlreichen Industrie- und außeruniversitären Forschungseinrichtungen, wie z.B.:

  • Hochschulen: RWTH Aachen, Ruhr-Universität Bochum, Technische Universität Braunschweig, Technische Universität Dresden, Leibniz Universität Hannover, TU-Darmstadt
  • Forschungseinrichtungen: DLR Köln
  • Unternehmen: Robert Bosch GmbH, Siemens AG, Rheinmetall Automotiv, Rolls-Royce Deutschland, DNV GL, M.TEC GmbH, DYNARDO GmbH, CADFEM GmbH, Friendship Systems

 

Probabilistic Intelligence - neue Verfahren der künstlichen Intelligenz für robuste und effiziente Produkte und Prozesse

Zweifellos wird immer offensichtlicher, dass künstliche Intelligenz immer mehr unsere Gesellschaft und unsere Art, in dieser zu leben maßgeblich beeinflusst. Die derzeitig verwendeten Verfahren des maschinellen Lernens haben bereits vieles mit der Art und Weise, wie unser menschliches Gehirn arbeitet, gemeinsam. Zwar sind Computer, im Gegensatz zu uns Menschen, in der Lage, sehr viele hoch genaue Berechnungen in beliebig hoch dimensionalen Räumen in einer Sekunden durchzuführen, jedoch ist das Lernen von Menschen dem der Computer in vielen Aspekten weit überlegen. Z.B. kann menschliches Lernen kontinuierlich Wissen akkumulieren und sich an zufällig ändernden Einflüssen aus der Umgebung anpassen. Die menschlichen Fähigkeiten sind nicht auf einen einzigen bestimmten Zweck trainiert, sondern zunächst einmal sehr universell, können aber auch durch langes Lernen spezialisiert werden. Dennoch kann in dieser Lernphase das Verarbeiten neuer Informationen in Sekunden erfolgen. Außerdem haben die Menschen die Fähigkeit des aktiven Lernens. Wir können gezielt Fragen stellen, um besonders relevante Informationen zu bekommen und wir können zwischen Wichtigem und Unwichtigem unterscheiden. Intuitiv können wir fehlende Informationen ergänzen und  haben ein Gefühl für die Wahrscheinlichkeit einer richtigen Antwort auf eine Frage. Dabei kommt es den Menschen nicht so sehr auf eine möglichst genaue Vorhersage aufgrund der erlernten Erfahrungen an, sondern es genügt häufig eine ungefähre Abschätzung. All diese Fähigkeiten macht menschliches Lernen effektiver, effizienter und schneller im Vergleich zum maschinellen Lernen. Wird maschinelles Lernen um diese Fähigkeiten erweitert, kann die Vorhersagewahrscheinlichkeit der richtigen Antworten um ein Vielfaches gesteigert und der Speicher- und Rechenbedarf drastisch reduziert werden, so dass neue Anwendungsbereiche der künstlichen Intelligenz kostengünstig erschlossen werden können.

Cyber-Physische-Systeme und digitale Zwillinge

Ein strategisches Ziel der Hightech-Strategie 2020, welches gleichsam ein Leitthema der nationalen Nachhaltigkeitsstrategie darstellt, ist die Erforschung von Schlüsseltechnologien für die digitale Wirtschaft und Gesellschaft. Voraussetzung für das Erreichen dieses Zieles ist die praxisnahe Kombination mathematischer Grundlagenforschung mit der Produkt- und Prozessentwicklung z.B. durch die Nutzung effizienter Algorithmen für die Analyse großer Datenmengen zur ressourcenschonenden und energieeffizienten Produkt- und Prozessoptimierung. Mit den Begriffen Digitalisierung und Industrie 4.0 werden Grundlagenforschung und Produktentwicklung sowie Produktion eng mit den modernen Informations- und Kommunikationstechnologien verknüpft. Technische Grundlage für das Zusammenwachsen von realer und virtueller Welt sind intelligente, vernetzte Systeme, mit denen digitale Entwicklungsprozesse sowie Analyse und Optimierung großer Datenmengen in Echtzeit möglich sind.
Auf der Basis so genannter Cyber-Physischer-Systeme (CPS) entwickelt das IMH dynamische, echtzeitfähige und selbstorganisierende Wertschöpfungsketten, die sich nach verschiedenen Zielgrößen, wie beispielsweise Kosten, Verfügbarkeit, Energie- und Ressourcenverbrauch, Flexibilität, Durchlaufzeit etc. optimieren lassen. CPS können über Softwarewerkzeuge Informationen und Wissen aus realen Zustands- und Prozessdaten nutzen und über anwendungsspezifische Engineering-Applikationen ein digitales, virtuelles Abbild der physikalischen Systeme simulieren. Jede Änderung einer Komponente kann dabei in das virtuelle Abbild zurückgespielt werden. Somit bekommen physische Produkte ein zugeordnetes, numerisches Modell, das im Aktionsfeld Industrie 4.0 auch als digitaler Zwilling (engl. Digital Twins) bezeichnet wird. CPS können in Komponenten, Maschinen und Anlagen integriert werden, die sich durch Selbstoptimierung und Rekonfiguration an sich ändernde Betriebsbedingungen anpassen können.

 

Big Data Analysis

Das reale, physikalische System erzeugt im tatsächlichen Betrieb über Sensoren Werte für die Datenanalyse im digitalen Modell, die wiederum über die datenbasierte Optimierung den Betriebsprozess beeinflusst. Zudem lassen sich über Echtzeitdaten von Sensoren standortunabhängig
Informationen über den Zustand des physikalischen Systems abrufen, so dass auch die Vorhersage von Fehlfunktionen möglich wird. In den Anwendungsszenarien der Industrie 4.0 fallen große Datenmengen (Big Data) an. Komponenten und Maschinen werden mit zusätzlicher Sensorik und leistungsfähigeren Steuerungen ausgestattet. In den Forschungsprojekten des IMH werden Algorithmen entwickelt, damit Daten nicht nur gesammelt, sondern intelligent miteinander verknüpft und analysiert werden können, um relevante Zusammenhänge herzustellen, Schlüsse zu ziehen - und das in vielen Anwendungsfällen in Echtzeit.

 

Machine-Learning-Algorithmen und stochastische Optimierungsverfahren

Als Schlüsseltechnologie für die Entwicklung von CPS gilt das maschinelle Lernen (engl.: Machine Learning). Das IMH befasst sich innerhalb des Machine Learnings u.a. mit der automatisierten Entwicklung von Metamodellen basierend auf empirischen Daten bzw. Trainings-Daten. Statt teurer Prototypen und langwieriger Versuchsketten lassen sich so mit Digital Twins anhand von Machine-Learning-Algorithmen datenbasierten Optimierungen innerhalb kürzester Zeit durchspielen, Lösungsstrategien entwickeln und verwerfen, Verbesserungsmöglichkeiten ausloten und umsetzen.
Mit Machine-Learning-Algorithmen und stochastischen Optimierungsverfahren, die in den Forschungsprojekten des IMH entwickelt werden, können intelligente Wertschöpfungsketten realisiert werden, die zudem alle Phasen des Lebenszyklus des Produktes mit einschließen - von der Idee eines Produkts über die Entwicklung, Fertigung, Nutzung und Wartung bis hin zum Recycling. Ferner kann eine schnelle Umsetzung von Kundenanforderungen über Cloud-Systeme und eine bedarfssynchrone Entwicklung bei individualisierter Produktion in immer kürzeren Produktzyklen zu niedrigeren Kosten ressourcenschonend und nachhaltig realisiert werden. Für eine effiziente, multidisziplinäre, datenbasierte Optimierung werden heute im Wesentlichen Metamodellierungsverfahren des Machine Learnings (ML) entwickelt. Die Systemantworten werden dabei auf einem Satz von Versuchsdaten oder Analysen des CPS mittels Metamodelle approximiert bzw. interpoliert.
In eigenen Forschungsergebnissen konnte mittels eines anisotropen, inhomogenen ML-Verfahrens in Kombination mit adaptiven Designplänen gezeigt werden, dass ML-Meta-Modelle sehr effizient auch für die stochastische Analyse der Sicherheit und Zuverlässigkeit und damit für die stochastische Optimierung komplexer technischer Systeme verwendet werden können.
Durch maschinelles Lernen können große Datenmengen aber nur für wenige Mess- bzw. Ergebnisgrößen in Beziehung gesetzt und wichtige lineare Einflussparameter identifiziert werden, da die Algorithmen der Metamodellierung und Sensitivitätsanalyse sehr rechenzeitintensiv sind. Somit sind die herkömmlichen Algorithmen des Machine Learnings und der Big Data Analysis nicht für eine nichtlineare, multivariate Parameteridentifikation und für zeit- bzw. ortsabhängige Mess bzw. Ergebnisgrößen geeignet, da die Analyse für jeden zeit- bzw. ortsdiskretisierten Wert, z.B. für bis zu mehrere Millionen Mess- bzw. Ergebnispunkte, durchgeführt werden müsste. In bereits beantragten Forschungsprojekten sollen effiziente ML-Algorithmen entwickelt werden, um sowohl zeit- als auch ortsabhängige Big-Data-Analysen zu ermöglichen.

 

Künstliche Neuronale Netzwerke

Eines der oft genutzten Verfahren im Bereich des ML sind neuronale Netze (NN). Durch die verhältnismäßig einfachen, mathematischen Operationen sind diese Verfahren auch für Big-Data-Anwendungen geeignet. NN lassen sich gut auf CPU- bzw. GPU-basierten Hardwareplattformen parallelisieren und durch sogenanntes Batch oder Online Learning für beliebig große Datenmengen anwenden. Beim Batch Learning werden die Daten in Pakete aufgeteilt und die Hyperparameter des NN nach der Auswertung jedes einzelnen Paketes angepasst. Beim Online Learning erfolgt die Anpassung nach jedem einzelnen Datenpunkt, so dass fortlaufend das Model an neuen Trainingsdaten angepasst werden kann. Dabei ist die Abarbeitung der Datenpakete und somit das verteilte Lernen parallel möglich, z.B. durch die Aufteilung auf verschiedenen Rechenknoten eines Clusters.
NN können komplexe Zusammenhänge darstellen und lassen sich auf die verschiedensten Anwendungsgebiete anpassen. So sind beispielsweise rekurrente und long short-term memory
(LSTM) Netze für sequentiell abhängige Daten (Zeitreihen, Sprache, Text) besonders gut geeignet. Convolutional neural networks sind Netzwerke die sich für Audio- und Bild-Daten eignen und z.B. bei der Bilderkennung und im autonomen Fahren verwendet werden. Eine der Schwächen von neuronalen Netzen liegt in der Gefahr des Overfitting bei sehr kleinen Datensätzen, sowie einer häufig schlechteren Prognosequalität im Vergleich zu anderen Methoden. Darüber hinaus ist die Auswahl der Netztopologie und der Aktivierungsfunktionen, die für die nicht-lineare Datentransformation sorgen, sowie die Initialisierung der Hyperparameter entscheidend für die Performance des Meta-Models und müssen in den meisten Fällen aus notwendigem Expertenwissen generiert werden.

 

Gaußprozesse

Gaußprozesse (GP) stellen ein weiteres Verfahren aus dem Bereich des ML dar. Sie eignen sich insbesondere im Bereich der Regression auch für minimale Datensätze. Sie übertreffen in den meisten Fällen die Prognosegenauigkeit vieler anderer Verfahren. Zudem ermöglichen GP die Abschätzung der Varianz der Vorhersage, welche dazu genutzt werden kann, Konfidenzintervalle und -bereiche zu berechnen. Dies erhöht die Zuverlässigkeit der Algorithmen hinsichtlich der Angabe einer Fehlerwahrscheinlichkeit und der Prognosequalität der gefundenen Lösung. Aufgrund der komplexen mathematischen Operationen ist die Anwendung der GP auf große Datenmengen
im Vergleich zu NN wesentlich rechenzeitintensiver.

In eigenen Forschungsarbeiten wurde mithilfe von Dimensionsreduzierungsmethoden gezeigt, dass auch mit minimalen Datensätzen erfolgreich Vorhersagemodelle gebildet werden können. Neben der Untersuchung anderer Verfahren des ML wurden neue Entwicklungen von anisotropen GP an verschiedenen Beispielen aus dem Turbomaschinenbau und der Elektromobilität erfolgreich eingesetzt. Dabei konnte gezeigt werden, dass diese auch dann eine hohe Prognosegüte liefern, wenn nur eine geringe Anzahl an Trainingspunkten verwendet werden kann. In einer weiteren Forschungsarbeit wurde erprobt, wie sich verschiedene ML-Modelle miteinander lokal kombinieren lassen. Basierend auf dem Cross-Validierungsfehler und abgeleiteter Konfidenzbereiche wurde die Prognose der einzelnen Modelle gewichtet, abhängig von der Lage des zu approximierenden Datenpunktes im Designraum. Diese Vorgehensweise würde sich ebenfalls für die Kopplung von Approximations- und physikalischen Modellen eignen.

 

Kovarianznetzwerke

In zukünftigen Forschungsschwerpunkten des IMH soll u.a. herausgefunden werden, wie sich die positiven Eigenschaften von NN mit denen der GP kombinieren lassen, z.B. durch die Nutzung der GP als Aktivierungsfunktion innerhalb des NN. Erste Arbeiten in diese Richtung wurden kürzlich veröffentlicht. Bei sogenannten Deep Gaussian Processes werden mehrere GP hintereinandergeschaltet. Dabei wird, wie bei NN, eine Netztopologie aufgebaut.

Weiterhin sollen diese sogenannten Kovarianznetzwerke mit rekurrenten und Convolutional- Netzen kombiniert werden. Durch die Kombination von GP und NN sollen die Vorteile der Algorithmen, z.B. die gleichzeitige Verwendbarkeit von kontinuierlichen und diskreten Parametern, bestehen bleiben und deren Nachteile, z.B. bzgl. der beschränkten Anwendbarkeit auf minimale Datensätze, eliminiert werden. Darüber hinaus soll diese Kombination auch für zeitabhängige Ausgangsgrößen effizient anwendbar gemacht werden. Ein weiterer Aspekt betrifft die Aufbereitung der Daten bzw. auch die intelligente Reduzierung der Dimensionen, sowie der Datenpunkte. Beispielsweise kann in vielen Anwendungsfällen mit Hilfe einer Hauptkomponenten-Analyse die Anzahl der notwendigen Dimensionen reduziert werden. Alternativ sollen auch Autoencoder verwendet werden, um eine nicht-lineare Kompression der Dimensionen durchzuführen. Dies würde u.U. zu einer Verbesserung der Qualität der Eingabedaten führen und die Flexibilität gegenüber sich verändernden Datendimensionen steigern.

Veröffentlichungen

  • Peter Farber, Jens Gräbel, Norman Kroppen, Liesa Pötschke, Dirk Roos, Miriam Rosenbaum,  Georg Stegschuster, Peer Ueberholz. Intelligent optimization and machine learning algorithms for structural anomaly detection using seismic signals. Computers & Mathematics with Applications, 2019.
  • Trapp, M.; Bogoclu, C.; Nestorović, T.; Roos, D.Intelligent optimization and machine learning algorithms for structural anomaly detection using seismic signals Mechanical Systems and Signal Processing, Vol: 133, 2019.
  • Cremanns, K., Roos, D., Hecker, S., Penkner, A., and Musch, C. Robust design optimization of a steam turbine labyrinth seal based on surrogate models. In Proceedings of ASME Turbo Expo 2018: Turbomachinery Technical Conference and Exposition GT2018, Oslo, Norway, June 11-158 2018.
  • Cremanns, K., Penkner, A., Hecker, S., Musch, C., and Roos, D. Steam turbine exhaust optimization based on gaussian covariance networks using transient CFD simulations. In Proceedings of ASME Turbo Expo 2018: Turbomachinery Technical Conference and Exposition GT2018, Oslo, Norway, June 11-158 2018.
  • Cremanns, K. and Roos, D. Deep Gaussian Covariance Network. ArXiv e-prints, October 2017. Bogoclu, C. and Roos, D. Reliability analysis of non-linear and multimodal limit state functions using adaptive Kriging. In 12th International Conference on Structural Safety & Reliability, ICOSSAR 2017, TU Wien, Vienna, Austria, 6-10 August, 2017.
  • Roos, D. Latin hypercube sampling based on adaptive orthogonal decomposition. In Papadrakakis, M., Papadopoulos, V., Stefanou, G., and Plevris, V., Editors, VII European Congress on Computational Methods in Applied Sciences and Engineering, ECCOMAS Congress 2016, Crete Island, Greece, 5-10 June, 2016.
  • Cremanns, K., Roos, D., Hecker, S., Dumstorff, P., and Almstedt, H. Efficient Multi-Objective Optimization Of Labyrinth Seal Leakage In Steam Turbines Based On Hybrid Surrogate Models. In Proceedings of ASME TURBO EXPO 2016: Turbine Technical Conference and Exposition GT2016, South Korea, Seoul, June 13-17, 2016.
  • Cremanns, K. and Roos, D. A new optimized moving least square meta model with maximized prognosis. In Papadrakakis, M., Papadopoulos, V., Stefanou, G., and Plevris, V., Editors, VII European Congress on Computational Methods in Applied Sciences and Engineering, ECCOMAS Congress 2016, Crete Island, Greece, 5-10 June, 2016.
  • Bogoclu, C. and Roos, D. Abenchmark of contemporary metamodeling algorithms. In Papadrakakis, M., Papadopoulos, V., Stefanou, G., and Plevris, V., Editors, VII European Congress on Computational Methods in Applied Sciences and Engineering, ECCOMAS Congress 2016, Crete Island, Greece, 5-10 June, 2016.
  • Vossen, G., Struck, A., and Roos, D. Optimal control for lithium-ion batteries. In GAMM 86th Annual Scientific Conference of the International Association of Applied Mathematics and Mechanics, Lecce, Italy, March 23-27 2015.
  • Cremanns, K., Lehmkuhl, H., Roos, D.,Wanzek, T., Karschnia, D., Seifert, F., Jasper, J., and Rothgang, S. Multi-objective design optimization of an electrical air compressor impeller with subsequent robustness evaluation. In Proceedings of the ANSYS Conference & 33th CAD-FEM Users’ Meeting 2015, International Congress on FEM Technology, Bremen, Germany, June 24-26, 2015.
  • Cremanns, K., Lehmkuhl, H., Roos, D., Wanzek, T., Karschnia, D., Seifert, F., Jasper, J., and Rothgangb, S. Multicriteria optimization and robustness evaluation of a radial compressor. In 3rd ECCOMAS Young Investigators Conference of the 6th GACM Colloquium, RWTH Aachen, Aachen, Germany, July 20-23, 2015.
  • Vossen, G., Roos, D., and Struck,A. Optimal control for battery management systems. In EngOpt2014 - 4th International Conference on Engineering Optimization, Instituto Superior Tecnico, Lisboa, Portugal, September 8-11 2014.
  • Cremanns, K., Roos, D., and Graßmann, A. Sequential vs. Multidisciplinary coupled Optimization and efficient Surrogate Modelling of a last Stage and the successive Axial Radial Diffuser in a low Pressure Steam Turbine. In Proceedings of ASME TURBO EXPO 2014: Turbine Technical Conference and Exposition GT2014, Düsseldorf, Germany, June 16-20, 2014.
  • Cremanns, K., Roos, D., and Graßmann, A. Increased efficiency by optimizing the last stage of a steam turbine. RDO-Journal, 2014.
  • Roos, D., Cremanns, K., and Jasper, T. Probability and variance-based stochastic design optimization of a radial compressor concerning fluid-structure interaction. In Idelsohn, S., Papadrakakis, M.,and Schrefler, B., Editors, V International Conference on Coupled Problems in Science and Engineering (Coupled Problems 2013), pages 1475–1501, Santa Eulalia, Ibiza, Spain, June 17-19, 2013.
  • Harries, S., Palluch, J., and Roos, D. Optimization and Robustness Analysis in Ship Design. RDOJournal, 2013.
  • Cremanns., K., Roos, D., and Graßmann, A. Conventional partwise optimization vs. multidisciplinary optimization of the last stage of a low pressure steam turbine with an axial radial diffuser. In Proceedings of the eleventh Weimar Optimization and Stochastic Days.Weimar, Germany, November 21-22, 2013.
  • Roos, D. Optimierung und stochastische Analyse in der Fluid-Struktur-Simulation. DIGITAL Engineering Magazin, 6:32–35, 2011. Roos, D. Multi-domain Adaptive Surrogate Models for Reliability Analysis. In Budelmann, H., Holst, A., and Proske, D., Editors, Proceedings of the 9th International Probabilistic Workshop, pages 191 – 207. Technical University Carolo-Wilhelmina zu Braunschweig, Braunschweig, Germany, November 17-18 2011.
  • Roos, D., Einzinger, J., and Bayer, V. Robust Design Optimization applied to Structural, Thermal and Fluid Analysis including Manufacturing Tolerances. In Proceedings of the sixth Weimar Optimization and Stochastic Days. Weimar, Germany, Oktober 15-16, 2009.
  • Roos, D. and Hoffmann, R. Successive robust design optimization of an electronic connector. In Proceedings of the fourth Weimar Optimization and Stochastic Days.Weimar, Germany, November 20-21, 2008.
  • Roos, D. and Bayer, V. An efficient robust design optimization approach using advanced surrogate models. In Graubner, Schmidt, P., Editor, Proceedings of the 6th International Probabilistic Workshop, Darmstadt, Germany, November 26-27, 2008. Technical University Darmstadt.
  • Roos, D. Advanced methods of stochastic and optimization in industrial applications. In Proceedings of the 7th International Conference and Workshop on Numerical Simulation of 3D Sheet Metal Forming Processes, Numisheet, Interlaken,Switzerland, September 1-5 2008.
  • Bayer, V. and Roos, D. Efficient Modelling and Simulation of Random Fields. In Graubner, Schmidt, P., Editor, Proceedings of the 6th International Probabilistic Workshop, Darmstadt, Germany, November 26-27, 2008. Technical University Darmstadt.
  • Roos, D., Most, T., Unger, J., and Will, J. Advanced surrogate models within the robustness evaluation. In Proceedings of the fourth Weimar Optimization and Stochastic Days.Weimar, Germany, November 28-29, 2007.
  • Egerland, M., Roos, D., andWill, J. Optimization of a fan shroud by ANSYS/DesignModeler and optiSLang. In Proceedings of the ANSYS Conference & 25th CAD-FEM Users’ Meeting 2007, International Congress on FEM Technology, Dresden, Germany, November 21-23, 2007.
  • Bayer, V., Roos, D., and Adam, U. Structural Reliability Analysis by Random Field Modeling with Robustness Methods and Adaptive Response Surfaces. In Proceedings of the CIVIL-COMP2007: The Eleventh International Conference on Civil, Structural and Environmental Engineering Computing. Civil Comp Ltd., St. Julians, Malta, September 18-21 2007.
  • Roos, D., Bucher, C., andWill, J. Speedyne – Fast Approximation Solution for FEM-based Drop Test Applications using hybrid MBS/FE Technology. In Proceedings of the ANSYS Conference & 24th CADFEM Users’ Meeting 2006, International Congress on FEM Technology, Stuttgart, Schwabenlandhalle, Germany, October 25-27, 2006.
  • Roos, D., Adams, U., and Bucher, C. Robust Design Optimization. In Proceedings of the third Weimar Optimization and Stochastic Days. Weimar, Germany, November 23-24, 2006.
  • Roos, D. and Adams, U. Adaptive Moving Least Square Approximation for the Design Reliability Analysis. In Proceedings of the third Weimar Optimization and Stochastic Days. Weimar, Germany, November 23-24, 2006.
  • Roos, D., Adam, U., and Bucher, C. Robust Design Optimization. In Proceedings of the ANSYS Conference & 24th CAD-FEM Users’ Meeting 2006, International Congress on FEM Technology, Stuttgart, Schwabenlandhalle, Germany, October 25-27, 2006.
  • Roos, D., Adam, U., and Bayer, V. Design Reliability Analysis. In Proceedings of the ANSYS Conference & 24th CAD-FEM Users’ Meeting 2006, International Congress on FEM Technology, Stuttgart, Schwabenlandhalle, Germany, October 25-27, 2006.
  • Bayer, V. and Roos, D. Non-parametric Structural Reliability Analysis using Random Fields and Robustness Evaluation. In Proceedings of the third Weimar Optimization and Stochastic Days. Weimar, Germany, November 23-24, 2006.
  • Will, J., Roos, D., Riedel, J., and C., B. Combination of optimization and robustness evalutation from practical point of view. In Proceedings of the NAFEMS Seminar on Optimization in Structural Mechanics,Wiesbaden, Germany, April 27 - 28 2005.
  • Roos, D. and Bucher, C. Robust Design and Reliability-based Design Optimization. In Proceedings of the NAFEMS Seminar on Optimization in Structural Mechanics, Wiesbaden, Germany, April 27 - 28 2005.
  • Unger, J. and Roos, D. Investigation and benchmark of algorithms for reliability analysis. In Proceedings of the first Weimar Optimization and Stochastic Days. Weimar, Germany, December 2-3, 2004.
  • Roos, D., Groth, C., Junk, A., and Brinkmann, D. Optimierung und Sensitivitätsanalyse zur Parameteridentifikation in der numerischen Simulation der Gefügekinetik im Schweißprozess. In Proceedings of the ANSYS Conference & 22th CAD-FEM Users’ Meeting 2006, International Congress on FEM Technology, Dresden, International Congress Center Dresden, Germany, November 12-14, 2004.
  • Roos, D. and Bucher, C. Methoden der stochastischen Optimierung. In Proceedings of the first Weimar Optimization and Stochastic Days. Weimar, Germany, December 2-3, 2004.
  • Will, J., Roos, D., Riedel, J., and Bucher, C. Robustheitsbewertung in der stochastischen Strukturmechanik. In Proceedings of the NAFEMS Seminar on Use of Stochastics in FEM Analyses, Wiesbaden, Germany, May 7 - 8 2003.
  • Roos, D.,Nelz, J., Grosche,A., and Stoll, P.Workflow-Konzepte zum benutzerfreundlichen, robusten und sicheren Einsatz automatischer Optimierungsmethoden. In Proceedings of 21th CAD-FEM Users’ Meeting 2003, International Congress on FEM Technology, Potsdam, Germany, November 12-14, 2003.
  • Roos, D. and Bucher, C. Adaptive Response Surfaces for Structural Reliability of Nonlinear Finite Element Structures. In Proceedings of the NAFEMS Seminar: Use of Stochastics in FEM Analyses, Wiesbaden, Germany, May 7 – 8 2003.
  • Roos, D.,Will, J., and Vogel, F. TopoSLang 1.0 - A Software Package for Structural Optimization of Solid Components, Biological Growth Strategies and Mesh Smoothing. In Proceedings of 20th CAD-FEM Users’ Meeting 2002, International Congress on FEM Technology, Friedrichshafen, Lake Constance, Germany, October 9-11, 2002.
  • Roos, D. Approximation und Interpolation von Grenzzustandsfunktionen zur Sicherheitsbewertung nichtlinearer Finite-Elemente-Strukturen. Dissertation. In Mitteilungen des Instituts für Strukturmechanik, Nr. 02-1. Bauhaus-UniversitätWeimar,Weimar, Germany, 2002.
  • Roos, D., Will, J., and Vogel, F. Structural Optimization of Solid Components with Topology Optimizing Structural Language. In Proceedings of 19th CAD-FEM Users’ Meeting 2001, International Congress on FEM Technology, Potsdam, Germany, October 17-19, 2001.
  • Roos, D. and Bucher, C. An Adaptive Response Surface Method using Weighted Radii. In 8th International Conference on Structural Safety and Reliability, Newport Beach, California, USA, June 17-21, 2001.
  • Roos, D. Adaptive Approximation von Grenzzustandsflächen zur Sicherheitsbewertung nichtlinearer Strukturen. In Mitteilungen des Instituts für Strukturmechanik, Nr. 00-1. Bauhaus-Universität Weimar,Weimar, Germany, 2000.
  • Macke, M., Roos, D., and Riedel, J. An Adaptive Response Surface Method Utilizing Error Estimates. In Kareem, A., Haldar, A., B.F. Spencer, J., and Johnson, E., Editors, 8th ASCE Specialty Conference on Probabilistic Mechanics and Structural Reliability, Notre Dame, Indiana, USA, July 24-26, 2000.
  • Bucher, C., Hintze, D., and Roos, D. Advanced Analysis of Structural Reliability Using Commercial FE-Codes. In ECCOMAS 2000: European Congress on Computational Methods in Applied Sciences and Engineering, Barcelona, Spain, September, 2000.
  • Roos, D., Bucher, C., Beucke, K., and Grosche, A. Probabilistic numerical analysis based on a component software model. In Melchers, R. and Stewart, M., Editors, European Conference on Computational Mechanics, München, Germany, August 31 – September 3, 1999.
  • Roos, D., Bucher, C., and Bayer, V. Polyhedral response surfaces for structural reliability assessment. In Melchers, R. and Stewart, M., Editors, Proc. International Conference on Applications of Statistics and Probability, 12-15 December 1999, pages 109 – 115. Balkema/Rotterdam/Brookfield, Sydney, Australia, 1999.
  • Bucher, C., Hintze, D., and Roos, D. Stochastics and Finite Elements - Challenges and Chances. In Proceedings of 17th CAD-FEM Users’ Meeting 1999, International Congress on FEM Technology, Sonthofen (Allgäu), Germany, October 6-8, 1999.
  • Roos, D. Lineare Stabilitätsanalyse der Kreiszylinderschale unter Axialdruck. In Mitteilungen des Instituts für Strukturmechanik, Nr. 98-2. Bauhaus-UniversitätWeimar,Weimar, Germany, 1998.
  • Roos, D. Transformation lokaler Rotations-Freiheitsgrade eines gekrümmten isoparametrischen Schalenelementes. In Mitteilungen des Instituts für Strukturmechanik, Nr. 97-1. Bauhaus-Universität Weimar,Weimar, Germany, 1997.
  • Köppler, H., Roos, D., and Burkhardt, G. Zur Berechnung vielschichtiger Schalen mit orthotropen Schichten. In Internationales Kolloquium über die Anwendung der Informatik und Mathematik in Architektur und Bauwesen, Weimar, Germany, February 26 - March 1, 1997. Bauhaus-Universität Weimar.
Weitere Veröffentlichungen

Prof. Dr.-Ing. Dirk Roos

ist zum Sommersemester 2011 von der Hochschule Niederrhein zum Professor für Computersimulation und Design Optimization im Fachbereich Maschinenbau und Verfahrenstechnik berufen worden.

Nach seinem Studium des Bauingenieurwesens promovierte er 2002 im Bereich der stochastischen Strukturmechanik an der Bauhaus-Universität Weimar und war von 2000 bis 2008 als Technical Solutions Specialist in der Software- und Methodenentwicklung bei der CADFEM GmbH und von 2002 bis 2011 leitend als Head of Robust Design Optimization in der DYNARDO GmbH in Weimar tätig. Neben seinen zahlreichen forschungsbezogenen und beratenden Tätigkeiten in der Industrie war der 41-Jährige außerdem mit Seminaren, Gastvorlesungen und Lehraufträgen an Universitäten und akademischen Forschungseinrichtungen betraut.

Die zentralen Themen seiner aktuellen Lehr- und Forschungsarbeit sind die stochastische Strukturmechanik, das Maschinelle Lernen, die multidisziplinäre Optimierung sowie die Robustheits- und Zuverlässigkeitsanalyse, umbeispielsweise Qualität, Sicherheit und Zuverlässigkeit von Prozessen und Produkten zu verbessern. Als Leiter des Institutes für Modellbildung und Hochleistungsrechnen bietet Professor Roos Forschungs- und Entwicklungsdienstleistungen für die "CAE-basierte Robust-Design-Optimierung für die virtuelle Produktentwicklung und Prozessgestaltung" an. Somit verfügt das IMH über mathematische Methoden- und Software-Kompetenz auf dem Gebiet der CAE-basierten Robust-Design-Optimierung an, um sichere, zuverlässige und optimale Designs und Produkte zu entwickeln und um Prozesse zu optimieren.

Insbesondere ist es möglich, dass innerhalb der Optimierung in den CAE-Prozessen die unvermeidbaren Unsicherheiten und Streuungen der Einwirkungen, der Systemeigenschaften und der Herstellungsprozesse berücksichtigt werden können. Über die State-of-the-Art-Methoden hinaus entwickeln das IMH auf Wunsch numerische Algorithmen im Bereich der stochastischen Analyse und multidisziplinären Optimierung.