Prof. Dr. Holger Rauhut

Professor

Mathematisches Institut der Universität München

Büroadresse:

Theresienstr. 39

Raum B420

80333 München

Sprechstunde:

nach Vereinbarung

Postanschrift:

Theresienstr. 39

80333 München

Prof Holger Rauhut

Über mich

Ich arbeite an den mathematischen Grundlagen der Informationsverarbeitung, d. h. maschinellem Lernen und Signalverarbeitung. Mein besonderes Interesse gilt Konvergenztheorie für Trainingsalgorithmen (Gradientenabstieg und Varianten) im Deep Learning, Deep Learning für inverse Probleme und Compressive Sensing.

Keywords
Mathematics of Deep Learning | Compressive Sensing

Kurzbiografie

  • 1996 - 2001 Studium Mathematik (Diplom) , TU München
  • 2002 - 2004 Promotion Mathematik, TU München, Betreuer: Prof. Dr. Rupert Lasser, Titel: Time-Frequency and Wavelet Analysis of Functions with Symmetry Properties
  • 2005 PostDoc Universität Breslau, Institut für Mathematik
  • 2005 - 2008 PostDoc Universität Wien
  • 2008 Habilitation Mathematik, Universität Wien, Titel: Sparse Recovery
  • 2008 - 2013 W2-Professor Mathematik ("Bonn Junior Fellow"), Hausdorff Center for Mathematics, Universität Bonn
  • 2013 - 2023 W3-Professor Mathematik, RWTH Aachen University
  • Seit 2023 W3-Professor Mathematik, LMU München

Forschungsthemen

Methoden des Deep Learning bilden die Grundlage für moderne Anwendungen des maschinellen Lernens und der Künstlichen Intelligenz. Trotz der vielen Erfolge und Fortschritte in sehr vielen Bereichen sind die mathematischen Grundlagen bislang nur zum Teil verstanden und es ist oft nicht klar, weshalb die Methoden funktionieren bzw. wann sie funktionieren. Insbesondere fehlen oft rigorose mathematische Garantien für den Erfolg von Lernalgorithmen. Ich versuche in meiner Forschung Fortschritte beim mathematischen Verständnis von Deep Learning zu erzielen.

Ich beschäftige mich dabei mit mehreren Teilbereichen der Mathematik des Deep Learning:

  • Konvergenztheorie und implizite Regularisierung für Trainingsalgorithmen
  • Deep-Learning-Methoden für inverse Probleme
  • Unsicherheitsquantifizierung für Deep Learning

Compressive Sensing ist ein Teilgebiet der mathematischen Signalverarbeitung. Das Grundproblem besteht, Signale anhand möglichst weniger Messungen zu rekonstruieren. Mathematisch führt das dazu, ein unterbestimmtes Gleichungssystem zu lösen. Um Rekonstruktion möglich zu machen wird benutzt, dass in der Praxis Signale oft komprimierbar sind, d.h. gut durch einen dünnbesetzten (sparse) Vektor approximierbar sind. Die Theorie des Compressive Sensing stellt effiziente Rekonstruktionsalgorithmen (z.B. l1-Minimierung) bereit. Interessanterweise sind beweisbar optimale Messmatrizen (die den linearen Messprozess beschreiben) Zufallsmatrizen. Für solche Matrizen können Garantien für die minimal benötigte Anzahl an Messungen (in Abhängigkeit der Signallänge und der Sparsity, d.h. der Anzahl an nichtverschwindenden Koeffizienten) angegeben werden. Für die mathematische Analyse werden Werkzeuge der hochdimensionalen Wahrscheinlichkeitstheorie verwendet.

Publikationsliste