Department Mathematik
print


Navigationspfad


Inhaltsbereich

Forschungsgruppe TQA - Programm von Veranstaltungen in den vergangenen Semestern (*)

Forschungsgruppe TQA - Veranstaltungen

Seminar im Sommersemester 2022: "Kombinatorische Optimierung und Künstliche Intelligenz"

      Prof. Dr. Martin Schottenloher

Di 12-14, HS B 039; Beginn: 26.04.22

Schedule

  • 26.04.2022 Vorbesprechung
  • 03.05.2022 fällt aus
  • 10.05-2022 fällt aus
  • 14.06.2022 Von der Regression zum Perzeptron (A. Wachtel)
  • 21.06.2022 Bitcoin-options and AI (L. v. Breda)
  • 28.06.2022 Feedforward-Netze und Backpropagation (M. Wagner)
  • 05.07.2022 Training von Faltungsnetzen und Anwendungsbeispiel Textklassifikation (W. V. Schönherr)
  • 12.07.2022 "Scheduling" (A. Cam)
  • 19.07.2022 "Reinf. Learning" (L.A. Rosenthal
  • 26.07.2022 "CNN" (G. Wankmüller)

Inhalt:

Aufgrund der Nachfrage wird das Seminar in der gleichen Weise wie im vergangenen Semester durchgeführt: Es werden eigenständige Vorträge zu ausgewählten Themen aus der Kombinatorischen Optimierung und der Künstlichen Intelligenz (KO & KI) und zu ihrem Zusammenspiel gehalten. Den Teilnehmerinnen und Teilnehmern wird dabei die Möglichkeit eingeräumt, bei der Bestimmung der Themen des Seminars mitzuwirken (dazu gehört allerdings eine baldige Anmeldung, s.u.). Die Inhalte der Vorträge sollen sich im Wesentlichen auf Themen zu Künstlichen Neuronalen Netzen (KNNs) oder auf Anwendungen in Physik oder Mathematik konzentrieren. Die folgenden Themenbereiche stehen zur Diskussion:

  1. Künstliche Neuronale Netze
    • Grundlagen zu KNNs, Struktur und Learning durch Optimierung
    • Convolutional Neural Networks (CNNs)
    • Recurrent Neural Networks (RNN) and LSTM
    • KNNs und Symmetrie
    • Variational Autoencoders (VAEs)
  2. KNNs und Physik, geometrische KNNs
  3. KI-Anwendungen in Mathematik
Daneben sind Themen willkommen, die z.B. Anwendungen von KNNs auf Optimierunungsprobleme behandeln.

Literatur

Eine Übersicht zu KNNs kann zum Beispiel in den Büchern
      - Goodfellow, Bengio, and Courville: "Deep Learning" (auf englisch: https://www.deeplearningbook.org/; in unserer Bibliothek auch auf deutsch)
      - Aggarwal: "Neural Networks and Deep Learning"
      - Skansi: "Introduction to Deep Learning"
und in vielen weiteren Lehrbüchern gefunden werden. Allerdings muss ein Vortrag in diesem Seminar die mathematischen Aspekte der jeweiligen neuronalen Netzwerke oft genug noch herausarbeiten, denn diese stehen in den genannten Quellen nicht im Vordergrund.
Eine Einführung in Neuronal Netze, die auf mathematische Aspekte eingeht, wird in dem Skript von V. Aurich gegeben:
      - Aurich: "Neuronale Netze" (http://www.dk3pk.de/Skripte/NeuronaleNetze_2012jul03.pdf)
      - Physik und KNN: Ivancevic "Quantum Neural Computation" (online in unserer Bilbliothek vorhanden)       - KI-Anwendungen in Mathematik: Davies et alii "Advancing mathematics by guiding human intuition with AI"

Zu dem Zusammenspiel von KO und KI findet man beispielsweise in dem Tagungsband
      - Battiti et alii: "Learning and Intelligent Optimization" 12th International Conference, Kalamata, Greece, 2018
einige Anregungen.
Zu dem Thema Scheduling gibt das Buch
      - Jaehn/Pesch: "Ablaufplanung"
eine elementare und solide Einführung in das Scheduling und auch in die Kombinatorische Optimierung. Weiterführende Aspekte findet man in den Büchern von Pinedo.

Voraussetzungen

Elementare Grundkenntnise über Künstliche Neuronale Netze und Kombinatorische Optimierung.

Für wen?

Das Seminar ist für Bachelor oder Master geeignet. Masterstudenten müssen einen zweiten Vortrag halten, wenn Sie einen Hauptsemeinarschein (6 ECTS) anstreben, den zweiten Vortrag möglicherweise zu einem anderen Zeitpunkt (Ausweichtermin).

Anmeldung

Möglichst bald per Mail bei Martin Schottenloher: martin@schottenloher.de. Es können nur bis zu 11 Teilnehmer aufgenommen werden. Eine frühe Anmeldung ermöglicht eine bessere Abstimmung der Themen. Insbesondere kann ein gemeinsamer Themenbereich durch mehrere Vorträge behandelt werden.

Seminar im WS 21/22: "Kombinatorische Optimierung und Künstliche Intelligenz"

      Prof. Dr. Martin Schottenloher

Di 12-14, HS B 252; Beginn: 19.10.2021

Präsenzveranstaltung. Geplant ist, dass man sich per ZOOM dazuschalten kann!

Schedule

Wird noch ergänzt. Änderungen vorbehalten

  • 19.10.21 Vorbesprechung
  • 26.10.21 Einführung in Künstliche Neuronal Netze (Laura Harbig)
  • 02.11.21 Termin fällt aus!
  • 30.11.21 Universelle Approximation (L. Safar)
  • 07.12.21 Faltungsnetze (A. Wohlschlager)
  • 14.12.21 Approximation und Optimierung von Hedging-Strategien mit tiefen neuronalen Netzen (P. Kartsovnik) Xmas
  • 11.01.22 Rekurrente Neuronale Netze: Ein "intelligenter" Ansatz zum Encoden und Decoden von Sequenzen I (R. Kötter)
  • 18.01.22 Rekurrente Neuronale Netze: Ein "intelligenter" Ansatz zum Encoden und Decoden von Sequenzen II (D. Fischer)
  • 25.01.22 Termin fällt aus!
  • 01.02.22 Fuzzy-Systeme in der Spieltheorie am Beispiel des Kartenspiels Schafkopf (A. Duca)
  • 08.02.22 Deep Neural Network classification under fairness constraints (D. Möckl)
  • 03.03.22 Auktionstheorie (Y. Shen) [12 Uhr, room B 252]
  • 08.03.22 Using noise of homomorphic encryption for differentially private federated learning (J. Brenner) [12 Uhr, room B252]

Inhalt:

Aufgrund der Nachfrage wird das Seminar in der gleichen Weise wie im vergangenen Semester durchgeführt: Es werden eigenständige Vorträge zu ausgewählten Themen aus der Kombinatorischen Optimierung und der Künstlichen Intelligenz (KO & KI) und zu ihrem Zusammenspiel gehalten. Den Teilnehmerinnen und Teilnehmern wird dabei die Möglichkeit eingeräumt, bei der Bestimmung der Themen des Seminars mitzuwirken (dazu gehört allerdings eine baldige Anmeldung, s.u.). Die Inhalte der Vorträge sollen sich im Wesentlichen auf Themen zu Künstlichen Neuronalen Netzen (KNNs) konzentrieren. Die folgenden Themenbereiche stehen zur Diskussion:

  • Grundlagen zu KNNs, Struktur und Learning durch Optimierung
  • Convolutional Neural Networks (CNNs)
  • Rcurrent Neural Networks (RNN) and LSTM
  • KNNs und Symmetrie
  • Variational Autoencoders (VAEs)
Daneben sind Themen willkommen, die z.B. Anwendungen von KNNs auf Optimierunungsprobleme behandeln.

Literatur

Eine Übersicht zu KNNs kann zum Beispiel in den Büchern
      Goodfellow, Bengio, and Courville: "Deep Learning" (auf englisch: https://www.deeplearningbook.org/; in unserer Bibliothek auch auf deutsch)
      Aggarwal: "Neural Networks and Deep Learning"
      Skansi: "Introduction to Deep Learning"
und in vielen weiteren Lehrbüchern gefunden werden. Allerdings muss ein Vortrag in diesem Seminar die mathematischen Aspekte der jeweiligen neuronalen Netzwerke oft genug noch herausarbeiten, dann diese stehen in den genannten Quellen nicht im Vordergrund.
Eine Einführung in Neuronal Netze, die auf mathematische Aspekte eingeht, wird in dem Skript von V. Aurich gegeben:
      Aurich: "Neuronale Netze" (http://www.dk3pk.de/Skripte/NeuronaleNetze_2012jul03.pdf)

Zu dem Zusammenspiel von KO und KI findet man beispielsweise in dem Tagungsband
      Battiti et alii: "Learning and Intelligent Optimization" 12th International Conference, Kalamata, Greece, 2018
einige Anregungen.
Zu dem Thema Scheduling gibt das Buch
      Jaehn/Pesch: "Ablaufplanung"
eine elementare und solide Einführung in das Scheduling und auch in die Kombinatorische Optimierung. Weiterführende Aspekte findet man in den Büchern von Pinedo.

Voraussetzungen

Elementare Grundkenntnise über Künstliche Neuronale Netze und Kombinatorische Optimierung.

Für wen?

Das Seminar ist für Bachelor oder Master geeignet. Masterstudenten müssen einen zweiten Vortrag halten, wenn Sie einen Hauptsemeinarschein (6 ECTS) anstreben, den zweiten Vortrag möglicherweise zu einem anderen Zeitpunkt (Ausweichtermin).

Anmeldung

Möglichst bald per Mail bei Martin Schottenloher: martin@schottenloher.de. Es können nur bis zu 11 Teilnehmer aufgenommen werden. Eine frühe Anmeldung ermöglicht eine bessere Abstimmung der Themen. Insbesondere kann ein gemeinsamer Themenbereich durch mehrere Vorträge behandelt werden.

Seminar : "Kombinatorische Optimierung und Künstliche Intelligenz"

Sommersemester 2021

      Prof. Dr. Martin Schottenloher

Zeit und Ort:
Di 12-16, Beginn: 13. April 2021
Das Seminar wird vermutlich per Zoom durchgeführt. Der genaue Beginn der jeweiligen Zoom-Sitzung ist dann um 12:15 Uhr.

Schedule:

  • 13.04.2021 Vorbesprechung
  • 20.04.2021 Von der Regression zum Perceptron (S. Schosser)
  • 27.04.2021 Lernen als Optimierung (N. Nichell)
  • 04.05.2021 Universelle Approximation (M. Lingsch)
  • 11.05.2021 kein Vortrag
  • 18.05.2021 Rekurrente Neuronale Netze (M. Irlbeck)
  • 01.06.2021 Reinforcement Learning (L. Wernsdorfer)
  • 08.06.2021 (12 Uhr) Architektur von Convolutional Neural Networks (CNNs) (J. Moller)
  • 08.06.2021 (16 Uhr) Training eines CNNs und Vorteile der CNNs (J. Moller)
  • 15.06.2021 Evolutionäre Entwicklung von Machine Learning Algorithmen (D. Schneekloth)
  • 22.06.2021 kein Vortrag
  • 29.06.2021 Neural Network Models for Bitcoin Option Pricing (L. van Breda)
  • 05.07.2021 (Montag! 12 Uhr) Reinforcement Learning for Portfolio Optimization (S. Schmidt)
  • 06.07.2021 Group Equivariant CNNs 1: Geometric Foundations (A. Kosmala)
  • 07.07.2021 (Mittwoch! 12 Uhr) Group Equivariant CNNs 2: Examples and Applications (A. Kosmala)
  • 13.07.2021 Variational Autoencoders (Y. Xiao)

Inhalt:

Aufgrund der Nachfrage führen wir das Seminar mit dem Titel des letzten Semesters fort.
Es geht um ausgewählte Themen aus der Kombinatorischen Optimierung und der Künstlichen Intelligenz (KO & KI) und zu ihrem Zusammenspiel. Dabei wollen wir uns im Rahmen der KI in der Regel auf Künstliche Neuronale Netze (KNN) beschränken und im Rahmen der Kombinatorischen Optimierung auf Problemstellungen, die für Produktionsverbesserungen gedacht sind.
In diesem Seminar wird den Teilnehmenden die Möglichkeit eingeräumt, bei der Bestimmung ihrer Vortragsthemen des Seminars mitzuwirken (dazu gehört allerdings eine baldige Anmeldung, s.u.).

     KO und KI

Einige Vortragsthemen sollten sich mit der Tatsache auseinandersetzen, dass Maschinelles Lernen im Kern eine Kombinatorische Optimierung ist, bei der der Fehlerterm minimiert wird. Auch Anwendungen der KI auf die Kombinatorische Optimierung, z. B. bei den Produktionsprozessen oder bei der Wahl der "richtigen" Heuristiken zu einem NP-schweren Optimierungsproblem sind erwünscht.

Daneben sind auch Themen möglich, bei denen nicht beide Hauptthemen (KO und KI) zugleich angesprochen werden.

     KI

So könnten die Mathematik und die Architektur von KNNs dargelegt werden. Die mathematische Analyse der verschiedenen Typen von KNNs und ihre Anwendungpotenziale liefern bereits viele mögliche Vortragsthemen. Stichworte: Perceptron, Multi-Layer-Netze, training deep neural networks, Boltzmann Machine, recurrent neural networks, convolutional neural networks (CNN), autoencoder, GANs etc.
Das Seminar ist auch offen für Verbindungen von KNNs zu anderen mathematischen oder physikalischen Bereichen, wie z.B.: Evolutionäre Algorithmen und KNNs, Eichtheorie und CNNs, Lie Group Machine Learning, Information Geometry, Quantum Computing und KNNs, etc.

     KO

Für Anwendungen der Kombinatorischen Optimierung in der Produktioen eignet sich beispielsweise das Thema Scheduling (Ablaufplanung).

Beispiele

Beispiele von Vortragshemen finden sich im Archiv der letzten Semester.

Literatur

Eine Übersicht zu KNNs kann zum Beispiel in den Büchern
      Goodfellow, Bengio, and Courville: "Deep Learning" (auf englisch: https://www.deeplearningbook.org/; in unserer Bibliothek auch auf deutsch)
      Aggarwal: "Neural Networks and Deep Learning"
      Skansi: "Introduction to Deep Learning"
und in vielen weiteren Lehrbüchern gefunden werden. Allerdings muss ein Vortrag in diesem Seminar die mathematischen Aspekte der jeweiligen neuronalen Netzwerke oft genug noch herausarbeiten.
Zu dem Zusammenspiel von KO und KI findet man beispielsweise in dem Tagungsband
      Battiti et alii: "Learning and Intelligent Optimization" 12th International Conference, Kalamata, Greece, 2018
einige Anregungen.
Zu dem Thema Scheduling gibt das Buch
      Jaehn/Pesch: "Ablaufplanung"
eine elementare und solide Einführung in das Scheduling und auch in die Kombinatorische Optimierung. Weiterführende Aspekte findet man in den Büchern von Pinedo.

Voraussetzungen

Elementare Grundkenntnise über Künstliche Neuronale Netze und Kombinatorische Optimierung.

Für wen?

Das Seminar ist für Bachelor oder Master geeignet. Masterstudenten müssen einen zweiten Vortrag halten, wenn Sie einen Hauptsemeinarschein (6 RCTS) anstreben, den zweiten Vortrag möglicherweise zu einem anderen Zeitpunkt (Ausweichtermin).

Anmeldung

Möglichst bald per Mail bei Martin Schottenloher: martin@schottenloher.de. Es können nur bis zu 11 Teilnehmer aufgenommen werden. Eine frühe Anmeldung ermöglicht eine bessere Abstimmung der Themen. Insbesondere kann ein gemeinsamer Themenbereich durch mehrere Vorträge behandelt werden.

Seminar im WS 20/21: "Kombinatorische Optimierung und Künstliche Intelligenz"

      Prof. Dr. Martin Schottenloher

Di 12-14, genauer Beginn jeweils in der ZOOM-Umgebung: 12:15
Für den Fall von Präsenzveranstaltungen im Jahr 2021 steht der Raum B 252 zur Verfügung. Allerdings begrenzt auf 11 Seminarteilnehmer.
Beginn: 03.11.20

Schedule


  • 03.11.20 Vorbesprechung per Zoom
  • 10.11.20 Basiswissen Künstliche Neuronale Netze (Angelina Nguyen)
  • 17.11.20 Einmaschinenmodell (Anna Wjst)
  • 24.11.20 Einführung Support Vector Machines und nicht-lineare Klassifizierung (Adrian Altinpinar)
  • 01.12.20 Mathematics and Composition: Optimizing a Chordprogression (Johann Blake)
  • 08.12.20 Grundlagen der Bayesnetze (Markus Lobenwein)
  • 15.12.20 12 Uhr: Kombinatorische Optimierung beim Machine Learning (Miriam Kranzmüller)
  • 15.12 20 16 Uhr: Fortsetzung nicht-lineare Klassifizierung (Adrian Altinpinar)
  • 22.12.20 12 Uhr: Kombinatorische Optimierung in Graphen: Färbungen I (Liaoyuan Cheng)
  • 22.12.20 16 Uhr: Überwachtes und unüberwachtes Lernen (Roel Shehi)
  • 12.01.21 12 Uhr: Reinforcement Learning (Elisabeth Ding)
  • 12.01.21 16 Uhr: Einführung in evolutionäre Algorithmen (Johanna Moller)
  • 19.01.21 12 Uhr: TSP (Maurice Raum)
  • 19.01.21 16 Uhr: Kombinatorische Optimierung in Graphen: Färbungen II (Liaoyuan Cheng)
  • 26.01.21 12 Uhr: Einführung in rekurrente Netze (Johannes Neumann)
  • 26.01.21 16 Uhr: Rekurrente und LSTM-Netze (Yulia Kostina)
  • 02.02.21 12 Uhr: Speech Separation als Anwendungsbeispiel von LSTM-Netzen (Yulia Kostina)
  • 02.02.21 16 Uhr: Bayes'sches Lernen (Markus Lobenwein)
  • 09.02.21 12 Uhr: Universal Approximation (Tizian Schuhbeck)

Inhalt:

Ausgewählte Themen aus der Kombinatorischen Optimierung und der Künstlichen Intelligenz (KO & KI) und zu ihrem Zusammenspiel. In diesem Seminar wird den Teilnehmern die Möglichkeit eingeräumt, bei der Bestimmung der Themen des Seminars mitzuwirken (dazu gehört allerdings eine baldige Anmeldung, s.u.).

     KO und KI

Einige Vortragsthemen könnten sich beispielsweise mit der Tatsache auseinandersetzen, dass Maschinelles Lernen im Kern eine kombinatorische Optimierung ist, bei der der Fehlerterm minimiert wird. Ähnlich bei Statistischem maschinellen Lernen oder bei den Bayes'schen Netzen. Elementar und schon länger studiert: Support Vector Machine. Auch Anwendungen der KI auf die Kombinatorische Optimierung, z. B. bei den Produktionsprozessen oder bei der Wahl der "richtigen" Heuristiken zu einem NP-schweren Optimierungsproblem sind erwünscht.

     KO oder KI

Daneben sind auch Themen möglich, bei denen nicht beide Hauptthemen (KO und KI) zugleich angesprochen werden. Etwa Themen, die sich nur mit neuronalen Netzen, verschiedenenen Ausprä,gungen der KI oder die sich nur mit der KO beschäftigen. Beispiel aus der KI: Künstliche neuronale Netze sind letztlich Funktionen. Sie können benutzt werden, um Funktionen (numerisch) zu approximieren. Was ist der Bezug zu Machine Learning? Beispiel aus der KO: Scheduling.

Sommersemester 2020

Seminar: "Kombinatorische Optimierung und Künstliche Intelligenz"

      Prof. Dr. Martin Schottenloher

Di 12-14, genauer Beginn jeweils in der ZOOM-Umgebung: 12:15
Beginn: 21.4.20

Schedule:

  • 21.04.2020 Erste Vorbesprechung: Test der Videoumgebung
  • 28.04.2020 Zweite Vorbesprechung: Inhaltliche Aspekte zu den Vorträgen, Termine, Whiteboard, etc.
  • 05.05.2020 Grundlagen von Kombinatorischer Optimierung und Beziehungen zur Künstlichen Intelligenz (Ralitsa Marinova)
  • 12.05.2020 Einführung in Machine Learning und Künstliche Neuronale Netze (Geri Yessim)
  • 19.05.2020 Optimierung beim Lernen neuronaler Netze I (Matthias Modrok)
  • 26.05.2020 Support Vector Machine (Geri Yessim)
  • 09.06.2020 Optimierung beim Lernen neuronaler Netze II (Matthias Modrok)
  • 16.06.2020 Kombinatorische Optimierung mithilfe von Künstlicher Intelligenz (Nicolas Blank)
  • 23.06.2020 12 Uhr: Metalearning (Felix Lotter)
  • 23.06.2020 16 Uhr: Einführung in Generative Models und GANs (Marc Machaczek)
  • 30.06.2020 Evolutionäre Algorithmen und KNN (Joachim Siegert)
  • 07.07.2020 Approximation von Funktionen durch KNN, Wavelet KNN (Valerie Schuiling)
  • 14.07.2020 KNN und Graphen (Lioba Hölzle)
  • 21.07.2020 Scheduling: Einmaschinenmodell und Komplexitätsklassen (Kaiwen Sun)
  • 28.07.2020 Aufbau und Implementierung eines Convolutional Neural Networks (Isabell Schneider)
  • 04.08.2020 Bayes-Netze(Yannic Lederer)
  • 11.08.2020 Deep Learning Implementierung am Beispiel der Dogs vs. Cats Classification (Isabell Schneider)

Inhalt:

Ausgewählte Themen aus der Kombinatorischen Optimierung und der Künstlichen Intelligenz (KO & KI) und ihrem Zusammenspiel. In diesem Seminar wird den Teilnehmern die Möglichkeit eingeräumt, bei der Bestimmung der Themen des Seminars mitzuwirken (dazu gehört allerdings eine baldige Anmeldung, s.u.).

     KO und KI

Einige Vortragsthemen könnten sich beispielsweise mit der Tatsache auseinandersetzen, dass Maschinelles Lernen im Kern eine kombinatorische Optimierung ist, bei der der Fehlerterm minimiert wird. Ähnlich bei Statistischem maschinellen Lernen oder Bayes'sche Netze. Elementar und schon länger studiert: Support Vector Machine. Auch Anwendungen der KI auf die Kombinatorische Optimierung, z. B. bei den Produktionsprozessen oder bei der Wahl der "richtigen" Heuristiken zu einem NP-schweren Optimierungsproblem sind erwünscht.

     KO oder KI

Daneben sind auch Themen möglich, bei denen nicht beide Hauptthemen (KO und KI) zugleich angesprochen werden. Etwa Themen, die sich nur mit neuronalen Netzen, verschiedenenen Ausprä,gungen der KI oder die sich nur mit der KO beschäftigen. Zum Beispiel: Künstliche neuronale Netze sind letztlich Funktionen. Sie können benutzt werden, um Funktionen (numerisch) zu approximieren. Was ist der Bezug zu Machine Learning?

Für wen?

Das Seminar ist für Bachelor oder Master geeignet. Masterstudenten müssen einen zweiten Vortrag halten, den zweiten Vortrag möglicherweise zu einem anderen Zeitpunkt (Ausweichtermin).

Wintersemester 2019/20

Seminar: "Kombinatorische Optimierung"

      Prof. Dr. Martin Schottenloher

Di 12-14, B 252. Beginn: 22.10.2019

Vortragstermine

    22.10.2019 Vorbesprechung
    03.12.2019 Einführung in Scheduling (Stoyanova)
    10.12.2019 Einmaschinenmodell (Klingan)
    17.12.2019 Flow Shops (Stoyanova)
    14.01.2020 Job Shops (Iskender)
    21.01.2019 Constraint Programming in Job Shops (Craven)

Inhalt:

Es werden zwei Themengruppen angeboten. "Scheduling" und "Dynamische Programmierung".
Bei der ersten Themengruppe wird nach dem Buch "Ablaufplanung" von Jaehn/Pesch und den Büchern von Pinedo vorgegangen. Es können aber auch Methoden der Künstlichen intelligenz angesprochen werden. Bei der zweiten Themengruppe ist die klassische Theorie der Optimierung nach Bellmann, die sich zunächst auf die kontinuierliche Fragestellung bezieht, der Ausgangspunkt. Sodann wird der diskrete Fall behandelt und die dynamische Programmierung im Rahmen der kombinatorischen analysiert unter anderem auf Laufzeit und Komplexität. Es ist auch an einen Vortrag nach den Vorläufern der Theorie (z.B. die Arbeiten von Carathéodory) gedacht.
Ausgewählte weitere Themen aus der Kombinatorischen Optimierung können nach Wunsch eingebunden werden..

Sommersemester 2019

Seminar: "Kombinatorische Optimierung und Künstliche Intelligenz"

      Prof. Dr. Martin Schottenloher

Di 12-14, B 251, Beginn 23.04.2019

Schedule:

  • 23.04.2019 Vorbesprechung
  • 30.04.2019 Unentscheidbarkeit I (Dominik Meindl)
  • 07.05.2019 Unentscheidbarkeit II (Dominik Meindl)
  • 14.05.2019 Grundzüge der Kombinatorischen Optimierung (Daniela Möckl)
  • 21.05.2019 Portfolio-Optimierung (Melanie Blonski)
  • 28.05.2019 Unentscheidbarkeit der Zentrale Lücke (Franz Haniel)
  • 28.05.2019 [ACHTUNG 16 Uhr in A 027] Foundations of Machine Learning (Enes Altug)
  • 04.06.2019 Deep Learning Approximation for Optimal Execution Costs for Portfolios (Frederik Stihler)
  • 11.06.2019 Learning Hard Threshold Neural Networks: Deep Learning als kombinatorische Optimierung (Jonas Mühlbauer)
  • 18.06.2019 Spieltheorie und Maschinelles Lernen (Tuan Khang Huynh)
  • 25.06.2019 Nichtlineare Optimierung (Thomas Lux)
  • 25.06.2019 [A 027, 16 Uhr] Portfolio II (Julian Grüber)
  • 02.07.2019 Recurrent Neural Networks: The State-Space-Model (Lukas Ketzer)
  • 09.07.2019 Langzeit- und Kurzeitgedächtnis von neuronalen Netzen (LSTM) (Nicolas Kraus)
  • 16.07.2019 Information Geometry (Semrau)

Inhalt:

Ausgewählte Themen aus der Kombinatorischen Optimierung und der Künstlichen Intelligenz (KO & KI). In diesem Seminar wird den Teilnehmern die Möglichkeit eingeräumt, bei der Bestimmung der Themen des Seminars mitzuwirken (dazu gehört allerdings eine baldige Anmeldung, s.u.).

     KO und KI

Einige Vortragsthemen könnten sich beispielsweise mit der Tatsache auseinandersetzen, dass Maschinelles Lernen im Kern eine kombinatorische Optimierung ist, bei der der Fehlerterm minimiert wird. Auch Anwendungen der KI auf die Kombinatorische Optimierung, z. B. bei den Produktionsprozessen oder bei der Wahl der "richtigen" Heuristiken zu einem NP-schweren Optimierungsproblem sind denkbar.

     KO oder KI

Daneben sind auch Themen möglich, bei denen nicht beide Hauptthemen (KO und KI) zugleich angesprochen werden. Etwa Themen, die sich nur mit (der Einführung zur) KI oder nur mit der KO beschäftigen, wie Scheduling (Ablaufplanung) (siehe dazu auch die Themenfindung und Programme in den vergangenen Semestern, zu Scheduling insbesondere im WS 16/17), Komplexität, Berechenbarkeit, ...

     Weitere Bereiche

Mit Blick auf weiter entfernte Problembereiche wäre es auch interessant, eine Folge von Vorträgen zur "Information Geometry" (z. B. nach dem Buch von Amari) zu haben, oder - in ganz anderer Richtung - eine solche Folge zur Unentscheidbarkeit der "Spektralen Lücke". Für den letzten Themenbereich ist ein Grundwissen in Quantenmechanik und auch in Mathematischer Logik nötig, die Unentscheidbarkeitsaussage wird ja von der Mathematik auf die Quantenphysik verallgemeinert. Zur Informationsgeometrie wird eine Portion Wissen in Wahrscheinlichkeitstheorie und in der Theorie der Mannigfaltigkeiten vorausgesetzt.

Wintersemester 2018/19

Seminar: "Kombinatorische Optimierung und Spieltheorie"

Di 12-14, B 252, Beginn 23.10.2018

Programm:

  • 23.10.2018 Vorbesprechung
  • 30.10.2018 Kurzer Einblick in die Spieltheorie (Martin Schottenloher)
  • 06.11.2018 Minority Game und Volatilität (David Brandes)
  • 13.11.2018 Stable Marriage Problem (Daniel Atzberger)
  • 20.11.2018 Einführung in Mechanism Design (Johannes M. Laub)
  • 27.11.2018 Mechanism Design without money: strategy-proof, onto and anonymous rules (Finja Ehlers)
  • 04.12.2018 Einführung in die evolutorische Spieltheorie (Dominik Schneekloth)
  • 11.12.2018 Replikatorgleichungen der evolutorischen Spieltheorie (Tamara Petrovic)
  • 18.12.2018 Incentive Mechanism Design (Simone Fischer)
    Weihnachtspause
  • 08.01.2019 Bayessche Mechanismen (Simone Fischer)
  • 15.01.2019 Die klassischen Spiele aus Sicht der Spieltheorie (Leonhard Bockmaier)
  • 22.01.2019 Spieltheoretische Analyse von Schafskopf und Entwicklung einer KI (Alexander Sedlmayr)
  • 29.01.2019 Price of Anarchy (Sebastian Kleiner)
  • 05.02.2019 Mechanism Design und Scheduling (Matthias Modrok)

Inhalt:

Ausgewählte Themen aus der kombinatorischen Optimierung und aus der Spieltheorie. Beispielsweise: Scheduling im Rahmen der Optimierung; evolutorische Spieltheorie oder Mechanism Design in der Spieltheorie.

Literatur zur Spieltheorie und Algorithmischen Spieltheorie:

  • Sieg: Spieltheorie
  • Weibull: Evolutionary Game Theory
  • Osborne-Rubinstein: Game Theory
  • Roughgarden: Algorithmic Game Theory
  • Nisan et alii: Algorithmic Game Teory
  • Steimle: Algorithmic Mechanism Design
  • wikiludia: http://wikiludia.mathematik.uni-muenchen.de/wiki/index.php?title=Hauptseite
Zur Kombinatorischen Optimierung: Siehe Seminarprogramm vergangener Seminare, insbesondere
  • Jaehn/Pesch: Ablaufplanung.

Das Seminar ist für Bachelor oder Master geeignet. Masterstudenten müssen einen zweiten Vortrag halten, falls das Seminar als Hauptseminar gelten soll.

Sommersemester 2018

Seminar: "Game Theory and Blockchain"

Di 12-14, B 251, (weiterer Raum Di 14-16, B 139); Beginn 10.04.2018

Programm:

  • 10.04.2018 Vorbesprechung und Kurzvorträge zu Spieltheorie, Blockchain, Hashfunktionen
  • 17.04.2018 Sicherheit gegen Double Spending und Betrug durch Miner (Hussein Zangana)
  • 24.04.2018 Mining Game (Vincent Weinzierl)
  • 01.05.2018 Feiertag
  • 08.05.2018 Kein Vortrag
  • 15.05.2018 Stackelberg game for edge-computing to balance the interest of miners and providers (Gentrit Fazlija)
  • 22.05.2018 vorlesungsfrei
  • 29.05.2018 Minority Game - Beschränkte Ressourcen in einer Wettbewerbsgesellschaft (Markus Dausch)
  • 29.05.2018 Bitcoin market volatility analysis: A minority game perspective (Lukas Ketzer) 14 Uhr in B 139
  • 05.06.2018 Evolutionäre Spieltheorie - Einführung (Gentrit Fazlija)
  • 05.06.2018 Klassifikation der symmetrischen 2 x 2 - Spiele (Melina Blonski) 14 Uhr in B 139
  • 12.06.2018 Bitcoin Mining Pools: Analyse aus Sicht der kooperativen Spieltheorie (Nina Sander)
  • 12.06.2018 Evolutionäre Spieltheorie - Replikatergleichung und dynamische Systeme (Daniel Seußler) 14 Uhr in B 139
  • 19.06.2018 Blockchain und KI I: Perceptron und Struktur neuronaler Netze (Alexandra Meyer)
  • 19.06.2018 Evolutionäre Spieltheorie III: Das Lotka-Volterra Modell (Dominik Meindl) 14 Uhr in B 139
  • 26.06.2018 Blockchain und KI II (Josias Brenner)
  • 03.07.2018 Blockchain und KI III (Alexandra Meyer)
  • 10.07.2018 Evolutionäre Spieltheorie und Poolbildung (Edvard Hakobyan)
  • 10.07.2018 Blockchain in einer Anwendung (Eugen Luft, IBM); 14 Uhr in B 139
Inhalt

Ausgangspunkt des Seminars ist die Tatsache, dass mehrere Konflikt- und Entscheidungssituationen im Rahmen der Anwendungen der Blockchain-Technologie durch spieltheoretische Modelle beschrieben und daher mathematisch analysiert werden können. An erster Stelle steht hier die Sicherheit: Falsche Transaktionen oder Informationen würden den Zweck der Blockchain-Technologie komplett unterminieren. Im Seminar soll zum Beispiel die These auf den Prüfstein kommen, dass sich spieltheoretisch erhärten lasse, dass bei der Bildung von Blockchains keine Duplizierung von Transaktionen passieren und auch keine sonstigen betrügerischen Veränderungen der Informationen in die „gültige“ Blockchain kommen. Darauf möchte ich im Folgenden exemplarisch für die Absichten im Seminar etwas ausführlicher eingehen:

Dazu beschränken wir uns auf das Bitcoin-System, das ja auf die Blockchain-Technologie aufbaut: Neue Blöcke (mit neuen Transaktionen) werden an die vorhandene Blockkette (= Blockchain) von sogenannten "Minern" in zulässiger Weise angehängt. Dazu muss ein Miner eine aufwendige Rechenaufgabe lösen. Zu einer gegebenen Blockkette kann der Miner einen Block anfügen, wenn er als Erster diese Aufgabe löst. Die Miner haben allgemein den Anreiz, diese Rechenaufgaben zu lösen, weil sie für jede Erweiterung der Blockkette um einen Block mit 12,5 Bitcoin bezahlt werden. Wenn ein Miner dabei betrügt und eine falsche Transaktion in den Block einbaut, die z.B. eine ungerechtfertigte Gutschrift zu seinen Gunsten beinhalten würde, dann ist die neu gebildete Blockkette zunächst gültig: Allerdings hängt der Bestand der Gültigkeit einer Blockkette davon ab, wie viel Rechenkapazität insgesamt eingesetzt wurde. Das bedeutet, dass die jeweils längste Blockkette gültig ist. In der Realität sind andere Miner engagiert und lösen die entsprechenden Rechenaufgaben, um ebenfalls Blöcke an die Blockkette anzufügen. Der betrügerische Miner müsste immer weiter Blöcke anfügen (mehr oder weniger im 10-Minutentakt), um gegen alle anderen Miner in dem Bitcoin-Netzwerk die längste Bockkette bilden zu können. Dazu müsste er im Schnitt mehr als die Hälfte der insgesamt im Bitcoin-Netzwerk vorhandenen Rechenkapazität haben. Das wird aber nicht der Fall sein, das heißt, seine wiederholte Blockkettenbildung wird schließlich überholt durch eine andere Blockkette, und seine gesamte Anstrengung bis zu diesem Punkte war umsonst. Facit: Durch Betrug kann sich ein Miner nicht besser stellen als ohne. Das sieht nach einem Nash-Gleichgewicht zu einem Spiel aus!

Im Seminar soll das entsprechende Spiel mathematisch formuliert werden und die obige Schlussfolgerung aus der Spieltheorie über das Nash-Gleichgewicht hergeleitet werden. Und es soll der Fall einbezogen werden, dass ein betrügerischer Miner mehr als die Hälfte an Rechenkapazität bereitstellen kann, oder auch der Fall, dass ein Miner total irrational handelt.
Das Ganze analog für den Fall, dass einer der Auftraggeber betrügen will.

Im Seminar werden neben der oben dargestellten Sicherheit auch andere strategische Aspekte im Rahmen der Blockchain-Technologie behandelt, soweit sie einer spieltheoretischen Analyse zugänglich sind. Zum Beispiel die Frage nach Anreizen für Miners, Poolbildung für Miners sowie Preisbildung, aber auch die Volatilität von Kryptowährungen. Das Seminar wird sich nicht auf Bitcoin bzw. Kryptowährungen beschränken, sondern auch weitere Anwendungen der Distributed Ledger Technology in ihre Untersuchungen einbeziehen. (Die Blockchain-Technologie ist eine Distributed Ledger Technology (=DLT). Übersetzungsversuch: „Verteilte Kontenbuch-Technologie“).

Viele weitere Entscheidungssituationen im Kontext der Distributed Ledger Technology können also im Seminar spieltheoretisch (und damit mathematisch!) modelliert und analysiert werden. Stichworte dazu:

  • Zum Beispiel für andere Konsens-Regeln wie etwa „Proof of Stake“, die die Gültigkeit von neuen Blocks / neuen Blockketten bestimmen.
  • Mining Game (Houy; Dimitri): Anreiz für Miner
  • Evolutionary Game Theory and Pooling of Miners
  • Mining Net & Coalitions
  • Coalition Game Theory in Network Architecture
  • Stackelberg game for edge-computing to balance the interest of miners and providers
  • Supply Chain Game to enhance security
  • Fair Blockchain
  • Coordination Game
  • Minority Game and Volatility
  • Game with many agents and Thermodynamics
Weiterhin ist denkbar, dass verwandte Methoden wie ABM (Agent-Based Modeling) und ABCE (Agent-Based Computational Economy) im Seminar vorgestellt und zum Einsatz gebracht werden. Auch Themen aus dem Umfeld der folgenden spieltheoretischen Ansätze könnten behandelt werden, am Besten in Verbindung mit Problemen zu DLT:
  • Algorithmische Spieltheorie
  • Spieltheorie und Portfolio Optimierung
  • Normen und Spieltheorie
  • Rationalität und beschränkte Rationalität in der Spieltheorie
Zu Distributed Ledger Technology noch ein paar Stichworte außerhalb der Spieltheorie:
  • Andere Modelle jenseits von Blockchain
  • Interessante Anwendungsmöglichkeiten, neue Geschäftmodelle
  • Blockchain as a path to KI
  • Grenzen und Herausforderungen der DLT

Voraussetzungen:

Es ist unerlässlich, dass die Teilnehmer des Seminars ein Vorwissen in Spieltheorie haben wie auch in Techniken der Kryptographie, hier insbesondere

  • Signaturtechniken zur Legitimation und
  • Codierung durch Hashfunktionen.
Es gibt viele Möglichkeiten, sich dieses Wissen anzueignen, hier ein paar Bücher dazu:

Kryptographie:

  • Buchmann: Kryptographie
Blockchain:
  • A. Berentsen, F. Schär: Bitcoin, Blockchain und Kryptoassets. BoD Uni Basel (2017)
  • M. Swan: Blockchain, - Blueprint for a New Economy. O‘Reilly (2015)
  • S. Nakamoto: Bitcoin: A peer-to-peer electronic cash system. (2008)
Spieltheorie:
  • Sieg: Spieltheorie
  • Weibull: Evolutionary Game Theory
  • Osborne-Rubinstein: Game Theory
  • wikilidia: http://wikiludia.mathematik.uni-muenchen.de/wiki/index.php?title=Hauptseite
Game Theory und Blockchain:
Im Internet recherchieren! Viele Artikel konzentrieren sich auf die ökonomischen Aspekte! Wir aber wollen mathematische Modelle der Spieltheorie!

Gar nicht mathematisch (und irrelevant für das Seminar) aber unterhaltsam:

  • Graeber: Schulden (Zum Thema „Geld“)
  • Stevenson: Cryptonomicon (Zum Thema: Kryptographie und Sicherheit)

Für wen?

Das Seminar ist für Bachelor oder Master geeignet. Masterstudenten müssen einen zweiten Vortrag halten, den zweiten Vortrag möglicherweise zu einem anderen Zeitpunkt (Ausweichtermin).

Anmeldung

Voranmeldungen bitte bald an Martin Schottenloher, martin@schottenloher.de. Am Besten mit Präferenzen für Vortragsthemen. Es können nur bis zu 12 Teilnehmer aufgenommen werden. Die Zusage erfolgt entsprechend der Eingänge der Anmeldungen und der Qualifikationen. Erste Themen werden noch vor Semesterbeginn vergeben.
Der Inhalt oben wurde bewusst mit vielen Verästelungen und etwas unscharf formuliert, damit sich Teilnehmer einen für sie interessanten Themenkomplex zusammenstellen können.

Wintersemester 2017/18

Seminar: "Aktuelle Kryptographie und Quantencomputer"

Di 12-14, B 252
Ausweichtermin und Raum: Di 16-18, B 040. (Inhalt siehe unten)

Programm:

(mit vorläufigen Zeiten bzw. Terminen)

  • 17.10.2017 Vorbesprechung
  • 24.10.2017 Historischer Rückblick und Grundprinzipien der Kryptographie (Bierschneider)
  • 07.11.2017 Informationstheorie und perfekte Geheimhaltung (Renée Thommes)
  • 14.11.2017 RSA-Verschlüsselung und Faktorisierung (Michael Hötzelsperger)
  • 21.11.2017 Vertiefung: Faktorisierung und Erzeugung großer Primzahlen (Aaron Söhnen)
  • 21.11.2017 Advanced Encryption Standard (AES) (Philipp Scheufele)
  • 28.11.2017 Einsatz des diskreten Logarithmus (David Brandes)
  • 05.12.2017 Einsatz elliptischer Kurven oder Gruppen (Bastian Krämer)
  • 12.12.2017 Quantenmechanische Prinzipien und Quantencomputer (Lisa Hertle)
  • 19.12.2017 Einführung des Quantencomputers ohne Quantenmechanik (Elisabeth Krahmer)

    Weihnachtspause

  • 09.01.2018 Quantenalgorithmen: Shor knackt RSA (David Brandes)
  • 16.01.2018 Hashfunktionen, Signaturen. Sicher gegen QC? Ausblick Blockchain (Josias Brenner)
  • 23.01.2018 Hashbasierte digitale Signatursysteme (Eva Hinterreiter)
  • 23.01.2018 Teleportation und Verschränkung (Armin Eghdami)
  • 30.01.2018 Multivariate Public Key Cryptography (Philipp Scheufele)
  • 30.01.2018 Gitterbasierte Kryptographie (Aaron Söhnen)
  • 06.02.2018 Absicherung von Distributed Ledgern gegenüber QC (Sebastian Pirozhkov)

Inhalt:


In diesem Seminar wollen wir mathematisch und technisch fundierte Antworten auf die folgenden aktuellen Fragen finden:
  1. Wie sicher ist die zur Zeit verwendete Kryptographie?
  2. Wie funktioniert ein Quantencomputer? Welche bekannten Verschlüsselungsalgorithmen verlieren an Wert, wenn universelle Quantencomputer zur Verfügung stehen?
  3. Welche Verschlüsselungstechniken sind auch bei einem Einsatz eines universellen Quantencomputers sicher? Wie kann man sich heute schon schützen?
Das Seminar hat die folgenden Themenbereiche:
  • A. Kryptographie
  • B. Quantencomputer, Quantenalgorithmen, Quanteninformation
  • C. Post-Quantum Cryptography
Zu allen drei Bereichen können Themen vergeben werden. Gegebenenfalls wird das Seminar im folgenden Semester fortgesetzt. Typische Vortragsthemen

Für: Das Seminar ist für Bachelor oder Master geeignet. Masterstudenten müssen einen zweiten Vortrag halten, den zweiten Vortrag möglicherweise zu einem anderen Zeitpunkt (Ausweichtermin).

Voraussetzung: Jeder Teilnehmer muss ein Basiswissen über Kryptographie und über elementare Quantenmechanik haben. Dieses Basiswissen ist gegebenenfalls aus den Lehrbüchern vor Seminarbeginn zu erwerben. Zum Basiswissen gehört das Verständnis über die Grundaufgabe der Kryptographie und auch Kenntnisse zur Verschränkung in der Quantenmechanik.

Voranmeldungen mit Priorität für eines der 3 Themenbereiche bitte bald an Martin Schottenloher, martin@schottenloher.de. Es können nur bis zu 13 Teilnehmer aufgenommen werden. Die Zusage erfolgt entsprechend der Eingänge der Anmeldungen. Erste Themen werden noch vor Semesterbeginn vergeben, bzw. sind bereits vergeben (s.u.). Präferenzen bitte bei der Anmeldungen angeben.

Quellen


(Beispiele, die in unserer Bibliothek als Volltext erhältlich sind):
  • Für die Kryptographie:
    • Buchmann: Einführung in die Kryptographie
  • Für Quantencomputing
    • Homeister: Quantum Computing verstehen
    • Audretsch: Entangled Systems
  • Für Post-Quantum Cryptography: Diverse Originalliteratur.
      Zum Beispiel zusammengefasst in
    • Bernstein/Buchmann/Dahmen: Post-Quantum Cryptography
    • mehr dazu zu finden in den Proceedings zu den jährlich stattfindenden Meetings PQCrypto und den Konferenzen auf Schloß Dagstuhl, siehe Site http://www.pqcrypto.org/

Sommersemester 2017

Seminar: "Kombinatorische Optimierung"

Di 12-14, B 251.
Nr. 16066
Ausweichtermin: Di 16-18, B 134.

Inhalt: Im Seminar werden zwei Themengruppen angeboten. Die eine Gruppe besteht aus Themen zum Begriff der Berechenbarkeit und die andere Gruppe besteht aus ausgewählten Themen über geometrische Methoden zur Erzeugung von Optimierungsalgorithmen. Daneben werden eventuell noch Vorträge zur Ablaufplanung (Scheduling) vergeben. Details weiter unten.

Programm

  • 25.04.2017 Vorbesprechung und Planung
  • 02.05.2017 Berechenbarkeit nach Turing und mittels Registriermaschinen (Max Nowosad)
  • 09.05.2107 Rekursive und μ-rekursive Funktionen (Oliver Dörle)
  • 16.05.2017 Berechenbare Funktionen und λ-Kalkül (Leo Hansbauer)
  • 23.05.2017 Neuronale Netze und Berechenbarkeit (Edvard Hakobyan)
  • 30.05.2017 Simplexmethode (Eveline Heck)
  • 13.06.2017 Scheduling: Einmaschinenmodell (Marina Rist)
  • 20.06.2017 Algorithmen zu konvexen Mengen (Nha Nguyen)
  • 27.06.2017 Mehr Konvexität: Konvexe Optimierung (Rebecca Fiebiger)

  • 04.07.2017 Ellipsoid-Methode (Josef Kiesl)
  • 11.07.2017 Anwendungsbeispiel der konvexen Optimierung: Support Vector Machine (Natalia Voronova)
  • 11.07.2017 Das chinesische Postbotenproblem (Ga Ginng Ha)
  • 18.07.2017 Matching (Duc Tung Nguyen)

    Ohne Vortragenden:

  • ... Zelluläre Automaten und Berechenbarkeit (N.N.)

Berechenbarkeit: Es wird in diesem Teil des Seminars herausgearbeitet, dass die sehr unterschiedlichen Begriffsbildungen der Berechenbarkeit, wie sie zu Beginn des letzten Jahrhunderts eingeführt wurden, letztlich alle äquivalent sind. Das wird in dem Vorwort des Buches "Neural Networks" von Rojas als Überblick dargestellt und soll anhand der Bücher von Bridges, Hermes, Cutland, Cooper, Soare, u.a. im Seminar gründlich behandelt werden:
"Berechenbar ist eine vorgegebene Funktion f : N → N (von den natürlichen Zahlen in die natürlichen Zahlen), wenn es einen Algorithmus gibt, mit dem zu jeder Zahl n aus N der Funktionswert f(n) berechnet werden kann."
Diese Aussage gilt es zu präzisieren, um dann die Äquivalenz zur "Berechenbarkeit"

  1. nach Turing,
  2. mit Hilfe von Registermaschinen (URM oder RAM),
  3. um Sinne von Rekursivität,
  4. mit Hilfe des λ-Kalküls,
  5. mit Hilfe von zellulären Automaten,
  6. mit Hilfe von neuronalen Netzen
zu beweisen. Wir könnten auch zu Anwendungen kommen und einen Zusammenhang zur Komplexitätstheorie herstellen.

Geometrische Methoden: Ausgehend von der Simplexmethode werden Probleme zu konvexen Mengen und Lösungsalgorithmen dazu dargestellt, die zum Teil nicht direkt Optimierungen betreffen. Wir werden das Buch von Grötschel, Lovász und Schrijver verwenden und durch das Buch von Boyd und Vandenberghe ergänzen.

Das Seminar ist für Bachelor oder Master geeignet. Masterstudenten müssen einen zweiten Vortrag halten, den zweiten Vortrag möglicherweise zu einem anderen Zeitpunkt (Ausweichtermin).

Jeder Teilnehmer muss eine Basiswissen über Kombinatorische Optimierung haben. Dieses Basiswissen ist gegebenenfalls aus den Lehrbüchern vor Seminarbeginn zu erwerben. Zum Basiswissen gehört das Verständnis über die Grundaufgabe der Kombinatorischen Optimierung und dazu Kenntnis der Linearen Programmierung und der Komplexitätstheorie.

Wintersemester 2016/17

Seminar: "Kombinatorische Optimierung" Di 12-14 in HS B 252.
Ausweichtermin: Di 16 - 18, HS B 040
Inhalt: Im Seminar werden zwei Themengruppen angeboten.
Die eine Gruppe besteht aus ausgewählten Themen zur Optimierung der Produktion und umfasst insbesondere die Ablaufplanung (Scheduling).
Die andere Gruppe hat zum Ziel, einen intelligenten 'Go-Bot' zu bauen.
Details in Themen und Anmeldung.

Schedule

  • 18.10.16 Vorbesprechung und Kurzvortrag durch Rami Daknama.
  • 25.10.16 Einmaschinenmodell (Henning Flechtner)
  • 08.11.16 Parallele Maschinen (Elisabeth Krahmer)
  • 15.11.16 Job Shops (Renée Thommes)
  • 22.11.16 Open Jobs (Patrick Hohmann)
  • 29.11.16 Grundlagen von Machine Learning und die Anwendung im Spiel Go (GoBot-Team)
    1. Regeln von Go und die Schwierigkeit, ein Go-Programm zu schreiben (Tobias Fritz)
    2. Das Perceptron und andere Neuronen (Melanie Michels)
    3. Aufbau eines neuronalen Netzes (Johannes Emmerig)
    4. Wie "lernt" das Netzwerk? (Tomy Kufner)
    5. Stochastic Gradient Descent (Alex Sedlmayr)
    6. Kurzer Überblick über unseren Stand, Ausblick auf Googles AlphaGo (Stefan Sedlmaier)
  • 06.12.16 Schnelle Rundreisen: Das Travelling-Salesman-Problem (Christian Schmid)
  • 13.12.16 12-14 Robust Scheduling (Verena Lorber)
  • 13.12.16 16-18 (B 040) Robust Scheduling zur Operationssaalbelegung (Jasmin Walther)
  • 20.12.16 Lernkurven (Maximilian Mayer)
    • Xmas
  • 10.01.17 12-14 Stochastic Local Search (Jan Gerrit Hölting)
  • 10.01.17 16-18 (B 040) Heuristische Algorithmen zur Ablaufplanung der PVC-Applikation (Murad Muradi)
  • 17.01.17 12-14 Vertriebssteuerung in einem Nachfrageoligopol mit extremem Angebotsüberschuss immaterieller Güter (Oliver Kostinek)
  • 17.01.17 16-18 (B 040) Flugplatznutzung (Melanie Bayerlein)
  • 24.01.17 2. Bericht (GoBot-Team)
    1. Optimierung eines neuralen Netzes (Alex Sedlmayr)
    2. Convolutional Neural Networks, Skizze
  • 31.01.17 Stochastiche Arbeitszeiten (Aaron Wittmann)
  • 07.02.17 12-14 3. Berichte / Resultate (GoBot-Team)
    1. Convolutional Neural Networks / Layer (Stefan Sedlmair)
    2. Trainingsdaten und GoBoard (Melanie Michels)
    3. Tensorflow Network und GitHub (Tobias Fritz)
  • 07.02.17 16-18 (B 040) 4. Berichte / Resultate (GoBot-Team) Themen im zweiten Vortag:
    1. Selbst programmiertes Netz (Johannes Emmerig)
    2. BotBattle (Tomy Kufner)

Sommersemester 2016

Seminar: "Kombinatorische Optimierung"; Di 12-14 in HS B 252.
Ausweichtermin: Di 16 - 18, HS B 251

Schedule

  • 12.04.16: Vorbesprechung
  • 19.04.16:
    1. Online Routing of Virtual Circuits with Applications to Load Balancing / Machine Scheduling (lisa Kraus)
    2. A Priori TSP (Rami Daknama)
    3. Erste Themen festlegen.
  • 26.04.16: Muss leider ausfallen.
  • 03.05.16: Packing Boxes (Lisa Kraus)
  • 10.05.16, 12 Uhr: Einstieg Scheduling (Ian Butler)
  • 10.05.16, 16 Uhr: Airline-Crew-Scheduling (Lisa Hertle)
  • 24.05.16, 12 Uhr: Monte Carlo Methode (Philipp Scheufele)
  • 24.05.16, 16 Uhr: Kürzeste Wege in Graphen (Dennis Pihale)
  • 31.05.16, 12 Uhr: Dynamische Programmierung (Minh Le)
  • 31.05.16, 16 Uhr: Zwei-Personen-Nullsummenspiel (Sabrina Richter)
  • 07.06.16, 12 Uhr: Komplexität von Scheduling-Problemen (Johannes Piller)
  • 07.06.16, 16 Uhr: TSP I (Simon Stadler)
  • 14.06.16, 12 Uhr: Nichtlineare Optimierung (Marie Düsedau)
  • 14.06.16, 16 Uhr: Heuristiken (Oliver Kiss)
  • 21.06.16, 12 Uhr: TSP II (Jakob Knauer)
  • 21.06.16, 16 Uhr: TSP III (Simon Stadler)
  • 28.06.16, 12 Uhr: Portfolio-Optimierung (Annie Wachsmuth)
  • 28.06.16, 16 Uhr: Künstliche Intelligenz I (Anton Sporrer)
  • 05.07.16, 12 Uhr: Künstliche Intelligenz II (Anton Sporrer)
  • 05.07.16, 16 Uhr: Scheduling (Matthias Englbrecht)
  • 12.07.16, 12 Uhr: Local Search (Michael Fuchs)

Wintersemester 2015/16

  • 13.10.15: Vorbereitungstreffen 1
  • 20.10.15: Vorbereitungstreffen 2
  • 27.10.15: Seminar findet nicht statt
  • 03.11.15: Seminar findet nicht statt
  • 10.11.15: Verirrt im Wald - Kurven minimaler Länge in der Ebene (Rami Daknama)
  • 17.11.15: offen für Besprechungen
  • 24.11.15: Quantum Algorithms for Optimization (Thomas Pischke)
  • 01.12.15: offen für Besprechungen
  • 08.12.15: Poker, eine spieltheoretische Analyse (Simon Stadler)
  • 12.01.16: Genetische Algorithmen zur Lösung kombinatorischer Optimierungsprobleme (Lulu Ji)
  • 19.01.16: Carsharing (Rami Daknama)
  • 26.01.16: Muss ausfallen
  • 02.02.16: Portfoliooptimierung mit CAPM (Elena Schumann)
  • ... : Packing Boxes (Lisa Kraus)

Sommersemester 2015

  • 14.04.15: Vorbereitungstreffen
  • 21.04.15: Neuronale Netze im Kontext kombinatorischer Optimierungsprobleme und eine Anwendung im Bereich der intelligenten Lagerhaltung (Rami Daknama)
  • 28.04.15: Kein Vortrag. Präzisierung der Themen in Einzelgesprächen
  • 05.05.15: Kein Vortrag. Präzisierung der Themen in Einzelgesprächen 12:15-13:00
  • 12.05.15: Noch einmal: Besprechung der Themen. 12:15-13:00
  • 19.05.15: Algorithm Runtime Prediction: From Knapsack to Scientific Simulations (Thomas Pischke)
  • 02.06.15: Ant Colony Optimization Algorithms (Lars Maurath)
  • 09.06.15: Lernen von "optimalen" Strategien beim Pokerspiel I (Robert Valta)
  • 16.06.15: Lernen von "optimalen" Strategien beim Pokerspiel II (Robert Valta)
  • 23.06.15: Particle Swarm Optimization (Leonid Kolesnikov)
  • 30.06.15: Keine Vortrag. Besprechung der Themen und Diskussion
  • 07.07.15: Mathematische Modellierung einer konkreten Produktion als Ausgangspunkt einer Optimierung (Daria Akulshyna)

Wintersemester 2014/15

  • 23.09.2014 The bin packing problem (Rami Daknama)
  • 24.02.2015 Runtime Prediction for the Knapsack Problem: Methods and Results (Thomas Pischke)

Sommersemester 2014

Workshop I zum Scheduling: Erarbeitung der Grundlagen und des Standes der Forschung in Kurzvorträgen und Diskussionen.
Workshop II zum maschinellen Lernen: Verfolgung des Video-Kurses "Machine Learning Program" von Ng.

Wintersemester 2013/14

  • 05.11.13: Neue Ansätze zum ganzzahligen Knapsack-Problem I (Lisa Kraus)
  • 26.11.13: TravellingSalesmanProblem - Anwendungspotentiale und Lösungsmethoden (Martin Schottenloher)
  • 03.12.13: Neue Ansätze zum ganzzahligen Knapsack-Problem II (Lisa Kraus)
  • 07.01.14: Neuronale Netze. Ein erster Zugang (Lukas Lentner)
  • 14.01.14: Bewertungsschemata für Heuristiken: Problemstellung, Approximation (Martin Schottenloher)
  • 28.01.14: Bewertungsschemata für Heuristiken: Approximationsschema, stochastsche Analyse, empirische Analyse (Martin Schottenloher)
  • 04.02.14: Ein Approximationsschema (FPTAS) zum Rucksack-Problem (Lisa Kraus)
  • 28.02.14: Adventures in Optimisation - How to solve computationally challenging problems better and faster (Holger H. Hoos; Vancouver)
  • 18.03.14: Aufspannende Bäume in Graphen (Susanne Moll)

Sommersemester 2013

  • 30.04.13: Vorbesprechung
  • 07.05.13: Strategien der kombinatorischen Optimierung (Christian Paleani)
  • 28.05.13: Gegenstand der kombinatorischen Optimierung (Robert Meißner)
  • 18.06.13: Evolutionäre Algorithmen - Genetische Programmierung (Lukas Lentner)
  • 02.07.13: Dynamische Programmierung (Lisa Kraus)
  • 09.07.13: Skyline-Routensuche unter verschieden gewichteten Optimierungskriterien (Sebastian Haug)
  • 16.07.13: Schwarmintelligenz (Christian Paleani)

Wintersemester 2012/13

  • 23.10.12: Auftakt: Problemstellung der Optimierung am konkreten Beispiel - Organisation und Übersicht des Workshops Martin Schottenloher
  • 30.10.12: Komplexität von Algorithmen Michael Klauser
  • 06.11.12: Lineare Programmierung: Konzept und Erste Schritte Christian Paleani
  • 20.11.12: Lineare Programmierung II: Simplexverfahren Christian Paleani
  • 27.11.12: Cutting Stock Problem Simon Lentner
  • 04.12.12: Einführung in die thermodynamische Zustandssummen und die klassische Monte-Carlo-Methode Lukas Lentner
  • 18.12.12: Quantenmechanische Zustandssumme, Operatorstrings und die Quanten-Monte-Carlo am Beispiel des 2-dim. Heisenberg-Modells Lukas Lentner
  • 15.01.13: Quanten Monte Carlo Simulation des unitären Fermigases Olga Goulko
  • 22.01.13: Quanten Monte Carlo Simulation des unitären Fermigases II Olga Goulko

Bis Mitte 2012

  • 29.05.2012: Bicategories for boundary conditions and for surface defects in 3-dimensional TFT. Christoph Schweigert, Universität Hamburg.
  • 02.11.2011:Thermodynamische Algorithmen auf Fusionsalgebren. Simon Lentner, 14 Uhr, B 251.

Wintersemester 2011/12

Seminar: Topologische Quantenfeldtheorie Martin Schottenloher, Mi 10-12, B 251.
  • 25.08.2011 Projekt SuperCut: Kombinatorische Optimierung zur Prozessoptimierung. Martin Schottenloher, Simon Lentner, 10 Uhr, B 251
  • 04.02.2011Neue Thermodynamische Ansätze zum Cutting Stock Problem. Simon Lentner, 14 Uhr, B 005.


(*) Die Forschungsruppe hat sich erst im Laufe des Jahres 2011 konstituiert.