Seminar SS 2022: Ausgewählte Themen der Optimierung
Das Seminar Ausgewählte Themen der Optimierung (LSF) im Sommersemester 2022 richtet sich an Bachelor- und Masterstudierende der Mathematik.
- Seminar, 2 SWS, ECTS-Studium, ECTS-Credits: 3
- Format
- 45 Minuten Vortrag + 15 Minuten Q&A
- Sprache
- Englisch
- Ort
- G02-210 Common Room
- Termine
-
-
Freitag 17.06.2022, 9:15-10:15 Uhr, Julien Brandes: Support Vector Machines with Uncertainties;
(TBD)
-
Freitag 24.06.2022, 9:15-10:15 Uhr, Marius Reichel: Black-Box Optimization;
First, an introduction to black-box optimization and a short overview of some optimization methods is given. Afterwards an algorithm for deterministic global black-box optimization is presented in detail.
-
Freitag 01.07.2022, 9:15-10:15 Uhr, Jonathan Scholz: A Specific Logistics-Related Optimization Problem;
A specific economic optimization problem proposed by Prof. Dr. Marlin Ulmer is discussed. First, the origin of the problem is explained. After that, it is modelled and implemented in AMPL. The presentation concludes with a discussion of the results and an outlook on related problems.
-
Freitag 08.07.2022, 9:15-10:15 Uhr, Max Jenke: Distributed Convex Optimization through Augmented Lagrangian Methods.
Suppose we want to solve a convex optimization problem and we run into the issue that no single machine available to us has the capacity to solve it. Maybe we lack memory space or performance. Perhaps we require a large dataset, which can never fit onto any single machine, to solve the problem. Augmented Lagrangian methods are a simple yet powerful approach to resolve this issue by allowing us to solve a convex optimization problem using multiple machines. We will build up the idea behind these methods and take a closer look at one particular method. Through this, we will discover its versatility but also its limitations by examining multiple example use cases. Finally, we will briefly discuss how to implement a distributed algorithm.
-
Freitag 17.06.2022, 9:15-10:15 Uhr, Julien Brandes: Support Vector Machines with Uncertainties;
Die Vorträge finden im Rahmen des Oberseminars des Instituts für Mathematische Optimierung statt. Weitere Änderungen werden auf dieser Seite und im LSF eingetragen.
Vorlesung WS 2021
Besprechungstermin | Kapitel | Kapitel Name | Material online? |
---|---|---|---|
12.10.21 | 0 | Organisatorisches und Einführung | NLO_00 |
19.10.21 | 1 | Grundlegende Begriffe und Ideen | NLO_01 |
2.11.21 | 2 | Unbeschränkte nichtlineare Optimierungsprobleme | NLO_02 |
2.11.21 | 3.1-3.2 | Abstiegsverfahren, Konvergenzanalyse und Globalisierung | NLO_03a |
9.11.21 | 3.3-3.4 | Abstiegsverfahren, Konvergenzanalyse und Globalisierung | NLO_03b |
9.11.21 | 3.5 | Abstiegsverfahren, Konvergenzanalyse und Globalisierung | NLO_03c |
9.11.21 | 3.6-3.8 | Abstiegsverfahren, Konvergenzanalyse und Globalisierung | NLO_03d |
16.11.21 | 4.1 | Newton-Verfahren | NLO_04_01 |
23.11.21 | 4.2-4.3 | Quasi-Newton- und Gauss-Newton-Verfahren | NLO_04_02, NLP_04_03 |
30.11.21 | 4.4 | Inexakte Newton-Verfahren und Lokaler Kontraktionssatz | NLO_04_04 |
7.12.21 | 4.5 | Vertrauensgebiet-Verfahren | NLO_04_05 |
14.12.21 | 5.1-5.5 | Beschränkte Nichtlineare Optimierungsprobleme | NLO_05_01, NLO_05_02 |
21.12.21 | 5.6 | Dualität | NLO_05_06 |
21.12.21 | 6 | Verfahren der projizierten Gradienten | NLO_06 |
11.01.21 | 7 | Aktive-Mengen-Verfahren zur Quadratischen Programmierung | NLO_07_01, NLO_07_02, NLO_07_03 |
18.01.22 | 8 | Sequentielle Quadratische Programmierung | NLO_08 |
18.01.22 | 9 | Globalisierung von SQP-Verfahren | NLO_09 |
25.01.22 | 10 | Barriereverfahren und Innere-Punkte-Verfahren | nein |
25.01.22 | 11 | Software | NLO_11 |
Nichtlineare Optimierung
Die Vorlesung Nichtlineare Optimierung (lsf) wird im WS 2021/2022 für Bachelor- und Masterstudenten an der Otto-von-Guericke Universität Magdeburg gelesen. Es gibt ein Ankündigungsvideo.
- Vorlesung, 4+2 SWS, ECTS-Studium, ECTS-Credits: 9
- Studienfächer / Studienrichtungen: siehe lsf
- Kernarbeitszeit für Fragen zur Vorlesung: Di 15:15-16:45, Raum G16-215
- Kernarbeitszeit für Übungen: Do 15:15-16:45, Raum G23-K12
- Kernarbeitszeit zum Anschauen der asynchronen Inhalte: Do 9:15-10:45
- Dozent: Prof. Dr. Sebastian Sager,
- Übungsleiter: Julius Martensen,
- Format: die Vorlesungsinhalte werden auf dieser passwortgeschützten Seite zur asynchronen Nutzung zur Verfügung gestellt. Asynchron heißt, Sie können sie herunter laden, wann immer Sie möchten und zu beliebigen Zeiten bis zum jeweiligen Besprechungstermin anschauen und bearbeiten. Dies betrifft Videos in denen die Inhalte erläutert werden sowie ein Vorlesungsskript. Dies erlaubt es Studierenden, sich die Vorlesungsinhalte in einem für sie geeigneten Tempo und zu einem beliebigen Zeitpunkt anzueignen. Ergänzt wird dieses durch wöchentliche Besprechungen und Übungen, die in der Regel per zoom (Passwort ist nlo) und im Ausnahmefall in Präsenz stattfinden werden; sowie durch eine MatterMost Gruppe. Die im lsf angegebenen Vorlesungszeiten sind noch nicht bindend - wahrscheinlich werden wir zwei der Zeitslots für zoom Treffen fix machen und die dritte zur freien Bearbeitung lassen.
- Anmeldung: Bitte registrieren Sie sich in der Mattermostgruppe mit diesem link.
- Wöchentliche Treffen finden statt am Dienstag, 15h15 per zoom (Passwort ist nlo) und in Präsenz in Raum G16-215. Ich werde in dem Raum sein und per notebook die Zoomveranstaltung öffnen, so dass Sie sich aussuchen können, wie Sie teilnehmen möchten.
Inhalt und Literatur
Die Vorlesung wird sich am Lehrbuch von Michael und Stefan Ulbrich orientieren und interaktive Python Skripte verwenden. Es gibt ein Skript. Genaueres wird in der ersten Vorlesung besprochen.
Passwortgeschützte Downloads
Videos, Skript, Übungsblätter und weitere Materialien. Desweiteren gibt es für den Kurs ampl executables.
Rechtlicher Hinweis: Die Vorlesungen und Vorlesungsvideos sind nichtöffentliche Dokumente und ausschließlich Teilnehmerinnen und Teilnehmern der Vorlesung nach vorheriger Anmeldung zugänglich. Alle Rechte liegen bei Prof. Dr. Sebastian Sager sowie beim Institut für Mathematische Optimierung. Jede öffentliche oder private Weitergabe oder Verbreitung der Videos, insbesondere das zur Verfügung stellen über YouTube und andere Plattformen, ist ausdrücklich untersagt. Achtung: auch einige Materialien sind urheberrechtlich geschützt und sollen nur für die Vorlesung genutzt, auf keinen Fall weitergegeben werden.
Zielgruppe
Angesprochen sind vor allem Bachelorstudierende der Mathematik im fünften Semester. Sie ist als erste Vertiefungsvorlesung innerhalb der Optimierung gedacht und bildet die Grundlage für die Gemischt-ganzzahlige nichtlineare Optimierung, Optimization Methods for Machine Learning, Optimale Steuerung und Optimierung für die Modellierung.
Wenn die Vorlesung nicht schon im Bachelor besucht wurde, ist es auch möglich, sie innerhalb des Masterstudienganges zu hören. Dieses wird empfohlen, wenn im Bachelor die Vorlesungen aus der kombinatorischen Optimierung (Kaibel) gehört wurden.
Voraussetzungen
Mathematische Grundvorlesungen, Einführung in die Optimierung (empfohlen).
Folgeveranstaltungen
Im Sommersemester 2022 wird es eine Vorlesung Gemischt-ganzzahlige nichtlineare Optimierung geben. Im Wintersemester 2022 wird es eine Mastervorlesung Optimization Methods for Machine Learning geben, für die Inhalte der Nichtlinearen Optimierung nützlich sind.
Übungen
Die Vorlesung wird durch Übungen (lsf) im Umfang von 2 SWS komplettiert. Zielsetzung wird neben mathematischen Aufgaben auch der Umgang mit modernen Modellierungs- und Optimierungstools sowie die Implementierung von Algorithmen beispielsweise in Python, Matlab oder julia sein. Details der Einbindung der Übungen werden in der ersten Vorlesung besprochen.
Informationen zur Modulprüfung
Typischerweise wird die Nichtlineare Optimierung gemeinsam mit der Gemischt-ganzzahligen Nichtlinearen Optimierung nach dem Sommersemester geprüft. Falls Sie einen Prüfungstermin benötigen, wenden Sie sich bitte per email mit konkreten Terminvorschlägen an mich. Es werden in der Prüfung ausschließlich Inhalte des Skriptes abgeprüft, wobei Übungsaufgaben das Verständnis erweitern und daher indirekt von Vorteil sind.
Es besteht die Möglichkeit, die Prüfung mit einem Thema seiner Wahl (z.B.: Quasi-Newton Methoden oder Optimalitätsbedingungen) zu beginnen. Grundsätzlich werden keine Beweise im Detail verlangt. Der Schwerpunkt liegt eher auf einem konzeptionellen Verständnis und Beweisideen.
Übungsschein
Wenn Sie einen Übungsschein benötigen, so können Sie sich zu einem Scheingespräch anmelden, das nach Ablauf der Vorlesungsperiode stattfindet.
Inhaltlich geht es beim Scheingespräch vor allem um die in den Übungen besprochenen Themen. Die gefragte Detailtiefe ist dabei etwas geringer als bei einer mündlichen Prüfung, und auch die Dauer ist in der Regel etwas kürzer. Ihnen werden eine oder mehrere Übungsaufgaben, in ähnlicher Form wie im aktuellen Semester behandelt, vorgelegt und Sie werden zu den wesentlichen Erkenntnissen aus der Bearbeitung dieser Aufgaben gefragt. Eine Bearbeitung der Aufgaben im Detail wird nicht nötig sein.
Fragen?
Ich freue mich über generelles Interesse und Fragen: