Am 10.07.2017 um 16:15 Uhr im Hörsaal L2 finden die Antrittsvorlesungen von Jun.-Prof. Dr. Stefanie Rach und Priv.-Doz. Dr. Kshitij Kulshreshtha statt.
Zunächst hält Jun.-Prof. Dr. Stefanie Rach ihren Vortrag mit dem Titel:
"Bedingungsfaktoren für erfolgreiche Lehr-Lern-Prozesse am Übergang von der Schule in ein Mathematikstudium"
Anschließend hält Priv.-Doz. Dr. Kshitij Kulshreshtha seinen Vortrag mit dem Titel
"Effizientere Ableitungsberechnung für Optimierungsprobleme in Ingenieurwissenschaften und im maschinellen Lernen"
Abstract Jun.-Prof. Dr. Stefanie Rach
Bedingungsfaktoren für erfolgreiche Lehr-Lern-Prozesse am Übergang von der Schule in ein
Mathematikstudium
Hohe Abbruchquoten in mathematischen Studiengängen induzieren, dass mathematische Lehr-Lern-Prozesse in der Studieneingangsphase nicht optimal verlaufen. Demnach stellt sich die Frage, welche Faktoren erfolgreiche Lernprozesse bedingen. Nach Angebot-Nutzungsmodellen sind sowohl Bedingungsfaktoren auf individueller Ebene als auch auf der Ebene des Lehrangebots und deren gegenseitiger Passung zu untersuchen. In diesem Vortrag werden anhand von zwei ausgewählten empirischen Studien die Bedeutung von individuellen Merkmalen für erfolgreiche Lernprozesse herausgestellt. Inwiefern diese Ergebnisse einen Beitrag zur Bewältigung des Problemfeldes leisten können, wird diskutiert.
Abstract Priv.-Doz. Dr. Kshitij Kulshreshtha
Viele mathematische Fragestellungen in modernen Ingenieurwissenschaften sind restringierte Optimierungsprobleme mit differentialalgebraische Nebenbedingungen. Häufig werden in der Industrie die entsprechende Zustände mit Hilfe der Modellierungssprache Modelica simuliert. Ebenso ist maschinelles Lernen heute ein heißes Thema in der Wissenschaft sowie in der Wirtschaft. In diesem Bereich werden die Algorithmen aktuell meist mit Hilfe der Programmiersprache Python implementiert. Im Hintergrund liegt ein stochastisches Optimierungsproblem für die Festlegung von Parametern. Alle diese Probleme können von der effizienten Berechnung von Ableitungen profitieren, denn die Benutzung von Gradienten, Jacobimatrizen, Hessematrizen, oder deren stochastischen Varianten in gradientenbasierten Optimierungsverfahren für solche Problemstellungen bietet schnelle Konvergenz zu lokalen Optima. Hierbei ist die Benutzung des algorithmischen Differenzierens von Vorteil. Algorithmisches Differenzieren mit Hilfe der ADOL-C Bilbliothek konzentriert sich traditionell auf die im wissenschaftlichen Rechnen vielverbreiteten Programmiersprachen Fortran und C/C++. Um ADOL-C zur Ableitungsberechnung bei Simulationen in OpenModelica oder bei Machine-Learning-Algorithmen in Python nutzen zu können, habe ich mit meine Koautoren zusammen ganz neue Interfaces für ADOL-C entwickelt.
Dadurch konnten die betrachteten Optimierungsaufgaben effizienter gelöst werden.