Seminar über Theorie Maschinellen Lernens SS 2012
LVR-Nr: | 150 544 |
---|---|
Veranstaltung: | Seminar über Theorie Maschinellen Lernens (in zwei Gruppen) Mo 14:15 - 15:45, NA 1/64 Mo 16.15 - 17.45, NA 1/64 |
Hinweis: | Beide Seminargruppen (s. oben) sind voll. Daher sind keine weiteren Anmeldungen möglich. |
Dozent: | Hans U. Simon |
News
Terminverschiebung
Beachten Sie, dass die letzten beiden Vorträge auf Freitag, den 13. Juli gelegt wurden! Die Vorträge von 10-13 Uhr finden in NA 2/64 statt, die Vorträge von 14-17 Uhr in NA 3/24. (Vgl. auch mit dem unten stehenden Seminarplan.)
Kommentar
Ein Verfahren zum maschinellen Lernen ermöglicht einer Maschine (bzw. einem Computerprogramm), ihre Leistung anhand von "Erfahrung" fortlaufend zu steigern. Das Seminar behandelt Methoden zum Entwurf und zur Analyse von Lernverfahren mit einem besonderen Schwerpunkt auf der statistischen Lerntheorie. Dabei gehen Techniken aus verschiedenen Disziplinen ein wie, zum Beispiel, Statistik, Optimierungstheorie und Kombinatorik.
Wegen der hohen Teilnehmerzahl wird das Seminar in zwei Gruppen geteilt. Die ersten 6 Sitzungen haben in beiden Gruppen identische Themen. Bei den darauf folgenden 7 Sitzungen erfolgt bei den Terminen von 14:15-15:45 Uhr eine Spezialisierung auf das Thema "Boosting" und bei den Terminen von 16:15-17:45 Uhr auf die Themen "SQ-Lernmodell" und "Differentielle Privatheit". Durch diese thematische Aufteilung wird es leichter eine hohe Zahl von Themen für Bachelorarbeiten zu kreieren.
Im Anschluss an das Seminar werden Themen sowohl für Bachelor- als auch für Masterarbeiten vergeben.
Vorraussetzungen
Bei den Studierenden im Bachelor-Studienabschnitt werden die Kenntnisse der Grundvorlesungen Mathematik erwartet wie sie in den ersten drei Semestern vermittelt werden. Bei den Studierenden im Master-Studienabschnitt werden die im Bachelor-Studienabschnitt erworbenen Kenntnisse in Mathematik erwartet.
Literatur
Michael J. Kearns and Umesh V. Vazirani, An Introduction to Computational Learning Theory,
The MIT Press, 1994. In der Mathe-Bibliothek stehen zwei Exemplare dieses Buches. Eines
davon ist ein Präsenzexemplar.
Hinzu kommen mehrere Originalarbeiten zu den Themen "Boosting", "SQ-Lernmodell"
und "Differentielle Privatheit", die unmittelbar an die jeweiligen Referentinnen
und Referenten verteilt werden.
Zeitplan für die Sitzungen von 14:15-15:45 Uhr
02.04.2012 | Kapitel 1 aus Kearns/Vazirani: | The Probably Approximately Correct Learning Model (Teil 1) | Ann-Christin Grüter und Katja-Isabel Malewski |
16.04.2012 | Kapitel 1 aus Kearns/Vazirani: | The Probably Approximately Correct Learning Model (Teil 2) | Ann-Christin Grüter und Katja-Isabel Malewski |
23.04.2012 | Kapitel 2 aus Kearns/Vazirani: | Occam's Razor (Teil 1) | Vera Bracht und Katharina Pallentin |
30.04.2012 | Kapitel 2 aus Kearns/Vazirani: | Occam's Razor (Teil 2) | Vera Bracht und Katharina Pallentin |
07.05.2012 | Kapitel 3 aus Kearns/Vazirani: | The Vapnik-Chervonenkis Dimension (Teil 1) | Jörn Heitbreder und Filipp Valovich |
14.05.2012 | Kapitel 3 aus Kearns/Vazirani: | The Vapnik-Chervonenkis Dimension (Teil 2) | Jörn Heitbreder und Filipp Valovich |
21.05.2012 | Originalarbeit (Freund und Schapire, JCSS, 1997) | ADABOOST (Teil 1) | Sonja Egbers und Christian Schuster |
04.06.2012 | Originalarbeit (Freund und Schapire, JCSS 1997) | ADABOOST (Teil 2) | Sonja Egbers und Christian Schuster |
11.06.2012 | Originalarbeit (Schapire et al., Annals of Statistics, 1998) | Boosting von Randabständen (Teil 1) | Klaus Manuel und Uwe Packeiser |
18.06.2012 | Originalarbeit (Schapire et al., Annals of Statistics, 1998) | Boosting von Randabständen (Teil 2) | Klaus Manuel und Uwe Packeiser |
25.06.2012 | Originalarbeit (Freund und Schapire, COLT, 1996) | Spieltheorie, Online-Vorhersagen und Boosting | Christoph Ries |
13.07.2012, ab 14:00 Uhr | Originalarbeit (Freund et al., JMLR, 2003) | Erlernen von Rangordnungen mit Boosting | Louisa Joppich und Sandra Pasucha |
Zeitplan für die Sitzungen von 16:15-17:45 Uhr
02.04.2012 | Kapitel 1 aus Kearns/Vazirani: | The Probably Approximately Correct Learning Model (Teil 1) | Sarah Gellhaus und Janina Kost |
16.04.2012 | Kapitel 1 aus Kearns/Vazirani: | The Probably Approximately Correct Learning Model (Teil 2) | Sarah Gellhaus und Janina Kost |
23.04.2012 | Kapitel 2 aus Kearns/Vazirani: | Occam's Razor (Teil 1) | Johanna Kubitza und Julia Straßburger |
30.04.2012 | Kapitel 2 aus Kearns/Vazirani: | Occam's Razor (Teil 2) | Johanna Kubitza und Julia Straßburger |
07.05.2012 | Kapitel 3 aus Kearns/Vazirani: | The Vapnik-Chervonenkis Dimension (Teil 1) | Viola Engelke und Michael Piechatzek |
14.05.2012 | Kapitel 3 aus Kearns/Vazirani: | The Vapnik-Chervonenkis Dimension (Teil 2) | Viola Engelke und Michael Piechatzek |
21.05.2012 | Originalarbeit (Kearns, JACM, 1998) | Verrauschte Daten und Lernen im SQ-Modell (Teil 1) | Daniel Pasler |
04.06.2012 | Originalarbeit (Kearns, JACM, 1998) | Verrauschte Daten und Lernen im SQ-Modell (Teil 2) | Thomas Bausch |
11.06.2012 | Originalarbeiten (Yang, JCSS, 2005 ; Simon, ALT, 2006) | Anfragekomplexität im SQ-Modell | Monika Rütter |
18.06.2012 | Originalarbeit (Dwork et al., LNCS 3876, 2006) | Differentielle Privatheit und Probabilistische Funktionen | Karla Nesiu |
25.06.2012 | Originalarbeit (McSherry und Talwar, FOCS, 2006) | Differentielle Privatheit und Mechanismendesign | Guido Knips |
13.07.2012 ab 10:00 Uhr | Originalarbeit (Kasiviswanathan et al., SIAM J. Comp., 2011) | Differentielle Privatheit und Algorithmisches Lernen | Robert Rumpelt und Henrik Sie |