(26.05.21) Mit über hundert Teilnehmenden wurde am 17. Mai der zweitägige „DFG-NSF Research Workshop on Cybersecurity and Machine Learning” eröffnet. Die Veranstaltung – die neunte in einer Reihe von interdisziplinären „DFG-NSF Research Conferences“, die seit 2004 von der National Science Foundation (NSF) und der Deutschen Forschungsgemeinschaft (DFG) durchgeführt werden – sollte ursprünglich im August des vergangenen Jahres in Washington, DC durchgeführt werden, musste aber auf Grund der Pandemie abgesagt werden. Durch die Neuauflage im virtuellen Format veränderten sich notgedrungen das Format und die Zielsetzung – aus der wissenschaftlichen Konferenz mit Netzwerkcharakter für die Communities in Deutschland und den USA wurde ein Workshop, bei dem es vornehmlich darum ging, Forschungspotenziale an der Schnittstelle von Cybersicherheit und Maschinellem Lernen (ML) zu identifizieren und in einem Vision Document festzuhalten.
Von Beginn der Planung an wurde dabei berücksichtigt, dass die Themen Cybersicherheit und ML immer auch starke gesellschaftliche und rechtliche Auswirkungen haben und eine adäquate Annäherung an die Thematik nur unter Einbeziehung von rechts- und sozialwissenschaftlichen Perspektiven gelingen kann. Ein Lenkungsgremium bestehend aus den beiden Vorsitzenden Patrick McDaniel (The Pennsylvania State University) und Thorsten Holz (Ruhr-Universität Bochum) sowie Indra Spiecker genannt Döhmann (Goethe-Universität Frankfurt a.M.) und Felix Freiling (Friedrich-Alexander-Universität Erlangen Nürnberg) zeichnete verantwortlich für die Organisation.
Bei einer Auftaktveranstaltung vom 25.-27. Januar 2021 traf sich das Lenkungsgremium mit einer Gruppe ausgewiesener Expertinnen und Experten in den Forschungsfeldern Cybersicherheit, ML, Privacy und Rechtswissenschaften, um den Stand der Forschung und Forschungspotenziale an der Schnittstelle der Felder zu identifizieren. Dabei kristallisierten sich die drei Themen „Securing ML Systems“, „Explainability, Transparency and Fairness“ und „Power Asymmetry and Privacy“ heraus. Der aus der Veranstaltung resultierende Entwurf des Vision Document wurde der breiteren wissenschaftlichen Community in Deutschland und den USA als Diskussionsgrundlage im Vorfeld des Research Workshops zur Verfügung gestellt.
Zum Auftakt des Research Workshops betonten DFG-Vizepräsidentin Kerstin Schill und Erwin Gianchandani, Senior Advisor im Office of the Director der NSF, in ihren Eröffnungsreden die Relevanz des Themas für die moderne Gesellschaft, in der ML einerseits technologischen Fortschritt in allen Bereichen des Lebens ermöglicht, anderseits – wenn missbraucht – die Grundlagen demokratischer Gesellschaften und die Privatsphäre des Einzelnen gefährden kann. Gianchandani und Schill wiesen auf beträchtliche Investitionen der beiden Förderorganisationen in das übergeordnete Forschungsfeld der Künstlichen Intelligenz (KI) hin. Dass die mit ML verbundenen komplexen Herausforderungen nur in Kooperation über Fach- und Ländergrenzen hinweg gelöst werden können, stehe außer Frage oder, in den Worten von Vizepräsidentin Schill: „It therefore seems to me almost imperative to scientifically illuminate the resulting technical opportunities and security threats on the one hand, but also the socio-political consequences on the other hand.“ Senior Advisior Erwin Gianchandani ging in seiner Rede u.a. auf die zunehmende Bedeutung des Feldes des „Responsible Computings“ ein und wies darauf hin, dass neben rein technischen Fragestellungen auch die Auswirkungen auf Gesellschaft sowie deren Zusammenleben zu berücksichtigen seien.
Die bei der Auftaktveranstaltung herausgearbeiteten Forschungsdesiderate trafen einen Nerv. Die Teilnehmerinnen und Teilnehmer des Research Workshops vertraten eine große Bandbreite von Disziplinen – von der Informatik und Mathematik bis hin zu den Rechts- und Wirtschafts- und Sozialwissenschaften – und nutzten den interaktiven Charakter der virtuellen Veranstaltung mit Open Mic und Breakout Sessions dazu, sich aktiv in den Schreibprozess einzubringen.
In insgesamt elf Kleingruppen wurden verschiedene Themen im Detail diskutiert. So beschäftigten sich einige Teilnehmende beispielsweise mit technischen Aspekten des „Federated Learnings“ oder von Sicherheitsvorkehrungen für ML-basierte Systeme. Demgegenüber standen jedoch auch diverse interdisziplinäre Themenfelder wie etwa „Rechtliche Aspekte der Sicherheit von ML- Anwendungen“ oder „Entstehung von Machtasymmetrien durch ML“.
Für die Workshopteilnehmer und –teilnehmerinnen stellte sich im Rahmen der Diskussionen schnell heraus, dass die übergeordneten Workshop Themen „Securing ML Systems“, „Explainability, Transparency and Fairness“ und „Power Asymmetry and Privacy“ nicht voneinander zu trennen sind. So wies beispielsweise ein Teilnehmer auf den starken Zusammenhang von Privacy and Fairness hin. Wie schwierig die Kommunikation zwischen den Disziplinen, aber auch aus unterschiedlichen rechtlichen Kontexten heraus sein kann, wurde immer wieder deutlich. Dies zeigte sich insbesondere am Begriff der Fairness, ein Begriff der sowohl technisch im Sinne einer Programmierung als auch im juristischen Sinne nur schwer, und vor allem kaum umfassend, greifbar ist. Damit wurde unterstrichen, wie wichtig es ist, diesen unterschiedlichen Communities ein Forum für einen Austausch zu bieten und zukünftige gemeinsame Forschung zu initiieren.
Die mit großem Enthusiasmus geführten Diskussionen werden in das an die beiden Förderorganisationen zu übergebende finale Vision Document einfließen. Was aus der Not geboren und den Umständen der Pandemie geschuldet war, erwies sich letztendlich als ein sehr wirksames Werkzeug, um einen Pfad für die Kooperation der verschiedenen Disziplinen über den Atlantik hinweg abzustecken.