Postulat Schwaab (16.4007): Algorithmen, die im Einklang mit den Grundrechten stehen

Bild: Al­go­rith­misch erzeugte Fraktal-Kunst

Mit Postulat 16.4007 wollte Nationalrat Jean Christophe Schwaab (SP)den Bundesrat Ende 2016 beauftragen, «die Auswirkungen auf die verfassungsmässigen Rechte zu untersuchen, die der Einsatz von Algorithmen durch die öffentliche Hand und durch Private hat.» Ausserdem, so Schwaab, solle der Bundesrat bei Bedarf «Massnahmen vorschlagen, die sicherstellen, dass Algorithmen transparent, verantwortungsvoll und im Einklang mit den Grundrechten eingesetzt werden.»

Als Begründung für sein Postulat hatte Nationalrat Schwaab unter anderem das Risiko gekannt, «dass für automatisierte Entscheide niemand mehr die Verantwortung übernimmt und niemand mehr die Gründe dafür kennt.»

Und weiter (mit Hervorhebungen):

«Die wissenschaftliche Gemeinschaft hat daher damit angefangen, die notwendigen Voraussetzungen dafür herauszuarbeiten, dass Algorithmen im Einklang mit den Grundrechten eingesetzt werden: Verantwortung (für jedes algorithmische System muss es eine Person geben, die in der Lage ist, unerwünschten Effekten entgegenzuwirken), Erklärbarkeit (jeder Entscheid, der auf einen Algorithmus zurückgeht, sollte den betroffenen Personen erklärt werden), Exaktheit (Fehlerquellen müssen identifiziert, dokumentiert und analysiert werden), Überprüfbarkeit (die Algorithmen müssen so entwickelt werden, dass es Dritten möglich ist, ihr Verhalten zu überprüfen und anzupassen) und Gleichbehandlung (um verzerrte automatische Entscheide zu vermeiden, müssen Algorithmen, die Personen betreffen, evaluiert und in Bezug auf ihre diskriminierenden Effekte beurteilt werden; die Evaluationskriterien und die Ergebnisse sind zu erläutern und zu veröffentlichen) […]). Es ist zu überprüfen, inwieweit die geltenden rechtlichen Grundlagen auf Gesetzes- oder gar Verfassungsstufe es ermöglichen, diese Prinzipien auf Algorithmen anzuwenden, oder ob allenfalls ergänzende Regelungen notwendig sind.»

Der Bundesrat zeigte Verständnis für das Postulat, lehnte es aber im Februar 2017 mit Verweis auf bereits ergriffene Massnahmen ab. Der Bundesrat erwähnte insbesondere die Expertengruppe «Zukunft der Datenbearbeitung und Datensicherheit» und die Revision des Datenschutzgesetzes (DSG).
https://steigerlegal.ch/wp-admin/edit.php
Nun wurde das Postulat abgeschrieben, nachdem es nicht innert zwei Jahren im Nationalrat behandelt worden war.

Mögliche Regulierung von Algorithmen in der Schweiz mit dem Datenschutzrecht?

Die DSG-Revision verzögert sich und das neue Datenschutzrecht in der Schweiz kommt allenfalls erst 2021. Immerhin sieht der bundesrätliche Entwurf tatsächlich – beschränkte – Massnahmen in Bezug Algorithmen vor, wie man der Botschaft im Zusammenhang mit Profiling entnehmen kann (mit Hervorhebung):

«[…] Gegebenenfalls wird der betroffenen Person mitgeteilt, ob eine automatisierte Einzelentscheidung vorliegt […]. In diesem Fall erhält sie ebenfalls Informationen über die Logik, auf der die Entscheidung beruht. Dabei müssen nicht unbedingt die Algorithmen mitgeteilt werden, die Grundlage der Entscheidung sind, weil es sich dabei regelmässig um Geschäftsgeheimnisse handelt. Vielmehr müssen die Grundannahmen der Algorithmus-Logik genannt werden, auf der die automatisierte Einzelentscheidung beruht. Das bedeutet beispielsweise, dass die betroffene Person Auskunft darüber erhält, dass sie aufgrund eines negativen Scoring-Resultats einen Vertrag zu schlechteren Konditionen abschliessen kann, als dies offeriert wurde. Darüber hinaus muss sie aber auch über die Menge und die Art der für das Scoring herangezogenen Informationen sowie deren Gewichtung informiert werden. […]»

Ausserdem wurde inzwischen der Bericht der Expertengruppe veröffentlicht. Darin heisst es unter anderem in Empfehlung 50:

«Der Bund sorgt für ausreichende Transparenz, Nachvollziehbarkeit, Verständlichkeit und Accountability (Rechenschaftspflicht) bei digitalen Prozessen und Algorithmen, um eine vertrauensbasierte digitale Wirtschaft und Gesellschaft zu gewährleisten.»

Der Bericht befasst sich auf mehreren Seiten schwerpunktmässig mit Algorithmen und diskutiert unter anderem die Frage der Offenlegung (mit Hervorhebungen):

«Spezifische datenschutztechnische Probleme ergeben sich beim Prinzip der Transparenz von Algorithmen, da diese Geschäftsgeheimnisse enthalten können und als Geschäftsinvestition zu schützen sind. So muss der Datenbearbeiter bei automatisierten Einzelentscheiden die Grundannahmen des Algorithmus offenlegen, nicht aber die Algorithmen selbst oder die Grundstruktur der Entscheidungsprozesse […]. Eine Konkretisierung, wie weit eine Offenlegung zu gehen hat, gibt es noch nicht. Zwei Ansätze sind denkbar:

Bei einer weitmaschigen Auslegung der Offenlegungspflicht zugunsten der Datenbearbeiter müssten nur die Grundannahmen genannt werden, die beim Beschrieb des algorithmischen Systems einen Bezug zu den massgeblichen Grundsätzen und gesetzlichen Regelungen in einem spezifischen Einsatzgebiet aufweisen. Als spezifische gesetzlich geregelte Bereiche sind etwa das Gesundheitswesen, der Konsumentenschutz oder das Steuerrecht zu nennen.

Bei einer restriktiveren Auslegung […] müssten die Grundannahmen, aber auch der Weg (in diesem Fall der Entscheidungsprozess), die Schlüsselfaktoren für die Entscheidungsfindung und deren Gewichtung offengelegt werden. […] Es ist zu erwarten, dass Praxis, Rechtsprechung und Leitlinien der Aufsichtsbehörden mehr Klarheit bringen werden. Dies wird allerdings dadurch erschwert, dass der technologische Fortschritt bei den Algorithmen die Möglichkeit der Aufwertung einzelner Sachverhalte zu Präzedenzfällen mit allgemeiner Aussagekraft für gleich gelagerte Fälle verringern wird. […].»

Bild: Pixabay / skeeze, Public Domain.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Felder mit * sind Pflichtfelder.