Digital Shift ist ein schweizerisches Diskussionsforum für digitale Transformation. Am 21. September 2016 steht in Zürich die Entscheidungsfindung mit Algorithmen und künstlicher Intelligenz auf dem Programm:
«Für das Fällen von Entscheidungen kommen zunehmend mehr Algorithmen zum Einsatz. Sie sortieren Suchresultate nach Relevanz und erstellen Datenvisualisierungen. Als unsichtbare digitale Helfer sind sie schon weit verbreitet. Im Vergleich zu Menschen, haben Algorithmen kein Problem, mit viel Information um zu gehen. Es stellt sich zunehmend die Frage, ob wir zum Beispiel unsere Diagnosen von einem Arzt wollen (der vielleicht vor 20 Jahren an der Uni war). Oder ob wir einem Computersystem trauen wollen, das die jeweilige Krankengeschichte mit Millionen anderen Fällen vergleichen kann. Wir diskutieren, in welche Richtung sich das entwickelt.»
Zum Einstieg spricht Sascha Corti (Microsoft) über Predictive Software und Kevin Mader (4Quant) zeigt, welche kognitiven Fähigkeiten sich mit Deep Learning bauen lassen. Ich werde versuchen, rechtliche Aspekte aufzuzeigen.
Ausserdem demonstriert Hansruedi Früh (F&P Robotics) seinen Rotoberarm «P-Rob».
Nachtrag vom 22. September 2016: Präsentation und Weblinks
In meiner gestrigen Präsentation waren direkt oder indirekt unter anderem nachfolgende Weblinks enthalten:
- Trolley-Problem (Weichenstellerfall)
- Staatsanwaltschaft ermittelt: Roboter tötet Arbeiter bei VW in Baunatal
- Bundesgesetz über die Produktehaftpflicht (Produktehaftpflichtgesetz, PrHG)
- Kausalhaftung
- Laissez-faire
- Risiko autonomes Fahren: Volvo will für selbstfahrende Autos haften
- Künstliche Intelligenz: Roboter vor Gericht
- Tierhalterhaftung gemäss Art. 56 Abs. 1 OR
- Hundegesetz (Kanton Zürich)
- Sklaverei im Römischen Reich und moderne Arbeitnehmer als «Lohnsklaven»
Nachtrag vom 5. Oktober 2016: Zusammenfassung
June von Bonin und Alain Leclerc von Bonin, die Initianten von Digital Shift, haben eine Zusammenfassung veröffentlicht. Mein Beitrag wird wie folgt zusammengefasst:
«Rechtlich ist im Bereich AI noch einiges offen. Martin Steiger hat aufgezeigt, wie zu eruieren ist, wer die Verantwortung trägt, falls ein Unfall passiert. Nach dem heutigen Recht kommt beispielsweise das Produktehaftpflichtgesetz in Frage. Hierbei haftet der Hersteller, oder, falls man ihn nicht ermitteln kann, der Lieferant für ein fehlerhaftes Produkt – grundsätzlich unabhängig vom Verschulden. Eine solche Kausalhaftung ist vor allem dort sinnvoll, wo Produkte auf den Markt gebracht werden, die gefährlich sind. Aber wie stuft man Software und AI ein? Ist sie autonom, lernfähig, aber nicht urteilsfähig oder zurechnungsfähig? Ist sie wie ein Haustier, zum Beispiel ein Hund, nach dem heutigen Recht? Oder ist sie wie eine Sklavin nach historischem, römischen Recht? Und was ergeben sich für ethische Fragen, wenn man AI ähnlich wie einen Hund, eine römische Sklavin oder einen modernen Lohnsklaven behandelt?»
Bild: Pixabay / «geralt», Public Domain.