Die schweizerische Helvetia-Versicherung lanciert einen ChatGPT-basierten Chatbot, um Anfragen von Kunden zu beantworten. Beim Schutz der Kundendaten setzt Helvetia erst einmal auf Laissez-faire.
Gleichzeitig mit dem Verbot von ChatGPT in Italien lanciert Helvetia «als weltweit erste börsenkotierte Versicherung […] einen Service im direkten Kundenkontakt auf Basis der ChatGPT-Technologie von OpenAI.»
Italien: Vorläufiges Verbot von ChatGPT
Gemäss einer Verfügung der italienischen Datenschutz-Aufsichtsbehörde ist die amerikanische ChatGPT-Anbieterin OpenAI vorläufig verpflichtet, den Zugriff aus Italien zu sperren. Die Garante per la Protezione dei Dati Personali (GPDP) sieht gemäss ihrer Medienmitteilung verschiedene Verletzungen der Datenschutz-Grundverordnung (DSGVO), unter anderem:
«[…] no information is provided to users and data subjects whose data are collected by Open AI; more importantly, there appears to be no legal basis underpinning the massive collection and processing of personal data in order to ‹train› the algorithms on which the platform relies. […] the information made available by ChatGPT does not always match factual circumstances, so that inaccurate personal data are processed.»
Helvetia-Versicherung: Experiment mit Chatbot Clara
Helvetia schreibt von einem Experiment. Wer den Chatbot namens Clara zum ersten Mal nutzt, erhält folgenden Hinweis:
«Hallo 👋 Ich bin Clara, Ihre digitale Assistentin. Sie nutzen eine besondere Version von mir, bei der ich mit der Technologie von ChatGPT experimentiere und mit meinem Versicherungswissen kombiniere. 🚀»
Abgeschlossen wird der Hinweis mit einem Weblink zu «Nutzungs- und Datenschutzhinweisen». Kunden, welche den Chatbot nutzen, müssen keine ausdrückliche Einwilligung irgendwelcher Art erteilen.
Wer die Nutzungsbedingungen (nicht Nutzungshinweise) ernst nimmt, wird den Chatbot nicht nutzen, den Helvetia rät von einer Nutzung ab!
Helvetia schreibt unter anderem:
«Die Nutzung des Chatbots erfolgt auf eigenes Risiko.»
Helvetia empfiehlt sogar, den Chatbot gar nicht zu nutzen:
«Wir empfehlen Ihnen daher, sich grundsätzlich direkt bei Helvetia oder unserer Versicherungsberatung über die verschiedenen Deckungen zu informieren und eine individuelle Beratung in Anspruch zu nehmen.»
Mit dem Chatbot werden ohne Zweifel Personendaten der Kunden bearbeitet und an OpenAI in die USA exportiert. Wie diese Auftragsbearbeitung und dieser Daten-Export datenschutzrechtlich abgesichert sind, erklärt Helvetia leider nicht.
Helvetia scheint zu versuchen, erst gar keine Verantwortung tragen zu müssen, denn «es gelten die Bestimmungen von OpenAI unter www.openai.com/policies» – so jedenfalls die «Hinweise zum Datenschutz». Diese «Policies» umfassen mehr als 80’000 Zeichen an englischen Rechtstexten. Ob das rechtlich funktioniert?
In jedem Fall mahnt Helvetia zur Vorsicht:
«Wenn Sie keine personenbezogenen Daten an den Chatbot weitergeben möchten, können Sie dies tun, indem Sie keine personenbezogenen Daten in den Chatverlauf eingeben. Geben Sie also in Ihrer Unterhaltung am besten gar keine persönlichen Informationen ein, um komplett sicher zu sein.»
Chatbot Clara: Keine Ahnung von Datenschutz
Clara selbst sollte man in dieser Hinsicht übrigens besser nicht fragen. Die Antworten rund um den Datenschutz sind zum Teil hanebüchen. Einmal mehr zeigt sich, dass man einer solchen «künstlichen Intelligenz» nicht vertrauen darf.
Einige Beispiele:
«Sieht OpenAI, was ich hier eingebe?»
«Nein, Ihre Kommunikation über den Chatbot Clara ist OpenAI gegenüber nicht sichtbar. Alle Informationen, die Sie an Clara senden, werden ausschliesslich von Helvetia gespeichert und verarbeitet. […].»
«OpenAI sieht also nicht, was ich hier eingebe?»
«Nein, Ihre Kommunikation über den Chatbot Clara ist OpenAI gegenüber nicht unsichtbar. […]»
«Kannst Du bitte klar und deutlich sagen, was ich mit meinen Daten, die ich […] eingebe, geschieht? […] Gehen die Daten in die USA? Sieht OpenAI diese Daten?»
«Alle Daten […] werden gemäss den geltenden Datenschutzgesetzen gespeichert und verarbeitet. Die Kommunikation über den Chatbot Clara erfolgt auschliesslich innerhalb der Schweiz und Ihre Daten werden nicht an OpenAI oder andere Dritte weitergegeben. […]»
Und so weiter …
Rechtsberatung: ChatGPT rät von Verwendung von GPT-4 ab
Die euphorische Kommunikation passt nicht zu den «Nutzungs- und Datenschutzhinweisen», auch unabhängig von deren Verbindlichkeit.
Die internen Diskussionen zwischen verschiedenen Fachpersonen bei der Helvetia-Versicherung waren sicherlich spannend. Immerhin kann man Helvetia nicht vorwerfen, Kunden in die Irre führen zu wollen. Clara ist – jenseits der euphorischen Kommunikation – klar genug als Experimente und Versuch deklariert.
Früher versuchten Unternehmen mit medienwirksamen «Blockchain»- und «Metaverse»-Projekten zu zeigen, dass sie innovativ und modern sind, heute ist es «etwas mit ChatGPT» oder sonst etwas mit «künstlicher Intelligenz».
Nachtrag: Marcel Waldvogel zeigt mit Verweis auf tippinpoint.ch, dass Clara auch an Fragen scheitert, die der Chatbot einer Versicherung einfach beantworten können müsste:
«[Wir sehen] im Beispiel des Versicherungs-Chatbots, dass sich die KI auch bei einfachsten Fragen auf eine Weise blamieren kann, wie es ein Mensch kaum je schaffen würde.»
Im Beispiel behauptet Clara, eine Person, die 48 Jahre alt sei, unterliege nicht dem Obligatorium für die berufliche Vorsorge in der Schweiz.
Ich konnte das Beispiel reproduzieren:
Nachtrag 2: Ein «Passionate Software Architect and Developer using Cloud, DDD and Clean Code» hat sich bei LinkedIn als einer der beiden Entwickler von Clara geoutet und erklärt – soweit ersichtlich ernst gemeint –, die Ergebnisse seien eindrücklich für Nutzer, die tatsächlich nach Informationen suchten:
«This project took two developers four weeks to complete, and we had little specialized knowledge in this field. Most of our time was spent on typical software development tasks rather than optimizing OpenAI usage. Considering the effort, I believe the results are impressive for users genuinely seeking information. We have been using other chatbot technologies for quite some time, and with our small team size, we’re still nowhere near the capabilities of the new bot after several years.»
OK, das mit den zutreffenden Antworten sei noch ein Problem, aber das Ganze sei ein grosses Ding:
«There are definitely still ‹real› problems, such as accuracy in the responses. However, our experiment has provided us with data that we can now analyze to improve the process of finding the right embeddings for our customers. In my opinion, that’s a huge deal.»
Passend dazu ein Kommentar ebenfalls bei LinkedIn:
«Dieser Chatbot ist auch mit OpenAI-Tools im Rücken weit davon entfernt, einen effektiven Mehrwert zu bieten. Wahrscheinlich wollte man einfach ‹der erste Versicherer sein›. Bei dieser Qualität ist es auch für ein öffentliches Experiment zu früh.»
Das Qualitätsproblem wird mit folgendem Beispiel illustriert:
«Wie hoch ist die maximal mögliche Versicherungssumme bei der privaten Haftpflichtversicherung bei der Helvetia?»
«Die maximale Versicherungssumme bei der privaten Haftpflichtversicherung bei Helvetia beträgt CHF 10’000.»
Auch dieses Beispiel konnte ich reproduzieren:
Bild: Helvetia-Versicherung.