43 VERSICHERUNGEN Versicherer setzen auf eigene Modelle Die Allianz nutze Chatbots in den unterschiedlichsten Bereichen. Doch wenn es um eine Beratung gehe, wollten Kunden lieber mit einem „echten“ Menschen reden. Speziell in der Beratung und der Schadenbearbeitung sehe man, dass die Mitarbeiter einen großen Einfluss auf die Kundenzufriedenheit hätten. Allianz Technology habe im September ein internes Generative AI System, „AllianzGPT“, gelauncht, das die Mitarbeiter für ihre tägliche Arbeit nutzen könnten. Es basiere auf dem gleichen Large Language Model wie ChatGPT, jedoch in einer abgeschlossenen internen Umgebung, sodass Daten, die in AllianzGPT eingespeist würden, das Unternehmen nicht verließen. SIGNAL IDUNA sei Ende des Jahres 2022 eine strategische Partnerschaft mit Google Cloud eingegangen. Neben der Entwicklung cloudbasierter Anwendungen arbeite man auch im Rahmen der Entwicklung generativer KI-Anwendungen eng zusammen. Der Versicherer beschäftige sich seit dem letzten Jahr mit zwei ersten Pilotanwendungen im Unternehmen. Gemeinsam mit Google entwickle SIGNAL IDUNA einen allgemeinen Chatbot. Dieser basiere auf BARD, dem Google-eigenen KI-Chatbot und dem darin enthaltenen allgemein zugänglichen Weltwissen. Der zweite Pilot erfasse das Wissen eines Versicherungsbereiches und stelle die Informationen den Mitarbeitern besonders performant zur Verfügung. Datensicherheit steht über allem ChatGPT ist also eindeutig nicht die erste Wahl der Versicherer. Aktuell in Diskussion sind auch die mannigfaltigen Sicherheitsrisiken von ChatGPT und anderen KI-Anwendungen. So sind bspw. die KI-Sprachmodelle (LLMs), die hinter ChatGPT und ähnlichen Sprachmodellen stehen, nicht transparent in Design und Spezifikation, die Datenbasis kann manipuliert werden, sie liefern bei unbekannten Themen falsche Infos oder erstellen schwachstellenanfällige Programmcodes. Ein weiterer Gefahrenpunkt ist der Missbrauch von ChatGPT und Co. durch Cyberkriminelle. Last, but not least können durch KI Bilder, Videos oder Stimmen manipuliert werden (Deepfakes); so wurde z. B. Ende Januar die erfolgreichste Musikerin der Gegenwart auf X mal eben zum Pornostar. Wie begegnet die Branche diesen Risiken? „Risiken und der Umgang damit sind Kern unseres Versicherungsgeschäftes. Uns sind die vielfältigen Risiken und Herausforderungen im Einsatz und Umgang von generativer KI bewusst. Wir haben als Grundbaustein unseres Risikokonzepts die regulatorischen Anforderungen im Umgang mit KI umgesetzt und monitoren eng die Gesetzgebung und den AI Act 2“, so Edzard Bennmann, Leiter Unternehmenskommunikation der SIGNAL IDUNA. Zusätzlich seien die generativen KI-Anwendungen des Hauses so ausgestaltet, dass eine Vielzahl von Risiken ausgeschlossen werde. Beim hauseigenen Chatbot sei bspw. die Verarbeitung von personenbezogenen Daten per se nicht möglich. Den Mitarbeitern biete man regelmäßig Wissensformate an, in denen die aktuellen generativen KI-Möglichkeiten, aber auch die Herausforderungen bspw. durch sogenannte KI-Halluzinationen verdeutlicht würden. Den Aufbau von Wissen in der gesamten Organisation über generative KI und ihre Funktionsweisen betrachte man als eine essenzielle präventive Maßnahme. Dem übergeordnet habe man ethische Leitplanken für den Umgang und Einsatz von KI im Unternehmen ausgestaltet, die „AI Principals“, die als Kompass in der täglichen Arbeit und bei strategischen Entscheidungen eine klare Orientierung gäben. „Am Ende gilt es jedoch, die Herausforderungen zu lösen und die Risiken zu negieren, sodass sie nicht den Innovationsfortschritt aufhalten“, resümiert der Versicherer. Die Allianz sieht ChatGPT als eine neue Technologie, die auch Risiken birgt, die man managen müsse. Bei ChatGPT handele es sich um ein Produkt der Firma OpenAI, das im Hintergrund ein LLM einsetze. Es gebe verschiedene Anbieter von LLMs. Bei der Auswahl von Anbietern sei es bei der Allianz oberstes Anliegen, dass der Datenschutz gewährleistet sei. Daten des Hauses dürften nicht zum Nachtrainieren des Modells benutzt werden, außerdem müsse garantiert sein, dass die Daten datenschutzkonform in Europa verarbeitet und nicht außerhalb der Systeme des Hauses gespeichert würden. Ein weiterer Aspekt, den es zu beachten gelte, sei die Erklärbarkeit von Modellen. Bei den Anwendungen der Modelle stelle man sicher, dass man auch wisse, warum das Modell zu einem Ergebnis komme, und man sich auch sicher sei, dass es regelmäßig zu dem gleichen Ergebnis kommen werde – auch nach einem Update des Modells. Dies funktioniere bspw. durch automatisiertes Testen. Für die Bayerische liegt eine wichtige Maßnahme gegen die Risiken darin, die Mitarbeiter aktiv über die Schwächen von LLMs aufzuklären und dazu anzuhalten, Aussagen kritisch auf deren Wahrheitsgehalt zu prüfen. „Insbesondere bei über die KI generierten Texten ist die Qualitätssicherung durch den Menschen unabdingbar“, betont Stefan Hegedusch, Geschäftsführer die Bayerische IT GmbH. Gleichzeitig seien LLMs aber auch eine Chance zur Reduzierung von Sicherheitsrisiken. So könnten sie dazu eingesetzt werden, um z. B. vorhandenen Code auf bekannte Sicherheitslücken zu untersuchen. Die ALH setze als Lösung gegen die Sicherheitsrisiken auf autarke KI-Systeme, die nur in dem Unternehmen existierten. Bei diesen ChatGPTAlternativen bliebe die Kontrolle über die Daten im Haus. Das sei für die ALH von größter Relevanz, daher habe man entschieden, auf interne Modelle zu setzen. Nur so könne man sicher sein, dass die eigenen Daten und somit insbesondere die der Kunden gut geschützt seien. „Darüber hinaus kann ein solches Modell bspw. in Kombination mit einer Chat-Funktionalität passgenau auf unsere Anforderungen zugeschnitten werden. Dies führt zu verlässlicheren Antworten für unsere Mitarbeiter und Kunden“, beschreibt Bereichsleiter Kiefer weitere Vorteile.
RkJQdWJsaXNoZXIy MTA1Mzk2Nw==