Insurance Monday: Digitalisierung & Versicherung

KI konkret: Die Top Use-Cases für die Versicherungsbranche

January 15, 2024 Insurance Monday Episode 84
Insurance Monday: Digitalisierung & Versicherung
KI konkret: Die Top Use-Cases für die Versicherungsbranche
Show Notes Transcript

Generative KI für Versicherer: Zwischen Effizienzsteigerung und ethischen Überlegungen. In dieser Episode steht das  Thema "KI konkret - Die Top-Use-Cases für die Versicherungsbranche" im Mittelpunkt. Unsere Gastgeber Julius Kretz und Alexander Bernert tauchen mit unserem Experten Thorben Schlätzer tief in die Welt der künstlichen Intelligenz ein.

Thorben teilt seine Einblicke und Erfahrungen in der Entwicklung von KI-Lösungen in der Versicherungsbranche und gibt wertvolle Einblicke in die konkreten Anwendungen von KI, insbesondere im Bereich generativer KI.

Er erklärt, wie KI-Projekte ähnlich wie klassische Softwareprojekte strukturiert werden und betont die Bedeutung von Leuchtturmprojekten, um die Akzeptanz von KI in Unternehmen zu fördern. Außerdem diskutieren sie die regulatorische Komplexität, ethische Fragen und die zukünftige Entwicklung von KI.

Lasst uns eintauchen in die Welt der künstlichen Intelligenz und ihre Anwendungen in der Versicherungsbranche!

Du möchtest mehr zu ProvenExpert erfahren? Hier geht es direkt zum Angebot!

Folge uns auf unserer LinkedIn Unternehmensseite für weitere spannende Updates.

Unsere Website: https://www.insurancemondaypodcast.de/

Du möchtest Gast beim Insurance Monday Podcast sein? Schreibe uns unter info@insurancemondaypodcast.de und wir melden uns umgehend bei Dir.

Vielen Dank, dass Du unseren Podcast hörst!

Hallo und herzlich Willkommen zum Insurance-Monday-Podcast, kleingedrucktes aus der Finanz- und Versicherungswelt. Dein Podcast mit spannenden Insights und exklusiven Gästen aus der traditionellen und digitalen Finanzwelt. Ist ein Versprechen an ihre Kunden. Mit provenexpert nutzen sie authentische Kundenstimmen und werden online sichtbar. Besuchen sie provenexpert.com-Entrance-Monday für ihr exklusives Angebot als Zuhörer unseres Entrance-Monday-Podcasts. Provenexpert. En ProvenExpert. Besuchen Sie provenexpert.com. Als Zuhörer unseres Insurance-Monday-Podcasts. ProvenExpert. Für alle, die wissen, dass vertrauen mehr wert ist als gold Hallo und herzlich willkommen zu einer neuen folge des Insurance-Monday-Podcasts Heute mit dem thema KI konkret die Top-Use-Cases für die Versicherungsbranche und wir möchten starten mit einem kurzen Zitat und zwar von dem Managing Director von BCG, Christopher Frese, der in einem Interview folgendes gesagt hat e sich in der Regel zu erheblichen Effizienzsteigerungen und Kosteneinsparungen führen. Die Größeneinsparungen, die zwischen 40 und 60 Prozent liegen, werden voraussichtlich durch Produktivitätssteigerungen im Kundenservice erzielt. Wir schätzen, dass bis zu 35 Prozent der Zeit von Kundendienstmitarbeitern damit verbracht wird, Informationen in Richtlinien, Bedingungen und anderen Dokumenten abzurufen. Bei solchen Aufgaben kann GenAI die Produktivität der Mitarbeiter mehr als verdoppeln. Die Mitarbeiter können diese Dokumente direkt abfragen und erhalten in Sekundenschnelle eine Antwort. Das klingt doch tatsächlich wie unser Titel sehr konkret und wir wollen heute auch ganz konkret werden, welche Use-Cases, Tools und Ansätze gibt es im Versicherungsbereich und dazu haben wir keinen Geringeren als den KI-Experten Torben Schlätzer eingeladen. Herzlich Willkommen Torben und bevor wir starten, ich bin Julius und heute mit mir aus dem Team, dem Insurance-Monday-Team mit dabei, Alexander Bernhard. Lieber Torben, bevor wir inhaltlich starten, stell dich, deinen beruflichen Werdegang doch bitte kurz vor und sag uns doch auch, wie bist du denn eigentlich zu dem Thema KI gekommen? Ja, hi Julius, hi Alexander. Erstmal vielen Dank für die Einladung, also danke, dass ich hier sein darf. Gerne kann ich mal kurz ein bisschen was zu mir erzählen. Also Torben Schlätzer, 30 Jahre alt, lebe jetzt fast seit neun Jahren schon in Köln. Ganz ursprünglich habe ich mal angefangen in der Bank, in der Sparkasse, ganz klassisch in Paderborn, da wo ich herkomme und bin dann zum Versicherungswesen-Studium an die TH Köln gegangen und habe meine Karriere dann quasi in der Versicherungswirtschaft so richtig begonnen. Bei mir muss noch eins dazu sagen, ich programmiere schon seitdem ich 14 bin, also habe mir das ein bisschen selber beigebracht und habe deswegen auch schon während meiner Ausbildung, während meines Studiums an vielen Softwareprojekten mitgearbeitet und habe deswegen immer so ein bisschen die Verbindung zwischen Business und Tech gesucht und die Connection zwischen Versicherung und Tech, die habe ich dann beim Inshore-Lab damals gefunden. Da habe ich nämlich als Werkstudent, bin ich damit durchgestartet und habe da tatsächlich als einer der ersten Werkstudenten das Ganze mit unterstützt aufzubauen im Insure-Lab und das war so meine erste Erfahrung, was Versicherungen und Tech angeht. Und dann habe ich so in dieser Welt vom Insure-Tech letztlich das Thema Künstliche Intelligenz für mich entdeckt und habe dann meine Bachelorarbeit zu dem Thema geschrieben. Das, was wir jetzt kennen unter Sprachmodellen und Chat-GPT und Co., Das habe ich damals in einer Light-Version quasi in meiner Bachelorarbeit schon gemacht und habe das dann berufsbegleitend quasi dann geschrieben bei der ESS Software GmbH, wo ich dann auch im Anschluss direkt Verantwortung übernommen habe für das Thema Künstliche Intelligenz. Also war dafür verantwortlich, die Softwareprodukte dort mit Künstlicher Intelligenz zu unterstützen quasi. Und habe dann im Anschluss als Mitgründer eines KI-Startups mitgewirkt, letztendlich für Underwriter eine KI-Lösung bereitzustellen im Industrieversicherungsbereich. Ich habe dann zweieinhalb Jahre mal Abstand von der Versicherungsbranche genommen, bin mal irgendwie einen Schritt rausgegangen, habe eine Ärztinnen- und Ärzteplattform gegründet und genau bin dann 2022 bei Adesso eingestiegen, auch schon unter der Prämisse, das Thema Künstliche Intelligenz in der Versicherungsbranche voranzutreiben. Und das ist dann ungefähr zwei Monate, bevor Chat-GPT rauskam, gewesen. Das heißt, meine Karriere hat dann nochmal so einen richtigen Schwung gekriegt, als dann Chat-GPT auch an die Öffentlichkeit kam und dann durfte ich auch bei Adesso dann einige Softwareprojekte in dem Kontext begleiten. Und seit 1.1.2024 bin ich dann tatsächlich wieder in die eigene Gründung gegangen und habe mit dreifach.ai jetzt einen Dienstleister gegründet, mit dem ich Unternehmen helfe bei der Einführung von KI-Lösungen. Also sowohl beratend als auch entwickelnd tätig quasi. Genau, Also viel KI auch schon in meinem Werdegang. Sehr schön. Welche bessere Kombination könnte es geben für diesen Podcast? 30 Jahre, noch super jung, Köln, Versicherungen, Injolab-Nähe, auch die kennst du mit Sicherheit. Die haben wir natürlich auch mit dem Insurance-Monday als fester Partner und dann habe ich rausgehört, die Leitversion von von Chet-GPT hätte ich fast gesagt, die kommt vom Torben. Soweit würde ich nicht gehen, aber ich glaube die Gedanken sind auf jeden Fall da. Das Gründergehen und auch der Tellerrand, der Blick über den Tellerrand hinaus mit der Ärztebranche. Erstmal herzlichen Glückwunsch zur Gründung, zu dem Weg zurück und wir wollen dich jetzt auch persönlich nicht nur deinen beruflichen Werdegang so ein bisschen besser kennenlernen und dafür haben wir die schnellen fünf. Ich starte einfach mal rein und du darfst dich gerne positionieren. Eigenentwicklung oder Standardsoftware? Eigenentwicklung. Startup oder Corporate? Startup. Risiko-Avers oder Risikoaffin? Tatsächlich, man möge es nicht glauben, aber eher Risiko-Avers. Früher Vogel oder Nachteule? Eigentlich beides jetzt nicht unbedingt, aber dann schon eher der frühe Vogel. 24 sieben. Ja, oder so. Okay und die letzte Frage KI-Fluch oder Segen? Ja, was glaubst du? Ja, was glaubst du? Warum stelle ich diese Frage? Segen natürlich. Es Kommt ja immer auf die Perspektive drauf an. Wer guckt gerade auf das Thema? Bei dir ist glaube ich die Antwort klar, aber die Perspektive kann ja durchaus unterschiedlich sein, oder? Ja klar. Das kann man so sagen, aber für mich ist es definitiv ein Segen und auch jetzt gerade quasi dadurch dass es so ein wichtiger Schritt ist auch für mich sollte es ja auch ein Segen bleiben auf jeden Fall. Sehr gut, da drücken wir auf jeden Fall die Daumen, dass es so bleibt. Danke. Sehr gut, dann lasst uns jetzt mal inhaltlich reingehen. Torben, du hast mit Sicherheit alle unsere Podcasts gehört und hier der Hinweis, wir haben natürlich zu dem Thema Gen AI diverse Podcasts schon gemacht und auch Definitionen schon gebracht und gleichzeitig gib uns doch vielleicht nochmal einen Kurzabriss zu den wichtigsten Begriffen maximal zwei Sätze KI, Gen AI, LLM was muss man jetzt wissen? Ja also aktuell wird der KI gleichgestellt oder gleichgesetzt mit der AI, natürlich fälschlicherweise, weil KI viel mehr ist als das. Also ich sage immer, ich bin jetzt nicht der Wissenschaftler, muss man dazu sagen, weniger wissenschaftlich gesagt ist, nutzen wir KI schon sobald wir auf bestehenden Daten Vorhersagen treffen. Das ist im Versicherungsumfeld natürlich spannend, weil wir mit vielen Daten arbeiten und Large-Language-Modelle, also Sprachmodelle, wie du schon angekündigt hattest, die bringen jetzt noch eine weitere wichtige Komponente mit, nämlich die Verarbeitung und Generierung natürlicher Sprache, was natürlich in unserer Arbeitswelt, die aus natürlicher Sprache besteht, sehr sehr spannend ist und das macht den Stellenwert natürlich zu Recht sehr hoch, auch gerade in unserer Gesellschaft. Super, du hast ja eben gesagt, du hast dich jetzt quasi vor kurzem selbstständig gemacht und ich weiß, ich kann mich auch noch erinnern an einen Austausch, als wir beim Injolab auf der Dachterrasse, als es die noch gab, gemeinsam standen am Abend am Barbecue und du mir von KI erzählt hast. Jetzt ist diese Frage vielleicht auch relativ einfach zu beantworten oder du sagst, warum stelle ich die überhaupt? Aber warum hast du dich genau jetzt selbstständig gemacht? Wie kam es dazu? Ja genau, das mit der Dachterrasse kann ich mich auch noch sehr gut erinnern. Das ist tatsächlich auch, also ich war sogar beim Inscholab noch bevor wir an dem Standort waren im Mühlheim. Aber die Dachterrasse war natürlich dann ein Riesen-Upgrade. Leider gibt es die nicht mehr im Gesetz. Aber genau, wie du sagst, wir haben damals auch schon über KI gesprochen und mich hat sowohl das Thema KI als auch das Unternehmertum schon immer begeistert. Und KI ist aus meiner Sicht gerade die einmalige Chance, die Probleme, die aus dem Fachkräftemangel sich ergeben, dass wir die lösen können. Also diese Technologie hat unfassbares Potenzial und mir ist es ein großes Anliegen und die Leute, die mich kennen, die wissen auch, dass es mir einen riesen Spaß macht, das Thema so in die operativen Prozesse reinzubringen. Also zu überlegen, okay, wie kann man jetzt diese technologie nutzbar machen nicht nur darüber sprechen was ich auch gerne mache wie man merkt aber das tatsächlich in die Anwendung zu bringen. Und ich habe mir überlegt, dieses Wissen, diese Begeisterung und das Tech-Know-How letztendlich auch über mein eigenes Unternehmen zu skalieren und letztendlich meinen Teil beitragen und über mein Unternehmen auch diesen Impact zu haben. Das ist einfach das, was mich total reizt und weswegen ich den Schritt auch jetzt gegangen bin, wo das Thema auch noch mal mehr heiß ist, als es vielleicht vor einem Jahr noch war. Ja und ich glaube, so haben wir uns auch ja kennengelernt. Also das würde ich bestätigen, in die Anwendung bringen, hands on tatsächlich zu zeigen, das sind nicht nur Worthülsen, sondern da passiert was, auch ich sage mal für die unterschiedlichen Use Cases, da wollen wir heute auch drauf gucken, tatsächlich konkret werden, was gibt es für Cases, was gibt es für Tools? Bevor wir da einsteigen, vielleicht kannst du nochmal ganz kurz so auf die Potenziale gerne auch mit Bezug auf die Versicherungsbranche, aber auch gerne die Risiken eingehen, die jetzt mit dem Thema einhergehen. Ja, sehr gerne. Also ich habe es eben ja schon angedeutet, der Fachkräftemangel, das ist ja das, was irgendwie über uns schwebt seit Jahren und generative KI ist da eine der möglichen Lösungen. Und in der Versicherungsbranche ist Automatisierung ja noch nie ein Fremdwort gewesen, aber durch generative KI zum Beispiel kann man auf einmal Prozesse unterstützen, die durch traditionelle IT, die wir vorher jetzt bisher kannten, nicht abzudecken war. Also man denke an den Kundensupport, das Thema hatten wir eben auch schon, das ist einfach ein Bereich, der viel mit natürlicher Sprache irgendwie zu tun hat, logischerweise, wo viel Potenzial da ist, das mit generativer KI zu unterstützen, genauso wie kreative Aufgaben, wo wir vorher nie für möglich geglaubt hätten, dass eine künstliche Intelligenz uns so etwas abnehmen könnte, aber das ist durchaus möglich. Und auch sehr spannend für den Versicherungsbereich der Umgang mit großen Datenmengen auf Basis natürlicher Sprache, denken wir jetzt an Verträge, Richtlinien, also alles was irgendwie mit Rechtstexten zu tun hat, was im Versicherungsbereich immer schon eine Riesenrolle gespielt hat, all das, was Technik bisher zu wenig inhaltlich verstanden hat, kann jetzt halt durch generative KI verarbeitet werden. Also es zusammenzufassen, KI kann uns einfach mehrfach produktiver machen. Kleiner Side-Fact dazu, der Name dreifach.ai kommt ja auch genau daher, uns halt dreifach produktiver zu machen mit KI. Du hast einen wahnsinnigen Produktivitätssprung, wäre verglichen mit den typischen 1,5 bis 2,5 Prozent, die man sonst so pro Jahr rechnet, also dramatische Veränderung. Was glaubst du denn, welche Bereiche werden am meisten von KI und diesem Produktivitätssprung profitieren, im Sinne von, dass er dort am stärksten ist? Also da sehe ich besonders drei Bereiche tatsächlich. Ich habe es einfach mal eingeteilt in Bereiche, wo viele Informationen verarbeitet werden. Das ist erstmal theoretisch, das ist grundsätzlich erstmal jeder Bereich. Im Versicherungsbereich speziell das Schadenmanagement und das Inputmanagement. Im Schadenmanagement kann man als Beispiel Regresse automatisiert erkennen, Betrugsprüfungen noch besser machen als vorher, also Plausibilitätsprüfungen und im Input-Management priorisieren und Informationen anreichern, halt die Informationen noch besser zu steuern. Das ist ein Riesenbereich oder die zwei Bereiche sind auf jeden Fall besonders spannend, aber auch die Kundenschnittstelle, jetzt mal weg vom Inputmanagement, also das Bedienen verschiedener Kanäle, das individuelle Bedienen verschiedener Kanäle vor allem und das Thema Next-Best-Action, also die letztendlich auch die gesamte Customer-Journey, die wir da betrachten können. Das sind alles Themen, die wir mit generativer KI unterstützen können. Und ein Bereich, der vielleicht so ein bisschen hinten dran fällt, ist das Thema Projektmanagement. Ich zum Beispiel habe einen Bot gebaut, in dem man Ideen für Projekte, Produkte einspielen kann und der einem dann die Fragen stellt, die notwendig sind, Projekte in User-Stories zu unterteilen oder in Epics zu unterteilen, wie wir das im Projektmanagement kennen. Das ist einfach ein Thema, was sehr viel Kommunikation bedarf, sehr viel Koordination bedarf, wo uns generative KI in Zukunft sehr gut unterstützen kann oder auch heute schon. Wo kann KI denn aus deiner Sicht bereits jetzt einen Mehrwert darstellen? Was hast du denn an konkreten Use Cases gesehen, die diesen Produktivitätssprung auch tatsächlich oder annähernd hinbekommen? Ja, also generative KI bereits jetzt effektiv einzusetzen, würde ich die Rolle von KI jetzt gerade aktuell nochmal so ein bisschen definieren und zwar sind wir da gerade aus meiner Sicht mit der Entwicklung von KI an einem Punkt, an der sie als eine Art Assistenzsystem gesehen werden kann, also ein System, das die Arbeit des Menschen unterstützt, aber nicht ersetzt. Das ist vielleicht, Das ist womöglich Zukunftsmusik. Jetzt gerade besteht aber die Möglichkeit, dass man, wir haben jetzt eben über Schadenmanagement gesprochen, beispielsweise einer KI die Schadenfälle geben kann und die KI in diesen Schadenfällen, sei es jetzt textuell oder mit Bildern versehen, letztendlich Plausibilitäten prüfen kann, Regressmöglichkeiten identifizieren kann, das habe ich eben schon gesagt, oder andere relevante Aspekte prüfen kann. Am ende überlässt die KI dann den Menschen aber die Entscheidung was er oder sie daraus macht und das ist so der Punkt an dem wir gerade sind genauso kann man es auch im Kontext der Kundenschnittstelle betrachten Also wenn wir jetzt so ein typisches Projekt im generativen KI-Umfeld uns betrachten, dann ist es letztendlich die Beantwortung von Fragen auf Basis eines Informationsbestands. Das hört sich jetzt schwerer an, als es ist. Letztlich gibt es natürlich viele Support-Anfragen aus dem Kundenservice, die darauf abzielen, Fragen zu vertraglichen Geschichten zu stellen, zu Abläufen und das sind alles Daten, die ja verfügbar sind, auch technisch verfügbar sind und die gerade Menschen quasi händisch beantworten müssen, aber die ein Assistenzsystem natürlich auch übernehmen kann. Und das Tolle an solchen Assistenzsystemen ist, dass sie beliebig auszuweiten sind. Also wenn man merkt, dass sie besser werden, dass sie das, was sie können, sollen, bereits gut können, kann man ihnen Stück für Stück mehr Verantwortung geben oder halt reglementieren, je nachdem. Und das ist das Schöne, wenn man das als Assistenzsystem betrachtet und nicht als Automatisierungssystem. Ja, das ist spannend. Wie früher im Schach, zumindest früher vor AlphaZero, war die Kombination aus Mensch und Computer stärker als der Computer alleine. Genau, das kann womöglich auch eine Entwicklung sein. Also wo das dann zukünftig hingeht, an welchen Stellen wir dann womöglich auch ersetzt werden, ist natürlich dann eine andere Frage. Ja, total. Aber wie du sagst, das wird sich zeigen, zumal die LLMs ja mit bestimmten Dingen auch nach wie vor ihre nicht irrelevanten Probleme haben. Andererseits gibt es ja alle möglichen Gerüchte, was bei Open AI im Moment passiert, als nächste Innovationsstufe, da bin ich dann auch mal gespannt. Was findest du denn, wenn wir jetzt gerade von der Entwicklung reden, was findest du denn an Entwicklungen in Sachen KI im Moment am spannendsten? Ja, ich habe mir tatsächlich schon mal Gedanken gemacht, was so auch im letzten Jahr passiert ist. Da waren ja schon echt ein paar Riesensprünge dabei und was wir jetzt für 2024 erwarten können, wenn man weiß, dass die Unternehmen bereit sind auch in die Technologie zu investieren. Das heißt eigentlich müsste man ja noch einen größeren Sprung erwarten. Was ich aber besonders spannend finde jetzt für dieses Jahr, was ich sehr sehr verfolge, ist das Thema Multimodalität, also dass Sprachmodelle nicht nur Texte verstehen, sondern eigentlich verschiedene Formate an Informationen aufnehmen können und sie weiterverarbeiten können. Und Das macht sie dann entsprechend menschlicher und wir können sie dann für verschiedene Use Cases noch einsetzen. Das ist auf jeden Fall ein Thema, was ich sehr spannend finde für das Jahr jetzt. Genauso wie die Verkleinerung von Modellen. Das ist ja auch gerade so ein Trend, dass Anbieter vor allem im Open-Source-Bereich versuchen, Modelle kleiner zu machen, dass sie effizienter sind, sowohl im Betrieb als auch im Training. Das heißt, dass wir sie leichter spezialisieren können und vielleicht am Ende viele kleine Modelle haben, die für spezielle Aufgaben gedacht sind und diese dann orchestrieren über ein großes Modell zum Beispiel wie jetzt JGPT. Was auch ein besonders interessanter Trend ist. Open Source hatte ich gerade schon erwähnt, aber dass die Open-Source-Modelle grundsätzlich stärker werden und immer mehr an das rankommen, was wir also als Golden Standard sehen. Und Versicherer, die natürlich darauf bedacht sind Kontrolle über die Daten zu haben, dass die halt solche Modelle einsetzen können und selber hosten können in ihrer eigenen Infrastruktur und das macht dieses Thema natürlich besonders interessant auch für die Versicherungswirtschaft. Ja, das ist total spannend, finde ich auch. Ich finde auch interessant, dieses Thema mit, es wird viel Geld rein investiert und es werden jetzt sicherlich sozusagen weitere Entwicklungsstufen, würde es geben. Allerdings habe ich auch den Eindruck, wenn ich so die Evolution sehe, beispielsweise bei OpenAI sieht man das ja gut, GPT-3, 3.54, was das sozusagen jeweils mehr kann, das kann definitiv mehr, aber in den verschiedenen Benchmarks und Tests ist es jetzt ja nicht so, dass die Scores in Anführungszeichen sich verdoppeln, sondern dass es so gefühlt auch, ähnlich wie bei allen anderen AI-Tätigkeiten, so ein bisschen in einen langsam abfallenden Grenznutzen des Mehrinvestments fällt, bis dann vielleicht der nächste Technologiesprung kommt, wo ich vor allen Dingen interessiert oder wo ich mich frage, ob es da irgendwas geben wird, ist, die LLM sind ja im Moment noch nicht immer unbedingt so gut geeignet, logische Schlussfolgerungen zu machen, ob das sozusagen ein Schritt ist, der vielleicht als nächstes kommt. Da bin ich mal sehr gespannt, also logische Präzision. Andererseits gibt es ja speziell darauf trainierte AIs und vielleicht kommt das dann auch zusammen. Wenn du jetzt sagst für einen Versicherer, also kleinere Modelle, Nanomodelle ist ja auch so ein Stichwort, was im Moment viel genannt wird, Multimodalität, Open-Source-Einsatz. Was ist denn aus deiner Sicht wichtig bei der Einführung von KI? Ja, grundsätzlich gibt es natürlich sehr sehr viele Dinge, die man beachten sollte, vor allem als Unternehmen. Die wichtigste Frage, die Kernfrage, die sich ein Versicherer oder ein Unternehmen im Versicherungsbereich stellen sollte. Welche Rolle sollte KI denn spielen? Welches Ziel verfolgt man damit? Soll es jetzt eine ganzheitliche Lösung sein, die in alle Bereiche reingeht oder denken wir bei KI Use Case basiert. Das hat natürlich Implikationen auf die Ressourcen und auf die Organisation des ganzen Themas. Was man aber als Unternehmen auf jeden Fall machen sollte, ist ein internes Regelwerk aufzustellen. Das heißt, wir definieren einmal, wie tiefgreifend soll KI denn bei uns im Unternehmen verwendet werden. Gerade im Versicherungsumfeld in so einem sensiblen Kontext ist es wichtig, ethische Themen im Hinterkopf zu behalten. Auch Themen, die auf Verantwortung abzielen, Also dass man weiterhin die Verantwortung behält für das, was man tut. Und das kann natürlich schnell verschwimmen, wenn wir dann über generative KI sprechen und diese auch einsetzen. Und dann geht es natürlich irgendwann die Ressourcen, also fachlich, organisatorisch, technische Ressourcen, die einfach für das Thema freigemacht werden müssen, halt ins Doing zu gehen. Und beim Doing, das ist dann so mein Thema, wo ich dann aufgehe, ist es auf jeden Fall sinnvoll und wichtig, ein Leuchtturmprojekt zu haben. Also ein Projekt, auch so ein bisschen die Erwartungshaltung an die Technologie zu harmonisieren, nenne ich das immer gerne, dass wirklich so alle wissen, okay, wo steht die Technologie gerade, wo können wir sie wirklich einsetzen und in diesem Leuchtturmprojekt sollte auch jeder Mitarbeiter, jede Mitarbeiterin verstehen, worum es da geht, also auch den offensichtlichen Benefit dessen irgendwie verstehen, damit man für dieses Thema Fans gewinnen kann und so eine Eigendynamik erzeugen kann. Weil wenn das so weit ist, dann kann diese Eigendynamik im Prinzip von einem zentralen Element gesteuert werden, die so ein bisschen diese organisatorischen Rahmenelemente im Blick haben, wie neue Anforderungen, die durch diese Art von Projekten einfach entstehen, sowohl was das Testen angeht, weil du hast ja auch eben gesagt, so ein bisschen dieses Logische fehlt den Sprachmodellen, also auch die Konsistenz in den Antworten, die ist ja nicht immer gleich und da muss man schon gucken, dass man da irgendwie ein Qualitätslevel immer hinbekommt. Dann natürlich die Datenqualität, also wenn wir über KI reden, reden wir auch über Daten, das muss man in dem Kontext natürlich immer im Kopf haben und natürlich ein ganz wichtiges Thema und da sind wir im Bereich Versicherung natürlich an der richtigen Stelle regulatorische Themen. Also Da muss ich sagen, mache ich mir am wenigsten Sorgen, dass die Versicherer das hinkriegen, weil das ist auf der Agenda sowieso immer ganz weit oben. Aber genau, zusammengefasst sind das so die Punkte. Ja und Die regulatorische Komplexität nimmt natürlich zu, weil je mehr AI von der Spielwiese kommt, desto genauer schaut beispielsweise eine BaFin hin einerseits und andererseits haben wir jetzt den EU-AI-Act, der für alle Branchen das Thema AI reguliert, aber gerade in Versicherungen hast du halt dann oft mit Themen zu tun, die in einer hohen Risikostufe laufen. Insofern sehr spannend. Wir haben jetzt dazu gesprochen, was ist eigentlich wichtig bei einer Einführung? Wie blickst du denn drauf, auch so aus der Erfahrung, so ein klassisches Versicherungsunternehmen braucht es ein riesiges Einführungsprojekt oder können auch mit kleinen, du hast es vorhin Leuchtturmprojekten, Quick-Wins für Versicherer erzielt werden, wie würdest du es generell angehen? Ja, also ich bin ein riesen Fan von Quick-Wins, weil das heißt immer, es wird was umgesetzt, passiert was und wenn was passiert, dann kann man auch viel besser bewerten, wo die Reise vielleicht hingeht und es gibt Möglichkeiten mit Quick-Wins quasi das ganze Thema auch anzugehen. Vielleicht bevor man geschäftskritische Prozesse anfasst, ist es vielleicht sinnvoll, vielleicht mal interne mit einer internen KI-Lösung zum Beispiel anzufangen. Als Beispiel und so ein Projekt habe ich schon mit begleitet, könnte man eine Personalabteilung dabei unterstützen, einen Assistenten zu bauen, der dann Fragen zu Reiserichtlinien, Mitarbeiterbenefits und sonst was beantwortet, Also letztendlich auf Basis von Dokumenten antwortet, die sowieso da sind, so ein bisschen die Personalabteilung entlastet und jeder schon mal so ein bisschen Berührungspunkte mit dem Thema bekommt. Ein weiteres Beispiel, da habe ich tatsächlich, das ist eines meiner Themen aus der Bachelorarbeit gewesen, könnte man auch ein Assistenzsystem bauen, was Regulatorik Mitarbeitenden hilft, Fragen zum Solvency-2-Regelwerk zu beantworten, also auch was, was durchaus relevant ist. Also etwas, was irgendwie jeder versteht, wo viele den Benefit von haben und wo man so ein bisschen langsam an das Thema herangeführt wird, ohne jetzt zu sagen, okay, wir bauen das in unsere Bestandssysteme ein und gucken mal, was da so bei rumkommt. Sehr spannend. Wie entwickelt ihr das denn dann eigentlich, wenn ihr unterstützt? Was für Standard-Tools verwendet ihr? Was für Methoden verwendet ihr? Also in einem klassischen Projekt, sag ich mal, was so KI angeht, das kann man sich vorstellen wie ein Softwareprojekt am Ende. Das ist nicht anders als ein klassisches Softwareprojekt und gehen wir mal davon aus, dass jetzt das Ressourcenthema, die Stakeholderanalyse und so weiter alles gelaufen ist, dann fängt man natürlich bei dem Thema Daten an. Also schaut man im ersten Schritt, sind die Daten in ausreichender Qualität verfügbar, den Use Case so anzugehen, wie wir ihn gerade im Kopf haben. Sind die Daten schnell genug abrufbar? Und dann sind wir halt schnell so im Trial-and-Error-Modus. Also ich glaube, jeder, der schon mal Chat-QBT benutzt hat, hat auch schnell gemerkt, man muss so ein bisschen gucken, wie man so dieses Sprachmodell triggert an der richtigen Stelle halt die richtige Antwort zu bekommen und am Ende ist das ganz viel Trial and Error und du hast jetzt noch Tools gefragt also klassischerweise wird dann auf die GPT-Modelle zurückgegriffen die quasi im Hintergrund laufen wenn man so Chat-GPT benutzt Also das ist schon state of the art gerade, aber wir haben auch eben schon über Open Source gesprochen. Auch da habe ich schon Projekte mit begleitet, die auf solche Technologien zurückgegriffen haben und alles andere drumherum ist ein klassisches Softwareprojekt. Also der Modus, den wir kennen aus einem agilen Softwareumfeld. Der einzige Unterschied, der dann halt nochmal relevant wird Im zweiten Schritt ist dann das Thema Testing. Das hatte ich eben schon angesprochen. Da muss halt darauf geachtet werden, dass die Ergebnisse so konsistent sind, dass man sagt, okay, jetzt kann man wirklich mal sich trauen, auch das GPT-Modell auf die Leute loszulassen. Super, dann lass uns doch jetzt nochmal vielleicht auch auf dich persönlich gucken, dein Lieblings-Use-Case und was sind vielleicht auch Tools, die dich begeistern, die du nicht unbedingt selber entwickelt hast, aber für die Entwicklung nutzt oder auch einfach sagst, das AI-Tool, das hat mich total vom Hocker gehauen. Ja, also wenn ich jetzt anfangen würde, alles, was mich begeistert, hier aufzuzählen, Julius, ich glaube, dann wird das ein bisschen länger dauern. Dann machen wir die Top 3, die Top 3 reichen ja. Also vom Use Case tatsächlich, wenn ich jetzt nur auf die Versicherungsbranche gucke, dann ist das, was ich eben erzählt habe, so zum Thema Assistenzsysteme schon das Spannendste. Also die KI quasi als Element in die Systeme zu bringen, die den Menschen dabei unterstützt, die Aufgabe besser und schneller hinzukriegen. Und das sowohl in der Kundenschnittstelle, wir hatten es eben Next Best Action, oder im Schadenmanagement wirklich den Schadensachbearbeitern, die Schadensachbearbeiterinnen zu unterstützen. Und was so Tools angeht, das ist eine gute Frage. Also Chat-GPT ist tatsächlich so 90 Prozent von den KI-Tools, die ich benutze, weil Chat-GPT eigentlich alles mitbringt, was ich brauche. Auch jetzt für den Podcast zum Beispiel in der Vorbereitung hilft es total, Inspiration von Chat-GPT zum Beispiel zu bekommen. Also das ist wirklich im täglichen Alltag schon mit drin. Und ansonsten kann man sich ja auch für die Leute, die es mitverfolgt haben, ja auch eigene GPTs bauen, also kleine in Anführungsstrichen Modelle, die einen dann bei bestimmten Aufgaben unterstützen. So habe ich mir dann halt zum Beispiel dieses Anforderungs-Erhebungstool gebaut, was ich dann auch relativ häufig einsetze. Also da dreht sich eigentlich alles Chat-GPT. Auf der anderen Seite finde ich aber auch richtig cool, was im Bereich Video passiert. Also Text-Video oder Video-Video, Foto-Video, also alles was Videos generiert, weil das auch unsere ganze Entertainmentlandschaft verändern könnte. Da bin ich auch mal sehr gespannt, was da jetzt in den nächsten Jahren passiert. Jetzt, wenn wir noch eine Ebene höher fliegen und du sag mal, stehst jetzt einem Versicherungsvorstand gegenüber, der tech-affin ist und sagt, ja, was soll ich denn jetzt machen, so ganz konkret? Montag bin ich wieder in der Firma, was soll ich tun? Was würdest du dem empfehlen? Ja, das ist tatsächlich, das kann man zurückführen auf das, was ich eben gesagt habe, Dinge ausprobieren. Also ich glaube, es ist schwierig, jemanden zu erklären, der nicht tagtäglich mit Chat-GPT zu tun hat, was KI eigentlich bedeuten kann. Wenn man aber mit einem Leuchtturmprojekt startet, wo sowohl der Vorstand als auch die Belegschaft im Prinzip sieht, was diese Technologie eigentlich imstande ist zu tun, dann ist es glaube ich, dann ist die Basis glaube ich geschaffen dafür, darauf jetzt auch mal weiterzudenken und womöglich eine Strategie zu formulieren. Wunderbar. Ich glaube wir haben viel gesehen, ich zumindest heute wieder viel gelernt, was es an konkreten Ansatzpunkten gibt. Ich verfolge dich ja tatsächlich auch auf LinkedIn und sehe da auch, wenn du für eine Testphase einlädst für dein Projekt, Tool etc. Ich habe das selber auch schon ausprobiert, kann ich allen Zuhörern und Zuhörern nur empfehlen, aber wenn jetzt jemand sagt, hey ich würde mich gerne mal mit dem Torben austauschen, will mehr zu dem Thema erfahren, wo findet man dich denn am besten? Am besten auf LinkedIn, so wie du es gesagt hast, Julius. Da treibe ich mich gerne rum und erzähle und zeige auch gerne das, was ich tue und bin natürlich auch offen, mit jedem auch darüber zu sprechen. Also ich freue mich auf jede Kontaktaufnahme. Super, dann herzlichen Dank Torben. Ich denke, es wird nicht das letzte Mal sein, dass du hier bei uns im Podcast bist. Wir verfolgen auf jeden Fall dreifach AI, freuen uns auf die Entwicklung und wünschen dir jetzt erstmal einen schönen Restnachmittag und wir hören uns.