Insurance Monday: Digitalisierung & Versicherung
Willkommen zum #1 Podcast der Versicherungsbranche. Erhalte alle 2 Wochen spannende News und Interviews mit CEOs, Startups und Expert:innen aus der Branche.
Denn noch nie waren die Veränderungen der Digitalisierung so stark zu spüren. Banken und Versicherungen müssen sich mit Themen wie digitale Transformation, New Work, Disruption, Plattformen, InsurTechs und digitalen Geschäftsmodellen auseinandersetzen.
Mit Insurance Monday haben wir es uns zur persönlichen Aufgabe gemacht, alles Wissenswerte aus der Branche auf eine informative und unterhaltsame Art zu vermitteln. Unsere Hörer:innen profitieren von den Learnings und Tools erfolgreicher und inspiriender Macher:innen.
Unseren Abonnenten gefällt auch digital kompakt (Joel Kaczmarek), Doppelgänger Technik Talk (Philipp Glöckler, Philipp Klöckner), OMR (Philipp Westermeyer), Handelsblatt Disrupt, Finanzfluss, Gemischtes Hack (Felix Lobrecht) und Lanz & Precht.
Insurance Monday: Digitalisierung & Versicherung
Angriff auf KI-Systeme: Herausforderungen und Lösungen für Versicherer
Heute haben wir eine besonders spannende Episode von unserem Format Insurance Monday für euch, in der Alexander Bernert den renommierten Cyber-Sicherheits-Experten und CEO von asvin, Mirko Ross, begrüßt.
In dieser Folge gehen wir tief in die Welt der Künstlichen Intelligenz und deren Rolle in der Versicherungsbranche ein. Mirko Ross erläutert die Möglichkeiten und Risiken der automatischen Bearbeitung durch KI, einschließlich der potenziellen Angriffsgefahren durch schädliche Muster in Bildern und automatisierte Spam-Systeme. Wir diskutieren die Herausforderungen der Skalierung und die Notwendigkeit präventiver Maßnahmen zum Schutz vor solchen Angriffen.
Ebenfalls beleuchten wir die Parallelen zur Cyber-Security und die Bedeutung eines ausgeprägten Risikobewusstseins. Erfahren Sie, wie Versicherer sich vor diesen Gefahren schützen können und welche Rolle KI in der Zukunft der Branche spielen wird.
Bleibt dran und hört mit, wenn wir mit Mirko Ross über die komplexe Welt der KI-Sicherheit sprechen und wie Unternehmen sich gegen die ständig wachsenden Bedrohungen wappnen können. Los geht's!
Schreibt uns gerne eine Nachricht!
Sichere Dir Dein Ticket zur InsureNXT und spare 10% mit dem Rabattcode "insurancemonday"!
Folge uns auf unserer LinkedIn Unternehmensseite für weitere spannende Updates.
Unsere Website: https://www.insurancemondaypodcast.de/
Du möchtest Gast beim Insurance Monday Podcast sein? Schreibe uns unter info@insurancemondaypodcast.de und wir melden uns umgehend bei Dir.
Dieser Podcast wird von dean productions produziert.
Vielen Dank, dass Du unseren Podcast hörst!
Mirko Ross [00:00:00]:
Hallo und
Alexander Bernert [00:00:27]:
Herzlich willkommen zum Insurance Monday Podcast. Künstliche Intelligenz. Wir haben hier bei Insurance Monday schon viel über die Chancen durch neue Use Cases von KI für die Versicherungsindustrie gesprochen. Heute soll es einmal Risiken gehen und zwar Risiken, die durch Angriffe auf KI entstehen können. Worauf müssen sich Versicherer einstellen, sei es als Nutzer von KI oder als Versicherer von Cyberrisiken? Und damit möchten wir unseren heutigen Gast Mirko Ross, CEO von Aswin, einem Experten auf diesem Themenfeld herzlich begrüßen. Willkommen Mirko. Ich bin Alexander aus dem Insurance Monday Team und wir machen heute ein Kamingespräch. Und lieber Mirko, bevor wir inhaltlich starten, stell dich und Aswin doch bitte einmal kurz vor.
Mirko Ross [00:01:13]:
Ja, mein Name ist Mirko Was, Ich bin Gründer und Geschäftsführer der ASFIN in Stuttgart. Wir sind ein Cyber Security Unternehmen, international aufgestellt mit Kollegen hier in Deutschland, aber auch in den USA, am MIT. Und wir kümmern uns vorwiegend Themen rund kritische Infrastrukturen und Finance, Cybersecurity und da zählt KI auch dazu und im Wesentlichen vielleicht, unser Spaßfaktor ist es dann KI kaputt zu machen, zu hacken, zu schauen, wie können wir KI dazu bewegen, das zu machen, was wir wollen als Angreifer und nicht das, wofür sie vielleicht gebaut wurde. Und damit sind wir eigentlich schon mitten im Thema.
Alexander Bernert [00:01:57]:
Absolut. Damit unsere Zuhörerinnen und Zuhörer dich noch persönlich ein bisschen besser kennenlernen können. Noch ein paar Fragen vorab. Unsere schnellen fünf, die wir in unseren Podcasts immer haben. Sommer oder Winter?
Mirko Ross [00:02:11]:
Das hängt von meiner eigenen Laune ab. Ich kann mit Beinen ganz gut.
Alexander Bernert [00:02:15]:
Abenteuerurlaub oder Entspannungsurlaub?
Mirko Ross [00:02:19]:
Na, ich bin mehr der Abenteuertyp.
Alexander Bernert [00:02:21]:
IOS oder Android?
Mirko Ross [00:02:24]:
IOS.
Alexander Bernert [00:02:26]:
Schnelle Entscheidungen oder durchdachte Strategien?
Mirko Ross [00:02:30]:
Hängt auch wieder ein bisschen davon ab, was es geht. Ich kann mich schnell entscheiden, ich kann aber auch sehr strategisch mich aufstellen.
Alexander Bernert [00:02:37]:
Schwarze oder weiße Mützen?
Mirko Ross [00:02:40]:
Schwarz.
Alexander Bernert [00:02:42]:
Ja, das passt ja zum Thema. Stichwort Black Hat, White Hat. Wie ist denn dein Blick auf die Risikolandschaft in Bezug auf KI? Was droht Unternehmen denn, die das einsetzen, wenn du das mal grob sortierst?
Mirko Ross [00:02:59]:
Ja, ich möchte mal von vorne weg schicken, dass Cyber-Sicherheit und die Leute, die uns mit Cyber-Sicherheit beschäftigen, sind ja immer ein bisschen die Spaßbremsen. Zuerst finde ich es natürlich unheimlich wichtig, dass Unternehmen sich mit KI beschäftigen und auch KI umsetzen und ihre Erfahrungen mit KI machen. Das ist sehr wichtig für Unternehmen, die sich zukunftssicher aufstellen wollen, insbesondere natürlich auch im Finance und in der Insurance-Branche. Also kein Zweifel daran, es zu machen. Und jetzt kommt aber das Wichtige. So jetzt kommt die Spaß-Präsentation ein bisschen. Wenn ihr es macht, Dann müsst ihr halt auch bedenken, dass ihr es so macht, dass ihr euch da nicht selber als Unternehmen in irgendeiner Form eine Gefahr aussetzt oder eure Benutzer eine Gefahr aussetzt. Das sind eigentlich so die wesentlichen Themen, die es uns immer geht.
Mirko Ross [00:03:43]:
Und was bedeutet Gefahr? In dem Fall, naja, was ist, wenn ich über KI-Systeme vielleicht personenbezogene Daten geschickterweise extrahieren kann, wo man doch eigentlich sonst sehr viel Wert darauf legt, solche Daten zu schützen und dann plaudert der Chatbot es vielleicht einfach so heraus, wenn ich ihn geschickt frage. Das wäre natürlich doof. Insbesondere, weil natürlich da auch der Schaden sehr groß sein kann für diejenigen, die betroffen sind und für die Unternehmen. Ein Beispiel. Weiteres Beispiel wäre natürlich, was kann ich machen, indem ich über KI vielleicht bestimmte Finanztransaktionen lenken kann oder Finanztransaktionen auslösen kann. Das wäre sicherlich auch nicht so schön. Und last but not least die Sabotage. Wir befinden uns ja in schwierigen Zeiten und Es gibt durchaus Player, die Interesse daran haben, einfach Unternehmen zu schädigen, aus ganz unterschiedlichen Motiven.
Mirko Ross [00:04:35]:
Und was ist, wenn der Angriff über das KI-System ausgeführt werden kann, und der Schaden halt so enorm ist, weil ich meine Services vielleicht abschalten muss oder Services nicht aufrechterhalten kann, und ich dann tatsächlich als Unternehmen finanzielle Einbußen habe. Das sind eigentlich so die drei Aspekte, die man da betrachten muss.
Alexander Bernert [00:04:54]:
Das klingt jetzt für mich ein bisschen nach Themen, die vor allen Dingen dann passieren, wenn ich KI sozusagen nach außen einsetze. Oder ist das auch ein Thema, wenn ich KI nur sozusagen intern einsetze?
Mirko Ross [00:05:06]:
Nein, das thema datenschutz spielt bei ki intern auch da ist eine rolle also wir müssen auch vorstellen woher kommen angreifer also klassischerweise ich sitze jetzt heute auch im schwarzen Hoodie da. Das klassische Bild des Hackers mit seinem schwarzen Hoodie alleine vor dem Rechner. Wir sehen aber natürlich verschiedene Angriffstypen. Das eine sind die staatlich motivierten Angreifer, also Nachrichtentester beispielsweise. Das sind große Organisationen, die mit sehr viel Intelligenz und Power und Infrastruktur Angriffe ausrichten können. Dann haben wir den Innenangriff. Das ist der Täter von innen, der vielleicht, stellen wir uns mal Versicherungsbranche vor, da gibt es halt durchaus sehr viele hochrelevante Daten, die von Interesse sind. Und was ist, wenn der Täter eben diese Daten abgreifen kann? Kundendaten beispielsweise von Versicherten.
Mirko Ross [00:05:54]:
Und er macht das, indem er das KI-System manipuliert hat, dass die internen Prozesse machen soll. Und daraus alle klassischen Schutzmechanismen des Datenschutzes intern aushebeln kann. Das wäre natürlich Last but not least, das letzte wäre vielleicht das KI-System, das nach außen gerichtet ist. Klassische Chatbots, wie wir sie kennen, so coole Chatbots, die dann viele Leute für viele Motivationen auch vielleicht missbräuchlich nutzen können.
Alexander Bernert [00:06:23]:
Kannst du denn diese Risiken so mit konkreten Beispielen griffiger machen? Vielleicht sogar aus der Versicherung. Was ist schon passiert?
Mirko Ross [00:06:34]:
Ja, also wir sehen verschiedene Formen von Angriffen. Also das eine wäre tatsächlich, das ist ein sehr einfaches Beispiel, nehmen wir uns Chatbots, die ja sehr oft, wo man sagt, oh, wo liegt denn da der eigentliche Wert? Der eigentliche Wert liegt ja im Kundencenter, Kundenservice, den ich optimieren möchte und dort meine Ressourcen vielleicht optimieren muss, weil das sind ja schon immer schwierige Themen, die nicht wirklich skalieren, aber mit KI kann ich die skalierbar machen. Es gibt eben sogenannte Prompt Injection Angriffe, das heißt ich mache spezifische Eingaben über den Chatbot, die eben nicht der eigentlichen Intention dienen, nämlich die Kundenanfrage zu machen, sondern die dazu dienen, das System zu manipulieren. Da gibt es durchaus sehr interessante Prompt Injection Angriffe, die darauf abzielen, Fail-Konfigurationen in den Chatbots herauszufinden. Also ein Chatbot muss konfiguriert werden und der hat auch Sicherheitskonfigurationen Und wie man eben weiß, schon im klassischen IT ist Konfiguration immer etwas, was sehr schwierig ist. Da passieren sehr viele Fehler. Das Gleiche sehen wir auch bei den Chatbots. Fehlkonfiguration, unzureichende Konfiguration, kleine Fehler, die die Entwickler gemacht haben.
Mirko Ross [00:07:47]:
Die kann ich über Eingabe von sogenannten Prompt Injection Angriffe versuchen herauszubekommen. Also wo liegen diese Fehler? Und wenn ich so einen Fehler gefunden habe, kann ich zum Beispiel komplette Kundendaten über den Chatbot ausgeben lassen. Das ist schon dramatisch.
Alexander Bernert [00:08:05]:
Ja, Daten ist das eine und gegebenenfalls kann ich ja dann vielleicht sogar versuchen, es gibt ja diesen Fall von dem Chatbot, der ein Auto für einen Dollar verkauft hat, in dem man dafür überwältigt wurde.
Mirko Ross [00:08:19]:
Genau. Das sehen wir vielleicht auch im internen Prozessen, also halt Themen, wo man sagt, okay, wo wird denn KI auch als Hoffnungsträger gesehen? Beispielsweise bei der automatischen Bearbeitung von E-Mails. Also ich habe ein E-Mail-Postfach, wurde abgearbeitet, dann auch schon automatische Antworten vorbereitet. Es gibt HTC-Angriffe, die sagen, okay, darüber kann ich als Angreifer auch ein automatisiertes Spam-System aufbauen. Also ich schreibe quasi spezifische E-Mails, sende die rein, das KI-System wird damit trainiert und eigentlich was wir damit trainieren, ist ein KI-System des Spam-E-Mails verfasst. In dem Fall auch mit der Intention gleich auch wieder schädliche Nachrichten drin zu haben, sodass dieses Training auch bei anderen Zielsystemen dann greift und dann setzt sich das quasi wie so ein Wurm fort. Sehr gruselig. Und das funktioniert.
Alexander Bernert [00:09:10]:
Jetzt sind das ja, sag ich mal, Themen in Bezug auf Large Language Models, so verstehe ich das. Jetzt gibt es ja auch noch andere Anwendungen von KI, beispielsweise Klassifikationen von Fotos oder ähnlichem. Auswertungen, solche Geschichten, Sensordaten, da gibt es ja eine unglaubliche Fülle an Dingen, gerade bei Versicherern, die ja sehr viel mit Daten arbeiten, siehst du da auch Risiken, dass man sozusagen diese so eine KI aushebeln kann?
Mirko Ross [00:09:43]:
Ja, auch da gibt es wunderbare Angriffspunkte, quasi für uns als Sicht derjenigen, die KI-Systeme angreifen. Also nehmen wir mal ein klassisches Beispiel, jetzt vielleicht mal die Schadensmeldung. Jemand schickt die Schadensmeldung per E-Mail ins Unternehmen rein. Schadensmeldungen sind ja auf jeden Fall KFZ-Sachschäden oder Glasbruch. Das sind also klassische Versicherungsschäden, die Massenverarbeitung erfordern. Und ich kann zum Beispiel in ein Bild von so einer Schadensmeldung ein schädliches Muster einbauen, das dazu führt, dass das entsprechende KI-System, das dann dieses Bild analysiert, da eine Schadensmeldung zu klassifizieren, dass das eine Fehlklassifikation macht.
Alexander Bernert [00:10:30]:
Also etwas, was kein Schaden ist, als Schaden klassifiziert. Genau.
Mirko Ross [00:10:34]:
Und natürlich kann ich damit sagen, ich kann auch als Entgreifersicht natürlich den Versicherungsbetrug optimieren. Ja. Solche Schadensmeldungen natürlich auch automatisiert generieren lassen kann, indem ich Einfluss nehmen kann auf das KI-System, das die Schadensmeldung beim Versicherer auswertet. Und das sind natürlich ganz viele unterschiedliche Szenarien denkbar. Das eine ist natürlich, dass man eine Fake-Klassifikation erzeugt, die eben sagt, was vielleicht normalerweise nicht als Schaden normal klassifiziert wurde, dass es eben durch dieses Klassifizierungssystem durchrutscht und dann als positive Schadensmeldung verarbeitet wird. Dadurch entsteht ein finanzieller Schaden beim Versicherer, in dem das Ganze dann halt automatisiert stattfindet. Besteht immer die Gefahr, dass, wenn solche Schwachstellen ausgenutzt werden, dass erstmal sehr viel Schaden aufläuft, bevor er bemerkt wird. Immer bei automatisierten Systemen.
Mirko Ross [00:11:34]:
Und last but not least natürlich, dass ich sagen kann, ich kann vielleicht auch Schadenssummen künstlich so hoch treiben, dass vielleicht was ein Bakkatell Schaden wäre, dann eben mit einer höheren Schadenssumme klassifiziert wird. Das sind eigentlich so die Themen, die da im Raum stehen.
Alexander Bernert [00:11:50]:
Jetzt sage ich mal, so was wie eine Schadenmeldung mit einem gefälschten Bild, da kann ja auch ein Mensch drauf reinfallen, also gegebenenfalls in einer anderen Weise. Es ist dann kein Störmuster, sondern sozusagen man hat ein Bild gefälscht. Wie ist denn da dein, also in gewissem Sinne, wie ist denn da dein Blick? Sind das sozusagen komplementäre Dinge? Sollte dann der Mensch drauf gucken? Was kann denn der Versicherer sinnvoll tun? Weil das klingt ja erst mal, okay, ich kann es über die Menschen machen, dann gibt es Fehler, ich kann es über die KI machen, dann gibt es andere Fehler. Wie gehe ich denn damit am geschicktesten
Mirko Ross [00:12:27]:
Ja, wir müssen uns halt schauen, warum wird KI in so einem Bereich eingesetzt? Also was ist quasi der Vorteil eines KI-Systems? Und der Vorteil des KI-Systems ist natürlich, dass man sagt, okay, menschliche Review dieser kann ich nur stichprobenartig machen. Warum? Weil Menschen halt schlecht skalieren. Und die Idee ist natürlich zu sagen, dass ich die Stichprobenmenge über KI natürlich auf alle Schadensmeldungen ausweiten kann, indem eben das KI-System die Sichtprüfung macht und damit gilt es quasi als approved und darin liegt die Schwierigkeit, solange das KI-System nicht angegriffen wird, mag dieser Proofrate, also dieses, ja, ist quasi eine valide Schadensmeldung über Automatisierung alles in Ordnung sein. Ich muss halt erst mal entdecken, dass das KI-System angegriffen wird. Und auch das ist nicht einfach, weil wenn ich mir nämlich dann so ein Bild von so einer manipulierten Schadensmeldung nehme, dann sieht das für den vielleicht für den menschlichen Betrachter gar nicht nach einer Manipulation aus, sondern auf quasi Bildpunkte manipuliert im Bild selber auf einem mathematischen Verfahren, auf das eben dann nur das KI-System greift und nicht irgendwie der Menschlehrbetrachter. Ähm, und die andere Frage ist, da muss ich auch wieder Stichproben machen, also ich muss irgendwie Auffälligkeiten finden. Und das kaliert ja auch wieder nicht. Also finde ich quasi diese Manipulationen dann wirklich, insbesondere wenn der Angreifer da auch sehr geschickt vorgeht, hätte ich meine Zweifel.
Mirko Ross [00:13:58]:
Also ich denke eine hohe Wahrscheinlichkeit, dass man da quasi Millionen Schäden erst mal auflaufen lassen kann, bevor sie dann sauber entdeckt werden.
Alexander Bernert [00:14:08]:
Und was kann denn ein Versicherer tun, da sozusagen präventiv tätig zu werden? Also sonst hat das ja so ein bisschen den Charakter von Wettlauf, wo der Angreifer eigentlich immer im Vorteil ist. Ich merke dann erst, dass ich angegriffen wurde, wenn Schäden aufgelaufen sind und dann habe ich ja im Zweifelsfall schon den Schaden eben gezahlt etc. Das heißt, da hänge ich immer hinterher. Was kann ich denn als Versicherer tun, damit mir das möglichst wenig passiert?
Mirko Ross [00:14:39]:
Ja, erstmal natürlich das klassische Problem, dass man immerhin dasselbe Sicherheit hat, ist immer Hase und Igel. Das heißt, wir überlegen uns in jeder Form Abwehrmechanismen und die Angreifer überlegen sich, okay, welche neuen Angriffsmechanismen gibt es, die diese Abwehrmechanismen dann umgehen können. Grundsätzlich muss ich nur sagen, mit der Entscheidung, etwas mit KI zu automatisieren, laufe ich auf jeden Fall in die Situation, dass ich mich Sicherheit kümmern muss. Also ich habe quasi diese Büchse der Pandora geöffnet. Aber das mache ich ja, weil ich in irgendeiner Form ein ökonomisches Problem oder ein organisatorisches Problem besser lösen kann. Also das ist mal die Abwägung, die man als Unternehmen macht, wenn man sagt, ich mache was mit KI. In dem Zuge muss ich mich darum kümmern, wie ich diese Systeme sicherer mache. Da bleibt keine Option offen.
Mirko Ross [00:15:30]:
Das ist halt wie, wenn ich einen Online-Shop betreibe, dann muss ich mich auch darum kümmern, dass ich diesen Online-Shop absichere oder andere KI-Systeme. Und jetzt ist die Frage, was kann man tun? Die gute Nachricht, auf diese beschriebenen Angriffe gibt es Möglichkeiten, was ich tun kann. Und das hängt einerseits damit zusammen, dass ich eben die Bilddaten zum Beispiel prüfen kann, die in so ein KI-System reinkommen und dass ich die eben zum Beispiel auf schadhafte Muster prüfe und dann Bilddaten speziell behandle, wenn ich verdacht habe, dass da ein schadhaftes Muster ist, oder eine Meldung mache, oder eine Erkennung mache. Also da gibt es verschiedene Wege, die wir mittlerweile auch gelernt haben, wie man solche Angriffe abwehren kann. Aber als erstes muss ich verstehen, dass es diese Angriffe gibt. Und das zweite, ich muss das Risikobewusstsein haben, dass ich mich davor schützen möchte, kann man eigentlich auch bei der Implementierung von solchen KI-Systemen die entsprechenden Abwehrmechanismen implementieren.
Alexander Bernert [00:16:33]:
Es klingt ein bisschen wie Immunsystem, aber es hat ja große Ähnlichkeit mit dem typischen Cyber Security Themen in gewissem Sinne, wie du sagst, das Wettrennen zwischen Hase und Igel und das Bewusstsein, dass Cyber Security etwas ist, worum ich mich kümmern muss. Wie ist denn dein Blick auf die Branche? Ist da das Bewusstsein für diese KI spezifischen Risiken da und können die Versicherer das? Wie steht das so aus deiner Sicht?
Mirko Ross [00:17:04]:
Naja, also erstmal Versicherer befinden sich in der Finance-Branche. Da gibt es bezüglich Cyber-Sicherheit jetzt auch noch zusätzliche Regularien, die greifen. Also das Amadora. Die wurden ja nicht ohne Grund eingeführt. Diese Regularien, die werden in der Regel immer dann eingeführt, wenn man als Gesetzgeber der Meinung ist, dass eine Branche nicht in der Lage ist, das Problem aus eigenem Antrieb besser zu lösen. So, jetzt kann man über Regularien natürlich streiten.
Alexander Bernert [00:17:35]:
Andere Sorte von Spaßbremsen sozusagen.
Mirko Ross [00:17:38]:
Aber grundsätzlich ist es so, Regularien werden meistens nur dann eingeführt, wenn man glaubt, dass der Markt das nicht selber optimal lösen kann und daraus vielleicht ein gesamtgesellschaftliches Problem entsteht in einer kritischen Industrie wie Finance. Und so müssen wir das eben hier auch sehen. Also was kann man tun? Also erstmal das Problem ist immer Risikobewusstsein. Leider sehen wir bei der Cyber-Sicherheit in der Regel kein Risikobewusstsein bevor etwas passiert, weil Cyber-Bedrohungen sind ein bisschen wie Radioaktivität. Also man spürt nicht, dass man angegriffen wird, sondern man spürt immer erst die Auswirkungen. Also bei der Radioaktivität fallen mir die Zähne und Haare aus. Dann ist es aber schon zu spät. Quasi das Vorsorgen in den Projekten ist etwas, was wichtig ist.
Mirko Ross [00:18:23]:
Deswegen für jedes, auch KI-Projekt, das man angehen sollte, sollte man immer ein Cyber-Sicherheits-Risk-Assessment machen. Also wirklich gucken mit Profis und wir sind zum Beispiel solche Profis, zu schauen, wo sind denn Angriffsflächen, wo sehen wir Angriffsflächen, was sind unsere Vorschläge, die Risiken aus diesen Angriffsflächen dann zu minimieren. Und dann kann man das ganze ins Projektmanagement mitnehmen in der Umsetzung und kann dann quasi diese Risikoliste abarbeiten. Und das ist auch unsere Empfehlung. Und dann wird man feststellen, ab einem Punkt gibt es halt Risiken, die man vielleicht gar nicht minimieren kann, die ergeben sich einfach aus der neuen Anwendung raus. Das ist auch wenn man diese Risiken kennt und wenn man festgelegt hat, wie geht man damit
Alexander Bernert [00:19:10]:
Wenn du jetzt den strategischen Blick in die Zukunft wagst, sozusagen in die Kristallkugel, Wie erwartest du denn, dass sich die Risikolandschaft dann insgesamt ändern wird und gegebenenfalls auch über die Versicherer hinaus? Weil wir haben das jetzt sehr stark in Bezug auf Versicherer besprochen, aber Versicherer versichern ja auch Cyberrisiken und insofern sind sie ja sozusagen nicht nur potenziell betroffen als Anwender von KI, sondern auch als explizit oder implizit Versicherer von KI-Sicherheit.
Mirko Ross [00:19:40]:
Richtig, die Branche hat ja hier ein Dual Use, quasi was KI anbelangt und Das ist eine sehr interessante Frage. Wir haben ja gesehen bei den Cyber Security Versicherungen, dass die frühen Polizen, die abgeschlossen wurden, sich für die Versicherer als Verlustgeschäft erliesen haben. Und dass man jetzt eigentlich erst lernt, okay, wie muss so eine Polize denn wirklich bepreist werden? Was sind quasi die Risikofaktoren selber für den Versicherer an der Stelle? Das ist lessons learned aus der Vergangenheit. Wenn wir uns Schäden Durch IT ansehen, dann gibt es ja auch schon enorme Schäden. Da ist immer die Frage, ist es nicht unbedingt immer ein Cyberangriff, sondern einfach, dass IT-Systeme quasi lahmgelegt werden durch bestimmte Fehler. Das sehen wir. Und wenn wir uns eben KI anschauen, dann ist es eine zusätzliche Komplexität. Und wir werden natürlich Schadensfälle sehen, die dadurch ausgelöst werden, dass KI-Systeme entweder angegriffen werden oder nur falsch konfiguriert sind.
Mirko Ross [00:20:43]:
Also dieses Schadensbild werden wir sehen. Und es wird eine interessante Frage sein, wie viel davon quasi von diesen Schäden, die dort auftreten, dann Versicherungsfälle sind, ja oder nein? Und welchen Einfluss die dann auch die Geschäftsmodelle quasi bei den Versicherern haben. Was mir besonders wichtig ist, nochmal zu betonen, ich meine, Finance ist natürlich ein sehr kritischer Teil unserer Ökonomie und man muss verstehen, es gibt eben nicht nur Angreifer, die finanzielle Interessen haben, sondern sich durch geänderte geopolitische Lagen wir natürlich auch sehen, dass diese Industrie auch natürlich durch andere Akteure im Fokus gerät. Mit Fragestellten, die man dort zum Beispiel sabotieren kann. Und das ist sicherlich nochmal eine neue Bedrohungssituation. Und durch KI erhöhen wir ein Stück weit halt auch die Angriffsoberfläche.
Alexander Bernert [00:21:36]:
Ja, das kann ich mir gut vorstellen und ich meine jetzt bei Finance kann man ja auch noch mal unterscheiden zwischen den verschiedenen Formen. Versicherer sind zumindestens, also wenn ich jetzt mal vielleicht von bestimmten Asset-Management-Ecken absehe, sind, sage ich mal, nicht super schnell transaktional. Wenn ich in das Transaction-Banking gucke oder wenn ich zum Beispiel in die Energieversorgung, Stromversorgung schaue, Da ist ja sozusagen ein Problem, breitet sich ja mit viel größerer Geschwindigkeit noch aus. Also ich kann Versicherer gegebenenfalls Schwierigkeiten machen, indem ich sehr viele Schäden sozusagen fake ihm anbringe. Oder die Kundenanfragen und Ähnliches werden schlechter bearbeitet oder das bricht zusammen. Aber das führt ja nicht unbedingt zum Zusammenbruch von großer Infrastruktur, allerdings möglicherweise zur Reduktion von Vertrauen in die Branche oder in den spezifischen Versicherer. Es gibt ja andere Ecken, wo sozusagen diese Risiken noch potenziell viel schlagender sein können.
Mirko Ross [00:22:42]:
Richtig, wir sehen ja mal diese Blackout-Szenarien, muss man sagen. Also ein Blackout-Szenario ist natürlich etwas, was zu einem unmittelbarer Dysfunktionalität unseres gesellschaftlichen Zusammenlebens führt, keine Frage. Und da sind die kritischen Infrastrukturen gefragt. Aber man darf nicht unterschätzen, Versicherung ist etwas, was auch in der breiten Masse der Bevölkerung jeden betrifft und mit hoher Wahrscheinlichkeit hat jeder irgendwo quasi auch mal einen Schadensfall. Das kennen wir selber. Stellen wir uns eine Welt vor, in der die Versicherungswirtschaft dysfunktional wird, weil eben solche Angriffe en masse ausgeführt werden, dann führt das schon zu einem sehr hohen Grad der Verunsicherung an der Stelle. Insofern ist die psychologische Wirkung neben dem quasi wirtschaftlichen Effekt dort nicht zu unterschätzen und das sind eigentlich auch die Effekte, auf die solche Angreifer dann aus dem staatlichen Umfeld, staatlich motivierte Angreifer natürlich auch abzielen.
Alexander Bernert [00:23:38]:
Ja, absolut und ich meine, es gibt ja ganz praktische Dinge. Wer würde sich ein Haus kaufen, wenn er es nicht gegen Feuer von mir aus versichern könnte. Kostet nicht viel, aber Versicherungen ermöglichten uns bestimmte Risiken einzugehen, bei denen wir andernfalls sehr überlegen würden.
Mirko Ross [00:24:00]:
Oder schauen wir uns die Kfz-Versicherung an.
Alexander Bernert [00:24:02]:
Absolut. Fahre ich mit 140 über die Autobahn, wenn ich weiß, jeder Unfall kann mich ruinieren sozusagen.
Mirko Ross [00:24:10]:
Oder ich kann keine Neuzulassungen mehr durchführen, weil die entsprechenden Nachweise der Kfz-Versicherung nicht funktionieren. Und damit hätte ich natürlich Effekte auf die gesamte Automobilwirtschaft. Also insofern im Sinne auch, wenn man es eben als Supply Chain Angriff sieht, als Angriff auf Lieferkette. Die Versicherungswirtschaft ist in vielen Fällen ein essentiell kritischer Bestandteil von Lieferketten, dass andere Branchen und Industrien ihre Geschäfte machen können. Insofern ist sie ein attraktives Ziel.
Alexander Bernert [00:24:43]:
Jetzt haben wir über KI gesprochen als Ziel von Angriffen. Jetzt kann man natürlich über KI auch sprechen als Werkzeug sowohl zur Durchführung von Angriffen als auch zur Abwehr von Angriffen. Wie ist denn da dein Blick drauf?
Mirko Ross [00:24:58]:
Ja, als Werkzeug zur Durchführung von Angriffe, das sehen wir sehr viel Potenzial, das auch gerade im Markt quasi von den Angreifern ausgeschöpft wird. Also ein Beispiel, das vielleicht jeder kennt, man überlege sich mal die Qualität von Spam oder Phishing-E-Mails von vor fünf Jahren. Die waren relativ leicht zu erkennen, weil da waren Schreibfehler drin, haben komisch ausgesehen, komische Worte, die benutzt wurden, die man eigentlich nie so auch als Unternehmen benutzen würde, weil da eben fehlerhafte Übersetzungen drin waren. Also diese E-Mails sind jetzt dank Language Models und Language Modeling nahezu perfekt. Also es ist sehr schwer zu erkennen, handelt es sich hierbei jetzt noch eine Spam E-Mail, allein auf Basis dieser Charakteristiken, die wir halt gelernt haben. Und das heißt, dass natürlich auch die Treff- und Erfolgsrate von solchen KI-basierten E-Mail-Angriffen steigt, faktisch gesehen. Also das ist etwas, wo auch die Angreifer quasi ihre Skalierung und Optimierung mittels KI durchführen. Und im Umkehrschluss versuchen wir genau das Gleiche natürlich bei der Erkennung von solchen Angriffen, dass man sagt, man nutzt KI im großen Maße, Anomalien zu erkennen.
Mirko Ross [00:26:16]:
Und wenn man diese Anomalien eben erkennt, beispielsweise bei eingehenden Nachrichten und das müssen nicht nur E-Mails sein, sondern unser Internet basiert ja quasi auf Kommunikation und Nachrichten, die ausgetauscht werden auf technischer Basis, dort diese Anomalien zu erkennen und dann die entsprechenden Abwehrmaßnahmen einleiten zu können. Da wird KI schon sehr lang genutzt in der Cyber-Sicherheit.
Alexander Bernert [00:26:39]:
Jetzt frage ich mich, ob ich für eine Zukunftsprognose mal wieder in mein Science-Fiction-Regal schauen und die alten Cyberpunk-Novellen heraussuchen sollte. Wie ist denn dein Blick, worauf müssen wir uns als Gesellschaft eigentlich einstellen? Weil mein Eindruck ist, KI ist so mächtig, dass sie in irgendeiner Art und Weise sich verbreiten wird. Sie ist als Werkzeug einfach unglaublich nützlich, aber sie bringt eben auch diese Gefahren und vermutlich auch noch weitere Risiken, die wir noch gar nicht unbedingt sehen mit sich.
Mirko Ross [00:27:11]:
Ja, der Blick in der Glaskugel ist immer schwierig und er wäre auch fünf Jahre schon schwierig und auf zehn Jahre noch schwieriger. Das Entscheidende ist eigentlich, wir sind ja, wir sind ja schon fast alte Anwender, was das Internet anmacht. Schauen wir uns quasi die jüngeren Anwender an. Wenn ich zum Beispiel meine Tochter ansehe, wie die KI nutzt im Rahmen des schulischen Umfelds. Dann muss ich erst mal sagen, A wird es ganz normal als Tool angewandt und verwendet. Jetzt Meine Tochter wird mit einem Cyber Security Experten als Vater ausgestattet. Deswegen hat sie immer einen kritischen Blick auch darauf, was sie verwendet und wie die Ergebnisse sind. Aber ich sehe einen sehr natürlichen Umgang damit und eine Optimierung des eigenen Lernverhaltens.
Mirko Ross [00:28:05]:
Und wenn man das quasi schon in der Schule lernt, dann kann man davon ausgehen, dass eigentlich wir als Unternehmen davon auch profitieren werden, weil quasi diese Optimierung von Prozessen, wir sehen eine Generation, die das ganz automatisch macht. Und das heißt natürlich, dass KI in den nächsten fünf Jahren sich drastisch durch unseren gesamten Alltag noch weiterhin durchfräsen wird und wir in vielen Bereichen KI-Systeme ganz normal zur Arbeitserleichterung akzeptieren werden. Was auch gut ist, es gibt bestimmte Bereiche, wo ich sage, da bin ich auch froh, dass es KI gibt, nehmen wir zum Beispiel den Bereich der Röntgendiagnostik in der Medizin. Also Wir haben schon das Problem, dass wir Fachkräftemangel haben. Auch für Mediziner Mangelware sind. Und eine Röntgenbilddiagnostik durch zwei Röntgenärzte, die es quasi noch mal im Vier-Augen-Prinzip prüfen, hat eine höhere Fehlerquote als eine Röntgendiagnostik von modernen KI-Systemen. Das ist eigentlich für uns als Patienten ganz gut und wenn diese halt sicher sind, dann fühle ich mich damit auch safe.
Alexander Bernert [00:29:12]:
Wenn jetzt ein Vorstand diesen Podcast hört, was würdest du ihm denn sozusagen als seine top drei aktionen mitgeben er hört das am wochenende was er am montag einmal nachschauen sollte ob das in seinem unternehmen so schon implementiert ist ob sich darum jemand kümmert oder es veranlasst.
Mirko Ross [00:29:35]:
Okay, also top drei. Ich würde sagen, also A natürlich nicht irgendwie die KI-Entwicklung abwürgen, indem man da jetzt zu kritisch drauf schaut, aber ich würde natürlich schon mal die Frage stellen, hey, habt ihr mal, gibt es denn Penetrationstests auf unsere KI-Systeme? Also lassen wir die professionell angreifen und das können nicht die gleichen Leute sein, die klassische IT-Systeme angreifen, weil das Thema sehr unterschiedlich ist. Also habe ich Spezialisten, die meine KI-Systeme angreifen? Machen wir daraus eine Lessons learned? Wie sichern wir das ab? Das wäre eine Frage, die man ganz konkret stellen kann. Und das Zweite ist natürlich auch eine Frage, quasi wo setzen wir KI-Systeme ein? Also in der Regel haben ja Unternehmen immer so eine Landkurve auch. Also es wird, es gibt ja immer offenkundige Fragestellungen, wo KI-Systeme eingesetzt werden und dann stellt man aber später fest, dass da vielleicht gar nicht der Return of Invest liegt. Also ich würde mir als Vorstand schon eine stetige Landkarte wünschen, in der ich sehe, wo in meinem Unternehmen wird bereits KI eingesetzt und wo wollen wir es noch als High Potential weiter einsetzen. Und dann, glaube ich, ist man auf einer ganz guten, ganz guten Basis.
Alexander Bernert [00:30:48]:
Ja, herzlichen Dank Mirko. Und wenn er als dritte Aktion dich erreichen möchte, wie kann man dich denn am besten erreichen?
Mirko Ross [00:30:57]:
Also am besten kann man mich erreichen, zum Beispiel auf LinkedIn, einfach mir eine Nachricht schicken. Die lese ich persönlich und ich schreibe auch übrigens meine LinkedIn Nachrichten nicht über KI. Insofern einfach dort mich vernetzen, mich eine Nachricht schicken, dann funktioniert das in der Regel wunderbar sofort.
Alexander Bernert [00:31:16]:
Ja, ganz herzlichen Dank Mirko für diese Insights. Sehr spannend, ein Blick in die Zukunft, so schwierig der gerade bei diesem Thema ist und in die heutigen Themen. Herzlichen Dank liebe Zuhörerinnen und Zuhörer für eure Aufmerksamkeit. Gebt uns gerne Feedback, hinterlasst uns eure Komplimente oder eure Fragen. Wir freuen uns darauf. Untertitel von Stephanie Geiges