03.07.2023
ID SmallTalk: KI Modelle – Groß vs. Klein – #ID64
Geleaktes Google-Dokument zur Künstlichen Intelligenz: „Google und OpenAI werden ihre aktuelle Marktführerschaft nicht halten können.Die Zukunft wird den kleinen, von der Open Source Community getriebenen KI-Modellen gehören.
Im Gespräch: Ansgar Knipschild, Benjamin Zühr
Länge: 22 Minuten.
Transkript
BENJAMIN ZÜHR: Hallo und herzlich willkommen zu einer neuen Ausgabe ,,Industrieversicherung Digital“, dem Podcast der Industrieversicherung. Herzlich willkommen auch an Ansgar!
ANSGAR KNIPSCHILD: Moin Benny, grüß dich!
BENJAMIN ZÜHR: Ja, heute mal wieder ein Podcast zu zweit und zu einem meiner Meinung nach sehr spannenden Thema und vor allen Dingen sehr aktuellen Thema, nämlich dem ganzen Thema KI oder Englisch ,,AI“.
Ein Thema, was sich ja irgendwie in den letzten Monaten und Wochen extrem viel in den Medien war. Vor allen Dingen hat natürlich ChatGPT die Runde gemacht und irgendwie viele Leute haben sich einfach auf einmal mit dem ganzen Thema beschäftigt, und es wurde so greifbar, dass es einfach eine Technologie ist, die auf jeden Fall das Potenzial hat, vieles zu verändern. Die Medien beschäftigen sich heute auch noch sehr, sehr stark damit. Dementsprechend wollen wir heute einerseits das ganze Thema nochmal so ein bisschen grundsätzlich beleuchten. Vor allen Dingen wollen wir auch darauf eingehen, warum Lösungen wie ChatGPT oder Bard von Google im Zweifel einfach in einem enormen Wettbewerb stehen und vielleicht auch mal Wege aufzeigen, wie das Ganze greifbarer wird, für ein deutsches Unternehmen nutzbarer wird et., wie Entwicklungskosten sind und so weiter und so fort. Da ist natürlich super, dass wir hier den Technikexperten schlechthin dabeihaben. Ansgar, du wirst uns sicherlich das eine oder andere dazu erzählen können. 01:50
ANSGAR KNIPSCHILD: Ja, vielen Dank für die Intro. Ich habe eine News mitgebracht, die so ein bisschen der Trigger und vielleicht auch der rote Faden hier für den Podcast sein soll. Und zwar würde ich die in meinen eigenen Worten beschreiben mit „Mythos: Monopol ChatGPT“ oder „Mythos: Nur große Modelle werden gewinnen“. Denn wenn man ChatGPT4, was Anfang des Jahres rauskommt, der Nachfolger von ChatGPT3 oder 3,5 mal beobachtet, dann sieht man ja, dass sich dort wieder die Größe des sogenannten Modells der Datenmengen, die dort (indiziert?) sind, ver-x-facht hat. Dadurch ist die Qualität wieder besser geworden und deshalb ist häufig zu lesen, je größer das Modell, also je größer die Daten, die dort drinstecken, je größer die Trainingsdatensätze, umso besser die Qualität.
Das hat nur OpenAI, die Firma hinter ChatGPT beziehungweise. Microsoft als einer der größten Anteilhaber mit 10 Milliarden. Nur die kriegen das hin und den Vorsprung aufzuholen wird sauschwer! Das ist so eine der Storys, die man hört, und viele deutsche Unternehmen, europäische Unternehmen machen sich Sorgen. Wie sollen wir das überhaupt einholen? Dann müssen wir ja Milliarden investieren, und wir wollen jetzt auch nicht von amerikanischen Unternehmen in dem Fall abhängig machen und so weiter und so weiter.
Dazu gab es vor ein paar Tagen interessante News, nämlich, dass bei Google, einem der Wettbewerber letztendlich von Microsoft, die auch eine eigene AI, ein eigenes Chatsystem rausgebracht haben, namens Bard, du hast es eben schon erwähnt. Dort wurde ein Dokument geleakt von einem internen Analystenteam, das bei Google eben gecheckt hat, wie sind dann die Chancen von Google, da überhaupt gegen OpenAI anzukommen. Sie kamen zu sehr interessanten Ergebnissen. Sie sagen, wir können es vergessen, und zwar nicht gegen OpenAI, weil die so gut sind und weil die eben so groß sind, sondern gegen Open Source. Sie sagen letztendlich, sie glauben, dass die Zukunft nicht großen und immer größer werdenden Modellen gehört. Das hat auch der OpenAI-Gründer auch nach der Veröffentlichung von ChatGPT gesagt, sondern kleine, schlanke Modelle, die in den letzten sechs Monaten nach Veröffentlichung von ChatGTP signifikante Fortschritte gemacht haben, also wirklich explosionsartig. Dass man mit einem Mal, Zahlen wurden hier genannt, zum Beispiel genannt von 4,6 Millionen Kosten für das Training von so einem Modell, das runtergehen kann auf mehrere hunderttausend Euro und vielleicht sogar in fünf Jahren unter hundert Dollar liegen wird.
Also noch einmal in Kurzform, die Aussage ist, die Modelle werden nicht größer, die kleineren Modelle haben eine Effizienz erreicht, dass sie auf viel kleinerer Hardware viel schneller trainiert werden können, nicht mehr so, wie das OpenAI in der Vergangenheit gemacht hat, oder auch Google selbst. Es gibt eine aktive Community da draußen, eine Open-Source-Community, von Universitäten stark geprägt. Berkeley ist da zum Beispiel ganz weit vorne, die im Wochentakt solche Modelle rausbringen, vergleichbar mit ChatGPT, die zu einem Bruchteil der Kosten fast vergleichbare Qualität hinbringen. Aktuell Betonung auf „fast“. Noch sind sie nicht da. Aber es ist abzusehen, wenn diese Geschwindigkeit so weitergeht, dass es nur noch eine Frage von Wochen oder Monaten ist, dass wir da pari sind, und dann reden wir über Modelle, die umsonst sind, im Zweifelsfall. Je nach Open-Source-Lizenz. Open Source muss nicht zwingend kostenlos sein, aber es ist zumindest eben ein Quellcode frei zugänglich, und da muss man die Nutzungsbedingungen checken. Ich kann sie bei mir selber laufen lassen, in meinem eigenen Netzwerk, in meinem eigenen Unternehmen, habe komplette Kontrolle drüber, auch abhängig ein bisschen von den Nutzungsbedingungen, wie bei jeder anderen Open Software auch. Aber ich bin eben nicht abhängig von einem externen wie OpenAI oder wie Google. Ich kann es mit meinen eigenen Daten trainieren oder anreichern. Auch ein ganz, ganz wichtiger Punkt, denn was nützt mir so eine tolle AI aus Unternehmenssicht, wenn sie eben nicht mit meinen Daten operiert, sondern eben nur das Wissen aus dem Internet hat, was dann eben teilweise auch schon veraltet ist und überhaupt gar keinen Zugriff hat.
Deshalb finde ich ganz interessant, dass das Unternehmen selbst, eben kein externes, zu dem Schluss gekommen ist, wir sollten uns, also wir jetzt im Sinne von Google, diesen Communitys anschließen, mit denen zusammenarbeiten, weil die geballte Power haben. Wirklich alle Forscher, international – nicht nur die Amerikaner, das ist in Asien, ist in Europa – die hier wirklich in Wochen-, im Monatstakt, wahrscheinlich auch durch die Faszination getrieben, so viel Power auf die Straße bringen, dass man sagt, dagegen können wir gar nicht gewinnen, auch nicht als Multimilliarden-Konzern wie Google oder OpenAI. Wir müssen mit denen kooperieren. Wir müssen die eigenen Modelle zumindest in Teilen vielleicht auch freischalten, um dann wiederum noch bessere zu schaffen.
Sodass, gehen wir mal so ein bisschen in unsere Interpretation rein, ich in der Zukunft wirklich eben nicht die zwei, drei Riesenmodelle sehe, die konkurrieren. OpenAI versus Google meinetwegen, vielleicht noch ein dritter IDM, ich nenne jetzt mal irgendeinen. Nein, es werden dutzende, hunderte, tausende Modelle sein, die vielleicht sogar vernetzt miteinander agieren und wo auch Unternehmen genau gucken sollten, mit welchen Modellen sie interoperabel sind, und wo jedes Unternehmen selber auch genau guckt, mit welchen Daten es seine eigenen Modelle füttert, um Mitarbeitern, aber auch Partnern eben das eigene Wissen bereitzustellen. Das bedeutet natürlich für die Firmen, jetzt aktiv zu werden und eben nicht die Flinte ins Korn zu schmeißen und zu sagen: „Das Rennen ist gelaufen, OpenAI hat gewonnen. Wir zahlen denen irgendwas pro Monat, pro Jahr, eine Lizenz und können dann mit den Tools arbeiten.“
Nein, umgekehrt ist es richtig. Also schnappt euch die Open-Source-Erkenntnisse, beschäftigt euch mit dem Thema, nutzt euren Wissensschatz, der zurzeit ungenutzt in den Firmen rumliegt, und trainiert eure Modelle damit. Das war jetzt sehr vereinfacht gesagt.
Das ist natürlich schon eine ganz andere Sicht als das, was man so, ich sage jetzt mal platt, im Handelsblatt und Co liest, wo es eigentlich heißt, das Rennen ist verloren. Mal wieder haben die Amerikaner gewonnen, mal wieder sind es die Deutschen oder die Europäer, die hinten reingucken. Also, wenn man hier den Google Analysten und auch anderen Analysten von Investmentfonds zum Beispiel traut, dann sagen die: „Nein, das ist nicht korrekt. Mag vor einem halben Jahr richtig gewesen sein, aber die Zeit und die Entwicklung ist so wahnsinnig schnell, das hat sich schon wieder komplett gedreht.“ Das finde ich, ist eine sehr spannende Analyse. 07:58
BENJAMIN ZÜHR: Total spannend. Vor allen Dingen, weil es greifbar wird. Man hatte schon das Gefühl, das erschlägt einen so ein bisschen, und da kommt gerade so eine Welle auf einen zu, wo man gefühlt nur zugucken kann. Jetzt wird das so ein bisschen greifbarer. Vor allem habe ich persönlich das Gefühl, letztendlich die Hürden, es zu nutzen, werden auch kleiner. Das finde ich persönlich spannend, vor allen Dingen vor dem Hintergrund, dass man sagt: Okay, ja, lass uns doch mal gucken, ob es Möglichkeiten gibt, auch ein eigenes Modell anzutrainieren, was eben auf Open Source beruht, und zu gucken: Okay, wie kann ich das für mein Unternehmen nutzen und so weiter und so fort. Das große Thema Datenschutz ist natürlich auch ein Thema. ChatGPT ist nicht unbedingt datenschutztechnisch das, was jetzt jedes Unternehmen bei sich laufen haben möchte.
Wenn ich mein eigenes Modell habe, was auf meinen eigenen Rechnern liegt und ich genau weiß, welche Daten verwendet werden und so weiter und so fort, dann ist das natürlich ein Riesenvorteil neben den Kostenvorteil, neben der Geschwindigkeit et cetera pp. Ich finde, da ergeben sich schon einige Vorteile. Wo siehst du denn jetzt ganz konkret mal auch Anwendungsszenarien von Open-Source-Lösungen im Versicherungsbereich?
ANSGAR KNIPSCHILD: Ich mache nochmal einen kleinen Schwenker zu diesen Modellen. Modelle bedeutet ja, dass man eine AI trainiert, relativ aufwendig, Stunden, Tage lang, indem man der jede Menge Daten gibt und das Wissen vorgibt, was man danach bei der AI abfragen kann. So hat das ChatGPT hat gemacht. Teilweise monatelang das Internet gecrawlt, Googlebooks gelesen, Wikipedia gelesen, damit man jetzt eben diesen Chatbot alles Fragen kann.
Der konkrete Anwendungsfall, nachdem du gefragt hast für ein Unternehmen ist zum Beispiel: Ich gebe dem wirklich meine Daten, also meine Policen, meine Buchungsdaten, meine Bedingungswerke. Da ist eigentlich jetzt der Fantasie keine Grenze gesetzt, meine Schadenfälle. Je besser strukturiert, umso besser, muss man auch sagen. Also auch ChatGPT hat von den Quellen am besten profitiert, wo sie klar indiziert, klar katalogisiert waren. Wikipedia als Beispiel. Das ist besser als wildes Internet, nicht nur von der Qualität der Daten, sondern weil es eben sauber strukturiert ist, also jedes Unternehmen, jeder Makler, jeder Versicherer, der seine Daten in einem guten Zustand hat – auch wenn sie auf zig Töpfe verteilt wird, das ist gar nicht das Problem – der kann diese Daten mit solchen Open-Source-Modellen oder auch kommerziellen Modellen, die wird es auch geben, also Modelle, die man einfach kaufen kann, bei sich betreiben kann, also jenseits von OpenAI und Co., und anreichern.
Wir reden darüber, dass es vielleicht nochmal fürs Verständnis für die Zuhörer ganz wichtig, dass man ein solches Modell nicht komplett neu trainieren muss, wie man häufig liest, was sehr, sehr aufwendig und teuer ist, auch wenn die Kosten daher dramatisch runtergehen. Nein, man kann auch zum Beispiel ein bestehendes Modell nehmen im Zuge einer Suchanfrage, „Gib mir bitte alle Infos zu Kunde ABC“, „Gib mir den Schadenverlauf zu DEF“. Gibt man dem Modell zusätzlich mit einer sehr groben Suche all die Daten mit, die man im Unternehmen hat, 50 Word-Dokumente, 20 CSV-Dateien, wo auch noch andere Sachen drin sind. Jetzt kann so ein bei einem Unternehmen laufendes Modell diese Sachen analysieren, durchgehen und in der Kombination der eigenen Daten, die praktisch als Input mitgegeben wurden, und dem Modell im Hintergrund eine Antwort geben. Das bedeutet also aus einer Perspektive des Sachbearbeiters, Underwriters, Schadenbearbeiter zum Beispiel, kann ich mir sehr gut vorstellen, dass die AI dabei hilft, statt in fünf Systemen nacheinander zu gucken, wo finde ich eine Info in der Dateiablage, auf Laufwerk S, in meinem Maklerverwaltungsprogramm, in meinem Bestandsführungssystem, jetzt nur noch eine Anfrage loszuschicken. Gib mir mal alle Infos zu …, im Zeitraum von … und dann warte ich ein paar Sekunden, und dann werden im Hintergrund praktisch aus den verschiedenen Datentöpfen die Sachen mal zusammengesucht, per AI aufbereitet und mir zurückgegeben. Dann kann ich in diesen Daten weiter reingehen. „Nein, gib mir bitte nur die Haftpflichtdaten des Kunden.“ „Gib mir bitte nur die Zahlungsveränderungen im letzten halben Jahr.“ „Gib mir bitte nur die Veränderung in der Gesellschafterstruktur.“, und vieles mehr.
So wie wir heute mit ChatGPT kommunizieren, in einem echten Dialog, und ich glaube, da sind der Phantasie fast keine Grenzen gesetzt, wie man mit den bestehenden Daten arbeiten kann.
Also noch ein anderer Dreh. Microsoft wird jetzt in Quartal drei beginnen, die neue Version auszurollen, wo wir diese Sucheingaben in jedem Office Produkt drinnen haben werden, in Word, Excel, PowerPoint. Auch dort kann ich dann sowas sagen wie: Bitte suche auf dem Laufwerk alle Daten zu Kunde ABC und erstelle mir hier aus einer PowerPoint Präsentation, eine kurze Übersicht. Das zeigt so ein bisschen, wie nah wir schon dran sind. Diese Technologie lässt sich aber auch im eigenen Unternehmen eben replizieren auf Grundlage der Daten, die man hat, das reinzupacken. Deshalb ist es so wichtig, meiner Meinung nach, diese Kompetenz sich zu erarbeiten. Das ist technisch für viele Neuland, verständlicherweise auch für die IT-Abteilungen, auch zum Teil auch für die Dienstleister, aber man kann das selber im eigenen Unternehmen an den Start bringen. Das ist keine Utopie. Es braucht natürlich hochqualifizierte Leute, keine Frage, die sind rar, auch keine Frage, die sind auch teuer. Aber ich glaube, hier zu investieren, macht total Sinn. Gerade weil es vorhandenes Wissen, gespeicherte Dokumente mit einem Mal in kurzer Zeit, wahrscheinlich wenigen Wochen oder Monaten, viel besser nutzbar macht als in der Vergangenheit. 13:55
BENJAMIN ZÜHR: Wahrscheinlich macht es auch Sinn, einfach erst mal klein anzufangen, also dass man nicht gleich den ganz großen Wurf erwartet, sondern dass man sich erst mal wirklich einen ganz kleinen Use Case rausnimmt, wie du eben gerade auch gesagt hast: „Lass uns doch mal anfangen zu gucken, dass die KI eine Art Assistenz ist und einem Informationen gibt und unterschiedliche Datentöpfe anzapft.“ Ich glaube, wahrscheinlich wäre es einfach zu weit gegriffen, in dem ersten Moment direkt den Anspruch zu haben: Okay, gib mir bitte eine Underwriting Empfehlung, weil da im Zweifel dann auch interpretiert werden muss, auf Erfahrungen zurückgegriffen werden muss und so weiter.
Wahrscheinlich braucht man ein Stück weit Geduld, das Modell dann auch wirklich so weit anzulernen, dass es dann auch wirklich richtig bei Entscheidungen unterstützt etc. Kleinere Unterstützungen aber, wie wirklich Daten zusammensuchen und so weiter, das könnte wahrscheinlich im ersten Schritt dann schon ein mögliches Ziel sein, oder?
ANSGAR KNIPSCHILD: Ja. Suche, wie du es gerade genannt hast, Research, Analyse, was auch viel Zeit kostet. Es gibt nicht wenige Studien, die völlig unabhängig jetzt vom AI-Thema schon seit Jahren sagen, wie viel Zeit verbringt ein Mitarbeiter oder eine Mitarbeiterin pro Tag mit Suche? Ich suche einfach eine Information zu einem Kunden, zu einem Vorgang und so weiter. Hier jetzt nochmal bildlich gesehen, in so einem ersten Step, den berühmten Google Suchschlitz sinnbildlich an seinem eigenen Arbeitsplatz zu haben. Da tippe ich was rein, wie ich es eben schon sagte: „Gib mir bitte alles zu Kunde ABC.“ Im Hintergrund werden meinetwegen erst mal nur die File-Laufwerke durchsucht, aber auf eine vernünftige Art und Weise und vor allem im Ergebnis vernünftig dargestellt. In kurz zusammengefasst in Stichpunkten, nicht nur wieder so eine lange Liste.
Das könnte ich mir sehr gut als ersten Schritt vorstellen, und wahrscheinlich, da kommt jetzt sogar noch mal ein Vorteil dazu, die Unternehmen, die das schön brav in den Dateiablagen abgelegt haben, die haben wahrscheinlich jetzt einen Vorteil, denn die lassen sich über solche Modelle sehr gut da einbinden. Das sind dann wirklich auch keine großen Projekte. Dan nimmt man sich die Abteilung Haftpflicht vor, die Abteilung Schaden, das entsprechende Laufwerk, lassen das indizieren und versuchen das dann im Laufe der Zeit zu optimieren. Da kann ich den Mitarbeitern und Mitarbeiterinnen, glaube ich, in sehr kurzer Zeit sehr komfortablen Zugang zu diesen Daten geben, um sich dann Stück für Stück, wie du auch eben sagtest, vielleicht irgendwann mal in Richtung Empfehlung, Beratung…
Da macht man aber ein größeres Fass auf, weil man dann Rückmeldung praktisch an das Modell geben muss. Ist die Beratung okay, das ist der andere Wert, den OpenAI als Beispiel, genau die anderen Modelle geschaffen haben, nicht nur stumpf etwas zu trainieren, sondern mit sehr viel Manpower. Das sind wirklich viele, viele Personenstunden. Man munkelt da durchaus auch von achtstelligen Beträgen, die da schon den Bach runtergegangen sind, und dass Menschen schlicht und ergreifend die Ergebnisse gerankt haben. Gutes Ergebnis, gutes Ergebnis, schlechtes Ergebnis, gute Underwriter Empfehlung, guter Vergleich von zwei Bedingungswerken, nachvollziehbar, schlechter Vergleich. Das ist dann der aufwändigere Teil. Aber zu dem kommt man dann in Schritt zwei oder Schritt drei. Erst einmal klein starten. Genau wie du gesagt hast. Suche, Analyse, Research sind die Dinge, die naheliegen, sie umzusetzen. 17:24
BENJAMIN ZÜHR: Super spannend und vor allen Dingen letztendlich eine Möglichkeit, sich neben den ganz großen Playern, die sich gerade im Markt damit platziert haben, auch mit kostengünstigeren Möglichkeiten sich mit dem ganzen Thema zu beschäftigen und letztendlich auch unabhängiger zu machen.
Ich glaube, auf jeden Fall ist es keine Sache, die mal so nebenbei gemacht wird. Zumindest hört sich das für mich nicht an, sondern es ist keine Sache, wo ich jetzt der IT-Abteilung sage: „Liebe IT-Abteilung, ich möchte mich jetzt mal im Thema KI beschäftigen. Geht mir da mal bitte irgendein Tool, und dann machen wir mal.“
Sondern es hört sich schon so an, es bedarf schon einer Grundsatzentscheidung. Ich möchte mich mit dem Thema beschäftigen. Dann kann man Schritt für Schritt vorgehen und gucken, passt es, passt es nicht. Aber auch Open Source ist Lösung, die ich mal eben nutze, sondern es ist eine Lösung, die ich Schritt für Schritt für mich entwickeln muss, wo ich entsprechende Ressourcen reinstecken muss, wo ich auch investieren muss und wo ich dann gucken muss, wie sich das Ganze für mich entwickelt und wie ich es dann letztendlich nutzen möchte.
ANSGAR KNIPSCHILD: Auf jeden Fall. Es ist und bleibt ein Transformationsprojekt wie jedes andere auch. Die IT und die Fachabteilungen müssen auch eng zusammenarbeiten, keine Frage. Mir war eigentlich wichtig, wenn diese News hier auch einen Podcast nochmal zu teilen, auch gerade für die Entscheidungsträger. Diese Aussage, „wir sind abhängig von den großen“, die muss man wirklich ad acta legen. Eher genau wie du sagst, in die eigene Roadmap reinnehmen, klassisches Projektgeschäft eigentlich. Wie kann ich das bei mir ins Unternehmen reinpacken? Es ist machbar, es ist eben keine Utopie, man ist da anschlussfähig. Dann, genau wie wir eben festgestellt haben, in kleinen Schritten beginnen idealerweise IT und Fachbereich schon direkt zusammen, dass man auch wirklich nutzerorientiert das Ganze nach vorne bringt und nicht nur als reines IT-Projekt sieht. Das wird auch nicht funktionieren. Ich glaube aber schon, dass man gerade so in den ersten Schritten auch nicht über die Größenordnung jetzt von einem SAP-Migrations- oder Transformationsprojekt spricht, was schon irgendwie siebenstellig ist. Da kann man sicherlich schon ein bisschen drunter starten. Wenn man die Organisation langfristig zwei, drei Jahre wirklich in die berühmte selbstlernende Organisation, auch IT-technisch umwandeln will, wo aus jeder Aktion, die ein Sachbearbeiter, Underwriter oder so dann ein Modell wieder lernt, bringt, dann reden wir natürlich über ein größeres Fass. Aber damit fängt man eigentlich zum Start an, genau wie du gesagt hast.
Aber das kann man wirklich vergleichsweise einfach machen, ob es dann wirklich ein Open-Source-Tool ist, genau was du gerade gesagt hast, oder ob man zu einem kommerziellen Anbieter geht. Also meine Wette wäre auch, dass in den nächsten Monaten oder Jahren ganz viele Unternehmensmodelle hieraus natürlich auch entstehen, die auch genau Unternehmen also Versicherer oder Makler dabei helfen, sowas einzuführen logischerweise. Die, die eben nicht nur einfach sich irgendwo einen Quellcode runterziehen wollen und dann selbst damit rumhantieren, sondern dann Beratungsleistungen in Anspruch nehmen, aber hoffentlich unabhängig von den großen Playern. Ich hoffe wirklich jetzt auch für den europäischen Standort, dass wir hier schnell reagieren, auch kleinen Unternehmen, die hier starten, die entsprechende Unterstützung geben, wahrscheinlich auch staatlicher Seite, Fördererseite, dass wir da wirklich den Anschluss nicht verpassen. Der Zug ist eben noch nicht abgefahren, aber jetzt müssen wir wirklich aufpassen, wenn die Einstiegshürden so gering sind, kostenmäßig und wissensmäßig, dann müssen wir es machen, an der Stelle. 21:02
BENJAMIN ZÜHR: Das eine ist natürlich die rein technologische Seite, wo wir es machen müssen. Aber wie gesagt, das andere sind auch die Unternehmen, die es auch nutzen müssen. In dem Moment natürlich, und das ist ein weiterer Punkt, der natürlich nicht ganz unwichtig ist, wo Unternehmen sich weiter oder letztendlich mit dem Thema eben nicht beschäftigen, besteht einfach die akute Gefahr, dass andere einen Wettbewerbsvorteil Schritt für Schritt sich erarbeiten, einfach, weil sie es nutzen. Somit sollte, glaube ich, jeder sich sehr intensiv mit dem Thema beschäftigen und nicht aus welchen Gründen auch immer, das Thema mehr oder weniger wegwischen. Ich glaube, das ist wirklich eine Sache, die man definitiv bei diesem Thema nicht machen sollte.
ANSGAR KNIPSCHILD: Gutes Schlusswort, finde ich.
BENJAMIN ZÜHR: Auf jeden Fall. Vielen lieben Dank, Ansgar für deine Ausführung. Ich glaube, es war sehr, sehr interessant, einfach zu erfahren, und ich könnte mir vorstellen, dass es vielleicht den einen oder anderen Gedanken anregt, um sich mit dem Thema doch nochmal auch von der anderen Seite zu beschäftigen, und vielleicht die eine oder andere Hürde im Kopf auch wegwischt. Ansonsten hoffe ich, dass wir uns bald wieder hören, und freue mich auf den nächsten Podcast mit dir.
ANSGAR KNIPSCHILD: Alles klar, vielen Dank, mach es gut! Tschüss!
BENJAMIN ZÜHR: Bis dann, ciao!
Der Podcast „Industrieversicherung Digital“ ist eine Initiative für den offenen Austausch über die Digitalisierung von Industrie- und Gewerbeversicherung: Versicherer, Makler, Kunden und IT im direkten Dialog.
Machen Sie mit! Wenn Sie ein spannendes Thema, einen Erfahrungsbericht oder einen persönlichen Standpunkt mit Kolleginnen und Kollegen diskutieren möchten, melden Sie sich bei uns: E-Mail und LinkedIn-Gruppenlink auf der Mitmachen-Seite.
Podcast abonnieren über: