Transkript
Hallo und herzlich willkommen zu einer weiteren Folge unseres Podcasts. Mein Name ist Ansgar Knipschild und diese ist ID Industrieversicherung Digital. Mit mir an Bord ist mein Kollege Jan Jikeli.
Heute starten wir mit einer neuen Serie zum Thema AI im Unternehmenseinsatz. Wir wollen hier aktuelle News und auch jeweils ein Schwerpunktthema behandeln. Heute haben wir News aus den Themen AI-Nutzung in Unternehmen, also speziell welche Art von Modellen dort genutzt werden, aber auch einiges zum Thema Regulatorik mit im Gepäck.
Und bei unserem Schwerpunktthema diskutieren wir über Peak AI. Haben wir wirklich den Höhepunkt des AI-Hype-Cycles überschritten? Fragezeichen. Dann geht es auch schon los mit den ersten News. Jan, du hast ja was zum Thema LLM-Nutzung in Unternehmen mit dabei.
Genau, ich habe zwei Themen mitgebracht. Einmal ein Artikel von Databricks. Die haben kürzlich veröffentlicht, dass künstliche Intelligenz die Testphase hinter sich gelassen hat und nun im Produktionsbetrieb angekommen ist.
Und dass immer mehr Unternehmen auf die Demokratisierung von Daten und KI in ihrem setzen, um ihre Geschäftsprozesse zu optimieren. Und die zentrale Erkenntnis in diesem Bericht ist, dass 76 Prozent der Unternehmen bei der Nutzung von Large-Length-Modellen auf Open Source Modelle setzen und sich dafür entscheiden. Und das ist auch genau das, was wir beobachten, dass die enorme Open Source Community, die im Moment wirklich viel treibt, dazu führt, dass die Unternehmen die Vorteile erkennen und einfügen.
Das zweite, was ich mitgebracht habe, ist ein Vergleich von LMM Pricing. Und hier ist der Gold-Standard GPT-4-O. Und das spannende daran ist zu sehen, wie hoch sind eigentlich die Kosten.
Also wenn man zum Beispiel auf GPT-4 8H setzt im Vergleich zu GPT-4-O, hat man eine Preissteigerung von 500 Prozent. Hingegen, wenn man auf Open-Source-Modelle, wie zum Beispiel Mistral setzt, kommt man, oder Kurzstral, je nachdem, in welchem Kontext man das eben verwenden möchte, kommt man auf minus 20 bis minus 80 Prozent. Das heißt, man kann eben durch die geschickte Auswahl der Language-Modelle enorm viel Geld auswählen, sparen und kann so wesentlich effizienter die Modelle nutzen. Und das ist etwas, was wir eben merken in den großen Enterprise-Unternehmen auch, dass das zunehmend an Bedeutung gewinnt. Ja, das waren die beiden Themen. Ansgar, du hattest ja dich vor allen Dingen mit der Qualität der Language-Modellen beschäftigt. Und das sind so die, vielleicht magst du weitergehen, oder?
Ich hab noch eine Miniergänzung zu deinem Part. Also wir packen in unsere Show Notes mal den Link rein zu so einem Google-Sheet. Da sind diese Preise, die du gerade kurz angerissen hast, alle mal aufgelistet.
Das ist ein Blogger, der hier die Preise, also pro eine Million Token, hier mal gegeneinander stellt. Und es ist wirklich interessant zu sehen, wie die Preis-Spanne da ist. Das fällt einfach noch mal kurz zur Erläuterung dessen und wo hier die Zuhörerinnen und Zuhörer halt weitere Informationen bekommen.
Das gilt übrigens für alle unsere News. Wir haben die Links in den Show Notes drin. Wenn ihr tiefer reingehen wollt, nutzt bitte einfach hier in eurem Podcast Player die entsprechenden Links.
Und genau wie Jan gerade gesagt hat, ich habe noch eine News hier rausgezogen, auch zum Einsatz von Sprachmodellen von LLMs im Enterprise-Einsatz. Und zwar hat hier Huggingface, das ist ja die Plattform, wo die freien Modelle publiziert werden, heruntergeladen werden können, hat ein neues Leaderboard-Release in der Version 2. Warum?
Sie haben halt gemerkt, dass aufgrund der enormen Beschleunigung, wie sich die Modelle weiterentwickeln, die alten Metriken aus 2023 einfach nicht mehr greifen. Also die Modelle nähern sich zu schnell an. Es ist zu wenig Differenzierung in den Zahlen drin.
Sie haben da was Neues gemacht und haben jetzt ein neues Ranking, eben insbesondere von den Open Source Modellen. Und wir haben die Links drin in den Show Notes. Guckt mal rein. Interessant ist, dass hier also ein paar alte Bekannte, Meta-Lama 3 natürlich recht weit vorne ist, Qheer, Kentford auch der eine oder andere, Command Air das Modell, auch im Unternehmenseinsatz, sehr stark im Einsatz. Aber für mich ein echter Überraschungs-Sieger ist Qwen 2. Ich habe ehrlicherweise im operativen Einsatz damit noch nicht gearbeitet. Aber das ist ja das Modell, das von Alibaba auf den Markt gebracht wurde. Interessant ist es, was ein relativ großes Kontextfenster hat, mit 128 K und in 27 Sprachen, und eben auch einer Apache-2-Lizenz verfügbar ist. Also das ist wirklich ein Modell, wo man sagt, das sollte man sich mal angucken, weil es, was die inhaltliche Qualität angeht, wirklich wohl auch sehr, sehr gut ist im Vergleich zu den alten Bekannten.
Also Mixtra, Lama, du hast sie genannt, Jan, sind ja die üblichen Verrächtigen, die man ganz häufig so sieht. Aber man merkt auch hier wieder die enorme Dynamik im Markt. Und wenn man da mal für ein eigenes Modell dagegen halten möchte, das man durch Feintuning oder so im Unternehmen optimiert hat, dann vielleicht noch ein Tipp.
Es gibt hier mit MiX eval eine Plattform, die bietet halt an, dass man eigene Modelle benchmarken kann, mit dem, was in der Chatbot Arena normalerweise gebenchmarkt wird. Da kann man für relativ kleines Geld, genannte Cent-Beträge, praktisch die gleichen Promts, die gleichen Fragen gegen das eigene Modell laufen lassen, aber eben auch gegen die Player, die in den Listen drin sind, um ein Gefühl dafür zu bekommen, welches Optimierungspotenzial noch in den eigenen Modellen drin steckt. Ich glaube, das ist ja auch ein Thema.
Du hast das Thema Pricing angesprochen. Ich glaube, Qualität ist das andere. Ich glaube, wenn man das im Unternehmenseinsatz reibt, muss man eigentlich permanent gucken, kann ich mich noch weiter optimieren.
Gibt es am Markt inzwischen Modelle, die entweder preislich attraktiver sind, deutlich attraktiver oder auch in der Qualität. Und das wären die beiden News von mir zu dem Thema. Und jetzt kommen wir zum auf den ersten Blick etwas trockeneren Thema.
Regulatorik oder was passiert eigentlich so auf der EU-Ebene? Für uns im Unternehmenseinsatz ist ja auch ein wichtiges Thema. Aber da hast du ja auch spannende News und Neuigkeiten mit dabei, Jan.
Ja, ich glaube, das ist tatsächlich ein Thema, was man immer denkt, das ist so trocken. Aber eigentlich ist das zentrale Thema, was alles bestimmt. Und wir haben einmal hier, oder zwei News habe ich mitgebracht, einmal die EU-Kommission prüft ein Kartellverfahren gegen den Microsoft OpenAI-Deal.
Das finde ich sehr, sehr spannend. Der Artikel, der da verlinkt ist, der lohnt sich auch zu lesen. Alleine, wenn man einen Teil, den möchte ich hier gerne mal vorlesen. Chef von Microsoft AI hält Inhalte von Internet für Freeware. Mustafa Suleyman, CEO von Microsoft AI, sorgt mit Äußerungen zum Erfassen von Internetinhalten für Aufsehen. Er behauptet, seit den 1990ern gelte für öffentliche Webinhalte der soziale Vertrag, dass jeder sie kopieren, daraus Neues machen und reproduzieren darf. Und wenn man sich das überlegt, dann ergibt sich daraus einige Schwierigkeiten, die sich natürlich jetzt auch schon immer wieder zeigen. Diese großen Modelle werden ja verklagt. Also New York Times beispielsweise konnte nachweisen, dass Copyright-Rechte verletzt werden und so weiter.
Und das ergibt natürlich eine enorme Gefahr, auch strategisch, wenn man ausrichtet, auf welche Modelle man eben setzt. Sodass ich glaube, dass das regulatorische Thema zwar auf den ersten Blick trocken wirkt, aber am Ende doch das Entscheidende dazu ist, wie wir das denn dann in großen Unternehmen einführen können.
Genau. Und ergänzend haben wir noch eine News auch von Heise. Link, wie gesagt, in den Show Notes, das die Big Techs.
Und das ist dann eben nicht nur Open AI und Microsoft, sondern da zählen dann Meta, Apple, Google und Co. auch dazu. Immer stärker einig in den Fokus des Bundeskarteleams, auch rücken einfach wegen ihrer Marktdominanz.
Und es sind aktuell sieben Verfahren, die laufen. Wie weit ihre dominante Marktstellung als zum Nachteil der Verbraucher auch dabei ist. Und ich glaube auch hier für AI-Entscheider in den Unternehmen ist es wichtig, das im Auge zu behalten.
Denn hier droht ja die latente Gefahr, dass wenn entsprechende Gerichtsverfahren hier wirklich dann angestrengt werden, dass Modelle entweder zeitweise vom Markt genommen werden müssen, kann sein, temporär zumindest, oder verändert werden müssen aufgrund von inhaltlichen Aspekten oder eben von den kartellrechtlichen Aspekten. Und das bedeutet dann in der Regel aber auch, dass es eine neue Version des Modells gibt und damit auch wiederum die vorher getesteten Ergebnisse nicht mehr 100 Prozent zu funktionieren. Das heißt, neben dem inhaltlich und vielleicht auch politisch strategisch interessanten Aspekt hängt ja auch wirklich ein gewisses Risiko dringend, dass natürlich durch diese Außeneinflüsse sich die Modelle verändern, was man natürlich bei einer Lösung, die man selbst betreibt oder stärker unter eigener Kontrolle hat, nicht so stark hat an der Stelle.
Interessant ist, dass aber auch von der EU her Großprojekte wie zum Beispiel das IPCIA-Sys, schöner Name, also das Cloud-Großprojekt mit einer eigenen europäischen Cloud, immer mehr Geld bekommt. 1,2 Milliarden sind da inzwischen im Raum. Und ich glaube, dafür braucht es eigentlich noch viel mehr, dass man hier offensichtlich vernünftig organisiert, auch nicht nur versucht, die großen amerikanischen Anbieter kritisch zu beleuchten, sondern eben auch konstruktiv eigene Lösungen daneben stellt, die eben von deutschen Unternehmen oder europäischen Unternehmen genutzt werden können.
Also ich glaube, zu dem Thema werden wir auch häufiger berichten, einfach damit wir diese Sensibilisierung für das Thema hier auch da haben und dass man eben auch nicht nur auf die technischen Themen zu sehr achtet, sondern ich glaube Thema Regulatorik, Datenschutz, Datensparsamkeit und so weiter ist, glaube ich, ein ganz, ganz wichtiges Thema.
Absolut. Also das nächste Thema, was ich mitgebracht habe, ist eben geht genau da drauf und es ist CHEDGPT und Co., also der EU-Datenschützer, verteidigt die Datenminimierung und das, was da spannend ist, das möchte ich auch einen Teil vorlesen, weil ich das doch spannend finde und in der Diskussion immer wieder merke, dass da Verunsicherung ist und zwar der EU-Datenschutzbeauftragte hat Leitlinien zum Einsatz von generativen KI- und personenbezogten Daten in der EU-Verwaltung veröffentlicht. Darin betont er, dass sich das DSGVO-Prinzip der Datenminimierung keinesfalls überlebt habe. Und das ist auch spannend in den Veranstaltungen, die ich in den letzten Wochen besucht habe, war das immer wieder eine Diskussion, wo die Leute gefragt haben, ja, okay, jetzt haben wir den DSGVO und jetzt kommt der EU-AI-Act und was dann eigentlich die führenden Datenschützer sagen ist, wenn man DSGVO-konform die Daten schon verwendet und benutzt, dann und die Prinzipien anwendet, dann ist man eigentlich auch ganz gut gewappnet für diesen EU-AI-Act.
Kommen wir nun zu unserem Schwerpunktthema, wo wir kontrovers diskutieren wollen, ob der Gärtner-Hype-Cycle oder der Peak im Gärtner-Hype-Cycle für das Thema AI schon vorbei ist oder ob wir noch mittendrin sind. Ich bin der Meinung in den Gesprächen, die ich jetzt mit verschiedenen Partnern und in verschiedenen Unternehmen führe, dass sich eine gewisse Resignation bereit macht. Und man erkennt, dass die Firmen nicht mehr an das Wundermittel der AI glauben, sondern langsam verstehen, dass da eine ganze Menge Arbeit auf sie zukommt.
Und dadurch teilweise wie gelähmt da drauf schauen. Und was vor ein paar Monaten noch mit dem Lahn begonnen ist und einzelne Use Cases gestartet worden sind, die sieht man jetzt, dass die Use Cases nicht skalierbar in die Unternehmen eingebracht werden, sondern dann bei den Use Cases stecken bleiben. Und deswegen bin ich der Überzeugung, dass wir eigentlich hinter dem Peak sind und dass wir jetzt langsam anfangen können, ein realistisches Bild zu formen.
Wie siehst du das, Ansgar?
Ich bin natürlich dagegen. Das ist das Format, das schreibt er sofort, dass ich jetzt dagegen sein muss. Aber ich bin auch in der Tat etwas anderer Meinung als du.
Ich würde es differenziert betrachten. Also wo ich zustimmen würde, ist, dass in der medialen Wahrnehmung, glaube ich, der Hype definitiv sein Maximum überschritten hat. Also diese Meldungen, die jeden Monat da waren, wirklich in allen Medien, ein bisschen auch zu den großen, die ebben so ein bisschen ab.
Und es kommt auch nicht wirklich was Neues. Und es kommen auch eher so ein paar kritische Stimmen. Ich glaube, dass insbesondere im Privatbereich der Hype vorbei ist.
Da würde ich sogar auch noch zustimmen, weil einfach hier ja doch einige Software-Anwendungen oder auch Use Cases bis hin zu ChatGPT von den Leuten ausprobiert wurden. Aber man dann irgendwie nach anfänglicher Begeisterung wow, eine Maschine kann mit mir vernünftig sprechen, merken so richtig, nutzbar ist das ja doch nicht. Und da gibt es ja auch Zahlen.
Ich habe hier noch eine Studie mit dabei, wo weltweit geguckt werde, wie häufig denn Anwender wirklich im Alltag mit solchen Tools arbeiten. Und die tägliche Nutzung von RR ist wirklich die totale Ausnahme. In Japan nur 1%, in Frankreich und Großbritannien 2%.
Und selbst in den USA, wo die Nutzung am weitesten verbreitet ist, nutzen nur 7% ChatGPT täglich. Und in allen Ländern überwiegt die private Nutzung leicht gegenüber der beruflichen. Und jetzt komme ich zu der anderen Betrachtung.
Ich glaube, im Business-Kontext, die ja immer so ein Lack oder so ein Delay zu den privaten Sachen hat, da sind wir glaube ich noch nicht am Peak. In der Diskussion vielleicht, weil die Diskussion führen wir ja auch hier, weil wir sie täglich merken in den Gesprächen mit der Branche, mit Branchenvertretern. Aber wenn ich mir mal angucke, was Unternehmen wirklich ausprobiert haben, ich will noch gar nicht mal von in Produktion bringen, sondern fährt in den Newscasts, dann ist das noch relativ dünn.
Ich glaube, die Erwartungen werden realistisch. Das fährt noch als abschließende Meinung. Werden realistischer als vor drei, vier Monaten, da würde ich auch noch zustimmen. Aber den Peak, also dass man es wirklich mal ausprobiert hat, um danach abzustürzen, es klappt ja doch nicht so, den haben wir noch vor uns. Aber vielleicht sind ja die Zahlen, die du gerade zitiert hast, genau eigentlich ein Argument dafür, dass der Halbcycle vorbei ist, weil die Leute benutzen es eben nicht täglich. Also man merkt eben, wenn man prompten will, wenn man da was Gutes bei rausbekommen will, dann muss man eben doch mehr investieren, als einfach nur zu sagen, ich kriege mal etwas einen Show-Effekt und ich kann ein bisschen damit kommunizieren. Also der wirkliche Mehrwert, den man eigentlich braucht, um das wirklich täglich zu nutzen, den gibt es eben nicht oder gibt es dieses Versprechen, ist nicht so groß oder schafft es oftmals nicht.
Und dieser Mehrwert, das ist eigentlich genau die Aufgabe, die wir jetzt haben, dass man das hebt und in die Unternehmen reinbringt und auch in die tägliche Anwendung reinbringt und eben zeigt, wie schafft man denn wirklich so, dass man das wirklich nutzen kann und nicht, dass mir ein GPT eine Antwort gibt, die zwar ganz gut ist, die mir vielleicht auch ganz sinnig erscheint, aber wo der Wert doch nicht direkt verfügbar ist. Also wo ich nicht einfach sagen kann, das kann ich jetzt nehmen und kann das benutzen und kann das als E-Mail verschreiben, weil es eben nicht auf mich angepasst ist zum Beispiel und damit eben für mich gar nicht so viel bringt.
Ja, aber ich würde nochmal dagegenhalten, die Frage ist, wenn wir das ganz vörtentlich nehmen, ist der Hype vorbei? Sind wir an dem Peak von Gartner schon auf dem absteigenden Ast? Das war unsere Frage. Und ich bleibe dabei? Nein. Ich lerne, dass in Unternehmen viele Mitarbeiterinnen und Mitarbeiter, wenn man das mit ihnen spricht, schlicht und ergreifend noch gar nicht damit gearbeitet haben. Die haben ja niemals angefangen, weil sie gar nicht dürfen. Stichwort Regulatorik, wo wir eben auch waren. Viele Firmen haben ja erst mal die Notbremse gezogen und zu Recht ja auch gesagt, stopp, wir können nicht unkontrolliert Mitarbeiterinnen und Mitarbeiter Unternehmensdaten da in Chatsch-GPT reinpasten lassen. Und jetzt so langsam kommen entweder die Betriebsmodalis erlauben oder halt die Eigenbetriebenen. Aber dass der Hype vorbei ist, nee. Und ich interpretiere die Frage auch so ein bisschen.
Es gibt wenige Marktteilnehmer, also Branchenvertreter, die schon mal im Gespräch sagen, ach, wissen Sie, Herr Knipschild, ich glaube, wir müssen da gar nicht so stark drauf, weil es ist eh nur ein Hype, so wie Blockchain und so weiter. Das ist was anderes, aber darin die Entschuldigung zu finden, ich muss mich damit nicht beschäftigen, da würde ich sagen, nee, also wir haben da eh noch was vor uns, wäre meine These. Ich glaube, wir sind wesentlich geerdeter als vor einem Heiljahr.
Das ist was Gutes, dass man also wirklich nicht mehr sich da irgendwie, dass ich was vom Himmel wünscht oder so halt. Ich glaube aber, dass diese echte Ernüchterung, die kommt erst dann, wenn man wirklich damit gearbeitet hat. Und das ist eben so der Kern meiner Gegenthese. Viele Leute haben schlicht und ergreifend damit noch gar nicht richtig gearbeitet. Vor allem nicht im Business-Kontext, sondern haben halt ihre 3, 4, 5 Promps gemacht, genau wie du sagst. Ein paar kleine Tests. Aber wer hat denn wirklich damit mal im Unternehmenskontext schon länger oder mal detaillierter gearbeitet? Ich kenne da wirklich nur sehr, sehr, sehr wenige. Wahrscheinlich sind die Zahlen sogar noch geringer als die privaten, die ich gerade gehört habe.
Ich glaube, diese Ernsthaftigkeit, das ist das zentrale Thema eigentlich. Dass man ernsthaft Dinge versucht umzusetzen und einzubringen und da einen Mehrwert drauf. Ich glaube auch nicht, dass es sozusagen weniger AI in den Unternehmen geben wird, sondern im Gegenteil, dass es zunehmend mehr geben wird.
Nur, dass man eben nicht mehr so blauäugig reingeht und sagt, das kann alles lösen. Ich glaube, mein Gedanke ist wohl eher in diese Richtung gehen, dass ich sage, diese Blauäugigkeit und das Versprechen, was AI als heiliger Gral sozusagen, der alles lösen wird, der uns sofort alle Probleme, die wir über die letzten 20 Jahre hatten, die werden jetzt auf einmal gelöst. Wir haben keine vernünftige Datenstruktur aufgebaut, keine vernünftige Datenstrategie gehabt.
Jetzt kommt GenAI, das verspricht uns, dass wir alle unstrukturierten Daten sofort haben können und zur Verfügung stellen, sortieren können. Dann brauche ich gar nichts mehr tun. Das ist dann einfach fertig.
Dieses Versprechen, glaube ich, das ist etwas, was sich immer mehr zeigt, dass das nicht funktionieren wird, sondern dass man geerdet, wie du das sagst, herangeht und sagt, wir müssen eben doch etwas tun. Wir müssen unsere Datenstruktur vernünftig machen. Wir müssen gucken, dass wir das vernünftig aufbauen. Dann können wir die Mehrwerte heben.
Ich glaube einfach, es ist eine realistische Reinschätzung. Das ist das, was mein Verständnis von dem Half-Cycle-Peak ist und das, glaube ich, ist vorbei.
Man merkt, in manchen Teilen hast du natürlich recht, es gibt immer noch Unternehmen, die gar nichts gemacht haben. Da merkt man noch die Blauigkeit. Das ist wahrscheinlich auch eine Differenzierung.
Es gibt ja auch die These, dass es im US-Markt mehr oder weniger vorbei ist, der Hype, aber in Europa oder Deutschland eben noch nicht. Das sind vielleicht auch noch mal eine spannende Frage, wie regional unterschiedlich das eigentlich gesehen wird, um dann auch mal zu diskutieren, wie weit sind wir eigentlich hier am Standort? Wie steht eigentlich Deutschland im Vergleich, zum Beispiel in den USA da? Vielleicht kann man das auch daran sehen, wie weit der Half-Cycle oder ob man hinter dem Peak ist oder eben noch mitten drin.
Wir wollen dieses Format in den zukünftigen Folgen auch mit Gästen hier fortführen, die wir hier reinholen, umfährt auch eben noch konkreter, fährt an einigen Branchenbeispielen hier pointiert, Pros und Contras zu einigen Statements hier auszutauschen. Und wir wollen das Ganze aber natürlich hier auch sehr positiv ausklingen lassen. Von daher habe ich hier noch einen kleinen Tipp mitgebracht. Wir wollen jetzt zum Schluss unseres Podcasts immer einen Prompt of the Day reinbringen. Also ich werde auch gerade für die Kolleginnen und Kolleginnen, die Zuhörerinnen hier einen Tipp geben, wie kann ich mich dem Thema ganz praktisch nähern? Und wir haben einen Link in den Show Notes auf Daily Prompt Perfect XYZ. Schöne Domain.
Die dort einen Prompt haben, da kann man mit einem einzigen Satz einen längeren Artikel sich generieren lassen. Das ist wirklich spannend, wie man mal eine Inspiration, eine Idee braucht für eine PowerPoint oder fährt auch, um mal ein bisschen seine Gedanken zusammen, einen einfachen Satz in diesem Prompt ergänzen. Man bekommt hier ungefähr 700 Wörter, also das sind so zwei A4 Seiten, sehr strukturiert raus und kann dann vielleicht eben mit dem Ergebnis weiterarbeiten, iterativ, wie man das ja so im Promptin kennt.
Aber das ist so eine der wenigen generischen Prompt, wo ich auch sagen würde, der ist echt ganz spannend, gerade wenn man so gar nicht richtig weiter weiß. Probiert ihn mal aus, das ist, glaube ich, wirklich ganz interessant. Ganz geringer Lernkurve, man braucht wirklich nur einen Satz austauschen und guckt mal, was rauskommt.
Und wir werden mal gucken, dass wir in den nächsten Folgen auch noch weitere kleine praktische Tipps hier zum Schluss mit reinpacken.
Ja, ansonsten bleibt der Aufruf an Gäste und Gästinnen. Meldet euch gerne bei uns, wenn ihr Erfahrungsaustausch sucht, wenn ihr vielleicht Praxisberichte habt. Wir wären sehr daran interessiert, hier die Runde zu erweitern in den nächsten Folgen. Bis dahin, Jan, an dich ganz vielen lieben Dank hier für die erste Folge. Und ich freue mich schon auf die nächsten Sessions mit dir und wünsche bis dahin alles Gute.