Was ist Causal AI?
Shownotes
Kennen Sie schon den Rexroth-Blog
Wenn Sie Fragen haben, dann wenden Sie sich gerne an: vertrieb@boschrexroth.de
Produziert von Bosch Rexroth AG, Vertrieb Europa Mitte Susanne Noll
Transkript anzeigen
00:00:00: Hallo liebe Zuhörerinnen und Zuhörer willkommen zu einer neuen Folge unseres Podcastes Industrie
00:00:09: neugedacht.
00:00:10: Mein Name ist Robert Weber und mir virtuell zugeschaltet ist der Dr.
00:00:14: Michael Haft.
00:00:15: Hallo Michael, grüß dich willkommen im Podcast.
00:00:17: Hallo Robert, vielen vielen Dank, dass ich in deinem spannenden Podcast mit dabei sein
00:00:20: darf heute.
00:00:21: Ja, wir freuen uns auch über ein sehr spannendes Thema zu sprechen.
00:00:24: Michael doch bevor es losgeht, stelle ich doch ganz kurz den Zuhörerinnen und Zuhörer vor.
00:00:28: Wer bist du?
00:00:29: Was machst du?
00:00:30: Gerne, gerne.
00:00:31: Mein Name ist Michael Haft von der Explain Data GmbH.
00:00:34: Also ich bin Mitgründer und Geschäftsführer der Explain Data GmbH.
00:00:38: Explain Data ist gegründet.
00:00:39: Schon 2015 gibt es also schon ein bisschen länger im Markt und wir entwickeln ein sehr
00:00:44: spannendes Thema.
00:00:45: Wir werden heute drüber sprechen, das Thema Causal Discovery und auch Object Analytics.
00:00:48: Zwei anspruchsvolle Software Produkte.
00:00:51: Das hat dann auch ein bisschen länger gedauert, das soweit zu bringen, dass es marktreif ist.
00:00:55: Vor Explain Data habe ich aber schon eine sehr lange Historie in dem Artificial Intelligence
00:01:00: Umfeld oder in den Maschinenlearning Umfeld.
00:01:02: Ich habe schon vor 20, 25 Jahren meine Doktorarbeit bei Siemens geschrieben in dem Bereich Neuroinformatik.
00:01:08: Wir haben die Company ausgegründet aus Siemens, haben da viel gelernt, wie man Start-up Companies
00:01:12: entwickelt.
00:01:13: Ich war einige Jahre bei Accenture, einige Jahre bei SAP.
00:01:16: Es war dann bei SAP mit ein paar Kollegen gesagt haben, nee, wir kommen jetzt so langsam
00:01:23: und so schwer verleg voran, wir brauchen da was anderes.
00:01:26: Und wir haben uns dann eben mit ein paar, mit zwei Kollegen von SAP und einem weiteren
00:01:30: haben dann eben auf die Beine gemacht und haben Explain Data gegründet, zunächst mal
00:01:34: auch mit Missionen ohne Risikokapital, zu nichts voran zu kommen.
00:01:37: Und ja, uns sind recht weit gekommen und ich freue mich, dass ich da heute ein bisschen
00:01:41: drüber berichten darf.
00:01:42: Wenn man auf den Gartner Hype-Cycle schaut, wo wir ja immer mal wieder draufschauen,
00:01:47: was geht gerade richtig ab, wo ist der Hype, dann ist Causal AI das Next Big Thing.
00:01:52: Was ist das denn eigentlich Causal AI?
00:01:54: Ja genau, das werden wir heute ein bisschen tiefer beleuchten.
00:01:58: Was ist eigentlich Causal AI?
00:01:59: Also es geht um das Verständnis von Ursache-Wirkungszusammenhängen, basierend auf Beobachtungsdaten.
00:02:05: So jedenfalls unsere Definition, was den Teil Causal Discovery angeht, Causal Influences
00:02:10: vielleicht immer ein bisschen was anderes.
00:02:11: Aber ich möchte natürlich gleich auf die Wichtigkeit des Themen hinweisen und es hat
00:02:15: jede Menge Grund dafür, dass dieses Thema auf dem Hype-Cycle steht.
00:02:20: Und man darf da auch noch einiges erwarten.
00:02:22: Also es steht unter dem Label Artificial Intelligence von einem intelligenten System.
00:02:28: Was würde man als Allererstes erwarten?
00:02:30: Dass es weiß, wie man ein Ziel erreicht.
00:02:32: Also in sich intelligent zu verhalten.
00:02:34: Richtig, genau.
00:02:35: Ich will ein Ziel erreichen, wenn ich intelligent bin.
00:02:37: Da muss ich natürlich wissen, was sind die Faktoren, an denen ich drehen muss, um dieses
00:02:42: Ziel zu erreichen.
00:02:43: Und dazu muss ich wissen, was Causal das Ziel beeinflusst.
00:02:47: Also insofern ist es natürlich richtig, dass das Thema Causal AI auf dem Hype-Cycle
00:02:52: on Artificial Intelligence steht.
00:02:54: Weil wenn nicht dort, wo dann muss man über Ursache Wirkung wissen, wenn man sich intelligent
00:02:59: in seiner Umgebung verhalten will?
00:03:00: Und deshalb muss es ein Thema der künstlichen Intelligenz sein eigentlich schon fast relativ
00:03:05: spät, dass es erst jetzt im Hype-Cycle steht.
00:03:07: Ich hätte gedacht, dass das schon längst da ist.
00:03:10: Nein, ist es nicht.
00:03:12: Es ist ein relativ neues Thema.
00:03:14: Das kann man so nicht sagen.
00:03:16: In einem gewissen Sinne, in der Research Community besteht dieses Thema schon lange.
00:03:20: Und viele der Dinge, über die wir heute sprechen, sind auch in einem gewissen Sinne nicht neu.
00:03:24: Nur neu ist es natürlich, dass das auch in einem entsprechend skalierten Maßstab heute
00:03:30: auf Real-World-Daten angewendet werden muss und in Real-World-Aplikationen natürlich einfließen
00:03:36: muss.
00:03:37: Und das ist es natürlich, was wir auch unter Causal AI verstehen.
00:03:39: All das, was jetzt in dem Research-Umfeld in den letzten 5, 10, 20 oder sogar 30 Jahren
00:03:47: entstanden ist und viele Dinge gehen auch relativ weit zurück.
00:03:50: Dass diese Dinge jetzt auch wirklich in intelligente Verfahren, in intelligente Applikationen,
00:03:56: im Sinne von Artificial Intelligence umgesetzt werden, das ist für mich Causal AI.
00:04:01: Und wie kriege ich jetzt Kausalität an die AI dran?
00:04:05: Man muss natürlich erst mal das Problem verstehen.
00:04:07: Um was geht es denn dabei eigentlich?
00:04:09: Ich mache vielleicht nochmal den einen Vergleich und ich führe dich dann vielleicht mal durch
00:04:13: ein kleines Gedankenexperiment durch, um zu verstehen, um was es dabei eigentlich geht.
00:04:18: Den Begriff Predictive Modeling oder gerade im Industrie-Umfeld Predictive Maintenance,
00:04:23: den Begriff, den kennen wir all inzwischen alle.
00:04:26: Alle Denken ist gelöst, aber ist noch lange nicht gelöst?
00:04:28: Ja, es ist vielleicht auch noch lange nicht gelöst, aber es geht in erster Linie zum
00:04:31: Beispiel darum voraus zu sagen, mit der Wahrscheinlichkeit bei einer Maschine zum Beispiel einen Fehler
00:04:36: zu erwarten ist.
00:04:37: Damit ich mich rechtzeitig auf den Fehlerfall vorbereiten kann, rechtzeitig natürlich
00:04:40: auch eine Maintenance-Zyklus einleiten kann, was auch immer.
00:04:43: Also ich will sozusagen die Voraussage machen für einen Fehler.
00:04:47: Die nächste wichtige Frage dahinter oder vielleicht sogar die wichtigere Frage ist,
00:04:51: nicht mit welcher Wahrscheinlichkeit wird der Fehler passieren, sondern warum?
00:04:53: Was sind die kausalen Faktoren, die zu Fehlern führen, damit ich sie in Zukunft auch vermeiden
00:04:58: kann?
00:04:59: Und das ist eben das Thema Causal AI oder Causal Discovery, wie man es läuft, das ist
00:05:03: eben unter dem Begriff Causal Discovery.
00:05:05: Verständnis von Ursache, Wirkungszusammenhängen ausschließlich basieren auf Beobachtungsdaten,
00:05:10: also nur beobachtend.
00:05:11: So definieren wir den Begriff und warum ist das jetzt schwierig und warum ist das mit
00:05:17: dem Thema Predictive Modeling noch nicht gelöst?
00:05:19: Um eine Voraussage zu machen, muss ich nur korrelierte Größen kann.
00:05:23: Also an korrelierten Größen kann ich eine andere Größe Voraussagen.
00:05:26: Also wenn ich jetzt eine Voraussage machen will, ob jemand graue Haare hat, weil ich
00:05:29: ihm vielleicht ein Angebot für einen Haarfärbemittel machen will, dann ist es hilfreich zu wissen,
00:05:33: ob er die Brille trägt oder nicht, weil wenn jemand die Brille trägt, wenn er so ein
00:05:36: meistens älter oder älter ist, dann hat er vielleicht auch graue Haare.
00:05:39: Kann ich ein Predictive Model machen?
00:05:40: Ich habe beides.
00:05:41: Genau, zum Beispiel beides und ich habe auch beides.
00:05:45: Und warum habe ich beides oder warum haben wir beides, weil es einen Confounder ergibt,
00:05:49: nämlich das Alter.
00:05:50: Das Alter führt dazu, dass man dann eben irgendwann mal die Brille braucht, wenn man
00:05:54: kurzsichtig wird und dann auch graue Haare gibt, es gibt eine gemeinsame Ursache.
00:05:58: Aber natürlich, dass Tragen einer Brille ist keine Ursache dafür, dass man graue Haare
00:06:03: kriegt.
00:06:04: Ich kann an dem Tragen der Brille eine Wahrscheinlichkeit voraussagen, ob der Kunde den grauen Haare
00:06:08: hat oder nicht.
00:06:09: Aber es ist keine Ursache dafür.
00:06:10: Die gemeinsame Ursache ist das Alter.
00:06:12: Und wenn ich jetzt was dagegen tun will, dann muss ich die Ursachen kennen.
00:06:17: Gegen Alter kann man leider nichts machen.
00:06:19: Aber es gibt vielleicht andere Ursachen, wo man dann wirklich intervenieren kann, sich
00:06:22: also intelligent verhalten kann, um dann eben das Ziel, die grauen Haare zum Beispiel zu
00:06:28: vermeiden oder den Fehler dann eben zu vermeiden.
00:06:30: Und ja, jetzt haben wir schon ein bisschen das Themenfeld aufgerissen.
00:06:34: Wir wollen Ursache-Wirkungszusammenhänge verstehen und zwar rein beobachtend.
00:06:39: Lass uns das mal auf ein Industrie-Usecase übertragen.
00:06:42: Genau, ich würde dich vielleicht vorher nochmal ganz kurz durch diesen ...
00:06:45: Wo soll ich noch ein Gedanken-Experiment machen?
00:06:46: Genau, ich würde dich da mal ganz kurz durch, um auch die Challenge dabei nochmal zu erklären.
00:06:51: Ich habe hier mein Zimmer, ich habe da drei Schalter an der Tür und für an der Decke
00:06:55: und an der Wand.
00:06:56: Lichtschalter meinst du?
00:06:57: Lichtschalter, genau.
00:06:58: Das sind verschiedene Lampen.
00:06:59: Und wenn ich wissen will, welcher Schalter denn ursächlich welche Lampe bedient, was
00:07:03: mache ich dann?
00:07:04: Ich probier sie alle aus.
00:07:05: Genau, ich drücke natürlich drauf.
00:07:07: So, das heißt, wir haben ein Experiment gemacht.
00:07:10: Das ist schwierig in einer Produktionsanlage.
00:07:12: Also wenn ein Ingenieur einfach sagt, ich drehe jetzt mal an dem Parameter und gucke, ob
00:07:16: die Ergebnisqualität besser wird, dann werden wahrscheinlich viele Leute schreien, dann kann
00:07:19: man nicht einfach an irgendwelche Parameter drehen.
00:07:22: Das gleiche ist im Gesundheitsumfeld, da macht man natürlich auch Experimente, eine
00:07:26: klinische Studie mit einer Kontrolle und einer Interventionsgruppe, sauteuer, kann auch an
00:07:32: der Anlage ein Experiment zumachen, sauteuer verbietet sich oft.
00:07:35: Das heißt, wir wollen eigentlich nur beobachtend tätig sein.
00:07:38: Also wir wollen nur sozusagen jetzt beobachten, wer drückt auf welchen Lichtschalter und
00:07:42: welche Lampen gehen dabei an?
00:07:43: Also ich beobachte dich?
00:07:44: Genau, du beobachtest zum Beispiel mich und jetzt wäre es natürlich immer noch recht
00:07:48: leid, so siehst dich drücke auf einen Schalter und dann geht eine Lampe an, dann weißt du
00:07:52: auch, wo der kausale Zusammenhang ist.
00:07:55: Aber jetzt stellen wir uns das mal ein bisschen schwieriger vor.
00:07:58: Jetzt stellen wir uns vor, wir haben ein riesiges Bürogebäude oder eine Produktionshalle
00:08:02: und das sind hunderte, vielleicht tausende von Schaltern und hunderte von Lampen und
00:08:07: jeder Schalter schaltet irgendwelche Lampen und manche Lampen sind auch durch die Umgebungsbedingungen
00:08:11: gesteuert, ob es Tag oder Nacht ist, ob Bürozeiten sind oder durch den Bewegungsmelder
00:08:16: oder auch immer.
00:08:17: Das wird schon ein bisschen schwieriger, nur beobachtend zu gucken, welcher Schalter
00:08:21: gehört zu welcher Lampe.
00:08:22: Ja, du müsstet halt durch die ganze Produktion laufen und drücken, und ich laufe dir hinterher.
00:08:25: Ja, drücken darfst du ja nicht, weil wir dürfen ja keine Experimente machen, sondern
00:08:30: wir rekorden einfach nur die Daten, also wir halten einfach unseren Daten fest, wann
00:08:33: welcher Schalter gedrückt worden ist und wann welche Lampe angegangen ist.
00:08:36: Das ist jetzt immer noch recht einfach, das ist recht einfach, weil der Effekt instantan
00:08:42: erfolgt, also drückt auf eine Schalter und die Lampe geht unmittelbar an und außerdem
00:08:46: deterministisch.
00:08:47: Auf ein Schalter drückt es dann geht die Lampe in 99,9% der Fälle auch an, wenn sie
00:08:50: nicht kaputt ist.
00:08:51: Deshalb ist immer noch recht einfach das aus diesen Daten zu erkennen.
00:08:54: Aber so ist es ja nicht.
00:08:56: So im Industrieumfeld, wir reden von Six Sigma, also wo wir Fehlerwahrscheinlichkeiten im
00:08:59: Promilbereich sind und wenn irgendein Parameter die Fehlerwahrscheinlichkeit auf 1% erhöht,
00:09:04: dann ist es eine Katastrophe.
00:09:05: Das heißt, jetzt stelln wir uns mal vor, unsere Schalter schalten die Lampen nicht
00:09:10: deterministisch an, sondern nur mit der Wahrscheinlichkeit von dem Prozent.
00:09:13: Und außerdem nicht sofort, sondern erst nach ein, zwei Stunden.
00:09:17: Also in dem Produktionsprozess habe ich am Anfang auch irgendwie Parameter und das
00:09:20: Werkstück läuft durch den Produktionsprozess durch und am Ende kommt es raus, Stunden
00:09:24: später stellt sich raus, die Qualität ist nicht ausreichend.
00:09:27: Also stellen wir uns auch vor, unsere Schalter schalten die Lampen nur mit 1% Wahrscheinlichkeit
00:09:32: an und auch nur Stunden später.
00:09:33: Wenn ich jetzt die ganzen Daten habe, dann wird es schon schwierig.
00:09:37: Du als geschickter Ingenieur wirst es wahrscheinlich schnell sagen, ja, wenn man noch einfach,
00:09:43: gucke ich mir die Korrelation an zwischen diesen ganzen Schaltern und den ganzen Lampen
00:09:47: und dann sehe ich ja auf einer großen Koalitionsmatrix zum Beispiel, wer schaltet denn mit welcher
00:09:51: Lampen korreliert es.
00:09:52: Was wird jetzt passieren?
00:09:53: Sage du es mir?
00:09:55: Wir feststellen, jeder Schalter ist mit jeder Lampen korreliert.
00:09:59: Warum das?
00:10:00: Und zwar tatsächlich einfach, weil typischerweise einen gemeinsamen Grund gibt, warum viele
00:10:05: Schalter gleichzeitig gedrückt werden, weil viele Lampen dann gleichzeitig angehen,
00:10:09: nämlich zum Beispiel, wenn viele Leute ins Büro kommen.
00:10:11: Ach so, okay.
00:10:12: Drücken die natürlich alle gleichzeitig auf alle möglichen Schalter, also das heißt,
00:10:15: die Schalter werden dadurch korreliert gedrückt und natürlich gehen korreliert dann viele
00:10:19: der Lampen auch an und manche eben auch gesteuert durch die Umgebungsbedingungen oder durch
00:10:23: die Uhrzeit des Tages.
00:10:24: Wenn eben um 8 Uhr werden manche Lampen automatisch angestaltet, manche durch Bewegungsmelder,
00:10:28: wenn die Leute ins Büro kommen und so weiter, also plötzlich stellen wir fest von unseren
00:10:32: tausend Schaltern und tausend Lampen, finden wir über alle eine Korrelation.
00:10:35: Ach, und jetzt haben wir natürlich ein Problem.
00:10:38: Und das ist eben der klassische Fall.
00:10:40: Also Korrelation bedeutet eben nicht die Kausalität, Korrelationen beobachten wir unendlich viele,
00:10:45: jede Lampe ist mit jedem Schalter korreliert und Korrelationen sind dementsprechend belanglos.
00:10:49: Und wie finden wir jetzt trotzdem in dieser Situation die Kausalitäten raus, auch eben
00:10:55: unter der Prämisse, dass es eben nur Stunden später und nur mit einer kleinen Wahrscheinlichkeit
00:10:58: und jetzt wird es natürlich wirklich eine Challenge.
00:11:01: Das ist genau das Thema, das wir lösen.
00:11:03: Also wir müssen jetzt all diese Confounder da raus rechnen, also die Uhrzeit des Tages,
00:11:07: die Umgebungsbedingungen, ob es draußen hell oder dunkel ist und so weiter, müssen wir
00:11:10: alles wissen.
00:11:11: Und dann kann man solche Confounder da gewissermaßen raus rechnen und von diesen vielen Korrelationen
00:11:17: auf die tatsächlichen wenigen Kausalitäten runter bohren, runter schließen gewissermaßen.
00:11:23: Das ist es genau, was eben Causal Discovery beschreibt, einen solchen komplexen Daten mit
00:11:28: so umfangreichen Korrelationen dann eben die wenigen wirklichen potentiellen Kausalitäten
00:11:34: zu finden.
00:11:35: Und das ist eben genau das, was auch Explendator an Algorithmik und Verfahren mit sich bringt.
00:11:40: Und es ist eines auch evident geworden in diesem Gedankenexperiment.
00:11:45: Wir brauchen natürlich wahnsinnig umfangreiche Daten.
00:11:48: Natürlich Daten über alle Schalter und alle Lampen.
00:11:52: Klar, also wenn ich die kausalen Faktoren nicht in den Daten habe, Informationen über
00:11:56: die Schalter, dann kann es natürlich auch schwer finden.
00:12:00: Dann kann ich bestenfalls indirekte Hinweise finden.
00:12:02: Und wie wir aber gesehen haben, langt nicht nur das.
00:12:05: Ich brauche jetzt auch noch einen ganzen Haufen Kontextinformation über Bürozeit, über ob
00:12:10: es draußen dunkel oder hell ist und dergleichen Dinge mehr.
00:12:13: Ich brauche plötzlich auch noch jede Menge Kontextinformation.
00:12:17: Am Ende brauche ich also sehr, sehr, sehr umfangreichen Daten, um eben Korrelation von
00:12:23: Kausalität zu unterscheiden.
00:12:24: Und da kommt unser zweites Asset ins Spiel, nämlich unsere Object Analytics Technologie, um solche
00:12:30: komplexen und umfangreichen Daten überhaupt handhaben zu können, um dann solche Verfahren,
00:12:35: solche numerisch sehr aufwendigen Verfahren zu implementieren, die dann eben die ganzen
00:12:38: Confounder rausrechnen, so eine extensive Suche bilden und am Ende unter den vielen
00:12:43: Kausalitäten wenige relevante Hypothesen generieren für tatsächliche Kausalitäten.
00:12:48: Jetzt hast du gesagt, du brauchst viele Daten, aber Industrieanwendung, hm, schwierig immer.
00:12:54: Ja, das ist natürlich manchmal schwierig, dass die Daten in der Form oft noch nicht
00:12:59: da sind, aber man ist natürlich schon auf den Weg dahin.
00:13:02: Und es gibt natürlich schon viele Anstrengungen, diese Daten auch zu sammeln.
00:13:06: Also der Begriff SCADA, der ist ja nicht neu, Supervisory Controlling and Data Acquisition Systems,
00:13:12: wo Daten natürlich entlang einer Produktionsstrecke möglich systematisch erfasst werden oder
00:13:17: auch Begriffe wie MES, einem Manufacturing Execution System.
00:13:21: Da sind dann oft schon die Daten zu finden, die umfangreichen Daten entlang eines ganzen
00:13:27: Produktionsprozesses, die wir dann auch brauchen, um eben solche Causal Discovery Verfahren
00:13:32: auf eine Produktionsstrecke anzuwenden.
00:13:34: Und jetzt lass uns mal auf eine Produktionsstrecke gehen.
00:13:36: Hast du ein Beispiel?
00:13:37: Ja genau, wir nehmen mal ein Beispiel.
00:13:39: Also eins unserer ersten Projekte auch, wo uns ein Kunde sehr früh das Vertrauen geschenkt
00:13:43: hat und ein schönes Beispielprojekt ist die Produktion von Zylinderköpfen.
00:13:48: Das machen wir zusammen mit einer Partner-Companie mit den schwäbischen Werkzeugmaschinen, die
00:13:52: rüsten solche Produktionsanlagen mit Werkzeugmaschinen aus.
00:13:55: Speziell da war es eine Produktionsanlage von Schabmüller, wo Zylinderköpfe für
00:14:00: Daimler produziert werden und so ein Zylinderkopf, der kommt in die Produktionsanlage rein.
00:14:05: Und wenn er reinkommt, dann trägt er schon jede Menge Daten gewissermaßen mit sich.
00:14:08: Also zum Beispiel über den Gussprozess, mit welchem Nest das gegossen worden ist.
00:14:13: Da würden wir uns noch viel mehr Parameter über den Gussprozess auch wünschen, die
00:14:16: nur teilweise zur Verfügung stehen.
00:14:18: Und dann geht der Produktionsprozess los.
00:14:20: Der Laser schreibt erst mal eine Idee rein.
00:14:22: Dann werden natürlich Löcher gebohrt, wird verschiedenes geräßt, mit verschiedenen
00:14:27: Kräften und Drücken, die da eben aufgenommen werden.
00:14:30: Und dann werden Teile montiert, wo natürlich auch in dem Produktionsprozess die Kräfte
00:14:33: festgehalten werden.
00:14:34: Dann wird ein Adapter montiert und dann geht das Ding zum Schluss in die Dichtigkeitsprüfung.
00:14:39: Und dann passiert es natürlich, dass der Zylinderkopf manchmal nicht ausreichend dicht ist.
00:14:45: Und sowas will man dann auf keinen Fall in seinem Auto haben.
00:14:48: Und in dem Fall war es dann so, dass eine Misserfolgsrate in der Größenordnung von
00:14:52: über 5 % hatte.
00:14:53: Und das ist natürlich dann schon empfindlich.
00:14:55: Und dann stellt sich natürlich die Frage, was entlang des ganzen Produktionsprozesses
00:15:01: rückwärts sind Ursachen dafür, dass das Ding hinterher nicht dicht ist.
00:15:05: Und wir haben unsere Verfahren dann angewandt.
00:15:09: Und bei diesem Beispiel mit Korrelation und Kausalität zu bleiben, also wenn man sich die
00:15:13: Daten deskriptiv anguckt, dann sieht man zum Beispiel, dass bei der Nachtschicht hat eine
00:15:18: Misserfolgsrate von über 8 %, die Morgenschicht liegt bei 5 % und die Spätschicht nur bei
00:15:24: 3 %.
00:15:25: Ist ja erstmal überraschend.
00:15:27: Und ein klassischer Manager, der sich ...
00:15:30: Das ist jetzt Korrelation, oder?
00:15:32: Genau, das ist jetzt Korrelation, aber natürlich ...
00:15:34: Sie sind zu doof in der Nachtschicht.
00:15:36: Genau, das ist was passiert.
00:15:38: Der Manager, der Klassische, der wird jetzt die Peitsche rausholen und mal gucken, was
00:15:43: denn da los ist in der Nachtschicht.
00:15:45: Und jetzt ist natürlich die Frage, ist es wirklich die Nachtschicht.
00:15:48: Und da gab es jetzt ein relativ interessantes Ergebnis, nämlich als ein primären Faktor,
00:15:53: der sich da rausgestellt hat, ist, dass wenn die Werkstücktemperatur bei der Dichtprüfung
00:15:58: zu niedrig ist, führt es dazu, dass die Dichtprüfung nicht verlässlich funktioniert
00:16:03: und dann dadurch ein negatives Ergebnis entsteht.
00:16:05: Also tatsächlich in sehr vielen Fällen ein falsch negatives Ergebnis.
00:16:10: Also die Zylinderköpfe waren tatsächlich oft dicht, nur die Dichtprüfung hat nicht
00:16:14: bei sehr niedrigen Werkstücktemperaturen nicht ausreichend funktioniert.
00:16:18: Natürlich besonders ärgerlich.
00:16:20: Und das werden jetzt dann eben nicht nur die direkten Faktoren analysiert, sondern auch
00:16:26: die indirekten.
00:16:27: Das ist ein weiterer Second-Level-Faktor gewissermaßen, stellte es sich heraus, dass das insbesondere
00:16:33: dann immer passiert, wenn ein großer Zeitabstand besteht zwischen der Waschmaschine, also
00:16:39: wenn der Zylinderkopf sparenend bearbeitet worden ist, geht er zum Schluss durch die
00:16:44: Waschmaschine.
00:16:45: Da wird dann mit einer definierten Temperatur gewaschen, dann kommt er auf den Förderband,
00:16:48: geht es weiter zur Dichtprüfung.
00:16:50: Und wenn der Zeitabstand so ist,
00:16:53: zu groß ist, kühlt der Zylinderkopf aus und dann funktioniert die Dichtprüfung nicht.
00:16:56: Also ein Second Level Faktor, dafür war dann eben das...
00:16:59: Dann hat die Nachtschicht eigentlich richtig schnell und gut gearbeitet.
00:17:03: Ja, die Nachtschicht hat langsamer gearbeitet,
00:17:05: beziehungsweise ist es anzunehmen, dass in der Nachtschicht natürlich die Umgebungstemperatur
00:17:09: niedriger ist, also deshalb die Zylinderköpfe schneller auskühlen und eben bei niedriger
00:17:12: Werkstücktemperatur funktioniert die Dichtprüfung nicht. Mit dem Ergebnis, dass in der Nacht es kälter,
00:17:19: deshalb sind die Zylinderköpfe kälter, deshalb haben wir noch häufiger eben falsche negative
00:17:23: Ergebnisse und die Nachtschicht ist dafür nicht in Verantwortung zu nehmen. Also so sieht man auch
00:17:29: nochmal den schönen Unterschied zwischen der Korrelation und natürlich auch falschen...
00:17:34: Jetzt sind wir wieder bei dem Thema künstliche Intelligenz. Es ist natürlich nicht sehr intelligent
00:17:37: jetzt mit der Peitsche in die Nachtschicht zu gehen, sondern man muss die wirklichen Ursachen finden,
00:17:42: um an den wirklichen Ursachen zu drehen.
00:17:45: Na ja, deine AI macht ja im Prinzip die Prüfung. Wir haben ein Vision System oder keine Ahnung
00:17:49: und dann sagt der Achtung Fehler, aber jetzt musst du deine Kausalität, warum ist der da?
00:17:53: Genau, unsere AI nimmt natürlich die ganzen Daten entlang des Produktionsprozesses auf,
00:17:58: die aus dem Skada-System kommen, aus allen Produktionsschritten, natürlich auch mit Urzeiten,
00:18:03: also wann gewaschen worden ist, wann es dann in die Dichtprüfung gegangen ist und natürlich
00:18:06: auch das Ergebnis. Und aus diesem statistischen Material haben von vielen geprüften Zylinderköpfen
00:18:13: kann man dann eben erstsehen, unter welchen Bedingungen und nicht nur unter welchen
00:18:16: korrelativen Bedingungen, sondern was die potenziell kausalen Faktoren sind.
00:18:20: Unser Verfahren spuckt dann eben aus. Niedrige Werkstücktemperatur bei der Prüfung verursacht
00:18:26: durch eine lange Wartezeit zwischen Waschmaschine und Dichtprüfung und die schnelle Maßnahme,
00:18:31: das Problem zu beheben, war dann auch tatsächlich die Waschmaschine. In dem Moment, wo Werkstücke
00:18:36: auf der Förderstrecke zwischen Waschmaschine und Dichtprüfung liegen, sind und sich ein
00:18:41: gewisseres Stau bildet, wo sich die Werkstücke abkühlen können, die Waschmaschine abgeschalten
00:18:45: wird und die Waschmaschine eben nur wäscht, wenn die Bahn frei ist von der Waschmaschine
00:18:49: direkt in die Dichtprüfung. Das war jetzt die intelligente Intervention, als eine erste
00:18:55: Maßnahme, um das Problem zu beheben oder jedenfalls zu verbessern.
00:18:59: Und das heißt, er sucht in diesem großen Datensatz, den ihr eurem Algorithmus gibt, sucht er im Prinzip
00:19:05: diese Patterns oder wie kann man es sein? Genau, also man natürlich sucht es zunächst auch
00:19:10: nach Korrelationen. Es sieht natürlich auch, dass die Uhrzeit des Tages oder die Schicht
00:19:14: korreliert ist, findet dann aber sehr schnell, dass sich das erklären lässt durch andere Faktoren
00:19:19: und dass der eigentliche Faktor die Werkstücktemperatur ist. Und hier sieht man auch wiederum natürlich,
00:19:24: wir brauchen diesen umfassenden Blick, wir brauchen natürlich Informationen über die
00:19:27: Uhrzeit des Tages, über die Schicht, über die Werkstücktemperatur und wenn wir das haben,
00:19:32: dann werden, es werden tatsächlich Millionen von Faktoren geprüft, Millionen von Faktoren,
00:19:37: die korreliert sind. Was Menschen nie sehen können. Genau, und für all diese Millionen
00:19:41: von Faktoren wird genauso geprüft, ob sich diese Faktoren durch einen Confounder erklären lassen.
00:19:46: Also es erfolgt gleichzeitig eine ähnlich intensive Suche nach Confoundern und am Ende
00:19:51: werden unter diesen vielen korrelierten Faktoren, werden am Ende nur die präsentiert, die sich eben
00:19:57: nicht über einen Confounder erklären lassen, etwas vereinfacht dargestellt, und die damit eine
00:20:02: wahrscheinlich Hypothese für einen kausalen Zusammenhang sind. Wie lange dauert so ein Projekt,
00:20:07: Michael? Du meinst ein Projekt oder wie lange dieses Suche algorithmisch dauert? Das ganze Projekt,
00:20:12: das du da gemacht habt. Das hängt jetzt natürlich sehr, sehr von dem Geld ab. Natürlich kommt es drauf an.
00:20:19: Und wir wissen auch in dem Moment, wo man Real World Daten in die Hand nimmt,
00:20:24: sieht man den Schmutz in den Daten und also ich könnte dir jede Antwort geben,
00:20:29: das kann ganz schnell gehen. Es geht auch ganz schnell, wenn wir qualitative hochwertige Daten
00:20:34: vorfinden. Was de facto aber ja selten der Fall ist. Wenn man dann wirklich anfängt,
00:20:40: mit solchen Verfahren in die Tiefe der Daten hinein zu gucken, dann sieht man auch, was da alles
00:20:44: für ein Müll in den Daten ist. Wo es noch Qualitätsprobleme gibt, wo natürlich auch noch was fehlt.
00:20:49: Und da fangen ja die meisten Datenprojekte dann an. Und wirklich diese ganzen Daten zu aquirieren
00:20:55: und in einer einigermaßen vernünftigen Form drinnen zu haben, das dauert dann natürlich
00:20:58: schon ein bisschen länger. Und jetzt habe ich ja gesagt, wir brauchen umfassende Daten. Und umfassend
00:21:04: heißt natürlich auch aus verschiedenen Quellen potenziell muss man die Daten zusammenziehen.
00:21:08: Und dann kann das natürlich schon mal ein bisschen länger dauern. Also wir machen typischerweise
00:21:12: Proof of Concept Projekte die so in der Größenordnung drei Monate dauern. So lang dauert es dann schon.
00:21:17: Und bis man das dann einigermaßen systematisch aufgesetzt hat, dauert es natürlich dann oft
00:21:21: mal ein bisschen länger. Also da kommen dann natürlich viele Dinge noch mit dazu. Wir wollen
00:21:25: ja auch am Ende nicht eine One-Shot-Analyse machen, sondern am Ende wollen wir, dass das ja in dem
00:21:31: nachhaltigen Betrieb ist, dass jeden Morgen das Quality Management Team die neuesten Berichte auf
00:21:37: dem Schreibtisch liegen hat. Und das natürlich in die Prozesse zu integrieren, in die Produktionsprozesse
00:21:42: und in die Abläufe. Solche Dinge passieren nicht von heute auf morgen. Da komme ich insbesondere
00:21:48: auch noch mal auf unseren Causal-Discovery-Bot zu sprechen. Also wir können so eine Analyse,
00:21:52: gibt es eine schöne Oberfläche, da kann man lustig rumklicken und kann so eine Causal-Discovery-Analyse
00:21:58: starten. Am Ende will man da aber nicht jeden Morgen da drin rumklicken, sondern idealerweise
00:22:03: will man, dass im Hintergrund dieses Verfahren läuft und eine Anlage permanent monitort,
00:22:08: hinsichtlich des Auftretens von potentiellen neuen kausalen Faktoren, die bislang noch nicht bekannt
00:22:14: waren. Und genau das tut unser Causal-Discovery-Bot. Der läuft, dann nimmt die Daten zum Beispiel
00:22:19: in den letzten sechs Monaten, ermittelt die kausalen Faktoren auf den letzten sechs Monaten, das sind
00:22:24: dann Faktoren, die man meistens schon kennt. Dann nimmt er die Daten des letzten Tages oder
00:22:28: auch nur der letzten Woche, baut noch mal so ein Causal-Discovery-Modell, vergleicht die Ergebnisse
00:22:34: und wenn dann neue Faktoren da drinnen entstehen, die vorher noch nicht bekannt waren, dann werden
00:22:38: die automatisch gemeldet. Dann kommen die in den Select-Channel oder in den E-Mail-Channel und liegen
00:22:43: dann eben, wenn das Quality Management Team tagt, morgens beim Quality Management Team auf
00:22:48: ein Schreibtisch. Und da wollen wir hin. Wir wollen ja nicht eine One-Shot-Fancy-Analyse machen,
00:22:53: sondern wir wollen es in die Prozesse integrieren und natürlich, dass dann in einer Company in
00:22:58: solche Prozesse zu integrieren oder Causal Discovery-Bot im Hintergrund automatisch läuft,
00:23:03: da ist dann natürlich schon ein bisschen längerer Weg zu gehen. Das kommt ja aus dem
00:23:08: Gesundheitswesen oder? Richtig, genau. Also X-Band Data ist tatsächlich im Gesundheitsumfeld
00:23:13: gestartet. Viele sehr illustrative Beispiele kommen auch aus dem Gesundheitsumfeld und
00:23:18: vieles kann man da auch sehr plakativ darstellen und tatsächlich haben wir da auch angefangen.
00:23:22: Dann haben unsere Object Analytics Technologie in dem Umfeld entwickelt und ich komme vielleicht
00:23:28: auch nochmal auf dieses zweite Asset zu sprechen auf das Thema Object Analytics, das Thema Causal
00:23:34: Discovery das ist sehr plakativ, das Thema Object Analytics vielleicht weniger, aber die Grundlage
00:23:39: für unsere Causal Discovery Verfahren und zwar wir sind ja gemeinsam jetzt zu der Schlussfolgerung
00:23:45: gekommen. Wir brauchen wahnsinnig umfangreiche Daten. Wir brauchen alle Schalter, alle Lampen,
00:23:50: alle möglichen Umgebungsbedingungen und so weiter. So was heißt denn das im Gesundheitsumfeld, wenn ich
00:23:56: mir umfangreiche... Super schwierig, Patientenbefragung ohne Ende. Patientendaten, genau. Patientendaten,
00:24:02: wenn ich mal das richtige Stichwort hier nenne. Also hier ist es nicht SCADA, sondern hier ist es die
00:24:07: elektronische Patientenakte. Was sieht so was aus? Also es gibt so eine Open Source Implementierung,
00:24:13: ich hatte ungefähr 200 verschiedene Tabellen. Kann man sich gut vorstellen, Diagnosen, Verschreibungen,
00:24:19: Prozeduren, Laborwerte, ich weiß nicht was, ja. Hat man natürlich schnell mal ein Datenschema mit 200
00:24:25: verschiedenen Tabellen. Da kann man wirklich von umfangreichen Patientendaten sprechen. Das impliziert,
00:24:31: aber natürlich auch, dass solche Real-World-Daten sind alles andere als eine flache Tabelle,
00:24:36: sondern Real-World-Daten sind höllekomplex. Mit einem sehr komplizierten Datenschema
00:24:41: dutzen sehr potenziell hunderte von Tabellen wie eben im Gesundheitsumfeld. Und da entsteht
00:24:46: natürlich eine riesen Gap. Wenn man sich heute Machinelearning-Verfahren anguckt, dann die meisten
00:24:52: Machinelearning-Verfahren setzen auf einer flachen Tabelle auf. Man hat 20 unabhängige Variable und
00:24:58: eine Zielvariable und dann kann man predictive Model bauen, aber letztendlich halt denkt unsere
00:25:02: Welt des Machinelearnings eben sehr stark in einer flachen Welt. Und jetzt sind wir plötzlich mit
00:25:08: Real-World-Daten konfrontiert, die alles andere als flach sind, 200 Tabellen. Und nur da finden wir
00:25:13: umfangreiche Daten, die wir eben für Causal Discovery brauchen. Und diesen Gap zu schließen,
00:25:19: das ist eben die zweite Mission von Explain Data. Das tun wir in Form unserer Object-Analytics-Datenbank,
00:25:25: tatsächlich also eine relationale Datenbank, zerlegt das Objekt im Fokus der Analyse in
00:25:32: die verschiedenen Entitäten und speichert die verschiedenen Entitäten in verschiedenen Tabellen.
00:25:36: Also die Diagnosen in der einen Tabelle, die Verschreibungen in der anderen Tabelle und das
00:25:41: muss eine Relationale Datenbank so machen, dass ein komplexes Objekt in seine Entitäten zu zerlegen,
00:25:46: um die eben getrennt managen zu können. Jetzt, wenn man ein so komplexes Objekt in seine Entitäten
00:25:53: zerlegt und weit verteilt über Tabellen gespeichert hat, dann kann man es sehr schwer ganzheitlich
00:25:57: analysieren. Und das ist ja das, was wir brauchen. Wir brauchen den ganzheitlichen Blick auf den
00:26:02: Patienten oder im Produktionsumfeld eben ist unser Patient das Werkstück. Also ich brauche den
00:26:07: ganzheitlichen Blick auf das Werkstück oder auf die Maschine. Und wir machen das gewissermaßen
00:26:12: rückgängig. Also wir führen alle Daten zu einem Patienten oder zu dem Objekt im Fokus der zu
00:26:17: einer Maschine. Die werden gewissermaßen wieder zusammengeführt aus den verschiedenen Tabellen
00:26:22: in ein Objekt, in ein Patientenobjekt. Man darf sich das dann wirklich so vorstellen,
00:26:27: also auch softwaretechnisch, dass also alle Informationen da in einer Struktur hängen,
00:26:32: wo alle Informationen zu einem Patienten in einem Patientenobjekt gemeinsam zugreifbar sind. Und
00:26:36: erst diese Datenstruktur ermöglicht es uns, dieses sehr schnellen Suchverfahren zu implementieren.
00:26:41: Und das ist tatsächlich das zweite Asset, das Explain Data mit sich bringt, eben so komplexe
00:26:47: Objekte im analytischen Zugriff zu haben, übergreifend über die vielen Unterobjekte. Und
00:26:53: das ist, das ist ein Asset für sich, also gerade im Gesundheitsumfeld, weil du es ansprichst,
00:26:59: woher wir kommen, ist das schon ein für sich allein ein großes Asset. Zum Beispiel eben gestellte
00:27:05: Diagnosen in Relation zu verschriebener Arzneimittel viel einfacher analysieren zu können. Und diese
00:27:12: Object-Analytics-Technologie für sich ist eben schon ein Asset, einer komplexen Landschaft,
00:27:17: diskriptive Analysen sehr effizient durchführen zu können. Und am Ende ist es die Grundlage,
00:27:22: dafür auch eben unsere Causal Discovery Verfahren zu implementieren, die also diese
00:27:27: Object Analytics Darstellung der Daten nutzen, um dann so eine intensive Suche mit Millionen
00:27:33: von möglichen Faktoren eben sehr schnell auf einer solchen Object Analytics Datenbank durchführen
00:27:37: zu können. Wer ist da schon zu bereit? Michael. Das ist nur was für die ganz großen? Ja,
00:27:45: das ist eine sehr gute Frage. Ich freue mich fast über die Frage. Wer ist dazu bereit? Ja,
00:27:52: es ist eine Aufforderung gewissermaßen auch. Und wir sind eine sehr kleine Start-up-Company,
00:27:58: die auch noch nicht so eine große Sichtbarkeit hat. Wir sind selbst finanziert, wir haben
00:28:01: bewusst auf Risikokapital verzichtet, aber das sind dementsprechend noch nicht so sehr stark
00:28:05: sichtbar. Haben aber trotzdem zwei extrem spannende Assets im Form von Causal Discovery und
00:28:10: Object Analytics und stellen uns natürlich auch die Frage, wer ist dazu bereit? Und wir haben
00:28:14: also einige Kunden, die uns sehr früh das Vertrauen gegeben haben aus dem Gesundheitsumfeld, eben
00:28:20: aber auch aus dem Industrieumfeld, das Beispiel mit der Zylinderkopfproduktion, habe ich genannt,
00:28:23: bei Siemens haben wir auch ein spannendes Projekt. Da ist das produzierte Werkstück,
00:28:27: eine Leiterplatte, also Printed Circuit Boards, und hat uns auch einen Innovator gefunden, der ganz
00:28:33: früh diese Technologien einsetzt. Und natürlich sind wir darauf angewiesen, solche oder ob dass
00:28:37: solche innovationsbegeisterten Leute zu finden, um das voranzubringen, hoffen aber natürlich
00:28:43: jetzt, auch immer mehr in der Breite diese Assets zur Verfügung stellen zu können. Und
00:28:48: deine Frage daher sehr gut, wer ist dazu bereit? Klar, würden wir uns freuen über mehr Leute,
00:28:54: die zu solchen innovativen Projekten bereit sind. Aber natürlich ist es ein neues Thema.
00:29:00: Es redet jeder heute über Large Language Models und ich weiß nicht was, aber ganz oben auf dem
00:29:06: Hypecycle. Aber wenn wir immer erst auf Themen ausspringen, wenn sie ganz oben auf dem Hypecycle
00:29:12: sind, dann sind wir immer Follower. Das ist spannend, was du sagst, weil ich habe vor zwei Tagen mit dem
00:29:17: Jan Koutnik gesprochen. Der Jan Koutnik ist former Nasens, Jürgen Schmidhuber hat sich jetzt
00:29:22: selbstständig mit einer Firma gemacht und der hat dann gesagt, ja, lass uns mal wieder Blue
00:29:26: Color AI machen. Also an der Maschine unten und da mal schauen, weil da gibt es noch so viel
00:29:32: ungelöste Themen, LLMs, Gen AI, alles schön und gut, aber lass uns wieder Blue Color AI machen,
00:29:38: weil da fehlt uns noch einiges. Gerne, also kann ich nur zustimmen. Also natürlich die Daten ganz
00:29:44: unten auf der Produktionsanlage aus den Maschinen. Wir brauchen sie natürlich am Ende, wie ich
00:29:49: dargestellt habe, wir brauchen den umfassenden Blick und natürlich eben auch auf der untersten Blue
00:29:54: Color Ebene und ich glaube auch, dass da Unmengen von Innovationen noch auf uns warten und Produktionsprozesse
00:30:02: dann wirklich intelligent zu machen, um ein Causal-Dicovery-Bot zu haben, der im Hintergrund
00:30:06: da durchläuft und unterstützt. Ich meine natürlich das Thema Produktion und Maschinen,
00:30:11: da ich meine, gerade da sollten wir in Deutschland ja versuchen weiterhin unsere Führungsrolle
00:30:15: zu behaupten und das heißt aber natürlich auch Themen aufnehmen, die jetzt am Anfang des
00:30:19: Hypecycles stehen noch nicht ganz oben und insofern würden wir uns natürlich freuen, da auch mehr
00:30:25: Innovatoren zu finden, auf die wir natürlich in der Frühphase einer Start-up-Company angewiesen
00:30:30: sind. Und jetzt seid ihr im Hypecycle, das steigt jetzt auf, dann kommt der Hype und dann kommt
00:30:35: das Tal der Tränen. Wann seid ihr da durch? Die Prognose ist ganz schwierig. Die Prognose ist
00:30:41: natürlich sehr, sehr schwierig. Ich meine, es gab auch Themen, die sind auf den Hypecycle gekommen
00:30:46: und sind dann einfach verschwunden, weil sie es eben nicht als wirklich so tragend herausgestellt
00:30:49: haben. Unsere Mission ist es, dass das nicht verschwindet und in der Kombination mit dem Thema
00:30:54: Object Analytics, ich will vielleicht auch nochmal ganz kurz darauf hinweisen, was Object Analytics
00:30:59: für eine Vision mit sich bringt. Wir reden heute, Maschinenlearning bewegt sich in einer
00:31:05: wesentlichen, in einer flachen Landschaft auf einer flachen Tabelle. Der Gap zu Real-Word-Daten,
00:31:10: ich habe es dargestellt, könnte nicht größer sein. Unsere Verfahren arbeiten nicht mehr
00:31:14: in einer flachen Welt, sondern arbeiten mit ganzen Objekten. So was ist das Konzept einer Variable
00:31:20: oder eines festen Satzes von Variablen, es gibt schon gar nicht mehr, sondern es gibt Millionen
00:31:25: von Projektionen entlang der Kanten des Objektbaums auf das Wurzelobjekt. Jede diese Projektionen ist
00:31:30: eine potentielle Variable. Also wir bewegen uns plötzlich in einer ganz anderen, also nicht mehr
00:31:36: flachen zweidimensionalen Welt, sondern sozusagen die Welt ist nicht flach, sondern rund oder
00:31:41: multidimensional oder anders gesprochen. Real-World-Daten sind komplex oder eine Maschine oder
00:31:47: ein Patient ist eben ein komplexes Objekt und wir stellen mit unserer Technologie Möglichkeiten
00:31:52: bereit, jetzt wegzugehen von Statistik in einer flachen Welt, sondern Statistik mit analytisches
00:31:59: Arbeiten mit ganzen Objekten. Und die Größe dieser Vision, die könnte ich jetzt beliebig groß
00:32:03: spielen und da glauben wir aber auch tatsächlich dran. Also unsere Mission ist natürlich klar,
00:32:09: das Thema Causal Discovery, aber mit dem Thema Causal Discovery auch Verfahren bereitzustellen,
00:32:14: wo man Maschinelearning-Verfahren in viel komplexeren Umgebungen, eben nicht flachen
00:32:19: Umgebungen am Ende eben analytisches Arbeiten mit ganzen Objekten. Und die Vision ist natürlich
00:32:25: groß. Und ich würde mich freuen, wenn wir das mal schaffen, hier in Europa und Deutschland auch eine
00:32:30: große Vision weiterzuentwickeln und unsere Vision ist es eben, dass dieses Thema nicht wieder runter
00:32:36: fällt von dem Hypecycle, auch das Thema Causality natürlich, sondern dass es vielleicht auch zu
00:32:40: einem großen Hype entwickelt. Natürlich würden wir uns da freuen. Und natürlich wird das Tal
00:32:47: der Tränen auch kommen. Das ist immer so. Und wenn man dann nach dem Tal der Tränen aber auf
00:32:51: das realitstische Niveau danach kommt, dann ist ja alles wunderbar. Jetzt würden wir uns einfach erst
00:32:57: mal freuen, wenn wir natürlich auch mehr innovationsbegeisterte Kunden und Partner hier in Deutschland
00:33:01: gewinnen. Wie gesagt, wir sind eine selbst finanzierte Start-up Company. Wir würden uns freuen, wenn
00:33:07: wir da auch die Umgebung finden, um sowas voranzubringen. Also man kann viel über Entrepreneurship
00:33:13: sprechen und mehr Entrepreneurship fordern. Wir brauchen dieses Entrepreneurship auch auf der
00:33:18: Gegenüberseite, auf der Seite der Kunden, nur wenn es auch da ist, dann kann das Ganze dann
00:33:22: zu funktionieren. Und das würden wir uns wünschen. Michael, vielen herzlichen Dank für dein Einblick
00:33:27: in euer Thema. War sehr, sehr spannend. Gerne. Vielen Dank auch von meiner Seite.
00:33:33: [Musik]
00:33:39: [Musik]
00:33:43: .
Neuer Kommentar