Was ist Causal AI?

Shownotes

Kennen Sie schon den Rexroth-Blog

Wenn Sie Fragen haben, dann wenden Sie sich gerne an: vertrieb@boschrexroth.de

Produziert von Bosch Rexroth AG, Vertrieb Europa Mitte Susanne Noll

Transkript anzeigen

00:00:00: Hallo liebe Zuhörerinnen und Zuhörer willkommen zu einer neuen Folge unseres Podcastes Industrie

00:00:09: neugedacht.

00:00:10: Mein Name ist Robert Weber und mir virtuell zugeschaltet ist der Dr.

00:00:14: Michael Haft.

00:00:15: Hallo Michael, grüß dich willkommen im Podcast.

00:00:17: Hallo Robert, vielen vielen Dank, dass ich in deinem spannenden Podcast mit dabei sein

00:00:20: darf heute.

00:00:21: Ja, wir freuen uns auch über ein sehr spannendes Thema zu sprechen.

00:00:24: Michael doch bevor es losgeht, stelle ich doch ganz kurz den Zuhörerinnen und Zuhörer vor.

00:00:28: Wer bist du?

00:00:29: Was machst du?

00:00:30: Gerne, gerne.

00:00:31: Mein Name ist Michael Haft von der Explain Data GmbH.

00:00:34: Also ich bin Mitgründer und Geschäftsführer der Explain Data GmbH.

00:00:38: Explain Data ist gegründet.

00:00:39: Schon 2015 gibt es also schon ein bisschen länger im Markt und wir entwickeln ein sehr

00:00:44: spannendes Thema.

00:00:45: Wir werden heute drüber sprechen, das Thema Causal Discovery und auch Object Analytics.

00:00:48: Zwei anspruchsvolle Software Produkte.

00:00:51: Das hat dann auch ein bisschen länger gedauert, das soweit zu bringen, dass es marktreif ist.

00:00:55: Vor Explain Data habe ich aber schon eine sehr lange Historie in dem Artificial Intelligence

00:01:00: Umfeld oder in den Maschinenlearning Umfeld.

00:01:02: Ich habe schon vor 20, 25 Jahren meine Doktorarbeit bei Siemens geschrieben in dem Bereich Neuroinformatik.

00:01:08: Wir haben die Company ausgegründet aus Siemens, haben da viel gelernt, wie man Start-up Companies

00:01:12: entwickelt.

00:01:13: Ich war einige Jahre bei Accenture, einige Jahre bei SAP.

00:01:16: Es war dann bei SAP mit ein paar Kollegen gesagt haben, nee, wir kommen jetzt so langsam

00:01:23: und so schwer verleg voran, wir brauchen da was anderes.

00:01:26: Und wir haben uns dann eben mit ein paar, mit zwei Kollegen von SAP und einem weiteren

00:01:30: haben dann eben auf die Beine gemacht und haben Explain Data gegründet, zunächst mal

00:01:34: auch mit Missionen ohne Risikokapital, zu nichts voran zu kommen.

00:01:37: Und ja, uns sind recht weit gekommen und ich freue mich, dass ich da heute ein bisschen

00:01:41: drüber berichten darf.

00:01:42: Wenn man auf den Gartner Hype-Cycle schaut, wo wir ja immer mal wieder draufschauen,

00:01:47: was geht gerade richtig ab, wo ist der Hype, dann ist Causal AI das Next Big Thing.

00:01:52: Was ist das denn eigentlich Causal AI?

00:01:54: Ja genau, das werden wir heute ein bisschen tiefer beleuchten.

00:01:58: Was ist eigentlich Causal AI?

00:01:59: Also es geht um das Verständnis von Ursache-Wirkungszusammenhängen, basierend auf Beobachtungsdaten.

00:02:05: So jedenfalls unsere Definition, was den Teil Causal Discovery angeht, Causal Influences

00:02:10: vielleicht immer ein bisschen was anderes.

00:02:11: Aber ich möchte natürlich gleich auf die Wichtigkeit des Themen hinweisen und es hat

00:02:15: jede Menge Grund dafür, dass dieses Thema auf dem Hype-Cycle steht.

00:02:20: Und man darf da auch noch einiges erwarten.

00:02:22: Also es steht unter dem Label Artificial Intelligence von einem intelligenten System.

00:02:28: Was würde man als Allererstes erwarten?

00:02:30: Dass es weiß, wie man ein Ziel erreicht.

00:02:32: Also in sich intelligent zu verhalten.

00:02:34: Richtig, genau.

00:02:35: Ich will ein Ziel erreichen, wenn ich intelligent bin.

00:02:37: Da muss ich natürlich wissen, was sind die Faktoren, an denen ich drehen muss, um dieses

00:02:42: Ziel zu erreichen.

00:02:43: Und dazu muss ich wissen, was Causal das Ziel beeinflusst.

00:02:47: Also insofern ist es natürlich richtig, dass das Thema Causal AI auf dem Hype-Cycle

00:02:52: on Artificial Intelligence steht.

00:02:54: Weil wenn nicht dort, wo dann muss man über Ursache Wirkung wissen, wenn man sich intelligent

00:02:59: in seiner Umgebung verhalten will?

00:03:00: Und deshalb muss es ein Thema der künstlichen Intelligenz sein eigentlich schon fast relativ

00:03:05: spät, dass es erst jetzt im Hype-Cycle steht.

00:03:07: Ich hätte gedacht, dass das schon längst da ist.

00:03:10: Nein, ist es nicht.

00:03:12: Es ist ein relativ neues Thema.

00:03:14: Das kann man so nicht sagen.

00:03:16: In einem gewissen Sinne, in der Research Community besteht dieses Thema schon lange.

00:03:20: Und viele der Dinge, über die wir heute sprechen, sind auch in einem gewissen Sinne nicht neu.

00:03:24: Nur neu ist es natürlich, dass das auch in einem entsprechend skalierten Maßstab heute

00:03:30: auf Real-World-Daten angewendet werden muss und in Real-World-Aplikationen natürlich einfließen

00:03:36: muss.

00:03:37: Und das ist es natürlich, was wir auch unter Causal AI verstehen.

00:03:39: All das, was jetzt in dem Research-Umfeld in den letzten 5, 10, 20 oder sogar 30 Jahren

00:03:47: entstanden ist und viele Dinge gehen auch relativ weit zurück.

00:03:50: Dass diese Dinge jetzt auch wirklich in intelligente Verfahren, in intelligente Applikationen,

00:03:56: im Sinne von Artificial Intelligence umgesetzt werden, das ist für mich Causal AI.

00:04:01: Und wie kriege ich jetzt Kausalität an die AI dran?

00:04:05: Man muss natürlich erst mal das Problem verstehen.

00:04:07: Um was geht es denn dabei eigentlich?

00:04:09: Ich mache vielleicht nochmal den einen Vergleich und ich führe dich dann vielleicht mal durch

00:04:13: ein kleines Gedankenexperiment durch, um zu verstehen, um was es dabei eigentlich geht.

00:04:18: Den Begriff Predictive Modeling oder gerade im Industrie-Umfeld Predictive Maintenance,

00:04:23: den Begriff, den kennen wir all inzwischen alle.

00:04:26: Alle Denken ist gelöst, aber ist noch lange nicht gelöst?

00:04:28: Ja, es ist vielleicht auch noch lange nicht gelöst, aber es geht in erster Linie zum

00:04:31: Beispiel darum voraus zu sagen, mit der Wahrscheinlichkeit bei einer Maschine zum Beispiel einen Fehler

00:04:36: zu erwarten ist.

00:04:37: Damit ich mich rechtzeitig auf den Fehlerfall vorbereiten kann, rechtzeitig natürlich

00:04:40: auch eine Maintenance-Zyklus einleiten kann, was auch immer.

00:04:43: Also ich will sozusagen die Voraussage machen für einen Fehler.

00:04:47: Die nächste wichtige Frage dahinter oder vielleicht sogar die wichtigere Frage ist,

00:04:51: nicht mit welcher Wahrscheinlichkeit wird der Fehler passieren, sondern warum?

00:04:53: Was sind die kausalen Faktoren, die zu Fehlern führen, damit ich sie in Zukunft auch vermeiden

00:04:58: kann?

00:04:59: Und das ist eben das Thema Causal AI oder Causal Discovery, wie man es läuft, das ist

00:05:03: eben unter dem Begriff Causal Discovery.

00:05:05: Verständnis von Ursache, Wirkungszusammenhängen ausschließlich basieren auf Beobachtungsdaten,

00:05:10: also nur beobachtend.

00:05:11: So definieren wir den Begriff und warum ist das jetzt schwierig und warum ist das mit

00:05:17: dem Thema Predictive Modeling noch nicht gelöst?

00:05:19: Um eine Voraussage zu machen, muss ich nur korrelierte Größen kann.

00:05:23: Also an korrelierten Größen kann ich eine andere Größe Voraussagen.

00:05:26: Also wenn ich jetzt eine Voraussage machen will, ob jemand graue Haare hat, weil ich

00:05:29: ihm vielleicht ein Angebot für einen Haarfärbemittel machen will, dann ist es hilfreich zu wissen,

00:05:33: ob er die Brille trägt oder nicht, weil wenn jemand die Brille trägt, wenn er so ein

00:05:36: meistens älter oder älter ist, dann hat er vielleicht auch graue Haare.

00:05:39: Kann ich ein Predictive Model machen?

00:05:40: Ich habe beides.

00:05:41: Genau, zum Beispiel beides und ich habe auch beides.

00:05:45: Und warum habe ich beides oder warum haben wir beides, weil es einen Confounder ergibt,

00:05:49: nämlich das Alter.

00:05:50: Das Alter führt dazu, dass man dann eben irgendwann mal die Brille braucht, wenn man

00:05:54: kurzsichtig wird und dann auch graue Haare gibt, es gibt eine gemeinsame Ursache.

00:05:58: Aber natürlich, dass Tragen einer Brille ist keine Ursache dafür, dass man graue Haare

00:06:03: kriegt.

00:06:04: Ich kann an dem Tragen der Brille eine Wahrscheinlichkeit voraussagen, ob der Kunde den grauen Haare

00:06:08: hat oder nicht.

00:06:09: Aber es ist keine Ursache dafür.

00:06:10: Die gemeinsame Ursache ist das Alter.

00:06:12: Und wenn ich jetzt was dagegen tun will, dann muss ich die Ursachen kennen.

00:06:17: Gegen Alter kann man leider nichts machen.

00:06:19: Aber es gibt vielleicht andere Ursachen, wo man dann wirklich intervenieren kann, sich

00:06:22: also intelligent verhalten kann, um dann eben das Ziel, die grauen Haare zum Beispiel zu

00:06:28: vermeiden oder den Fehler dann eben zu vermeiden.

00:06:30: Und ja, jetzt haben wir schon ein bisschen das Themenfeld aufgerissen.

00:06:34: Wir wollen Ursache-Wirkungszusammenhänge verstehen und zwar rein beobachtend.

00:06:39: Lass uns das mal auf ein Industrie-Usecase übertragen.

00:06:42: Genau, ich würde dich vielleicht vorher nochmal ganz kurz durch diesen ...

00:06:45: Wo soll ich noch ein Gedanken-Experiment machen?

00:06:46: Genau, ich würde dich da mal ganz kurz durch, um auch die Challenge dabei nochmal zu erklären.

00:06:51: Ich habe hier mein Zimmer, ich habe da drei Schalter an der Tür und für an der Decke

00:06:55: und an der Wand.

00:06:56: Lichtschalter meinst du?

00:06:57: Lichtschalter, genau.

00:06:58: Das sind verschiedene Lampen.

00:06:59: Und wenn ich wissen will, welcher Schalter denn ursächlich welche Lampe bedient, was

00:07:03: mache ich dann?

00:07:04: Ich probier sie alle aus.

00:07:05: Genau, ich drücke natürlich drauf.

00:07:07: So, das heißt, wir haben ein Experiment gemacht.

00:07:10: Das ist schwierig in einer Produktionsanlage.

00:07:12: Also wenn ein Ingenieur einfach sagt, ich drehe jetzt mal an dem Parameter und gucke, ob

00:07:16: die Ergebnisqualität besser wird, dann werden wahrscheinlich viele Leute schreien, dann kann

00:07:19: man nicht einfach an irgendwelche Parameter drehen.

00:07:22: Das gleiche ist im Gesundheitsumfeld, da macht man natürlich auch Experimente, eine

00:07:26: klinische Studie mit einer Kontrolle und einer Interventionsgruppe, sauteuer, kann auch an

00:07:32: der Anlage ein Experiment zumachen, sauteuer verbietet sich oft.

00:07:35: Das heißt, wir wollen eigentlich nur beobachtend tätig sein.

00:07:38: Also wir wollen nur sozusagen jetzt beobachten, wer drückt auf welchen Lichtschalter und

00:07:42: welche Lampen gehen dabei an?

00:07:43: Also ich beobachte dich?

00:07:44: Genau, du beobachtest zum Beispiel mich und jetzt wäre es natürlich immer noch recht

00:07:48: leid, so siehst dich drücke auf einen Schalter und dann geht eine Lampe an, dann weißt du

00:07:52: auch, wo der kausale Zusammenhang ist.

00:07:55: Aber jetzt stellen wir uns das mal ein bisschen schwieriger vor.

00:07:58: Jetzt stellen wir uns vor, wir haben ein riesiges Bürogebäude oder eine Produktionshalle

00:08:02: und das sind hunderte, vielleicht tausende von Schaltern und hunderte von Lampen und

00:08:07: jeder Schalter schaltet irgendwelche Lampen und manche Lampen sind auch durch die Umgebungsbedingungen

00:08:11: gesteuert, ob es Tag oder Nacht ist, ob Bürozeiten sind oder durch den Bewegungsmelder

00:08:16: oder auch immer.

00:08:17: Das wird schon ein bisschen schwieriger, nur beobachtend zu gucken, welcher Schalter

00:08:21: gehört zu welcher Lampe.

00:08:22: Ja, du müsstet halt durch die ganze Produktion laufen und drücken, und ich laufe dir hinterher.

00:08:25: Ja, drücken darfst du ja nicht, weil wir dürfen ja keine Experimente machen, sondern

00:08:30: wir rekorden einfach nur die Daten, also wir halten einfach unseren Daten fest, wann

00:08:33: welcher Schalter gedrückt worden ist und wann welche Lampe angegangen ist.

00:08:36: Das ist jetzt immer noch recht einfach, das ist recht einfach, weil der Effekt instantan

00:08:42: erfolgt, also drückt auf eine Schalter und die Lampe geht unmittelbar an und außerdem

00:08:46: deterministisch.

00:08:47: Auf ein Schalter drückt es dann geht die Lampe in 99,9% der Fälle auch an, wenn sie

00:08:50: nicht kaputt ist.

00:08:51: Deshalb ist immer noch recht einfach das aus diesen Daten zu erkennen.

00:08:54: Aber so ist es ja nicht.

00:08:56: So im Industrieumfeld, wir reden von Six Sigma, also wo wir Fehlerwahrscheinlichkeiten im

00:08:59: Promilbereich sind und wenn irgendein Parameter die Fehlerwahrscheinlichkeit auf 1% erhöht,

00:09:04: dann ist es eine Katastrophe.

00:09:05: Das heißt, jetzt stelln wir uns mal vor, unsere Schalter schalten die Lampen nicht

00:09:10: deterministisch an, sondern nur mit der Wahrscheinlichkeit von dem Prozent.

00:09:13: Und außerdem nicht sofort, sondern erst nach ein, zwei Stunden.

00:09:17: Also in dem Produktionsprozess habe ich am Anfang auch irgendwie Parameter und das

00:09:20: Werkstück läuft durch den Produktionsprozess durch und am Ende kommt es raus, Stunden

00:09:24: später stellt sich raus, die Qualität ist nicht ausreichend.

00:09:27: Also stellen wir uns auch vor, unsere Schalter schalten die Lampen nur mit 1% Wahrscheinlichkeit

00:09:32: an und auch nur Stunden später.

00:09:33: Wenn ich jetzt die ganzen Daten habe, dann wird es schon schwierig.

00:09:37: Du als geschickter Ingenieur wirst es wahrscheinlich schnell sagen, ja, wenn man noch einfach,

00:09:43: gucke ich mir die Korrelation an zwischen diesen ganzen Schaltern und den ganzen Lampen

00:09:47: und dann sehe ich ja auf einer großen Koalitionsmatrix zum Beispiel, wer schaltet denn mit welcher

00:09:51: Lampen korreliert es.

00:09:52: Was wird jetzt passieren?

00:09:53: Sage du es mir?

00:09:55: Wir feststellen, jeder Schalter ist mit jeder Lampen korreliert.

00:09:59: Warum das?

00:10:00: Und zwar tatsächlich einfach, weil typischerweise einen gemeinsamen Grund gibt, warum viele

00:10:05: Schalter gleichzeitig gedrückt werden, weil viele Lampen dann gleichzeitig angehen,

00:10:09: nämlich zum Beispiel, wenn viele Leute ins Büro kommen.

00:10:11: Ach so, okay.

00:10:12: Drücken die natürlich alle gleichzeitig auf alle möglichen Schalter, also das heißt,

00:10:15: die Schalter werden dadurch korreliert gedrückt und natürlich gehen korreliert dann viele

00:10:19: der Lampen auch an und manche eben auch gesteuert durch die Umgebungsbedingungen oder durch

00:10:23: die Uhrzeit des Tages.

00:10:24: Wenn eben um 8 Uhr werden manche Lampen automatisch angestaltet, manche durch Bewegungsmelder,

00:10:28: wenn die Leute ins Büro kommen und so weiter, also plötzlich stellen wir fest von unseren

00:10:32: tausend Schaltern und tausend Lampen, finden wir über alle eine Korrelation.

00:10:35: Ach, und jetzt haben wir natürlich ein Problem.

00:10:38: Und das ist eben der klassische Fall.

00:10:40: Also Korrelation bedeutet eben nicht die Kausalität, Korrelationen beobachten wir unendlich viele,

00:10:45: jede Lampe ist mit jedem Schalter korreliert und Korrelationen sind dementsprechend belanglos.

00:10:49: Und wie finden wir jetzt trotzdem in dieser Situation die Kausalitäten raus, auch eben

00:10:55: unter der Prämisse, dass es eben nur Stunden später und nur mit einer kleinen Wahrscheinlichkeit

00:10:58: und jetzt wird es natürlich wirklich eine Challenge.

00:11:01: Das ist genau das Thema, das wir lösen.

00:11:03: Also wir müssen jetzt all diese Confounder da raus rechnen, also die Uhrzeit des Tages,

00:11:07: die Umgebungsbedingungen, ob es draußen hell oder dunkel ist und so weiter, müssen wir

00:11:10: alles wissen.

00:11:11: Und dann kann man solche Confounder da gewissermaßen raus rechnen und von diesen vielen Korrelationen

00:11:17: auf die tatsächlichen wenigen Kausalitäten runter bohren, runter schließen gewissermaßen.

00:11:23: Das ist es genau, was eben Causal Discovery beschreibt, einen solchen komplexen Daten mit

00:11:28: so umfangreichen Korrelationen dann eben die wenigen wirklichen potentiellen Kausalitäten

00:11:34: zu finden.

00:11:35: Und das ist eben genau das, was auch Explendator an Algorithmik und Verfahren mit sich bringt.

00:11:40: Und es ist eines auch evident geworden in diesem Gedankenexperiment.

00:11:45: Wir brauchen natürlich wahnsinnig umfangreiche Daten.

00:11:48: Natürlich Daten über alle Schalter und alle Lampen.

00:11:52: Klar, also wenn ich die kausalen Faktoren nicht in den Daten habe, Informationen über

00:11:56: die Schalter, dann kann es natürlich auch schwer finden.

00:12:00: Dann kann ich bestenfalls indirekte Hinweise finden.

00:12:02: Und wie wir aber gesehen haben, langt nicht nur das.

00:12:05: Ich brauche jetzt auch noch einen ganzen Haufen Kontextinformation über Bürozeit, über ob

00:12:10: es draußen dunkel oder hell ist und dergleichen Dinge mehr.

00:12:13: Ich brauche plötzlich auch noch jede Menge Kontextinformation.

00:12:17: Am Ende brauche ich also sehr, sehr, sehr umfangreichen Daten, um eben Korrelation von

00:12:23: Kausalität zu unterscheiden.

00:12:24: Und da kommt unser zweites Asset ins Spiel, nämlich unsere Object Analytics Technologie, um solche

00:12:30: komplexen und umfangreichen Daten überhaupt handhaben zu können, um dann solche Verfahren,

00:12:35: solche numerisch sehr aufwendigen Verfahren zu implementieren, die dann eben die ganzen

00:12:38: Confounder rausrechnen, so eine extensive Suche bilden und am Ende unter den vielen

00:12:43: Kausalitäten wenige relevante Hypothesen generieren für tatsächliche Kausalitäten.

00:12:48: Jetzt hast du gesagt, du brauchst viele Daten, aber Industrieanwendung, hm, schwierig immer.

00:12:54: Ja, das ist natürlich manchmal schwierig, dass die Daten in der Form oft noch nicht

00:12:59: da sind, aber man ist natürlich schon auf den Weg dahin.

00:13:02: Und es gibt natürlich schon viele Anstrengungen, diese Daten auch zu sammeln.

00:13:06: Also der Begriff SCADA, der ist ja nicht neu, Supervisory Controlling and Data Acquisition Systems,

00:13:12: wo Daten natürlich entlang einer Produktionsstrecke möglich systematisch erfasst werden oder

00:13:17: auch Begriffe wie MES, einem Manufacturing Execution System.

00:13:21: Da sind dann oft schon die Daten zu finden, die umfangreichen Daten entlang eines ganzen

00:13:27: Produktionsprozesses, die wir dann auch brauchen, um eben solche Causal Discovery Verfahren

00:13:32: auf eine Produktionsstrecke anzuwenden.

00:13:34: Und jetzt lass uns mal auf eine Produktionsstrecke gehen.

00:13:36: Hast du ein Beispiel?

00:13:37: Ja genau, wir nehmen mal ein Beispiel.

00:13:39: Also eins unserer ersten Projekte auch, wo uns ein Kunde sehr früh das Vertrauen geschenkt

00:13:43: hat und ein schönes Beispielprojekt ist die Produktion von Zylinderköpfen.

00:13:48: Das machen wir zusammen mit einer Partner-Companie mit den schwäbischen Werkzeugmaschinen, die

00:13:52: rüsten solche Produktionsanlagen mit Werkzeugmaschinen aus.

00:13:55: Speziell da war es eine Produktionsanlage von Schabmüller, wo Zylinderköpfe für

00:14:00: Daimler produziert werden und so ein Zylinderkopf, der kommt in die Produktionsanlage rein.

00:14:05: Und wenn er reinkommt, dann trägt er schon jede Menge Daten gewissermaßen mit sich.

00:14:08: Also zum Beispiel über den Gussprozess, mit welchem Nest das gegossen worden ist.

00:14:13: Da würden wir uns noch viel mehr Parameter über den Gussprozess auch wünschen, die

00:14:16: nur teilweise zur Verfügung stehen.

00:14:18: Und dann geht der Produktionsprozess los.

00:14:20: Der Laser schreibt erst mal eine Idee rein.

00:14:22: Dann werden natürlich Löcher gebohrt, wird verschiedenes geräßt, mit verschiedenen

00:14:27: Kräften und Drücken, die da eben aufgenommen werden.

00:14:30: Und dann werden Teile montiert, wo natürlich auch in dem Produktionsprozess die Kräfte

00:14:33: festgehalten werden.

00:14:34: Dann wird ein Adapter montiert und dann geht das Ding zum Schluss in die Dichtigkeitsprüfung.

00:14:39: Und dann passiert es natürlich, dass der Zylinderkopf manchmal nicht ausreichend dicht ist.

00:14:45: Und sowas will man dann auf keinen Fall in seinem Auto haben.

00:14:48: Und in dem Fall war es dann so, dass eine Misserfolgsrate in der Größenordnung von

00:14:52: über 5 % hatte.

00:14:53: Und das ist natürlich dann schon empfindlich.

00:14:55: Und dann stellt sich natürlich die Frage, was entlang des ganzen Produktionsprozesses

00:15:01: rückwärts sind Ursachen dafür, dass das Ding hinterher nicht dicht ist.

00:15:05: Und wir haben unsere Verfahren dann angewandt.

00:15:09: Und bei diesem Beispiel mit Korrelation und Kausalität zu bleiben, also wenn man sich die

00:15:13: Daten deskriptiv anguckt, dann sieht man zum Beispiel, dass bei der Nachtschicht hat eine

00:15:18: Misserfolgsrate von über 8 %, die Morgenschicht liegt bei 5 % und die Spätschicht nur bei

00:15:24: 3 %.

00:15:25: Ist ja erstmal überraschend.

00:15:27: Und ein klassischer Manager, der sich ...

00:15:30: Das ist jetzt Korrelation, oder?

00:15:32: Genau, das ist jetzt Korrelation, aber natürlich ...

00:15:34: Sie sind zu doof in der Nachtschicht.

00:15:36: Genau, das ist was passiert.

00:15:38: Der Manager, der Klassische, der wird jetzt die Peitsche rausholen und mal gucken, was

00:15:43: denn da los ist in der Nachtschicht.

00:15:45: Und jetzt ist natürlich die Frage, ist es wirklich die Nachtschicht.

00:15:48: Und da gab es jetzt ein relativ interessantes Ergebnis, nämlich als ein primären Faktor,

00:15:53: der sich da rausgestellt hat, ist, dass wenn die Werkstücktemperatur bei der Dichtprüfung

00:15:58: zu niedrig ist, führt es dazu, dass die Dichtprüfung nicht verlässlich funktioniert

00:16:03: und dann dadurch ein negatives Ergebnis entsteht.

00:16:05: Also tatsächlich in sehr vielen Fällen ein falsch negatives Ergebnis.

00:16:10: Also die Zylinderköpfe waren tatsächlich oft dicht, nur die Dichtprüfung hat nicht

00:16:14: bei sehr niedrigen Werkstücktemperaturen nicht ausreichend funktioniert.

00:16:18: Natürlich besonders ärgerlich.

00:16:20: Und das werden jetzt dann eben nicht nur die direkten Faktoren analysiert, sondern auch

00:16:26: die indirekten.

00:16:27: Das ist ein weiterer Second-Level-Faktor gewissermaßen, stellte es sich heraus, dass das insbesondere

00:16:33: dann immer passiert, wenn ein großer Zeitabstand besteht zwischen der Waschmaschine, also

00:16:39: wenn der Zylinderkopf sparenend bearbeitet worden ist, geht er zum Schluss durch die

00:16:44: Waschmaschine.

00:16:45: Da wird dann mit einer definierten Temperatur gewaschen, dann kommt er auf den Förderband,

00:16:48: geht es weiter zur Dichtprüfung.

00:16:50: Und wenn der Zeitabstand so ist,

00:16:53: zu groß ist, kühlt der Zylinderkopf aus und dann funktioniert die Dichtprüfung nicht.

00:16:56: Also ein Second Level Faktor, dafür war dann eben das...

00:16:59: Dann hat die Nachtschicht eigentlich richtig schnell und gut gearbeitet.

00:17:03: Ja, die Nachtschicht hat langsamer gearbeitet,

00:17:05: beziehungsweise ist es anzunehmen, dass in der Nachtschicht natürlich die Umgebungstemperatur

00:17:09: niedriger ist, also deshalb die Zylinderköpfe schneller auskühlen und eben bei niedriger

00:17:12: Werkstücktemperatur funktioniert die Dichtprüfung nicht. Mit dem Ergebnis, dass in der Nacht es kälter,

00:17:19: deshalb sind die Zylinderköpfe kälter, deshalb haben wir noch häufiger eben falsche negative

00:17:23: Ergebnisse und die Nachtschicht ist dafür nicht in Verantwortung zu nehmen. Also so sieht man auch

00:17:29: nochmal den schönen Unterschied zwischen der Korrelation und natürlich auch falschen...

00:17:34: Jetzt sind wir wieder bei dem Thema künstliche Intelligenz. Es ist natürlich nicht sehr intelligent

00:17:37: jetzt mit der Peitsche in die Nachtschicht zu gehen, sondern man muss die wirklichen Ursachen finden,

00:17:42: um an den wirklichen Ursachen zu drehen.

00:17:45: Na ja, deine AI macht ja im Prinzip die Prüfung. Wir haben ein Vision System oder keine Ahnung

00:17:49: und dann sagt der Achtung Fehler, aber jetzt musst du deine Kausalität, warum ist der da?

00:17:53: Genau, unsere AI nimmt natürlich die ganzen Daten entlang des Produktionsprozesses auf,

00:17:58: die aus dem Skada-System kommen, aus allen Produktionsschritten, natürlich auch mit Urzeiten,

00:18:03: also wann gewaschen worden ist, wann es dann in die Dichtprüfung gegangen ist und natürlich

00:18:06: auch das Ergebnis. Und aus diesem statistischen Material haben von vielen geprüften Zylinderköpfen

00:18:13: kann man dann eben erstsehen, unter welchen Bedingungen und nicht nur unter welchen

00:18:16: korrelativen Bedingungen, sondern was die potenziell kausalen Faktoren sind.

00:18:20: Unser Verfahren spuckt dann eben aus. Niedrige Werkstücktemperatur bei der Prüfung verursacht

00:18:26: durch eine lange Wartezeit zwischen Waschmaschine und Dichtprüfung und die schnelle Maßnahme,

00:18:31: das Problem zu beheben, war dann auch tatsächlich die Waschmaschine. In dem Moment, wo Werkstücke

00:18:36: auf der Förderstrecke zwischen Waschmaschine und Dichtprüfung liegen, sind und sich ein

00:18:41: gewisseres Stau bildet, wo sich die Werkstücke abkühlen können, die Waschmaschine abgeschalten

00:18:45: wird und die Waschmaschine eben nur wäscht, wenn die Bahn frei ist von der Waschmaschine

00:18:49: direkt in die Dichtprüfung. Das war jetzt die intelligente Intervention, als eine erste

00:18:55: Maßnahme, um das Problem zu beheben oder jedenfalls zu verbessern.

00:18:59: Und das heißt, er sucht in diesem großen Datensatz, den ihr eurem Algorithmus gibt, sucht er im Prinzip

00:19:05: diese Patterns oder wie kann man es sein? Genau, also man natürlich sucht es zunächst auch

00:19:10: nach Korrelationen. Es sieht natürlich auch, dass die Uhrzeit des Tages oder die Schicht

00:19:14: korreliert ist, findet dann aber sehr schnell, dass sich das erklären lässt durch andere Faktoren

00:19:19: und dass der eigentliche Faktor die Werkstücktemperatur ist. Und hier sieht man auch wiederum natürlich,

00:19:24: wir brauchen diesen umfassenden Blick, wir brauchen natürlich Informationen über die

00:19:27: Uhrzeit des Tages, über die Schicht, über die Werkstücktemperatur und wenn wir das haben,

00:19:32: dann werden, es werden tatsächlich Millionen von Faktoren geprüft, Millionen von Faktoren,

00:19:37: die korreliert sind. Was Menschen nie sehen können. Genau, und für all diese Millionen

00:19:41: von Faktoren wird genauso geprüft, ob sich diese Faktoren durch einen Confounder erklären lassen.

00:19:46: Also es erfolgt gleichzeitig eine ähnlich intensive Suche nach Confoundern und am Ende

00:19:51: werden unter diesen vielen korrelierten Faktoren, werden am Ende nur die präsentiert, die sich eben

00:19:57: nicht über einen Confounder erklären lassen, etwas vereinfacht dargestellt, und die damit eine

00:20:02: wahrscheinlich Hypothese für einen kausalen Zusammenhang sind. Wie lange dauert so ein Projekt,

00:20:07: Michael? Du meinst ein Projekt oder wie lange dieses Suche algorithmisch dauert? Das ganze Projekt,

00:20:12: das du da gemacht habt. Das hängt jetzt natürlich sehr, sehr von dem Geld ab. Natürlich kommt es drauf an.

00:20:19: Und wir wissen auch in dem Moment, wo man Real World Daten in die Hand nimmt,

00:20:24: sieht man den Schmutz in den Daten und also ich könnte dir jede Antwort geben,

00:20:29: das kann ganz schnell gehen. Es geht auch ganz schnell, wenn wir qualitative hochwertige Daten

00:20:34: vorfinden. Was de facto aber ja selten der Fall ist. Wenn man dann wirklich anfängt,

00:20:40: mit solchen Verfahren in die Tiefe der Daten hinein zu gucken, dann sieht man auch, was da alles

00:20:44: für ein Müll in den Daten ist. Wo es noch Qualitätsprobleme gibt, wo natürlich auch noch was fehlt.

00:20:49: Und da fangen ja die meisten Datenprojekte dann an. Und wirklich diese ganzen Daten zu aquirieren

00:20:55: und in einer einigermaßen vernünftigen Form drinnen zu haben, das dauert dann natürlich

00:20:58: schon ein bisschen länger. Und jetzt habe ich ja gesagt, wir brauchen umfassende Daten. Und umfassend

00:21:04: heißt natürlich auch aus verschiedenen Quellen potenziell muss man die Daten zusammenziehen.

00:21:08: Und dann kann das natürlich schon mal ein bisschen länger dauern. Also wir machen typischerweise

00:21:12: Proof of Concept Projekte die so in der Größenordnung drei Monate dauern. So lang dauert es dann schon.

00:21:17: Und bis man das dann einigermaßen systematisch aufgesetzt hat, dauert es natürlich dann oft

00:21:21: mal ein bisschen länger. Also da kommen dann natürlich viele Dinge noch mit dazu. Wir wollen

00:21:25: ja auch am Ende nicht eine One-Shot-Analyse machen, sondern am Ende wollen wir, dass das ja in dem

00:21:31: nachhaltigen Betrieb ist, dass jeden Morgen das Quality Management Team die neuesten Berichte auf

00:21:37: dem Schreibtisch liegen hat. Und das natürlich in die Prozesse zu integrieren, in die Produktionsprozesse

00:21:42: und in die Abläufe. Solche Dinge passieren nicht von heute auf morgen. Da komme ich insbesondere

00:21:48: auch noch mal auf unseren Causal-Discovery-Bot zu sprechen. Also wir können so eine Analyse,

00:21:52: gibt es eine schöne Oberfläche, da kann man lustig rumklicken und kann so eine Causal-Discovery-Analyse

00:21:58: starten. Am Ende will man da aber nicht jeden Morgen da drin rumklicken, sondern idealerweise

00:22:03: will man, dass im Hintergrund dieses Verfahren läuft und eine Anlage permanent monitort,

00:22:08: hinsichtlich des Auftretens von potentiellen neuen kausalen Faktoren, die bislang noch nicht bekannt

00:22:14: waren. Und genau das tut unser Causal-Discovery-Bot. Der läuft, dann nimmt die Daten zum Beispiel

00:22:19: in den letzten sechs Monaten, ermittelt die kausalen Faktoren auf den letzten sechs Monaten, das sind

00:22:24: dann Faktoren, die man meistens schon kennt. Dann nimmt er die Daten des letzten Tages oder

00:22:28: auch nur der letzten Woche, baut noch mal so ein Causal-Discovery-Modell, vergleicht die Ergebnisse

00:22:34: und wenn dann neue Faktoren da drinnen entstehen, die vorher noch nicht bekannt waren, dann werden

00:22:38: die automatisch gemeldet. Dann kommen die in den Select-Channel oder in den E-Mail-Channel und liegen

00:22:43: dann eben, wenn das Quality Management Team tagt, morgens beim Quality Management Team auf

00:22:48: ein Schreibtisch. Und da wollen wir hin. Wir wollen ja nicht eine One-Shot-Fancy-Analyse machen,

00:22:53: sondern wir wollen es in die Prozesse integrieren und natürlich, dass dann in einer Company in

00:22:58: solche Prozesse zu integrieren oder Causal Discovery-Bot im Hintergrund automatisch läuft,

00:23:03: da ist dann natürlich schon ein bisschen längerer Weg zu gehen. Das kommt ja aus dem

00:23:08: Gesundheitswesen oder? Richtig, genau. Also X-Band Data ist tatsächlich im Gesundheitsumfeld

00:23:13: gestartet. Viele sehr illustrative Beispiele kommen auch aus dem Gesundheitsumfeld und

00:23:18: vieles kann man da auch sehr plakativ darstellen und tatsächlich haben wir da auch angefangen.

00:23:22: Dann haben unsere Object Analytics Technologie in dem Umfeld entwickelt und ich komme vielleicht

00:23:28: auch nochmal auf dieses zweite Asset zu sprechen auf das Thema Object Analytics, das Thema Causal

00:23:34: Discovery das ist sehr plakativ, das Thema Object Analytics vielleicht weniger, aber die Grundlage

00:23:39: für unsere Causal Discovery Verfahren und zwar wir sind ja gemeinsam jetzt zu der Schlussfolgerung

00:23:45: gekommen. Wir brauchen wahnsinnig umfangreiche Daten. Wir brauchen alle Schalter, alle Lampen,

00:23:50: alle möglichen Umgebungsbedingungen und so weiter. So was heißt denn das im Gesundheitsumfeld, wenn ich

00:23:56: mir umfangreiche... Super schwierig, Patientenbefragung ohne Ende. Patientendaten, genau. Patientendaten,

00:24:02: wenn ich mal das richtige Stichwort hier nenne. Also hier ist es nicht SCADA, sondern hier ist es die

00:24:07: elektronische Patientenakte. Was sieht so was aus? Also es gibt so eine Open Source Implementierung,

00:24:13: ich hatte ungefähr 200 verschiedene Tabellen. Kann man sich gut vorstellen, Diagnosen, Verschreibungen,

00:24:19: Prozeduren, Laborwerte, ich weiß nicht was, ja. Hat man natürlich schnell mal ein Datenschema mit 200

00:24:25: verschiedenen Tabellen. Da kann man wirklich von umfangreichen Patientendaten sprechen. Das impliziert,

00:24:31: aber natürlich auch, dass solche Real-World-Daten sind alles andere als eine flache Tabelle,

00:24:36: sondern Real-World-Daten sind höllekomplex. Mit einem sehr komplizierten Datenschema

00:24:41: dutzen sehr potenziell hunderte von Tabellen wie eben im Gesundheitsumfeld. Und da entsteht

00:24:46: natürlich eine riesen Gap. Wenn man sich heute Machinelearning-Verfahren anguckt, dann die meisten

00:24:52: Machinelearning-Verfahren setzen auf einer flachen Tabelle auf. Man hat 20 unabhängige Variable und

00:24:58: eine Zielvariable und dann kann man predictive Model bauen, aber letztendlich halt denkt unsere

00:25:02: Welt des Machinelearnings eben sehr stark in einer flachen Welt. Und jetzt sind wir plötzlich mit

00:25:08: Real-World-Daten konfrontiert, die alles andere als flach sind, 200 Tabellen. Und nur da finden wir

00:25:13: umfangreiche Daten, die wir eben für Causal Discovery brauchen. Und diesen Gap zu schließen,

00:25:19: das ist eben die zweite Mission von Explain Data. Das tun wir in Form unserer Object-Analytics-Datenbank,

00:25:25: tatsächlich also eine relationale Datenbank, zerlegt das Objekt im Fokus der Analyse in

00:25:32: die verschiedenen Entitäten und speichert die verschiedenen Entitäten in verschiedenen Tabellen.

00:25:36: Also die Diagnosen in der einen Tabelle, die Verschreibungen in der anderen Tabelle und das

00:25:41: muss eine Relationale Datenbank so machen, dass ein komplexes Objekt in seine Entitäten zu zerlegen,

00:25:46: um die eben getrennt managen zu können. Jetzt, wenn man ein so komplexes Objekt in seine Entitäten

00:25:53: zerlegt und weit verteilt über Tabellen gespeichert hat, dann kann man es sehr schwer ganzheitlich

00:25:57: analysieren. Und das ist ja das, was wir brauchen. Wir brauchen den ganzheitlichen Blick auf den

00:26:02: Patienten oder im Produktionsumfeld eben ist unser Patient das Werkstück. Also ich brauche den

00:26:07: ganzheitlichen Blick auf das Werkstück oder auf die Maschine. Und wir machen das gewissermaßen

00:26:12: rückgängig. Also wir führen alle Daten zu einem Patienten oder zu dem Objekt im Fokus der zu

00:26:17: einer Maschine. Die werden gewissermaßen wieder zusammengeführt aus den verschiedenen Tabellen

00:26:22: in ein Objekt, in ein Patientenobjekt. Man darf sich das dann wirklich so vorstellen,

00:26:27: also auch softwaretechnisch, dass also alle Informationen da in einer Struktur hängen,

00:26:32: wo alle Informationen zu einem Patienten in einem Patientenobjekt gemeinsam zugreifbar sind. Und

00:26:36: erst diese Datenstruktur ermöglicht es uns, dieses sehr schnellen Suchverfahren zu implementieren.

00:26:41: Und das ist tatsächlich das zweite Asset, das Explain Data mit sich bringt, eben so komplexe

00:26:47: Objekte im analytischen Zugriff zu haben, übergreifend über die vielen Unterobjekte. Und

00:26:53: das ist, das ist ein Asset für sich, also gerade im Gesundheitsumfeld, weil du es ansprichst,

00:26:59: woher wir kommen, ist das schon ein für sich allein ein großes Asset. Zum Beispiel eben gestellte

00:27:05: Diagnosen in Relation zu verschriebener Arzneimittel viel einfacher analysieren zu können. Und diese

00:27:12: Object-Analytics-Technologie für sich ist eben schon ein Asset, einer komplexen Landschaft,

00:27:17: diskriptive Analysen sehr effizient durchführen zu können. Und am Ende ist es die Grundlage,

00:27:22: dafür auch eben unsere Causal Discovery Verfahren zu implementieren, die also diese

00:27:27: Object Analytics Darstellung der Daten nutzen, um dann so eine intensive Suche mit Millionen

00:27:33: von möglichen Faktoren eben sehr schnell auf einer solchen Object Analytics Datenbank durchführen

00:27:37: zu können. Wer ist da schon zu bereit? Michael. Das ist nur was für die ganz großen? Ja,

00:27:45: das ist eine sehr gute Frage. Ich freue mich fast über die Frage. Wer ist dazu bereit? Ja,

00:27:52: es ist eine Aufforderung gewissermaßen auch. Und wir sind eine sehr kleine Start-up-Company,

00:27:58: die auch noch nicht so eine große Sichtbarkeit hat. Wir sind selbst finanziert, wir haben

00:28:01: bewusst auf Risikokapital verzichtet, aber das sind dementsprechend noch nicht so sehr stark

00:28:05: sichtbar. Haben aber trotzdem zwei extrem spannende Assets im Form von Causal Discovery und

00:28:10: Object Analytics und stellen uns natürlich auch die Frage, wer ist dazu bereit? Und wir haben

00:28:14: also einige Kunden, die uns sehr früh das Vertrauen gegeben haben aus dem Gesundheitsumfeld, eben

00:28:20: aber auch aus dem Industrieumfeld, das Beispiel mit der Zylinderkopfproduktion, habe ich genannt,

00:28:23: bei Siemens haben wir auch ein spannendes Projekt. Da ist das produzierte Werkstück,

00:28:27: eine Leiterplatte, also Printed Circuit Boards, und hat uns auch einen Innovator gefunden, der ganz

00:28:33: früh diese Technologien einsetzt. Und natürlich sind wir darauf angewiesen, solche oder ob dass

00:28:37: solche innovationsbegeisterten Leute zu finden, um das voranzubringen, hoffen aber natürlich

00:28:43: jetzt, auch immer mehr in der Breite diese Assets zur Verfügung stellen zu können. Und

00:28:48: deine Frage daher sehr gut, wer ist dazu bereit? Klar, würden wir uns freuen über mehr Leute,

00:28:54: die zu solchen innovativen Projekten bereit sind. Aber natürlich ist es ein neues Thema.

00:29:00: Es redet jeder heute über Large Language Models und ich weiß nicht was, aber ganz oben auf dem

00:29:06: Hypecycle. Aber wenn wir immer erst auf Themen ausspringen, wenn sie ganz oben auf dem Hypecycle

00:29:12: sind, dann sind wir immer Follower. Das ist spannend, was du sagst, weil ich habe vor zwei Tagen mit dem

00:29:17: Jan Koutnik gesprochen. Der Jan Koutnik ist former Nasens, Jürgen Schmidhuber hat sich jetzt

00:29:22: selbstständig mit einer Firma gemacht und der hat dann gesagt, ja, lass uns mal wieder Blue

00:29:26: Color AI machen. Also an der Maschine unten und da mal schauen, weil da gibt es noch so viel

00:29:32: ungelöste Themen, LLMs, Gen AI, alles schön und gut, aber lass uns wieder Blue Color AI machen,

00:29:38: weil da fehlt uns noch einiges. Gerne, also kann ich nur zustimmen. Also natürlich die Daten ganz

00:29:44: unten auf der Produktionsanlage aus den Maschinen. Wir brauchen sie natürlich am Ende, wie ich

00:29:49: dargestellt habe, wir brauchen den umfassenden Blick und natürlich eben auch auf der untersten Blue

00:29:54: Color Ebene und ich glaube auch, dass da Unmengen von Innovationen noch auf uns warten und Produktionsprozesse

00:30:02: dann wirklich intelligent zu machen, um ein Causal-Dicovery-Bot zu haben, der im Hintergrund

00:30:06: da durchläuft und unterstützt. Ich meine natürlich das Thema Produktion und Maschinen,

00:30:11: da ich meine, gerade da sollten wir in Deutschland ja versuchen weiterhin unsere Führungsrolle

00:30:15: zu behaupten und das heißt aber natürlich auch Themen aufnehmen, die jetzt am Anfang des

00:30:19: Hypecycles stehen noch nicht ganz oben und insofern würden wir uns natürlich freuen, da auch mehr

00:30:25: Innovatoren zu finden, auf die wir natürlich in der Frühphase einer Start-up-Company angewiesen

00:30:30: sind. Und jetzt seid ihr im Hypecycle, das steigt jetzt auf, dann kommt der Hype und dann kommt

00:30:35: das Tal der Tränen. Wann seid ihr da durch? Die Prognose ist ganz schwierig. Die Prognose ist

00:30:41: natürlich sehr, sehr schwierig. Ich meine, es gab auch Themen, die sind auf den Hypecycle gekommen

00:30:46: und sind dann einfach verschwunden, weil sie es eben nicht als wirklich so tragend herausgestellt

00:30:49: haben. Unsere Mission ist es, dass das nicht verschwindet und in der Kombination mit dem Thema

00:30:54: Object Analytics, ich will vielleicht auch nochmal ganz kurz darauf hinweisen, was Object Analytics

00:30:59: für eine Vision mit sich bringt. Wir reden heute, Maschinenlearning bewegt sich in einer

00:31:05: wesentlichen, in einer flachen Landschaft auf einer flachen Tabelle. Der Gap zu Real-Word-Daten,

00:31:10: ich habe es dargestellt, könnte nicht größer sein. Unsere Verfahren arbeiten nicht mehr

00:31:14: in einer flachen Welt, sondern arbeiten mit ganzen Objekten. So was ist das Konzept einer Variable

00:31:20: oder eines festen Satzes von Variablen, es gibt schon gar nicht mehr, sondern es gibt Millionen

00:31:25: von Projektionen entlang der Kanten des Objektbaums auf das Wurzelobjekt. Jede diese Projektionen ist

00:31:30: eine potentielle Variable. Also wir bewegen uns plötzlich in einer ganz anderen, also nicht mehr

00:31:36: flachen zweidimensionalen Welt, sondern sozusagen die Welt ist nicht flach, sondern rund oder

00:31:41: multidimensional oder anders gesprochen. Real-World-Daten sind komplex oder eine Maschine oder

00:31:47: ein Patient ist eben ein komplexes Objekt und wir stellen mit unserer Technologie Möglichkeiten

00:31:52: bereit, jetzt wegzugehen von Statistik in einer flachen Welt, sondern Statistik mit analytisches

00:31:59: Arbeiten mit ganzen Objekten. Und die Größe dieser Vision, die könnte ich jetzt beliebig groß

00:32:03: spielen und da glauben wir aber auch tatsächlich dran. Also unsere Mission ist natürlich klar,

00:32:09: das Thema Causal Discovery, aber mit dem Thema Causal Discovery auch Verfahren bereitzustellen,

00:32:14: wo man Maschinelearning-Verfahren in viel komplexeren Umgebungen, eben nicht flachen

00:32:19: Umgebungen am Ende eben analytisches Arbeiten mit ganzen Objekten. Und die Vision ist natürlich

00:32:25: groß. Und ich würde mich freuen, wenn wir das mal schaffen, hier in Europa und Deutschland auch eine

00:32:30: große Vision weiterzuentwickeln und unsere Vision ist es eben, dass dieses Thema nicht wieder runter

00:32:36: fällt von dem Hypecycle, auch das Thema Causality natürlich, sondern dass es vielleicht auch zu

00:32:40: einem großen Hype entwickelt. Natürlich würden wir uns da freuen. Und natürlich wird das Tal

00:32:47: der Tränen auch kommen. Das ist immer so. Und wenn man dann nach dem Tal der Tränen aber auf

00:32:51: das realitstische Niveau danach kommt, dann ist ja alles wunderbar. Jetzt würden wir uns einfach erst

00:32:57: mal freuen, wenn wir natürlich auch mehr innovationsbegeisterte Kunden und Partner hier in Deutschland

00:33:01: gewinnen. Wie gesagt, wir sind eine selbst finanzierte Start-up Company. Wir würden uns freuen, wenn

00:33:07: wir da auch die Umgebung finden, um sowas voranzubringen. Also man kann viel über Entrepreneurship

00:33:13: sprechen und mehr Entrepreneurship fordern. Wir brauchen dieses Entrepreneurship auch auf der

00:33:18: Gegenüberseite, auf der Seite der Kunden, nur wenn es auch da ist, dann kann das Ganze dann

00:33:22: zu funktionieren. Und das würden wir uns wünschen. Michael, vielen herzlichen Dank für dein Einblick

00:33:27: in euer Thema. War sehr, sehr spannend. Gerne. Vielen Dank auch von meiner Seite.

00:33:33: [Musik]

00:33:39: [Musik]

00:33:43: .

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.