Vision ist nicht auserzählt
Shownotes
Wenn Sie Fragen haben, dann wenden Sie sich gerne an: vertrieb@boschrexroth.de
Produziert von Bosch Rexroth AG, Vertrieb Europa Mitte [Susanne Noll] https://www.linkedin.com/in/susanne-noll-bosch-rexroth-podcast/
Transkript anzeigen
00:00:05: Hallo, liebe Zuhörer und Zuhörer, willkommen zu einer neuen Folge unseres Podcasts des Industrie Neue Gedacht.
00:00:11: Mein Name ist Robert Weber und mir gegenüber sitzen der Christoph und der Benedikt.
00:00:14: Hallo, willkommen im Podcast.
00:00:15: Hallo.
00:00:16: Hallo, danke, dass wir da sein dürfen.
00:00:18: Bevor es losgeht hier mit unserem Podcast zum Thema HD-Vision, Christoph, magst du dich ganz kurz den Zuhörer und Zuhörer vorstellen?
00:00:25: Wer bist du?
00:00:25: Was machst du?
00:00:26: Und wie bist du zum Vision-Thema gekommen?
00:00:29: Ja, sehr gerne.
00:00:30: Also, wie gesagt, mein Name ist Christoph Garbe.
00:00:32: Ich habe ehemals an der Uni Heidelberg eine Arbeitsgruppe geleitet.
00:00:34: Das ist auch der Weg, wie ich zu Vision kam, schon als ich als Physikstudent studiert habe, war Heidelberg einer der wenigen Orte, wo man als Physiker Bildverarbeitung machen kann und habe damit dann schon damals dieses noch Diplom, also habe in meiner Diplomarbeit mit dem Thema auseinandergesetzt und Bereicherung dafür gefunden und bin seitdem immer dem Thema treu geblieben.
00:00:55: Und Benedikt, wie bist du zu Vision gekommen?
00:00:57: Ja, hallo, ich bin Benedikt Karolus, ich bin jetzt zweiundvierzig.
00:01:01: Ich bin zu Vision gekommen, wie die Mutter zum Kind.
00:01:03: Ich habe Christoph durch einen Zufall kennengelernt, zwei tausendsechzehn, und gedacht, er will drei D-Drucker bauen.
00:01:09: Und war dann sehr überrascht, dass man... Wie
00:01:11: kam es dazu, dass du gedacht hast, er will 3D-Drucker bauen?
00:01:13: Das
00:01:14: wurde mir genauso mitgeteilt.
00:01:15: Mir wurde gesagt, er möchte eine Firma gründen, die 3D-Drucker baut.
00:01:18: Und er sucht jemanden, der sich mit den kaufmännischen Disziplinen auskennt.
00:01:23: Und so haben wir uns kennengelernt und ich war dann sehr überrascht, was man nicht so alles mit industrieller Bildverarbeitung oder generell in der Bildverarbeitung tun kann.
00:01:29: Das ist für mich alles Zauberrei gewesen und so haben wir unseren Weg gemeinsam gestartet.
00:01:35: War das ein Gerücht mit dem 3D-Drucker oder hast du es wirklich vorgehabt?
00:01:39: Nee, das war wirklich ein Gerücht.
00:01:40: Wir hatten vor oder ursprünglich mal uns überlegt, vielleicht 3D-Vision für den 3D-Druck zu machen, also dass man die Modelle generiert, die man ausdrucken kann und wahrscheinlich war das dann die kurze Interpretation von einer gemeinsamen Bekannten.
00:01:52: Okay, sehr gut.
00:01:53: Und dann habt ihr zusammen das Unternehmen gegründet.
00:01:55: Genau, wir sind mit einem Exist-Forschungstransfer gestartet.
00:01:58: Das ist eine öffentliche Fördermöglichkeit, um gerade solche Ausgründung zu wagen, also um wissenschaftliche Ergebnisse in die Anwendung zu bringen.
00:02:06: Und darüber brauchte man eine Person, und das war zwingend erforderlich, eine Person mit betriebswirtschaftlichen Hintergrund zu finden.
00:02:12: Ist ja auch nicht so doof, ne?
00:02:14: Damals erschien es mir sehr komisch.
00:02:15: Ich wusste nämlich nicht, was so eine Person macht und wo man die hernimmt.
00:02:18: Deswegen war ich uns so froher, dass ich damals Benedikt finden konnte und er uns das gut erklären konnte.
00:02:23: Sehr spannend.
00:02:25: über Technologie sprechen.
00:02:27: Vision ist euer Thema.
00:02:28: Du hast gesagt, du hast Forschung in dem Bereich getrieben.
00:02:32: Wie viele Jahre ist es her, dass du Forschung in dem Bereich betrieben hast?
00:02:34: Oh, da denke ich schon gar nicht drüber nach.
00:02:36: Das war zwei Tausend.
00:02:37: Nee, das war 1995, 94.
00:02:40: Ist das Vision-Thema nicht... Irgendwie jetzt auserzählt mit dem ganzen KI Themen die auf uns da zugekommen sind oder geht da noch was ist da noch eine Option für mehr?
00:02:52: oder ich habe das Gefühl wir schauen auf das Vision-Thema gar nicht mehr.
00:02:55: oder sind da so viele andere Hypetrains unterwegs dass man das.
00:02:59: übersieht.
00:03:00: Als Physiker kennt man, dass ja das Geschichten oder Berufszweige auserzählt sind.
00:03:04: Das war das gleich mit der klassischen Mechanik.
00:03:06: Da hatte man auch damals gedacht, dass die alles erklärt, man gar nichts weitermachen muss und hat dann von die Quantenmechanik entdeckt.
00:03:12: Und ähnlich ist es hier.
00:03:13: Als wir gestartet haben, gab es noch gar keine KI.
00:03:15: Also das war alles regelbasierte klassische Bildverarbeitung mit Algorithmen.
00:03:19: Und da ist man, denke ich, schon ein Stück weit ans Ende gekommen der Fahnenstange.
00:03:23: Also da ging es dann einfach nicht mit vertretbarem Aufwand weiter.
00:03:26: Man hat ja autonomes Fahren auch damals.
00:03:28: zu lösen.
00:03:29: War auch ganz erfolgreich eigentlich.
00:03:31: In Teildisziplinen, also Nummernschilder werden super erkannt, aber so.
00:03:35: dieses autonome Fahren an sich hat man nicht, sage ich mal, erfolgreich auf die Straße gebracht und KI ist dann einfach ein neuer Ansatz gewesen, der ja aus der Bildverarbeitung auch kommt, größtenteils, also das heißt... Die Anwendungen wurden in der Bildverarbeitung entwickelt und deswegen war das eine der ersten Disziplinen, wo diese KI erfolgreich auch auf industriellen Maßstab eingesetzt werden konnte.
00:03:54: Ich erinnere mich nochmal, wir haben mal ein Interview gehabt mit dem Ernst-Dieter Dickmanns mit dem Pionier des autonomen Fahrens, der damals nach Odense mit seiner S-Klasse gefahren ist in den neunzigern Jahren und der hat auch ganz viele Kameras im Auto sitzen.
00:04:05: und er sagt, was heute geht, ist noch viel mehr und wir haben es trotzdem nicht geschafft, dass das autonome Fahren immer noch nicht Realität ist.
00:04:11: Ja,
00:04:11: also sieht man, wie gut der Mensch einfach ist und das macht uns als Bildverarbeiter manchmal das Leben ein bisschen schwer, weil natürlich jeder denkt, das sehe ich doch sofort und das ist dann doch was anderes, ob ich es sofort sehe oder ob man das einem Computer entsprechend beibringt und KI hilft dann natürlich ganz immens.
00:04:25: Was ist denn die nächste Entwicklungstufe von Vision?
00:04:27: Wo siehst du das?
00:04:28: als, sagen wir mal jetzt nicht als Unternehmer, sondern als Wissenschaftler, als Forscher, als der Forschungscommunity verbundener?
00:04:36: Genau.
00:04:36: Also einerseits, wir kommen ja aus einer Historie, wo wir rein regelbasiert gearbeitet haben oder mit physikalischen Grundprinzipien.
00:04:42: Dann wurde das ganze datengetrieben, also reine KI.
00:04:44: Und ich denke, dass man jetzt das Ganze kombiniert.
00:04:47: Einfach, dass man das Wissen, was man hat, auch wirklich in die KI bringt, um dadurch einfach schneller trainieren zu können und bessere Ergebnisse zu erzielen.
00:04:53: Also hoch zu skalieren.
00:04:54: Genau.
00:04:55: Und da gibt es spannende Ansätze im Moment, die schon praktiziert werden, die auch teilweise in die, also physical AI zum Beispiel, gibt spannende Ansätze, die jetzt gerade so am Rande der Umsetzung sind, würde ich sagen.
00:05:07: Was kannst du mal zwei Beispiele nennen?
00:05:09: Was meinst du damit genau?
00:05:11: Also es gibt zwei Themen, das eine ist, dass man physikalische Grundprinzipien reinbringt, also dass die KI... Newtongesetze,
00:05:17: zum
00:05:17: Beispiel, dass die KI nicht irgendwelche unphysikalischen Halizinationen hat, sondern dass es sozusagen immer auf den Grundgesetzen der Physik basiert.
00:05:25: Das macht einen großen Unterschied.
00:05:26: Das Gleiche gibt es ja bei uns auch in der Bildverarbeitung.
00:05:29: Ich habe Abhängigkeiten zwischen den Daten, die, sag ich mal, Grundprinzipien gehorchen.
00:05:34: Und die sollte man einfach in der KI einsetzen.
00:05:36: Und das ist auch das, was wir aktuell tun, wenn wir unsere Algorithmen oder unsere 3D-Rekonstruktion besser machen wollen.
00:05:42: Kannst du da mal erklären, wie das funktioniert, die 3D-Algorithmen zu verbessern?
00:05:48: Was macht ihr da genau?
00:05:49: Die 3D-Rekonstruktion und dafür die Algorithmen zu verbessern.
00:05:53: Genau, unsere Spezialität ist ein lichtfeldbasierter Ansatz.
00:05:56: Das Lichtfeld ist erstmal die gesamte optische Information.
00:05:59: Das heißt nicht nur eine Kamera, die aus einer Position ein Bild aufnimmt, sondern auch die verschiedenen, also wir nehmen die Lichtrichtung im Raum auf.
00:06:07: Das komplette Lichtfeld ist dadurch sozusagen der gesamte Raum.
00:06:10: Das kann man natürlich so nicht abbilden.
00:06:12: Und deswegen ist es immer in dem Zusammenhang eine Unterabtastung dieses Lichtfeldes.
00:06:17: Das kann man durch eine Kamera in 2D machen.
00:06:19: Also eine Kamera nimmt das Lichtfeld eben an dieser einen Position auf.
00:06:23: Das kann man aber auch durch eine Mehrzahl an Kameras zum Beispiel bewerkstelligen und kann daraus dann weitere Erkenntnisse entwickeln.
00:06:28: Und das ist das, was wir machen.
00:06:30: Wir können zum Beispiel im ganz einfachen Fall glänzende Artefakte sozusagen trennen.
00:06:34: Das heißt, wir haben eine bessere 3D-Rekonstruktion, die genauer ist, zum Beispiel im metallischen Bereich oder bei... Du
00:06:39: arbeitest doch mit mir an Kameras, aber... Wir arbeiten
00:06:40: mit mehr Kameras, genau.
00:06:42: Alternative Ansätze machen das auch mit Mikrolinsen.
00:06:44: Die haben gewisse Nachteile, was dann sozusagen die Auslegung betrifft oder die Arbeitsabstände.
00:06:49: Das ist also sozusagen eine komplementäre Technik, kann man sagen.
00:06:52: Aber die Grundprinzipien sind das gleiche.
00:06:53: Ich nehme nicht nur ein Bild auf, sondern ich nehme das Bild aus verschiedenen örtlichen Abtastungen an und gleichzeitig dann vielleicht noch Spektralbereiche, also es ist sehr weit getastet.
00:07:03: Und
00:07:03: dann musst du diese Bilder von den unschließlichen Kameras matchen und im Prinzip dann das 3D
00:07:08: konsistentes 3D-Modell entwickeln, was sozusagen alle Blickwinkel beschreibt oder erklärt.
00:07:13: Und das kann dann die KI entsprechend machen, dass sie uns sagt, wie die Ergebnisse aussehen müssen, um bestmöglich dieses Match zu machen.
00:07:20: Ich gebe das Mikro mal an Benedikt weiter, weil der Christoph hat gerade angesprochen, 2D, ein Riesenmarkt.
00:07:26: Wie groß ist dieser 3D-Markt?
00:07:28: Du bist ja der Betriebswirt, du musst am Ende die Zahlen im Griff haben.
00:07:31: Ja, also ich kann über Anwendungen sprechen.
00:07:33: Also ich fange vielleicht mal einen Schritt hinten dran an.
00:07:35: Wir haben uns, was wir uns kennengelernt haben, wir haben beide keinen Industrie-Background.
00:07:39: Ich habe vorher mit Sportartikeln gehandelt und wir haben uns erstmal verschiedene Märkte angeschaut, wo wir denken, wo wir mit der Technologie auch erfolgreich sein können.
00:07:51: Und wir sind in dem industriellen Umfeld angekommen, weil wir gesehen haben, dass dort sehr sehr viel Innovationsdruck herrscht.
00:07:58: Inwiefern? Was meinst du damit?
00:07:59: Wir haben vor acht Jahren gestartet, damals war das schon absehbar, dass weniger Autos gebaut werden oder dass die Autos aus weniger Teilen bestehen oder dass andere Autos gebaut werden müssen.
00:08:09: Wir haben gesehen, dass die Produktion sich dahingehend ändert, dass man nicht mehr eine Million gleiche Produkte baut auf einer Linie, sondern dass die Straßen so aussehen, dass man im Grunde genommen nur noch ein gleiches Bauteil baut - Losgröße eins.
00:08:23: Und viele Prozesse in diesen Automaten sind dann nur sehr schwer, nicht manuell lösbar.
00:08:28: Weil man braucht, wenn man in der Robotik denkt, Greifer, die flexibel sind, man braucht eine Bildverarbeitung, die auf verschiedenen Texturen arbeiten kann, Themen Bildverarbeitung.
00:08:38: Man muss die Prozesse nachfassen, das heißt, wo ist das Bauteil, welches Bauteil ist und so weiter.
00:08:42: Das heißt, es wird alles kompliziert.
00:08:45: Und das ist der Grund, warum wir uns in diese Richtung bewegt haben.
00:08:47: Das ist auch der Grund, warum wir uns in die Richtung Robotik im ersten Schritt bewegt haben, weil wir gesehen haben, dass wir über unsere Aufnahmetechnik, über diesen Lichtfeldansatz, dort Vorteile bieten und mit dem Mehr an Daten, Christoph hat es ja gerade erklärt, es schaffen können, Software zu bauen, die einfacher zu nutzen ist oder flexibler einsetzbar ist.
00:09:05: Aber da hat ja keiner auf euch gewartet.
00:09:07: Ne, da hat keiner auf uns gewartet.
00:09:08: Was macht euch so besonders, dass ihr da ein Markt vor euch gesehen habt?
00:09:12: Ja, also das ist genau der Punkt.
00:09:14: Wir haben gesehen, also wir sind erstmal mit der These gestartet.
00:09:17: Muss ja mal belasten.
00:09:18: Dann sind wir eben mit dieser These hausieren gegangen.
00:09:20: Wir haben tausende Gespräche geführt mit allen möglichen Automobilzulieferern, vornehmlich mit Schmieden.
00:09:26: Also metallisch glänzed hat Christoph gesagt, da bieten wir Vorteile und haben angefangen dann mit denen zusammen Lösungen zu erarbeiten.
00:09:31: Unter anderem eben auch Robotik-Applikation, aber auch Qualitätskontroll-Applikation.
00:09:36: Und wir sind sehr schnell darauf gekommen, dass wir, obwohl wir in mehreren Daten haben und bessere Daten haben, Fehler nicht so einfach finden können, weil der Mensch, der die Fehlerkontrolle vorher manuell gemacht hat, der entscheidet nach Lust und Laune und weil er trainiert ist.
00:09:50: Ob der Kratzer jetzt ein Kratzer ist oder ob das kein Kratzer ist zum Beispiel.
00:09:54: Und so sind wir auch in den Thema KI zusammengekommen.
00:09:57: Also wir haben unsere erste KI-Lösung 2018 auf den Shopfloor gebracht, für eine hundert Prozent Kontrolle von Benzinrails.
00:10:04: Erklär mir nochmal, wie du das gemeint hast.
00:10:06: Du bist besser als der Werker, weil er Lust und Laune hat, aber er ist trotzdem wieder gut, weil er im Prinzip dieses Domänenwissen hat.
00:10:14: Richtig, der
00:10:15: Werker hat das Domänenwissen und das Qualitätsmaß in einer Sichtprüfung.
00:10:20: ist irgendwie festgelegt, am Schluss entscheidet aber der Mensch, das heißt, es ist kein harter Faktor, der dahinter klebt.
00:10:25: Es gibt keine KPI dafür.
00:10:26: Gibt
00:10:26: keine KPI dafür, genau.
00:10:28: Und jetzt möchte man das runterbrechen und das mit der Bildverarbeitung lösen.
00:10:31: Wenn man das mit klassischer Ansätzen macht, muss man irgendwo eine KPI dafür setzen.
00:10:35: Und was fordern die Kunden für eine KPI?
00:10:37: Ja, hundert Prozent.
00:10:38: Wir wissen alle bei KI hundertprozent, ist so ein Thema.
00:10:41: Und genau das war unsere Stärke, wir sind eben als Quereinsteiger in die Industrie mit unserem Domänenwissen in der Bildverarbeitung auf die Unternehmen zugekommen, haben angefangen denen zu erklären, dass wir das Domänenwissen des Werkers eben auf die Maschine transferieren müssen.
00:10:54: Und das einzige Werkzeug, was es dafür gibt, ist eben eine KI.
00:10:58: Und dann haben die uns gefragt, wie lange dauert das denn?
00:11:00: Dann haben wir gesagt, ja, das weiß man heute noch nicht, müssen wir mal schauen.
00:11:03: Aber wir können es iterieren, lassen uns das in zwei, drei Schritten machen.
00:11:05: Und dann kommen wir schon zu einem Ergebnis, was für alle Passabel ist.
00:11:08: Und dann haben wir einen Vertrag vorgelegt bekommen, ihr müsst hundert Prozent prüfen.
00:11:11: Dann haben wir gesagt erklärt uns mal, wie wir hundert Prozent machen sollen.
00:11:14: Dann haben die gesagt, am Schluss einigen wir uns das schon.
00:11:17: Das wird schon irgendwie achtneunzig, neunundneunzig sollte erreichbar sein.
00:11:20: Wenn ihr das glaubt, dann geben wir uns die Hand.
00:11:22: Was haben wir das gemacht?
00:11:23: Ja, aber Realität ist, achtzig reicht ihnen auch meistens aus.
00:11:25: Und das ist richtig, achtzig reicht ihnen auch meistens aus.
00:11:27: Aber wir haben nie diese Projekte angefasst.
00:11:30: Der Anspruch an uns selber war, auch wirklich diese Nährungsweise hundert Prozent zu erreichen.
00:11:35: Jetzt... Wenn wir über Vision sprechen, das muss ja zuverlässig sein und dann taucht immer das Wort Robust auf.
00:11:41: Kannst du mir mal erklären, was denn es mit dem Wort Robust auf sich hat in dem Zusammenhang?
00:11:47: Was ist ein robustes Vision-System?
00:11:50: Genau, robust kann verschiedene Dinge meinen, normalerweise versteht man darunter, robust gegen irgendwas, also robust gegen externe Beleuchtung, robust gegen unterschiedliche Oberflächentexturen, ist es mit Öl benetzt, auch dann soll es ja noch funktionieren und gefunden werden.
00:12:05: Oder wenn man das nicht mehr, also gerade bei humanoiden Robotern, nicht mehr in eine dunklen Zelle einsetzen kann, ist Umgebungslicht, Streulicht auf einmal ein riesengroßes Thema.
00:12:13: Oder robust kann auch meinen Wiederholbarkeit, also wenn ich das gleiche Objekt fünfmal einmesse, wie stark schwankt das dann überhaupt?
00:12:19: also gegen Ort, Lage und externe Faktoren, würde ich sagen.
00:12:23: Und genau das ist einer der großen Alleinstellungsmerkmale unserer Lichtfeldtechnologie.
00:12:27: Dadurch, dass wir so viele Kameras einsetzen, haben wir einfach einen, sag ich mal, über Angebot an Daten und können darüber sicherstellen, dass das, was wir sehen, auch wirklich da ist, dass, wenn es glänzt, dass es aus genug Views nicht übersteuert oder nicht glänzend gesehen wird und dergleichen.
00:12:43: Unsere Kunden machen Tests und haben gezeigt, dass wir eine bessere Wiederholbarkeit, Faktor zehn besser haben als alle vergleichbaren anderen Systeme.
00:12:50: Und das macht es wiederum also robust an sich, ist ja kein Mehrwert.
00:12:53: Der Mehrwert ist eben, dass sie es einfacher integrieren kann, dass sie schneller integrieren kann, dass sich sicherer integrieren kann oder dann eben neue Anwendungsszenarien damit abdecken kann.
00:13:03: Wie habt ihr das geschafft, das Domänenwissen in das System zu kriegen?
00:13:08: Ja, wie Benedikt sagte, der Werker hat ja das Domänenwissen.
00:13:11: Wir als Bildverarbeiter haben keinen Domänenwissen.
00:13:13: Wir müssen das irgendwie hinkriegen.
00:13:14: Klassisch hat man so gemacht, dass ein geopzischer Qualitätsprüfer, das eine Bildverarbeiter erklärt hat und da ist ganz viel Reibungsverlust unterwegs gewesen.
00:13:22: Wir haben gesagt, das müssen wir direkt machen.
00:13:23: Das heißt, wir haben einfache Tools entwickelt, die der Qualitätsprüfer benutzen kann.
00:13:28: Also das heißt,
00:13:29: Fokus auf... Also er hat anotiert im Prinzip.
00:13:31: Er hat
00:13:31: Daten anotiert, genau.
00:13:33: Und er hat Best Practices gelernt.
00:13:35: Also viele Dinge, die wir sehen, sehen wir gar nicht in Wirklichkeit.
00:13:39: Also, das heißt, wir glauben, dass wir was sehen.
00:13:41: Und so war das dann eben auch, wie Benedikt gesagt hat, ein gegenseitiges Lernen in den ersten Projekten, bis wir dann einerseits aus Bildverarbeitungssicht erklären konnten, was wichtig ist und worauf der Anotateur sozusagen achten muss.
00:13:52: Und andersrum hat uns der App..., also aus der Applikation erklärt, was für ihn die relevanten Features sind.
00:13:58: Und dann haben wir es eben geschafft, durch die Aufnahme von Daten, damals noch rein Realdaten aufgenommen, dann eben die Netze zu trainieren.
00:14:05: Inzwischen machen wir das auch mit synthetischen Daten.
00:14:07: Und dadurch ist es dann ein bisschen einfacher.
00:14:09: Benedikt, du willst noch was ergänzen?
00:14:10: Ja, ich wollte noch was ergänzen.
00:14:11: Und zwar ist das, ich glaube, unsere große Stärke und auch das, was uns an ctrlX Automation bindet.
00:14:17: Wir sind wirklich stark in der Kollaboration und wir haben damit, du hattest ja eingangs mich nach dem Markt gefragt.
00:14:22: Also wir haben dadurch sehr, sehr viel gelernt.
00:14:24: Also diese Qualitätsprüfung, die ist teilweise wirklich teuer.
00:14:28: Und das Personal gibt es aber nicht mehr.
00:14:30: Es gibt nicht so viele Leute, die das noch machen wollen.
00:14:32: Die Leute sind teilweise schon dabei, in den Ruhestand zu gehen.
00:14:34: Und die haben sich gefreut, dass wir ihnen geholfen haben, ihr Wissen mit in die Firma zu bringen und somit auch den Standort zu sichern.
00:14:41: Und ich denke, dadurch sind die Produkte auch so stark geworden, sehr viel Feedback bekommen und sehr viel Erfolg damit generiert für alle, die mitgearbeitet haben.
00:14:50: Jetzt hast du gesagt, ihr habt in der Robotik gestartet.
00:14:53: Seid ihr noch in der Robotik oder seid ihr euch dann raus bewegt aus der Robotik?
00:14:57: Ja, also wir sind eine zeitweise parallel gefahren.
00:15:00: Wir hatten das Ziel in der Robotik ein starkes Produkt zu schaffen.
00:15:03: Das haben wir auch gemacht.
00:15:04: Also wir bauen unsere eigene Kamera, die ist dediziert für Roboter-Applikationen entwickelt.
00:15:08: Die ist inzwischen über hundertmal im Einsatz und wir verdienen unseren Hauptumsatz machen wir mit Robotik-Applikationen.
00:15:15: Wir haben in den Bereichen Qualitätskontrolle jetzt die ersten Produkte, die wir auch über ctrlX anbieten, wo Kunden Dritte die kaufen können.
00:15:24: Da ist es aber so, dass das in der Regel Projekte sind, wo es um ein, zwei, drei, vier gleiche Systeme gibt und deswegen ist das immer eine Projektarbeit.
00:15:33: Okay.
00:15:34: Christoph, du willst was ergänzen?
00:15:35: Genau, ursprünglich habe ich wieder vergessen, aber grundsätzlich ist bei uns die Produktentwicklung so, dass wir immer die Produkte zusammen mit dem Kunden entwickelt haben und dadurch einfach wirklich starke Produkte für den Anwender
00:15:46: generieren konnten.
00:15:46: Also das heißt, wir sind
00:15:48: von Tag eins an waren wir auf dem Shopfloor und waren bei Kunden, obwohl es noch gar kein Produkt gab, damals haben wir dann einfach nur Dienstleistungen gebracht und haben damit wirklich zusammen mit unseren Kunden gelernt, was... Du
00:15:58: kriegst doch Daten, ne?
00:15:59: ...kriegst Daten, aber auch was sind eigentlich die Fähigkeiten, die die Leute haben?
00:16:03: Wie wollen die arbeiten?
00:16:04: Wie sind die Arbeitsweisen und was ist dort wichtig und was ist nicht wichtig?
00:16:08: Also einfach wirklich Produkte für die Kunden dann bauen.
00:16:12: Und ist das jetzt ein Hardware- und Softwareprodukt?
00:16:15: oder ein Software-Produkt, wo liegt da euer Schwerpunkt?
00:16:17: Also wir haben unterschiedliche Produkte, also wir sehen uns hauptsächlich als Software-Company, das heißt... Mit
00:16:22: hundert Kameras im Einsatz.
00:16:23: Mit hundert Kameras im Einsatz, also ist noch geringe Stückzahlen, aber...
00:16:27: Naja, aber trotzdem ein Hardware-Produkt auch, ne?
00:16:29: Genau, aber dann haben wir aus der Not eine Tugend gemacht, das lag eben einfach daran, weil es so eine Kamera nicht zu kaufen gab.
00:16:35: Wenn es so eine Kamera zu kaufen gegeben hätte, hätte Benedikt, glaube ich drei Putzelbäume geschlagen.
00:16:41: Vielleicht auch vier.
00:16:42: Allein dadurch, dass es so ein Hardware-Produkt nicht gab, waren wir gezwungen, das selber zu bauen.
00:16:46: Was
00:16:46: macht diese Kamera so besonders, dass es die nicht gibt am Markt?
00:16:50: Also ich muss auch noch etwas vorwegnehmen, dass wir die Kamera gebaut haben.
00:16:54: Jetzt Christoph sagt's, ich wäre froh gewesen, weil das wirklich teuer war.
00:16:57: Aber der Vorteil, dass wir dieses Domänenwissen haben über die Aufnahmeseite, das macht uns das Leben mit dem Kunden unendlich viel einfacher, weil wir eben dediziert sagen können, was er braucht, damit er eine Hardware kostenoptimale Lösung bei sich installiert und wir eben eben dann auch belegen können, dass er das Ergebnis bekommt, was er gekauft hat.
00:17:16: Also
00:17:16: verabschiedet ihr euch von dem Hardware-Gedanken?
00:17:18: Nein, das wird immer ein Teil bleiben.
00:17:21: und die Kamera, die wir, ob die dann Dritte bauen am Schluss, das ist uns, das ist uns nicht wichtig, das ist eine Frage von
00:17:28: Skalierung.
00:17:29: Geld,
00:17:29: ja.
00:17:31: Skalierung, genau.
00:17:32: Aber die Kamera, die wir heute haben, die ist eine Oneshot-Solution, die hat überlegende Daten.
00:17:38: Wir kriegen die 3D-Informationen und die 2D-Bilder aufeinander gemappt.
00:17:42: Wir wissen genau, wie der Abstand ist.
00:17:43: Wir sind sub-Millimeter genau.
00:17:45: Wir haben dadurch sehr, sehr viele Vorteile in Roboter-Applikationen gegenüber unseren Mitbewerbern, die alle viel, viel größer sind als wir.
00:17:53: Und können uns dadurch eben technologisch den gegenüber durchsetzen.
00:17:57: Sind es?
00:17:58: Weil du gesagt hast die Wettbewerber sind viel größer konzentrieren sich einfach auf andere Märkte geht ihr in eine Nischenanwendung rein, die sie sagen, die interessiert uns gar nicht so sehr.
00:18:08: Oder kriegen sie es
00:18:08: technologisch nicht gewuppt?
00:18:10: Ne, das ist ein weiterer Punkt.
00:18:11: Wir haben jetzt eine sehr starke Software,
00:18:13: deswegen Christoph hat damit recht, wir sind stark in der Software.
00:18:16: Wir haben jetzt diese Kamera gebaut,
00:18:17: die ist für teure Applikationen ist die auch wirklich konkurrenzlos.
00:18:22: Und was wir uns jetzt anschauen, ist, dass wir eben andere Aufnahmetechniken nehmen und die mit an unsere Software andocken, also an Standardinterfaces, damit wir eben auch günstigere Applikationen wie zum Beispiel in der Logistik adressieren können.
00:18:36: Hier ist die Marge gering.
00:18:37: Marge ist geringer, genau, kosten, aber ich meine, unsere Software ist geschrieben.
00:18:41: Ob ich jetzt die Performance von der Software runter schraube, indem ich eine andere Hardware damit verheirate oder wie ich es mache, ist ja einfach.
00:18:49: Und so dass wir zum Beispiel auch Applikationen in der Logistik adressieren können, nicht nur in der Produktion, wo wir eben auch vielleicht mehr in dieses Stückzahlengeschäft kommen.
00:18:57: Also Skalierung ist das Thema, wir wollen wachsen, das müssen wir auch.
00:19:02: Und wir müssen eben einmal darüber wachsen, indem wir unser Produktortfolio aufbauen, Umsätze damit generieren und eben aber auch nicht damit stoppen, unsere Entwicklung weiter zu ziehen.
00:19:10: Und ich glaube, das balancen wir im Moment ganz gut.
00:19:14: Jetzt hast du gesagt, wir sind in der Produktion gestartet.
00:19:17: Und sehen jetzt neue Geschäftsfelder, neue Bereiche, neue Branchen, die auf euch zukommen.
00:19:21: Was habt ihr noch im Fokus?
00:19:23: Warehouse, Interlogistics, was gehört noch dazu?
00:19:26: Wir sind im Bereich
00:19:27: FMCG und
00:19:28: Food and Beverage, Fast Moving Consumer Goods.
00:19:30: Wir haben inzwischen Battery, wir haben inzwischen überall Anfragen.
00:19:35: Auch dank Bosch Rexroth als Partner, wir haben eine Reichweite, auch nicht nur in Deutschland, also wir haben bis vor zwei Jahren unsere Umsätze hundert Prozent in Süddeutschland generiert.
00:19:47: Einer unserer Partner integriert uns in Mexiko.
00:19:49: So kommen wir ein bisschen in die Welt.
00:19:51: Und jetzt über diese Sichtbarkeit aus der ctrlX World haben wir Anfragen aus Indien, China den Amerikas und bekommen da natürlich auch über verschiedene Industrien mit, was dort eben sich bewegt.
00:20:06: Lass uns mal über eine typische Kundenanfrage sprechen, wie ihr euch dann in das System integriert, das er macht.
00:20:13: Fast Mooving Consumer Goods, Depalettierung.
00:20:16: Ist das ein Thema für euch?
00:20:17: Ja oder nein?
00:20:17: Wahrscheinlich nicht, oder?
00:20:19: Weil nicht fancy genug.
00:20:20: Ja, aktuell nicht.
00:20:21: Das ist genau das, was Benedikt meint.
00:20:23: Wir können es aber, also anders gesagt, wir kriegen Anfragen aus dem Bereich und es ist schade, die abzuweisen, wenn die doch mit der Software einfach leistbar wären.
00:20:32: Und deswegen integrieren wir günstige Sensoren, wie z.B.
00:20:35: Time of Light, damit es eben einfach günstig möglich ist.
00:20:37: Aber niemand will mit Kanonen auf Platz nicht schießen, deswegen ist es nicht geeignet für die Lichtfeldbildgebung oder sinnvoll, das einzusetzen.
00:20:44: Lass uns mal in Use Case auch mal der sinnvoll wäre.
00:20:46: Wo sagt, da spielen wir voll unsere Stärke aus?
00:20:50: Also wir haben in der Medizintechnik-Applikation im Processing, da sind immer hochglänzende Teile, also du wirst keinen Hüftgelenk, das nicht glänzt, eingebaut bekommen.
00:21:00: Und dort haben wir Anfragen und die sind das dann auch, die kann man auch nicht anders lösen als mit unserer Technologie.
00:21:06: Wie integriert
00:21:06: ihr euch dann in das System rein?
00:21:09: Gut, also unser Interface ist immer die PLC, wir sind immer PLC Slave und wir haben alle Standardinterfaces, die man benötigt, damit wir eben mit den marktüblichen PLC-Protokollen-Bussen reden können.
00:21:20: Und unser Geschäft läuft dahin gehen, dass wir den Endkunden adressieren, ihm zeigen, dass wir eben das können, was er braucht und dann einen Integrator dazu enablen mit unseren Produkten umzugehen.
00:21:32: Also wir selber integrieren nicht.
00:21:34: Okay, ihr baut ein Integrator-Netzwerk auf.
00:21:36: Ja.
00:21:36: Okay.
00:21:36: Ist ja im Moment ziemlich einfach, glaube ich, zu finden Integrator, oder?
00:21:40: Die haben wenig zu tun im Moment.
00:21:41: Das ist genau richtig.
00:21:42: Nur die arbeiten auch, nur wenn sie was zu tun haben.
00:21:44: Das heißt, wenn die mit dir arbeiten, dann musst du denen auch den Job verschaffen.
00:21:48: Mhm.
00:21:49: Wo geht die Entwicklung hin?
00:21:50: Jetzt haben wir gehört, okay, auf der einen Seite, wir wollen in Warehouses reingehen.
00:21:54: Da müssen wir... nicht mit Kanonen auf Spatzen schießen, aber wohin geht die Entwicklung
00:22:00: beim Vision und auch in eurer Entwicklung auf eurer Technology-Roadmap?
00:22:03: Was habt ihr vor?
00:22:05: Was steht da geschrieben?
00:22:07: Also grundsätzlich haben wir über KI geredet.
00:22:09: KI ist nicht mehr wegzudenken.
00:22:11: KI hat immer noch den Nachteil häufig, dass es nicht gleich ist, wie die Ergebnisse zustande kommen und dass man viele Daten braucht, um sie zu trainieren.
00:22:19: Das heißt, wir haben schon einen Einsatz verfolgt, um mit möglichst wenig Realdaten auszukommen.
00:22:23: Das heißt also, unsere Kunden können mit zehn, zwanzig oder dreißig Datenbildern schon so eine KI trainieren, die auch für die meisten Applikationen gut genug ist.
00:22:31: Wir Wir sind gerade dabei, das mit synthetischen Daten anzureichern.
00:22:35: Wir haben schon erste Projekte umgesetzt, wo gar kein manuelles Anotieren mehr nötig war, also wo man einfach ein CAD-Datensatz einliest und die KI oder unsere Vorverarbeitung sozusagen synthetische Daten generiert, die völlig ausreichend sind, um die Netze zu trainieren.
00:22:50: Bei Defekten, also das ist sozusagen für die Handling-Aufgaben, für die Qualitätsinspektion ist es ein bisschen schwieriger, weil auch die Defekte schwieriger zu erkennen sind als jetzt ein Objekt.
00:22:59: Das heißt, das machen wir auch mit synthetischen Daten, indem wir auf CAD-Daten, zum Beispiel eine Mischung aus CAD-basiertem Ansatz und generativer KI.
00:23:08: Das heißt, wir mapen Fehler oder Texturen von ähnlichen Bauteilen auf die neuen Bauteile.
00:23:14: Darauf geht dann ganz viel automatisch.
00:23:15: Das heißt, Bauteile, die der Kunde gar nicht hat, weil er diesen Fehler gar nicht produziert, können wir dadurch auch antrainieren.
00:23:20: Das heißt, man hat nicht mehr
00:23:21: diesen Malos, den man in der Vergangenheit hatte, das Bauteile, von denen man keine Fehlerklassen hatte, auch nicht gefunden wurden und andersrum einfach viel, viel weniger manuellen Aufwand hat.
00:23:30: Also das ist das, was wir aktuell machen und wo es auch sehr spannende Ansätze in der Wissenschaft gibt.
00:23:34: Das andere ist sozusagen Fuse-Shot-Learning.
00:23:37: Du
00:23:37: lässt zehn durchlaufen und lernt selber.
00:23:39: Genau.
00:23:39: Also das heißt, ich brauche gar keine Falschdaten mehr, sondern versuch das sozusagen aus Abweichung zu kriegen und das wirklich mit sehr hoher Genauigkeit.
00:23:45: Also Ansätze gab es doch schon in der Vergangenheit.
00:23:47: Die waren aber im industriellen Umfang nach unserer Einschätzung nicht wirklich anwendbar.
00:23:51: diese achtzig Prozent gerade eben so erreicht hat.
00:23:53: Die neuen Ansätze sind da deutlich besser.
00:23:55: Und auch das ist eine Sache, in die wir jetzt gerade über Kooperationen und Forschungsprojekte.
00:23:59: Wo
00:23:59: findet der Forschung statt?
00:24:00: Wo ist das?
00:24:01: Ist es in Europa?
00:24:02: Ist es in USA?
00:24:03: Wo findet Vision-Forschung statt?
00:24:05: Also Vision-Forschung findet also
00:24:07: früher hat das hauptsächlich an den Universitäten stattgefunden, inzwischen immer mehr auch in den industriellen Umfeld.
00:24:11: Also Amazon macht da ganz viel, Meta macht da ganz viel.
00:24:14: Warum Amazon Warehouses?
00:24:16: Oder ist es für ihr Warehouse und ihre Robotik Geschichten?
00:24:19: Meta Robotik
00:24:20: Modelle, World Robotics Models und so?
00:24:22: Genau,
00:24:22: und NVIDIA auch.
00:24:23: Also das heißt, es findet ganz viel in Konzernen statt heutzutage.
00:24:26: Meta zum Beispiel, oder auch NVIDIA machen viele dieser Forschung publik, also öffentlich zugänglich.
00:24:30: Das ist noch, ist eine große Chance.
00:24:33: Gleichzeitig ist Europa oder Deutschland da aber auch selber nicht schlecht.
00:24:36: Also wir haben exzellente Forschungseinrichtungen und Arbeitsgruppen, die da viel machen und mit denen arbeiten wir auch größtenteils zusammen.
00:24:41: Also das kann Fraunhofer-Institut sein, das kann eine Uni am Arbeitsgruppe sein.
00:24:46: Da passiert sehr viel und wir finden es als eine Bereicherung, da die Universitäten historisch eher im Elfenbeinturm gelebt haben, sag ich mal, und man sich auch da freut über Applikationen, also dieses Applikationsnah entwickeln, was früher verpöhnt war, ist inzwischen wirklich eine spannende Forschung.
00:25:02: Tätigkeit und so.
00:25:04: Ja,
00:25:04: weil die auch Daten brauchen für ihre Forschung.
00:25:06: Und die haben am liebsten reale Industriedaten, oder?
00:25:08: Genau.
00:25:09: Und wenn man dann auch leichter publizieren kann, wenn es wirklich eine Applikation gibt.
00:25:12: Das heißt, also deswegen ist das aktuellen Win-Win und wir arbeiten eben ganz viel über über Forschungsprojekte da, um auch unsere Technologie einfach weiter zu entwickeln.
00:25:20: Jetzt würde mich am Ende nochmal interessieren.
00:25:21: Ihr habt gerade gesagt, ihr seid in der Robotik stark.
00:25:23: Da habt ihr über hundert Kameras im Einsatz.
00:25:25: Jetzt verändert sich ja die Robotik.
00:25:27: Ja, wir sprechen von humanoiden Systemen.
00:25:30: Wir sprechen von sehenden Systemen.
00:25:33: Wie entwickelt sich da das Vision-Thema Humanoid und Vision?
00:25:38: Weil wir brauchen ja Augen für den Humanoiden am Ende.
00:25:41: Ja, das ist tatsächlich auch unser Ausblick.
00:25:44: Also dadurch, dass wir eben über diese einzigartige Aufnahmetechnik verfügen, werden wir auch weiter daran entwickeln.
00:25:52: Also du hast es ja vorhin gefragt, Hardware ist nicht wegzudenken für uns.
00:25:57: Wir brauchen dieses Domänenwissen und wir müssen da auch weiter entwickeln.
00:26:00: Weil wir glauben, dass diese Aufnahmetechnik eben am besten das menschliche Auge interpretiert.
00:26:07: Und wenn wir das mit eben künstlicher Intelligenz kombinieren, denken wir, kommen wir am nächsten an das, was man in der humanoiden Robotik am Schluss brauchen wird.
00:26:15: Und da forschen wir auch und wir gucken uns da auch international nach Forschungspartnern um.
00:26:20: Also wir können das nicht nur in Deutschland entscheiden.
00:26:24: Was sagt der Forscher dazu?
00:26:25: Das war jetzt der Betriebswirt.
00:26:27: Genau so, also alles, was ich vorher gesagt hatte, also diese KI-Ansätze, die keine realen Daten mehr brauchen, die selbstständig lernen.
00:26:34: Das ist genau das, was man beim humanoiden Roboter braucht, weil uns als Menschen muss man ja auch nicht immer wieder Bauteile zeigen.
00:26:40: Und das heißt, die Technologie entwickelt sich in die Richtung, andersrum sind auch die Robotik selber soweit, dass die humanoiden Roboter langsam praxistauglich sind und nicht andauernd umfallen und dann liegen bleiben.
00:26:50: Also was man sieht ist wirklich super spannend.
00:26:52: Aber an den Augen ist, also ich habe mal gelesen, dass ein Riesenmarkt ist, dieses Auge zu entwickeln, weil da jeder noch dran struggled.
00:26:59: Genau.
00:26:59: Und das ist genau das, was Benedikt sagte.
00:27:01: Also da sind wir genau diesen Lichter.
00:27:03: Der rechnet schon hier, der zählt die Scheine schon.
00:27:06: Ja, ich glaube er weiß, was es bedeutet, um dahin zu kommen.
00:27:08: Erzähl ich glaube ich jetzt mal die Ausgaben, oder?
00:27:10: Also wir machen das jetzt acht Jahre Bootstrapped.
00:27:13: Das haben wir ganz gut hinbekommen.
00:27:15: Irgendwann muss aber schon der Skalierungsfaktor eintreten.
00:27:18: Also es ist die Forderung an den Entwickler in dir.
00:27:21: Genau,
00:27:21: genau.
00:27:22: Wir sehen, dass wir wirklich dadurch, dass wir unabhängiger von den Oberflächen sind, sehen wir riesengroße Vorteile von der Technologie.
00:27:29: Es fehlt ja nicht viel.
00:27:30: Also wir haben es ja gesagt, bei uns ist es mal nur Fakturmaßstab, deswegen teuer.
00:27:33: Wir denken, wenn es da in die Skalierung geht, dann kann man die Sensoren genauso teuer machen wie bestehende günstige Kamerasysteme.
00:27:40: Und dann ist das genau die Technologie.
00:27:42: Und wir sehen uns da als Vorreiter.
00:27:44: Gibt es welche, die nachziehen, wo ihr seht am Markt
00:27:46: "ja, die gehen mit"?
00:27:47: Wir sehen es in anderen Bereichen.
00:27:49: Also wir haben hier in Heidelberg eine andere Firma, Rapid AI, die benutzen das für Incabin Sensing.
00:27:54: Also das heißt, die setzen diese Lichtfeldsysteme ein, um sozusagen in Autos sozusagen die Passagiere messen zu können.
00:28:01: Und wir sehen, dass es sozusagen für die Mikrolinsen Geschichte, die wir eingangs gesagt hatten, auch Unternehmen oder Anwender gibt.
00:28:08: In unserem Bereich Mehrkamerasystem in der Robotik sind wir bisher noch ein Alleinstellungsmerkmal, würde ich sagen.
00:28:13: Das heißt, wir sind jetzt genau dabei, mit humanoiden Roboter Firmen zu sprechen, um da wirklich mal Use Case zu entwickeln und zu zeigen, wie das System, also... die Überlegenheit des Systems in diesem Use Case auch demonstrieren zu können.
00:28:25: Wenn man über Humanoide spricht oder mit den Humanoiden-Herstellern spricht, dann ist immer das große Thema naja, wir wollen ja aber hinten keine drei GPUs mit reinbauen und wir brauchen kleine Modelle, wir brauchen effiziente Modelle und die laufen auf der Edge und wir wollen wie gesagt keine drei GPUs dranhängen, weil sonst müssen wir in alle halbe Stunde an die Ladesäule wieder dranhängen.
00:28:45: Welche Rolle spielt dieses Thema Edge
00:28:47: für euch?
00:28:48: Ja, danke.
00:28:49: Auf die Frage haben wir gewartet.
00:28:51: Also wir kennen Bosch Rexroth seit vier Jahren.
00:28:54: Die Firma kennen wir länger, aber wir unterhalten uns über ctrlX seit vier Jahren und mit ctrlX seit vier Jahren.
00:28:59: Und wir haben gesehen, dass das ein Trend ist, der überall verfolgt wird.
00:29:04: Also das machen andere Firmen genauso wie Bosch Rexroth Edge-Computing.
00:29:09: Und für uns war das die Entscheidung, dass wir das mit Bosch Rexroth machen, dass wir auch Produkte auf der Plattform bereitstellen, die dann von Bosch Rexroth verkauft werden können.
00:29:19: Die ist deswegen... gekommen, weil wir eben sehr stark mit euch Anforderungen abgesprochen haben.
00:29:23: So und das ging genau in diese Computing Power.
00:29:26: Also habt ihr einen Controller mit einer GPU, damit wir eben fancy Zeugs auf eurem OS laufen lassen können?
00:29:32: Hattet ihr nicht.
00:29:33: Aber dafür habt ihr sehr schnell einen Halo Accelerator bereitgestellt, also eine TPU, so dass wir eben KI-Modelle auf der Edge laufen lassen können.
00:29:40: Und unsere Kompetenz ist es genau die kompakten Modelle zu liefern, die eben wenig Trainingdaten benutzt und hardware-plattformunabhängig betrieben werden können.
00:29:49: Und natürlich geht der Trend dahin.
00:29:51: Und im Moment sind die TPUs, die es am Markt gibt, noch nicht genau genug, um das an Qualitätskontrolle zu liefern, was wir eigentlich tun möchten.
00:30:00: Aber Christoph möchte mehr dazu sagen.
00:30:02: Ja, vielleicht eine grundlegende Sache.
00:30:03: Also wir haben den Sensor damals so entwickelt mit dieser Geometrie, um möglichst computing efficient auch die Lichtfeldansätze zu verfolgen.
00:30:09: Das heißt, wir haben schon damals auf einer Nvidia Jetson das System zum Laufen gebracht, was also wirklich sehr wenig Performance braucht.
00:30:16: Und das war sozusagen immer die Hauptdesignentscheidung, möglichst wenig Hardware-Ressourcen, möglichst gutes Ergebnis zu erlangen.
00:30:24: Und deswegen ist auch der, also um nochmal den Schwenk zu den Humanoiden zu schließen.
00:30:28: Deswegen ist das System auch so prädestiniert, weil es eben mit sehr geringem Aufwand entweder auf einer TPU oder auf einer sehr kleinen GPU, dann eben sehr schnell diese Punktwolken zu rechnen.
00:30:38: Damals auf der NVIDIA Jetson haben wir, glaube ich, pro Punktwolke, fünfzig Millisekunden gebraucht oder sowas.
00:30:43: Aber das ist ja schon also ein riesen Thema, wenn ich mit mal überlege, wir sprechen von Vision Language Action Models, die da kommen sollen, World Robotics Models, da seid ihr ja ein Spieler in diesem Konglomerat.
00:30:57: Wer aus eurer Sicht hat da dieses Lead oder einer muss doch dieses Lead in diesen VLRs annehmen.
00:31:03: Also, wir haben den Eindruck, dass der Markt noch am entscheidend ist.
00:31:06: Also, wir reden mit großen Unternehmen in China, die haben da sehr gute Fortschritte gemacht, das gleiche in den USA oder jetzt auch in Europa gibt's Firmen.
00:31:15: Das heißt, ich glaube, der Markt ist noch nicht entschieden.
00:31:17: Also, da gibt es verschiedene Players.
00:31:18: Ich denke aber, dass diese Modelle immer mehr zu einer Commodity werden.
00:31:21: Also, ich glaube nicht, dass jetzt jeder anfangen muss, so ein Modell zu trainieren.
00:31:24: So ähnlich wie bei Large Language Models, die sind alle mehr oder weniger vergleichbar heutzutage.
00:31:29: Mal ist es eine besser, mal das andere und genauso ist es mit diesem... Und
00:31:31: keiner verdient Geld damit.
00:31:33: Genau, das ist das, was wir sehen.
00:31:35: Das Geld wird mit den Applikationen verdient und deswegen ist es auch nicht unser Ansehnen, jetzt so ein großes Modell zu berechnen, weil wir da einfach zu klein sind.
00:31:43: Ja
00:31:43: klar, aber ihr seid ein Player in diesem Ökosystem.
00:31:45: Genau, also wir greifen auf diese Modelle zurück, setzen die dann ein und adressieren Applikationen damit.
00:31:51: Ausblick, wo steht ihr in fünf Jahren, Benedikt?
00:31:54: Hoffentlich immer noch auf dem Boden der Tatsachen.
00:31:59: Ja, also... Das ist wirklich fies.
00:32:00: Die Frage, die kann ich nicht beantworten, weil ich keine Kristallkugel besitze.
00:32:03: Und aktuell weiß man, dass die Industrie hier in Deutschland schwächelt.
00:32:08: Ich denke, wir sind noch ganz stabil dabei.
00:32:10: Wir möchten wachsen, wir suchen nach Partnern und das Wachstum - Integratoren sind gesucht - aber auch Kollaborations- und Kooperationspartner, die helfen unser Potenzial zu heben.
00:32:22: Wir haben gerade in der Planung, dass wir unsere Entwicklung ins Ausland bringen werden.
00:32:27: Wir sind gerade dabei zu internationalisieren.
00:32:31: Was schwebt euch davor?
00:32:32: Wo geht man da hin als junges Unternehmen ins Ausland?
00:32:35: Ich glaube darüber schweigen wir noch ein bisschen
00:32:37: aber es gibt Möglichkeiten, wo man günstiger entwickeln kann, das in Deutschland.
00:32:41: Und sind dabei zu internationalisieren
00:32:43: und ich denke, dass wir schon ein Wert, also wir wollen der Vision Partner sein, in der ctrlX World auf der Plattform ctrlX-OS für die Applikation, die Bosch Rexroth benötigt, um seine Zielmärkte wie eben zum Beispiel Fast Moving Consumer Goods adressieren zu können.
00:33:02: Wo schlägt dir technologisch am Ende?
00:33:04: Fünf Jahre?
00:33:05: In fünf Jahren?
00:33:06: Ich denke, wir...
00:33:07: viele Kameras habt ihr dann gebaut?
00:33:09: Da sind wir dann hoffentlich nicht mit den Hunderten und hoffentlich haben wir dann auch die Kameratechnik soweit, sag ich mal industrialisiert und skaliert, dass sie wirklich günstig und erschwinglich ist und einfach dadurch viel breiter eingesetzt werden kann.
00:33:20: Und dann natürlich sagen wir an fünf Strichen einfache Sachen, wie höher aufgelöste Sensoren und dergleichen,
00:33:26: aber eher das günstige Produzieren, um einfach einen größeren Markt zu erschließen.
00:33:30: Vielen Dank, Christoph.
00:33:31: Vielen Dank, Benedikt war uns eine Freude.
00:33:33: Vielen Dank, dir Robert.
00:33:34: Ja, danke,
00:33:35: hat Spaß gemacht.
Neuer Kommentar