Robotik im Wandel: Update durch Fraunhofer IPA
Shownotes
Kennen Sie schon den Rexroth-Blog
Wenn Sie Fragen haben, dann wenden Sie sich gerne an: vertrieb@boschrexroth.de
Produziert von Bosch Rexroth AG, Vertrieb Europa Mitte Susanne Noll
Transkript anzeigen
00:00:00: Hallo liebe Zuhörerinnen und Zuhörer, willkommen zu einer neuen Folge unseres Podcastes Industrie
00:00:10: Neu Gedacht.
00:00:11: Mein Name ist Robert Weber und mir in Stuttgart zugeschaltet ist Dr.
00:00:14: Werner Kraus.
00:00:15: Hallo Werner, grüß dich.
00:00:16: Hallo Robert, grüße dich.
00:00:17: Du bist vom Fraunhofer IPA und leitest dort die Robotik.
00:00:21: Sag uns zwei, drei Sätze zu dir und zum Fraunhofer IPA Werner.
00:00:24: Ja, das IPA ist quasi das etablierteste Robotik-Institut innerhalb der Fraunhofer
00:00:29: Gesellschaft.
00:00:30: Wir sind 70 wissenschaftliche Leute und kümmern uns um den Technologietransfer der Robotik
00:00:35: in die Anwendung.
00:00:36: Und ihr habt letztes Jahr 50 Jahre Fraunhofer IPA gefeiert, ne?
00:00:40: Richtig, 50 Jahre Robotik.
00:00:41: Also unsere Urväter haben 1973 angefangen, als die Robotik in den USA angefangen haben.
00:00:47: Die haben unsere, die ersten Industrie-Roboter nach Stuttgart gebracht und dann ging es los
00:00:51: mit der Anwendungsentwicklung.
00:00:52: Das heißt, wenn jemand was zu Robotik wissen will, muss er euch fragen.
00:00:56: Idealerweise ja.
00:00:57: Immer gerne willkommen.
00:00:58: Was treibt die Robotiker in Deutschland, in Europa gerade um Werner?
00:01:04: Ja, wenn man wirklich mal schaut, was in der Anwendung passiert, da haben wir ja um die 55.000
00:01:09: Industrie-Roboter weltweit die jährlich installiert werden.
00:01:12: 9% davon in der Montage, also gar nicht so viel.
00:01:16: Und es scheitert eben immer noch an der ganzen Thematik Flexibilität, Produktivität und auch
00:01:21: schnelle Inbetriebnahme der Roboter.
00:01:24: Immer noch?
00:01:25: Nach wie vor.
00:01:26: Und wenn man auch mal reinschaut in unsere 50 Jahre Robotik, da sehen wir eben, dass
00:01:30: wir immer noch dieselben Anwendungsfälle diskutieren, also Griff in die Kiste, Palettieren, Montage,
00:01:35: biegeschlaffe Bauteile.
00:01:37: Und deswegen sprechen wir jetzt ja von der Automation of Automation.
00:01:41: Was heißt Automation of Automation?
00:01:42: Das heißt, ich packe jetzt noch eine GPU an den Roboter, dann mache ich ein bisschen
00:01:46: KI drauf und dann wird alles gut?
00:01:48: So in etwa.
00:01:49: Also wir haben nach wie vor den selben Roboter, die selben Prozesse, unterstützen aber jetzt
00:01:54: die Ingenieure darin, den Roboter in Betrieb zu nehmen.
00:01:57: Und es fängt aber eigentlich schon viel früher an, also nicht erst auf dem Roboter selber,
00:02:01: sondern quasi von dem Moment an, wo ich mir überlege, einen Prozess zu automatisieren.
00:02:05: Aber ich habe mal eine Frage an dich, Werner.
00:02:07: Ich habe das letzte Woche auf einer Veranstaltung gesehen.
00:02:10: Wie viel Sinn macht es denn wirklich jetzt einfach eine GPU noch an den Cobot dran zu
00:02:16: packen?
00:02:17: Ich habe doch immer gedacht, Cobot, die machen die Use Cases, die Standard Use Cases,
00:02:21: links, rechts, palletieren, depalletieren, da brauche ich doch keine GPU am Ende noch
00:02:26: an dem Cobot dran.
00:02:27: Natürlich auch nicht zwingend, aber tatsächlich haben die Cobots natürlich auch dieselben
00:02:31: Thema wie die großen Industrie Roboter, das natürlich sehr wiederholgenau ist, aber
00:02:36: nicht unbedingt mit den Toleranzen in den Bauteilen umgehen können.
00:02:39: Und ich meine, wenn man da an unseren Speis Cobot denkt mit dem Sensor, der quasi selber den
00:02:43: Nahtanfang erkennt und auch in Echtzeit dann regelt, da brauche ich schon ordentlich
00:02:47: Rechenkapazität auf dem Cobot selbst.
00:02:50: Aber würdest du sagen, wir erleben zwei Welten, sagen wir mal die Standard einfachen Anwendungen,
00:02:57: palletieren, depalletieren und dann die schwierigeren Anwendungen und gibt es da so zwei Welten in
00:03:05: der Robotik und das wir sagen, okay, diesen einen Markt, den überlassen wir vielleicht
00:03:09: gerade chinesischen Unternehmen und den anderen Markt, vielleicht haben wir da noch sozusagen
00:03:14: eine große Chance?
00:03:15: Auf jeden Fall.
00:03:16: Also tatsächlich denke ich, wenn ich strategisch auf die Robotik schaue, genau in die beiden
00:03:21: Richtungen, das sind die beiden Achsen.
00:03:22: Ja, eine ist ease of Use, da hat aber, finde ich, Universal Robot einfach den Pflock reingehauen,
00:03:28: aber natürlich auch schon wieder 15 Jahre her mit dem Teen Spondor und dann haben wir
00:03:33: den anderen Markt mit den komplexen Produkten, wo man aber immer noch individuell entwickeln
00:03:37: muss und so weiter.
00:03:38: Aber das Entscheidende ist halt nach wie vor die Kreativität des Ingenieurs in der Auswahl, Auslegung des
00:03:44: Roboters.
00:03:45: Also der Integrator.
00:03:46: Das ist immer noch der Integrator.
00:03:48: Dem Integrator kommt quasi eine entscheidende Rolle zu in dem Spiel.
00:03:52: Aber wir erleben doch auch viele Robotikhersteller, die sagen, okay, Integrator brauchst du gar
00:03:57: nicht.
00:03:58: Wir sind modular oder auch Integratoren.
00:04:00: Wir haben Module, die nimmst du einfach von der Stange, packst die in deine Fertigung
00:04:04: und der fängt an zu depalletieren.
00:04:05: Und das ist ja jetzt keine große Raketenwissenschaft depalletieren.
00:04:10: Da brauch ich ja keine GPUs, das sind die schnellen Use Cases und die müssen vor allem günstig
00:04:14: sein.
00:04:15: Siehst du, dass dieser Markt uns so ein bisschen wegerodiert, dass da Wettbewerber aus Asien kommen,
00:04:20: die das viel besser können?
00:04:21: Eher weniger muss ich...
00:04:23: Also auf jeden Fall da entsteht ein Markt, das ist quasi die Demokratisierung der Robotik
00:04:27: und das löst ja dann auch ein Stück weit das Fachkräfteproblem, weil ich halt erstmal
00:04:31: gar keine Integratoren habe oder sehr lange Wartezeiten habe, bis die mir überhaupt mal
00:04:35: ein Robotersystem bauen.
00:04:37: Und das ist ja in der Vergangenheit auch so gewesen, dass China sehr viele Roboter herstellt,
00:04:42: aber denen die Integratoren fehlen.
00:04:44: Und dass natürlich in die Lücke natürlich solche modulare Ansätze reingehen, ist auch
00:04:48: klar.
00:04:49: Jetzt fehlen aber auf einmal nicht mehr Integratoren, weil viele Integratoren gerade
00:04:54: kämpfen und chinesische Unternehmen sagen, ja, wir wollen auch noch Europa kommen, wir
00:04:58: suchen Integratoren.
00:04:59: Was nimmst du so wahr im Integratorenmarkt?
00:05:02: Was hörst du da?
00:05:03: Also wir haben, finde ich, für diese einfachen Anwendungen im Palettieren zum Beispiel über..
00:05:09: ein großes Angebot an Integratoren oder manchmal können es die Endkunden dann auch schon selber
00:05:12: integrieren.
00:05:13: Es fehlt aber nach wie vor der Systemintegrator, für die KI-basierte Robotik wo dann
00:05:18: wirklich die GPU mit ins Spiel kommen wo es dann wirklich komplex wird und über eine SPS hinausgeht.
00:05:23: Das heißt, siehst du da ein Markt, das du sagst, okay, die Integratoren möchten sich
00:05:28: fit machen für neue Technologien, für modulare KI-getriebene Robotik?
00:05:34: Ja, absolut.
00:05:35: Also das haben wir auch mit dem Bundeskanzler.. gab es den Zukunftsrat zur KI-basierten Robotik,
00:05:41: wo ja auch das RIG entstanden ist für die Forschung und das Projekt ROX als Industrie
00:05:46: mit den Industrieanwendungsfällen.
00:05:47: Und das war quasi das zentrale Element, was in deren Ökosystem gefehlt hat, ist tatsächlich
00:05:53: der Systemintegrator für KI-basierte Robotik.
00:05:56: Was muss ein Systemintegrator für KI-basierte Robotik aus Sicht des Fraunhofer IPAs
00:06:01: können?
00:06:02: Was braucht er für Qualifikation?
00:06:03: Der muss ganz klassisch die Kundenprobleme verstehen, also in einem Markt zu Hause sein,
00:06:08: um zu verstehen, was sind quasi wirklich die KPIs, OEE, Taktzeit, Robustheit, Inbetriebnahmezeiten
00:06:16: Muss dann aber auf der anderen Seite auch in der Lage sein, KI-Themen zu beherrschen,
00:06:20: die vielleicht auf Testdaten wunderbar laufen, aber mit Realdaten nicht mehr so super unterwegs
00:06:26: sind.
00:06:27: Und ich denke, das nächste Thema ist halt auch, den Endkunden, also quasi auf eine Lernreise
00:06:32: mitzunehmen, dass der dann auch vom repetitiven Roboter plötzlich in der Lage ist, sich
00:06:37: dann auch mit einem KI-basierten Roboter wohlzufühlen und den auch wiederum zu bedienen,
00:06:41: also auch Thema Weiterbildung der Mitarbeiter.
00:06:43: Wo machen wir diese Integratoren fit in diesem Bereich?
00:06:47: Wer macht das?
00:06:48: Müssen sie sich das selber beibringen?
00:06:50: Macht ihr das?
00:06:51: Wer kann das leisten?
00:06:52: Also vieles ist halt, würde ich sagen, immer noch Projektbasiert.
00:06:56: Also die Integratoren sind ja in der Regel nicht die größten Unternehmen, sondern die
00:06:59: schneiden sich quasi in jedem Projekt immer wieder eine schippe Innovation ab und lernen
00:07:04: dann auch mit dazu.
00:07:05: Und so der typische Weg ist, dass tatsächlich die Endkunden mehr Innovationen wollen in
00:07:09: ihrer Fertigung.
00:07:10: Ah, das sie es fordern von ihm?
00:07:12: Ja.
00:07:13: Und häufig erstmal sagen wir dann doch zunächst mal mit den allbekannten Angeboten
00:07:19: bedient werden und das sind häufig die Kunden, die dann bei Fraunhofer aufschlagen, sagen,
00:07:24: ah, wir hätten es gerne, wir brauchen mehr, wir wollen jetzt mehr Innovationen, wir müssen
00:07:28: flexibler werden, schneller, kommt bei uns quasi auch als Machbarkeitsuntersuchung und wir
00:07:32: gehen dann mit dem Endkunden auch auf die Suche nach dem Integrator, der das am Ende dann
00:07:36: auch umsetzt.
00:07:37: Beziehungsweise, wenn wir keinen finden, integrieren wir selber beim Kunden.
00:07:41: Es gibt ja zwei Wege.
00:07:42: Der eine Weg ist die Robotikintegratoren lernen mehr KI oder die, sagen wir mal AI-Integratoren,
00:07:48: die sich vor allem mit dem Thema Daten beschäftigt haben, lernen mehr von der Robotik.
00:07:53: Siehst du die anderen auch in die Robotik kommen oder sagst du, naja, Robotik ist noch so
00:07:57: komplex, da traut sich keiner ran, von der anderen Seite.
00:08:00: Also ich glaube in den Industrie-Roboter-Systemen, über die wir gerade sprechen, tut sich quasi
00:08:05: ein rein datenbasierter Integrator sehr schwer, der halt quasi aus der Welt von Dashboards,
00:08:11: Dockers und so weiter kommt.
00:08:12: Also das ist, glaube ich, immer noch zu viel Maschinenbau mit drin.
00:08:16: Bei mobilen Robotern kann ich mir das schon eher vorstellen, dass man quasi die Softwareseite
00:08:21: wirklich einkauft, das ist zum Beispiel bei den gewerblichen Service Robotern auch schon der
00:08:25: Fall.
00:08:26: Aber es ist am Ende immer noch auch Maschinenbaukompetenz, auch Service-Wertungsgeschäft.
00:08:30: Noch mal, du hast gesagt, die machen sich selber fit.
00:08:32: Jetzt erleben wir gerade so einen Integratorensterben, da gehen einige auch über die Wupper.
00:08:36: Da tut man sich ja in so welchen Situationen immer schwer, dann jetzt zu sagen, jetzt mache
00:08:40: ich mir nochmal eine Fortbildung, jetzt mache ich mich nochmal schlauer.
00:08:43: Wie motiviert man da?
00:08:44: Was kannst du denen mitgeben, wie groß ist dieser Markt?
00:08:47: Was passiert da gerade in diesem Markt?
00:08:48: Also der Markt verändert sich, wie wir auch vorher besprochen haben.
00:08:52: Also sprich diese 08/15 Anwendungen, die vielleicht vor 10, 15 Jahren noch ausgänglich waren,
00:08:58: hier mal eine Palettieranwendungen, da vielleicht mal eine Maschinenbeladung.
00:09:01: Der bricht weg, weil es quasi Endkunden selber integrieren.
00:09:05: Das heißt, ich muss mich diesen neuen Anwendungen widmen und die liegen halt im Bereich der flexiblen
00:09:10: Produktionen.
00:09:11: Also den größten Hebel sehe ich halt tatsächlich im Engineering, also von der Auftragsanfrage
00:09:18: der Automatisierungs-Challenge bis hin dann zum Lastenheft und zur Inbetriebnahme.
00:09:22: Also da muss man effizienter werden.
00:09:24: Wie kann das funktionieren?
00:09:25: Kannst du mal erklären, was man da machen kann?
00:09:27: Also bisher wird ja doch noch recht viel mit CAD, PowerPoint, Treadshots gearbeitet.
00:09:32: Natürlich auch viel Kreativität und wir sehen in einzelnen Schritten, also auf dem Weg von
00:09:37: einem Produkt, also dem Bauteil, was ich montieren möchte, hin zum Roboter-System, zum Prozess.
00:09:42: Häufig Einsparungen, über 50 Prozent in einzelnen Engineering-Schritten.
00:09:47: Aber das Engineering oder den Support des Engineers, da gehen ja auch jetzt viele, sagen wir mal,
00:09:54: die so zwischen Integrator und Robotik-Hersteller sind.
00:09:58: Die versuchen, da in diese Lücke rein zu grätschen und zu sagen, hey, ich habe hier ein Simulationstool,
00:10:05: mit dem kannst du arbeiten.
00:10:06: Das hilft dir, das beschleunigt deine Arbeit um Faktor 10, 20, 30, keine Ahnung.
00:10:11: Siehst du da gerade auch einen neuen Markt entstehen?
00:10:15: Ja, definitiv.
00:10:16: Also dieser Markt ist größer, wie eigentlich der Roboter-Markt selber an sich.
00:10:21: Oh krass, okay, das ist spannend.
00:10:22: Weil ja natürlich, wenn man sich ja die Kostenverteilung anschaut, der Roboterarm an sich macht ein viertel bis
00:10:27: ein fünftel des Roboter-Systems aus, dann kommt noch Greif-Technik dazu, Sicherheitstechnik
00:10:31: und ja fast die Hälfte sind ja Ingenieursstunden, die da reingehen.
00:10:34: Also das ist quasi ein riesen Engineering-Markt, der ganze Roboter-System-Markt.
00:10:39: Und wenn man dort in dem Markt kann man halt, wie du ja sagst, da mal eine Verzehnfachung
00:10:44: der Produktivität rausholen, wenn ich auf den Roboter selber gehe, wenn ich da mal
00:10:49: vielleicht mal 5 % raushole oder vielleicht mal 10 oder 20 % Produktivitätsteigerung auf
00:10:54: einem Roboter, dann ist man richtig, richtig gut.
00:10:57: Ist es der Markt der Nvidias, der Intrinsics, sind das nur die großen Player, die da reingrätschen
00:11:04: oder siehst du da auch kleinere?
00:11:05: Sowohl als auch.
00:11:06: Also zunächst mal bieten die Großen natürlich auch eine Plattform, Nvidia, Intrinsic,
00:11:11: die natürlich auch das Innovationspotenzial mitnehmen wollen von den Kleinen.
00:11:15: Und wir haben ja nach wie vor in der Robotik diese riesen Prozessvielfalt.
00:11:20: Also auch auf unseren 50 Jahren Journeys sind ja über 160 Roboter-Werkzeuge entstanden,
00:11:26: wo kein Werkzeug dem anderen gleicht, weil jeder hat wieder andere Bauteile,
00:11:30: anderen Prozess.
00:11:31: Das heißt, wir haben ja sehr viele Nischen mit drin und damit finden wir halt nicht das
00:11:37: eine KI-Modell, die eine Toolchain, die quasi sämtliche Prozesse, also vom Schrauben, Fügen,
00:11:44: Schweißen, Palettieren in einem erschlägt und dann auch wiederum die Bedürfnisse unterschiedlicher
00:11:50: Branchen, also von Logistik, Produktionen, vielleicht auch über Landwirtschaft dann auch erschlägt.
00:11:55: Also damit sehe ich ein sehr hohes Innovationspotenzial auch für Startups, auch wenn da sich große
00:12:00: Platzhirsche tummeln.
00:12:01: Aber das ist schon auffällig, du warst jetzt auch auf der Roscon wahrscheinlich in Odense,
00:12:05: der Nvidia macht das schon, setzt sich da schon mitten rein auch.
00:12:09: Ja, das hat sich wirklich nochmal, also mit Nachdruck auf die Agenda gesetzt und es
00:12:14: natürlich auch, die Rechenkapazitäten, die man braucht, um so large Language-Modelle
00:12:18: für die Robotik zu trainieren, ist natürlich gewaltig, also in jedem Fall gewinnt
00:12:22: Nvidia schon mal Kunden für entsprechende GPUs.
00:12:25: Ja, aber Software machen sie ja auch.
00:12:27: Also sie haben ja auch Newton und Remember und so.
00:12:30: Ist jetzt auch alles Ross basiert oder wollen sie da hinkommen?
00:12:34: Also schon ... dieser Markt verändert sich schon ... der Robotikmarkt, finde ich.
00:12:39: Also er kriegt eine neue Aufmerksamkeit von Unternehmen, die früher vielleicht gesagt haben,
00:12:43: oh nee, Robotik, da lassen wir mal mal die Hände davon.
00:12:45: Ja, klar.
00:12:46: Also es ist ja nach wie vor auch ein Stück Werk, wie die Roboter-Software bisher aussieht.
00:12:50: Und das quasi zu vereinfachen mit der Vielfalt der Komponenten umzugehen.
00:12:55: Das wir zwar ein PC hier haben.
00:12:57: Ich stecke quasi ein neues Mikrofon ein in mein Laptop und es funktioniert.
00:13:02: Ich teste vielleicht kurz vorher noch mal.
00:13:04: Das haben wir in der Robotik ja hinten und vorne noch nicht, was wir im PC-Markt haben.
00:13:07: Da müsste ich wahrscheinlich noch drei Wochen integrieren.
00:13:10: Was siehst du noch für Themen, die die Robotik in den nächsten Jahren umtreiben?
00:13:15: Klammern wir mal die Humanoiden aus.
00:13:17: Lass uns mal auf dem Boden so ein bisschen bleiben.
00:13:19: Was sind noch Themen, wo du sagst, da passiert gerade viel?
00:13:22: Also natürlich haben wir in der Bildverarbeitung schon einen ordentlichen Weg gemacht, auch
00:13:27: über Foundation-Modelle.
00:13:28: Ich mein wir haben hier auf dem iPhone ... kann ich einfach ein Bild freistellen per Fingerdruck und sowas
00:13:33: kann ich natürlich auch auf den Roboter bringen und plötzlich Bauteile erkennen, die der
00:13:37: Roboter vorher noch nie gesehen hat.
00:13:39: Was uns ja auch wiederum Lernaufwände reduziert.
00:13:42: Glaubst du daran, dass diese ganzen Vision-Start-Ups, die wir haben, dass die alle überleben werden?
00:13:48: Weil von meiner Wahrnehmung ist Vision Comodity so.
00:13:53: Also wir werden Vision-Modelle sehen, große Vision-Modelle, Foundation-Modelle, wo man
00:13:58: sich raus bedient und da wird es ein Vision-Robotics-Modell geben und dann sind die Kamerahersteller
00:14:03: gefragt, sich einfach von diesem großen Foundation-Modell Vision-Applikationen zu ziehen für die Robotik.
00:14:09: Oder glaubst du wirklich, dass man noch sagen kann, mit meinem ganz speziellen Vision-Modell
00:14:14: damit kann ich noch richtig mich am Markt absetzen in den nächsten Jahren?
00:14:18: Klar, also die.. entscheidend ist wirklich der Kundenzugang aus meiner Sicht.
00:14:23: Also wenn ich halt in der Lage bin, ein Endkunde wie ein Wirt zu bedienen mit meiner Vision-basierten
00:14:28: Robotik, der mir eben auch zutraut, dass ich seine Problem löse, auch Wartungsservice hinbekomme,
00:14:34: also sprich wiederum auch die Integratorrolle einnehmen, sehe ich da gute Karten.
00:14:38: Aber ich glaube, dass man mit eigenen Entwicklungen an der Stelle nicht mehr, also langfristig
00:14:44: im Bereich Vision mithalten kann.
00:14:46: Also jetzt übersetze ich mal für mich, okay, wenn ich Domänen-Daten habe zu bestimmten
00:14:51: Robotik-Themen, dann kann ich mit diesen Domänen-Daten differenzieren.
00:14:56: Gegen Standard Vision-Modelle sollte ich vielleicht nicht mehr antreten in Zukunft.
00:15:01: Ja, die sollte ich halt integrieren.
00:15:02: Also es ist vielleicht so was ähnliches wie Alpha Alpha im Bereich der LLMs.
00:15:06: Ja, so zu sagen, okay, wo ist meine Nische, wo gehe ich rein, wo habe ich Domänen-Daten,
00:15:11: die mich vielleicht am Markt von anderen unterscheiden?
00:15:14: Ja, gleichzeitig kommt ein Riesen... also Domänendaten ist ein gutes Stichwort also auch mit der Simulation synthetische
00:15:20: Datengenerierung wird ein großer Wert zukommen.
00:15:22: Und natürlich geht es der, also im Bereich Vision haben wir natürlich schon einen großen
00:15:27: Datensatz über die ganzen Bild- und Videodaten online.
00:15:30: Aber natürlich an der Stelle wird es eng werden, wo wir wirklich in Produktionsdaten
00:15:34: reingehen, wo der Kunde nicht mal CAD-Modelle von seinen Bauteilen in dem Zwischenschritt
00:15:40: hat.
00:15:41: Das heißt, wieder eine neue Nische sozusagen, synthetische Daten für die Robotik zu erstellen?
00:15:46: Das, ja, das würde uns auch, also auch wiederum, also auch wie schon bei Deep Learning jetzt
00:15:52: auch bei GenAi beschäftigen.
00:15:54: Das heißt, glaubst du, da entstehen Geschäftsmodelle?
00:15:57: Mit Sicherheit, weil man ja auch nicht nur wieder stumpf simulieren kann, muss auch über
00:16:04: Sim-to-Real-Gaps nachdenken, dabei Skurratieren von einem Datensatz.
00:16:09: Und am Ende vom Tag reduziere ich halt auch wiederum Ingenieursstunden.
00:16:13: Wenn ich ein Ingenieur produktiver mache, habe ich auch einen relativ guten Stundensatz.
00:16:17: Währenddessen ich ja beim Roboter selber zunächst in der Regel Behandhabungsaufgaben ja nicht
00:16:23: gegen den Chefarzt irgendwie ankämpfe, sondern eher auf Mindestlohnniveau automatisiere.
00:16:28: Du warst ja wahrscheinlich auch in Odense.
00:16:31: Lass uns ganz kurz noch über Industrial ROS sprechen oder ROS Industrial.
00:16:36: Was habt ihr in Odense gezeigt?
00:16:39: Was tut sich gerade in dem Bereich?
00:16:40: Ich habe tatsächlich in Stuttgart die Stellung gehalten.
00:16:43: Ah, okay.
00:16:44: Was wir aber umfangreich gezeigt haben, ist das Thema Testing und Validierung von KI-Lösungen
00:16:49: in AI-Matters, also Testing-Experimentation Facilities.
00:16:52: Und da entstehen gerade über 150 Test-Services, mit denen wir den ganzen KI-Lösungen auf
00:17:00: den Zahlen fühlen, ob die wirklich das halten, was wir versprechen, in Bezug auf
00:17:04: Robustheit, Performance, auch Umgang mit neuen Situationen, die im Datensatz nicht vorhanden
00:17:10: waren.
00:17:11: Was hat das genau mit ROS zu tun?
00:17:12: Kannst du es mal spezifizieren?
00:17:13: ROS, wie auch KI, sind ja auch neue Technologien, also wo ja auch nochmal Bedenken auch im
00:17:20: Markt sind.
00:17:21: Die sagen, hm, taugt es eigentlich, ist es wirklich robust.
00:17:24: Also quasi die Bedenken kommen ja vor allem aus der Welt, wo ich was im repetitiven,
00:17:29: festen Prozess habe, Echtzeit, alles deterministisch.
00:17:32: Und dann kommen mal schon die Fragen auf, wo liegen jetzt eigentlich die Grenzen dieser
00:17:35: Technologien?
00:17:36: Und bei ROS schwingt ja gerne auch noch so Echtzeitfähigkeit mit rein.
00:17:40: Und wir reden ja jetzt über KI-basierte Roboter, kognitive Roboter, wo ja auch der Sensor
00:17:46: in die Laufzeit mit eingebunden ist, zum Beispiel, weil der Roboter den Sensor nutzt, um
00:17:52: einer Naht zu folgen.
00:17:53: Und da werden dann zum Beispiel Roboter dann auch.. natürlich auch deren Dynamik identifiziert.
00:17:57: Also wie schnell sie tatsächlich auf Fehler reagieren können und wie dann am Ende auch
00:18:02: die Nahtqualität beim Speisen aussieht.
00:18:04: Das heißt, also es gab ja dann die Ankündigungen auch von Yaskawa, dass die auch ROS integrieren
00:18:09: in ihre Steuerung, UR hat was zu ROS gezeigt.
00:18:12: Aber so langsam wachen sie alle auf und tun was in dem Bereich, oder?
00:18:15: Ja, das ist auf jeden Fall, ist da also UR, für UR war das ein entscheidender
00:18:20: Vorsprung im Markt, dass sie sehr früh schon UR-Treiber haben, um auch in die ganzen Forschungsinnovationsabteilungen
00:18:26: mit reinzukommen.
00:18:27: Weil das halt.. immerhin ROS auch das ganze Ökosystem drum herum mit Move It, OpenCV,
00:18:33: also auch wiederum in die Bildverarbeitung reinkommen, auch in die mobile Robotik, das erlaubt
00:18:36: es ja rasend schnell neue Anwendungen zu realisieren und auch quasi die neueste Technologien einfach
00:18:42: mal auszuprobieren, bevor ich das quasi mühsam auf dem Industrieroboter nachimplementiere.
00:18:48: Und das heißt, das Thema Echtzeitfähigkeit ist immer noch kritisch oder tut sich da
00:18:53: was?
00:18:54: Also mit ROS 2 ist es im Griff, aber auch bei ROS 1 haben wir ja auch schon in der Produktion
00:18:59: bei Audi zum Beispiel schon vor zehn Jahren mit ROS automatisiert und auch dort also
00:19:04: wirklich produktionskritische Prozesse, wo es auch um Echtzeit Themen ging.
00:19:08: Jetzt gibt es ja immer die Diskussion, okay, ROS Robotik, aber die Zelle ist nicht losgelöst
00:19:14: von der Automatisierung drum herum.
00:19:15: Kannst du dir jetzt aus Fraunhofer IPA Sicht vorstellen, dass ROS über die Robotik hinausspringt
00:19:22: und auch auf den Shopfloor geht?
00:19:23: Also auf jeden Fall Anwendungsfälle, klar, wo man es auf jeden Fall auch sieht im Bereich
00:19:27: vom autonomen fahren, weil es eben auch hervorragende Möglichkeiten gibt, um Daten zu erfassen.
00:19:32: Es ist nach wie vor eine Mittelware und ich glaube auf übergeordneter Ebene gibt es andere
00:19:36: Systeme, aber ich kann mir schon vorstellen, also wirklich ganze Roboternlinien damit zu
00:19:41: betreiben und halt auch wiederum von diesen Skaleneffekten zu partizipieren, dass ich
00:19:46: auch Herstellerunabhängig bin.
00:19:48: Wenn eben eine komponente ausfällt, kann ich sie einfach austauschen.
00:19:51: Und es gibt jetzt basierend auf Brosts auch Forschungsthemen, die in Richtung Stabilität
00:19:57: gehen, also sowas wie eine Selbstheilung des Roboters.
00:20:00: Das heißt, wenn mal was schief gegangen ist, also z.B. ein Bauteil nicht sauber gegriffen
00:20:04: oder ein Sensor ausfällt, bekommt der Roboter Möglichkeiten an der Hand zu erkennen, was
00:20:08: schief gegangen ist.
00:20:09: Dann zu klassifizieren, kann ich selber heilen oder dann gibt dem Operator dann die Möglichkeit,
00:20:15: den Fehler schneller zu beseitigen.
00:20:17: Also es ist zum Beispiel dann auch, wenn man sich mal vorstellt, also nicht nur den einzelnen
00:20:20: Roboterarm, ich habe quasi ein Bauteil, was von mehreren Robotern bearbeitet wird.
00:20:24: Und dann muss ich mir auch, also das klassische Thema ist ja, wenn ich einen Roboter resette,
00:20:29: dann fährt er ja quasi linear auf meinen Nullpunkt und räumt bei der Gelegenheit alles über
00:20:34: den Haufen, was ihm in den Weg kommt.
00:20:35: Und da haben wir quasi Ansätze, die quasi in der Art, wie soll ich sagen, Mikado
00:20:39: spielen, die also einem Operator die Freiheiten aufzeigt, wie er jetzt diesen Roboter wieder
00:20:46: einen sicheren Zustand überführen kann, ohne dass er zu Kollisionen kommt.
00:20:50: Was liegt auf deinem Schreibtisch, Werner?
00:20:51: Was musst du noch erledigen in den nächsten vier, fünf, sechs Wochen?
00:20:55: Was sind so Themen, die dich beschäftigen?
00:20:57: Also inhaltlicher Natur sind es tatsächlich unsere Studien zu den Zukunftssystemen der
00:21:03: Robotik.
00:21:04: Also auch eine Studie zu Humanoiden-Robotern, zu den Anwendungspotenzialen, die dieses Jahr
00:21:08: noch fertig wird, auch zu Metaverse Safety.
00:21:11: Ihr kriegt einen Humanoiden, das dürfen wir noch ganz kurz verraten.
00:21:14: Ja, da sind wir auch dran.
00:21:16: Also das ist quasi auf der inhaltlichen Ebene auch Richtung Foundation-Modelle für diese
00:21:20: Automation of Automation.
00:21:22: Wie können wir eben diese Toolchain unterstützen vom Produkt zum Prozess?
00:21:25: Ja, und ansonsten liegt ganz viel um mich herum zum Eurpean Robotics Forum, was ja dann
00:21:31: schon in weniger als fünf Monaten in Stuttgart stattfindet.
00:21:34: Lass mich noch mal ganz kurz auf die Foundation-Modelle zurückkommen, bevor wir wieder an die Arbeit
00:21:38: gehen, an die richtige Arbeit gehen.
00:21:40: Da gibt es ja jetzt gefühlt jede Woche... publiziert jemand, okay, Stanford macht ein Weltmodell,
00:21:48: dann kommt zwei Wochen später jemand, der sagt, okay, MIT, wir machen ein Weltmodell
00:21:53: für die Robotik, dann kommt Toyota, wir wollen ein Weltmodell für die Robotik, machen die
00:21:58: jetzt alle Weltmodelle?
00:21:59: Warum ist das so verlockend, diese Weltmodelle zu machen?
00:22:02: Ja, es ist natürlich Open-World-Closed-World, ne?
00:22:05: Ja, genau.
00:22:06: Also, wir haben jetzt halt wirklich die Robotik über Jahrzehnte hinter dem Käfig gesehen,
00:22:10: und wir sehen natürlich, dass unglaublich viele Anwendungen sich eröffnen, sobald wir
00:22:16: die Umgebung vom Roboter verstehen.
00:22:18: Natürlich hat ChatGPT vor zwei Jahren auch die ganze Welt nochmal begeistert und auch quasi
00:22:25: Realitätssturm ausgelöst, wie kann man es quasi auf die Robotik überführen.
00:22:29: Und ich glaube, die Vielzahl der Modelle ist halt genau dieser Motivation und Euphorie
00:22:34: geschuldet.
00:22:35: Und rechtfertigt sich aber auch darin, dass es halt nicht das eine Weltmodell oder Actionmodell
00:22:41: für Roboter gibt, weil halt jeder Roboter wiederum andere Augen hat, andere Sensoren,
00:22:46: sprich, und andere Aktorik anders aufgebaut ist.
00:22:49: Das heißt, wir werden mehrere Weltmodelle sehen?
00:22:52: Also, ich würde mir mal meine Werner Kraus Meinung, dass es ähnlich laufen wird wie bei
00:22:58: den Cloud-Plattformen, wo auch jede Cloud-Plattform eigentlich den Anspruch hat, die Welt zu erklären,
00:23:03: und abzubilden.
00:23:04: Aber es am Ende dann doch maßgeschneidert ist für eine konkrete Anwendung und auch für
00:23:10: ein konkretes Robotersystem, was dem Ganzen zugrunde liegt.
00:23:13: Das heißt, es wird ein Foundation-Modell für Co-Bots geben, für Industriroboter, für
00:23:17: Service, dann vielleicht fürs Welding sogar, für einzelne Use-Cases vielleicht auch,
00:23:23: verstehe ich dich so richtig.
00:23:24: Ja.
00:23:25: Und jetzt habe ich gerade gesagt, Stanford, MIT macht da was, Toyota Research macht da
00:23:28: was.
00:23:29: Ist es nicht auch ein Markt, den die Robotik-Hersteller beackern müssten oder lässt man das die
00:23:34: Nvidias und Co's machen?
00:23:36: Ja, ich glaube, es wird halt auch wieder dieselbe Diskussion auflösen, wo liegt die Wertschöpfung
00:23:41: der Roboterhersteller in der Zukunft und inwieweit in die Wertschöpfungskette rein?
00:23:45: Weil du hast ja auch eben in deiner Aufzählung gesagt, hier Welding, Picking, Logistik, da
00:23:49: sind wir ja in ganz konkreten Anwendungsdomänen mit drin.
00:23:52: Und ich glaube, an der Stelle muss halt tatsächlich der Roboterhersteller auch die Basis bieten
00:23:59: in Richtung GPU solche Modelle auch zu rechnen.
00:24:01: Aber es wird wiederum auch die Frage vom Ökosystem sein, wie gut ist der Hersteller,
00:24:08: mit seinen Integratoren vernetzt, weil es halt immer nur im Zusammenspiel klappen kann.
00:24:12: Und da sind wir wieder beim Ausklang dieser Folge, der Integrator bleibt, die GPU kommt.
00:24:18: Ich sehe es noch ein bisschen kritisch, vielleicht ist es nur ein Übergang, wir werden irgendwann
00:24:21: auch über Embedded AI sprechen vielleicht schon, als Embedded Funktion eines Roboters.
00:24:26: Vielen herzlichen Dank, Werner, für deine Zeit und deinen Input.
00:24:30: Vielen Dank Robert fürs Gespräch.
00:24:31: Herzlichen Dank.
00:24:32: [Musik]
00:24:42: Copyright WDR 2020
Neuer Kommentar