Robotik im Wandel: Update durch Fraunhofer IPA

Shownotes

Kennen Sie schon den Rexroth-Blog

Wenn Sie Fragen haben, dann wenden Sie sich gerne an: vertrieb@boschrexroth.de

Produziert von Bosch Rexroth AG, Vertrieb Europa Mitte Susanne Noll

Transkript anzeigen

00:00:00: Hallo liebe Zuhörerinnen und Zuhörer, willkommen zu einer neuen Folge unseres Podcastes Industrie

00:00:10: Neu Gedacht.

00:00:11: Mein Name ist Robert Weber und mir in Stuttgart zugeschaltet ist Dr.

00:00:14: Werner Kraus.

00:00:15: Hallo Werner, grüß dich.

00:00:16: Hallo Robert, grüße dich.

00:00:17: Du bist vom Fraunhofer IPA und leitest dort die Robotik.

00:00:21: Sag uns zwei, drei Sätze zu dir und zum Fraunhofer IPA Werner.

00:00:24: Ja, das IPA ist quasi das etablierteste Robotik-Institut innerhalb der Fraunhofer

00:00:29: Gesellschaft.

00:00:30: Wir sind 70 wissenschaftliche Leute und kümmern uns um den Technologietransfer der Robotik

00:00:35: in die Anwendung.

00:00:36: Und ihr habt letztes Jahr 50 Jahre Fraunhofer IPA gefeiert, ne?

00:00:40: Richtig, 50 Jahre Robotik.

00:00:41: Also unsere Urväter haben 1973 angefangen, als die Robotik in den USA angefangen haben.

00:00:47: Die haben unsere, die ersten Industrie-Roboter nach Stuttgart gebracht und dann ging es los

00:00:51: mit der Anwendungsentwicklung.

00:00:52: Das heißt, wenn jemand was zu Robotik wissen will, muss er euch fragen.

00:00:56: Idealerweise ja.

00:00:57: Immer gerne willkommen.

00:00:58: Was treibt die Robotiker in Deutschland, in Europa gerade um Werner?

00:01:04: Ja, wenn man wirklich mal schaut, was in der Anwendung passiert, da haben wir ja um die 55.000

00:01:09: Industrie-Roboter weltweit die jährlich installiert werden.

00:01:12: 9% davon in der Montage, also gar nicht so viel.

00:01:16: Und es scheitert eben immer noch an der ganzen Thematik Flexibilität, Produktivität und auch

00:01:21: schnelle Inbetriebnahme der Roboter.

00:01:24: Immer noch?

00:01:25: Nach wie vor.

00:01:26: Und wenn man auch mal reinschaut in unsere 50 Jahre Robotik, da sehen wir eben, dass

00:01:30: wir immer noch dieselben Anwendungsfälle diskutieren, also Griff in die Kiste, Palettieren, Montage,

00:01:35: biegeschlaffe Bauteile.

00:01:37: Und deswegen sprechen wir jetzt ja von der Automation of Automation.

00:01:41: Was heißt Automation of Automation?

00:01:42: Das heißt, ich packe jetzt noch eine GPU an den Roboter, dann mache ich ein bisschen

00:01:46: KI drauf und dann wird alles gut?

00:01:48: So in etwa.

00:01:49: Also wir haben nach wie vor den selben Roboter, die selben Prozesse, unterstützen aber jetzt

00:01:54: die Ingenieure darin, den Roboter in Betrieb zu nehmen.

00:01:57: Und es fängt aber eigentlich schon viel früher an, also nicht erst auf dem Roboter selber,

00:02:01: sondern quasi von dem Moment an, wo ich mir überlege, einen Prozess zu automatisieren.

00:02:05: Aber ich habe mal eine Frage an dich, Werner.

00:02:07: Ich habe das letzte Woche auf einer Veranstaltung gesehen.

00:02:10: Wie viel Sinn macht es denn wirklich jetzt einfach eine GPU noch an den Cobot dran zu

00:02:16: packen?

00:02:17: Ich habe doch immer gedacht, Cobot, die machen die Use Cases, die Standard Use Cases,

00:02:21: links, rechts, palletieren, depalletieren, da brauche ich doch keine GPU am Ende noch

00:02:26: an dem Cobot dran.

00:02:27: Natürlich auch nicht zwingend, aber tatsächlich haben die Cobots natürlich auch dieselben

00:02:31: Thema wie die großen Industrie Roboter, das natürlich sehr wiederholgenau ist, aber

00:02:36: nicht unbedingt mit den Toleranzen in den Bauteilen umgehen können.

00:02:39: Und ich meine, wenn man da an unseren Speis Cobot denkt mit dem Sensor, der quasi selber den

00:02:43: Nahtanfang erkennt und auch in Echtzeit dann regelt, da brauche ich schon ordentlich

00:02:47: Rechenkapazität auf dem Cobot selbst.

00:02:50: Aber würdest du sagen, wir erleben zwei Welten, sagen wir mal die Standard einfachen Anwendungen,

00:02:57: palletieren, depalletieren und dann die schwierigeren Anwendungen und gibt es da so zwei Welten in

00:03:05: der Robotik und das wir sagen, okay, diesen einen Markt, den überlassen wir vielleicht

00:03:09: gerade chinesischen Unternehmen und den anderen Markt, vielleicht haben wir da noch sozusagen

00:03:14: eine große Chance?

00:03:15: Auf jeden Fall.

00:03:16: Also tatsächlich denke ich, wenn ich strategisch auf die Robotik schaue, genau in die beiden

00:03:21: Richtungen, das sind die beiden Achsen.

00:03:22: Ja, eine ist ease of Use, da hat aber, finde ich, Universal Robot einfach den Pflock reingehauen,

00:03:28: aber natürlich auch schon wieder 15 Jahre her mit dem Teen Spondor und dann haben wir

00:03:33: den anderen Markt mit den komplexen Produkten, wo man aber immer noch individuell entwickeln

00:03:37: muss und so weiter.

00:03:38: Aber das Entscheidende ist halt nach wie vor die Kreativität des Ingenieurs in der Auswahl, Auslegung des

00:03:44: Roboters.

00:03:45: Also der Integrator.

00:03:46: Das ist immer noch der Integrator.

00:03:48: Dem Integrator kommt quasi eine entscheidende Rolle zu in dem Spiel.

00:03:52: Aber wir erleben doch auch viele Robotikhersteller, die sagen, okay, Integrator brauchst du gar

00:03:57: nicht.

00:03:58: Wir sind modular oder auch Integratoren.

00:04:00: Wir haben Module, die nimmst du einfach von der Stange, packst die in deine Fertigung

00:04:04: und der fängt an zu depalletieren.

00:04:05: Und das ist ja jetzt keine große Raketenwissenschaft depalletieren.

00:04:10: Da brauch ich ja keine GPUs, das sind die schnellen Use Cases und die müssen vor allem günstig

00:04:14: sein.

00:04:15: Siehst du, dass dieser Markt uns so ein bisschen wegerodiert, dass da Wettbewerber aus Asien kommen,

00:04:20: die das viel besser können?

00:04:21: Eher weniger muss ich...

00:04:23: Also auf jeden Fall da entsteht ein Markt, das ist quasi die Demokratisierung der Robotik

00:04:27: und das löst ja dann auch ein Stück weit das Fachkräfteproblem, weil ich halt erstmal

00:04:31: gar keine Integratoren habe oder sehr lange Wartezeiten habe, bis die mir überhaupt mal

00:04:35: ein Robotersystem bauen.

00:04:37: Und das ist ja in der Vergangenheit auch so gewesen, dass China sehr viele Roboter herstellt,

00:04:42: aber denen die Integratoren fehlen.

00:04:44: Und dass natürlich in die Lücke natürlich solche modulare Ansätze reingehen, ist auch

00:04:48: klar.

00:04:49: Jetzt fehlen aber auf einmal nicht mehr Integratoren, weil viele Integratoren gerade

00:04:54: kämpfen und chinesische Unternehmen sagen, ja, wir wollen auch noch Europa kommen, wir

00:04:58: suchen Integratoren.

00:04:59: Was nimmst du so wahr im Integratorenmarkt?

00:05:02: Was hörst du da?

00:05:03: Also wir haben, finde ich, für diese einfachen Anwendungen im Palettieren zum Beispiel über..

00:05:09: ein großes Angebot an Integratoren oder manchmal können es die Endkunden dann auch schon selber

00:05:12: integrieren.

00:05:13: Es fehlt aber nach wie vor der Systemintegrator, für die KI-basierte Robotik wo dann

00:05:18: wirklich die GPU mit ins Spiel kommen wo es dann wirklich komplex wird und über eine SPS hinausgeht.

00:05:23: Das heißt, siehst du da ein Markt, das du sagst, okay, die Integratoren möchten sich

00:05:28: fit machen für neue Technologien, für modulare KI-getriebene Robotik?

00:05:34: Ja, absolut.

00:05:35: Also das haben wir auch mit dem Bundeskanzler.. gab es den Zukunftsrat zur KI-basierten Robotik,

00:05:41: wo ja auch das RIG entstanden ist für die Forschung und das Projekt ROX als Industrie

00:05:46: mit den Industrieanwendungsfällen.

00:05:47: Und das war quasi das zentrale Element, was in deren Ökosystem gefehlt hat, ist tatsächlich

00:05:53: der Systemintegrator für KI-basierte Robotik.

00:05:56: Was muss ein Systemintegrator für KI-basierte Robotik aus Sicht des Fraunhofer IPAs

00:06:01: können?

00:06:02: Was braucht er für Qualifikation?

00:06:03: Der muss ganz klassisch die Kundenprobleme verstehen, also in einem Markt zu Hause sein,

00:06:08: um zu verstehen, was sind quasi wirklich die KPIs, OEE, Taktzeit, Robustheit, Inbetriebnahmezeiten

00:06:16: Muss dann aber auf der anderen Seite auch in der Lage sein, KI-Themen zu beherrschen,

00:06:20: die vielleicht auf Testdaten wunderbar laufen, aber mit Realdaten nicht mehr so super unterwegs

00:06:26: sind.

00:06:27: Und ich denke, das nächste Thema ist halt auch, den Endkunden, also quasi auf eine Lernreise

00:06:32: mitzunehmen, dass der dann auch vom repetitiven Roboter plötzlich in der Lage ist, sich

00:06:37: dann auch mit einem KI-basierten Roboter wohlzufühlen und den auch wiederum zu bedienen,

00:06:41: also auch Thema Weiterbildung der Mitarbeiter.

00:06:43: Wo machen wir diese Integratoren fit in diesem Bereich?

00:06:47: Wer macht das?

00:06:48: Müssen sie sich das selber beibringen?

00:06:50: Macht ihr das?

00:06:51: Wer kann das leisten?

00:06:52: Also vieles ist halt, würde ich sagen, immer noch Projektbasiert.

00:06:56: Also die Integratoren sind ja in der Regel nicht die größten Unternehmen, sondern die

00:06:59: schneiden sich quasi in jedem Projekt immer wieder eine schippe Innovation ab und lernen

00:07:04: dann auch mit dazu.

00:07:05: Und so der typische Weg ist, dass tatsächlich die Endkunden mehr Innovationen wollen in

00:07:09: ihrer Fertigung.

00:07:10: Ah, das sie es fordern von ihm?

00:07:12: Ja.

00:07:13: Und häufig erstmal sagen wir dann doch zunächst mal mit den allbekannten Angeboten

00:07:19: bedient werden und das sind häufig die Kunden, die dann bei Fraunhofer aufschlagen, sagen,

00:07:24: ah, wir hätten es gerne, wir brauchen mehr, wir wollen jetzt mehr Innovationen, wir müssen

00:07:28: flexibler werden, schneller, kommt bei uns quasi auch als Machbarkeitsuntersuchung und wir

00:07:32: gehen dann mit dem Endkunden auch auf die Suche nach dem Integrator, der das am Ende dann

00:07:36: auch umsetzt.

00:07:37: Beziehungsweise, wenn wir keinen finden, integrieren wir selber beim Kunden.

00:07:41: Es gibt ja zwei Wege.

00:07:42: Der eine Weg ist die Robotikintegratoren lernen mehr KI oder die, sagen wir mal AI-Integratoren,

00:07:48: die sich vor allem mit dem Thema Daten beschäftigt haben, lernen mehr von der Robotik.

00:07:53: Siehst du die anderen auch in die Robotik kommen oder sagst du, naja, Robotik ist noch so

00:07:57: komplex, da traut sich keiner ran, von der anderen Seite.

00:08:00: Also ich glaube in den Industrie-Roboter-Systemen, über die wir gerade sprechen, tut sich quasi

00:08:05: ein rein datenbasierter Integrator sehr schwer, der halt quasi aus der Welt von Dashboards,

00:08:11: Dockers und so weiter kommt.

00:08:12: Also das ist, glaube ich, immer noch zu viel Maschinenbau mit drin.

00:08:16: Bei mobilen Robotern kann ich mir das schon eher vorstellen, dass man quasi die Softwareseite

00:08:21: wirklich einkauft, das ist zum Beispiel bei den gewerblichen Service Robotern auch schon der

00:08:25: Fall.

00:08:26: Aber es ist am Ende immer noch auch Maschinenbaukompetenz, auch Service-Wertungsgeschäft.

00:08:30: Noch mal, du hast gesagt, die machen sich selber fit.

00:08:32: Jetzt erleben wir gerade so einen Integratorensterben, da gehen einige auch über die Wupper.

00:08:36: Da tut man sich ja in so welchen Situationen immer schwer, dann jetzt zu sagen, jetzt mache

00:08:40: ich mir nochmal eine Fortbildung, jetzt mache ich mich nochmal schlauer.

00:08:43: Wie motiviert man da?

00:08:44: Was kannst du denen mitgeben, wie groß ist dieser Markt?

00:08:47: Was passiert da gerade in diesem Markt?

00:08:48: Also der Markt verändert sich, wie wir auch vorher besprochen haben.

00:08:52: Also sprich diese 08/15 Anwendungen, die vielleicht vor 10, 15 Jahren noch ausgänglich waren,

00:08:58: hier mal eine Palettieranwendungen, da vielleicht mal eine Maschinenbeladung.

00:09:01: Der bricht weg, weil es quasi Endkunden selber integrieren.

00:09:05: Das heißt, ich muss mich diesen neuen Anwendungen widmen und die liegen halt im Bereich der flexiblen

00:09:10: Produktionen.

00:09:11: Also den größten Hebel sehe ich halt tatsächlich im Engineering, also von der Auftragsanfrage

00:09:18: der Automatisierungs-Challenge bis hin dann zum Lastenheft und zur Inbetriebnahme.

00:09:22: Also da muss man effizienter werden.

00:09:24: Wie kann das funktionieren?

00:09:25: Kannst du mal erklären, was man da machen kann?

00:09:27: Also bisher wird ja doch noch recht viel mit CAD, PowerPoint, Treadshots gearbeitet.

00:09:32: Natürlich auch viel Kreativität und wir sehen in einzelnen Schritten, also auf dem Weg von

00:09:37: einem Produkt, also dem Bauteil, was ich montieren möchte, hin zum Roboter-System, zum Prozess.

00:09:42: Häufig Einsparungen, über 50 Prozent in einzelnen Engineering-Schritten.

00:09:47: Aber das Engineering oder den Support des Engineers, da gehen ja auch jetzt viele, sagen wir mal,

00:09:54: die so zwischen Integrator und Robotik-Hersteller sind.

00:09:58: Die versuchen, da in diese Lücke rein zu grätschen und zu sagen, hey, ich habe hier ein Simulationstool,

00:10:05: mit dem kannst du arbeiten.

00:10:06: Das hilft dir, das beschleunigt deine Arbeit um Faktor 10, 20, 30, keine Ahnung.

00:10:11: Siehst du da gerade auch einen neuen Markt entstehen?

00:10:15: Ja, definitiv.

00:10:16: Also dieser Markt ist größer, wie eigentlich der Roboter-Markt selber an sich.

00:10:21: Oh krass, okay, das ist spannend.

00:10:22: Weil ja natürlich, wenn man sich ja die Kostenverteilung anschaut, der Roboterarm an sich macht ein viertel bis 

00:10:27: ein fünftel des Roboter-Systems aus, dann kommt noch Greif-Technik dazu, Sicherheitstechnik

00:10:31: und ja fast die Hälfte sind ja Ingenieursstunden, die da reingehen.

00:10:34: Also das ist quasi ein riesen Engineering-Markt, der ganze Roboter-System-Markt.

00:10:39: Und wenn man dort in dem Markt kann man halt, wie du ja sagst, da mal eine Verzehnfachung

00:10:44: der Produktivität rausholen, wenn ich auf den Roboter selber gehe, wenn ich da mal

00:10:49: vielleicht mal 5 % raushole oder vielleicht mal 10 oder 20 % Produktivitätsteigerung auf

00:10:54: einem Roboter, dann ist man richtig, richtig gut.

00:10:57: Ist es der Markt der Nvidias, der Intrinsics, sind das nur die großen Player, die da reingrätschen

00:11:04: oder siehst du da auch kleinere?

00:11:05: Sowohl als auch.

00:11:06: Also zunächst mal bieten die Großen natürlich auch eine Plattform, Nvidia, Intrinsic,

00:11:11: die natürlich auch das Innovationspotenzial mitnehmen wollen von den Kleinen.

00:11:15: Und wir haben ja nach wie vor in der Robotik diese riesen Prozessvielfalt.

00:11:20: Also auch auf unseren 50 Jahren Journeys sind ja über 160 Roboter-Werkzeuge entstanden,

00:11:26: wo kein Werkzeug dem anderen gleicht, weil jeder hat wieder andere Bauteile,

00:11:30: anderen Prozess.

00:11:31: Das heißt, wir haben ja sehr viele Nischen mit drin und damit finden wir halt nicht das

00:11:37: eine KI-Modell, die eine Toolchain, die quasi sämtliche Prozesse, also vom Schrauben, Fügen,

00:11:44: Schweißen, Palettieren in einem erschlägt und dann auch wiederum die Bedürfnisse unterschiedlicher

00:11:50: Branchen, also von Logistik, Produktionen, vielleicht auch über Landwirtschaft dann auch erschlägt.

00:11:55: Also damit sehe ich ein sehr hohes Innovationspotenzial auch für Startups, auch wenn da sich große

00:12:00: Platzhirsche tummeln.

00:12:01: Aber das ist schon auffällig, du warst jetzt auch auf der Roscon wahrscheinlich in Odense,

00:12:05: der Nvidia macht das schon, setzt sich da schon mitten rein auch.

00:12:09: Ja, das hat sich wirklich nochmal, also mit Nachdruck auf die Agenda gesetzt und es

00:12:14: natürlich auch, die Rechenkapazitäten, die man braucht, um so large Language-Modelle

00:12:18: für die Robotik zu trainieren, ist natürlich gewaltig, also in jedem Fall gewinnt 

00:12:22: Nvidia schon mal Kunden für entsprechende GPUs.

00:12:25: Ja, aber Software machen sie ja auch.

00:12:27: Also sie haben ja auch Newton und Remember und so.

00:12:30: Ist jetzt auch alles Ross basiert oder wollen sie da hinkommen?

00:12:34: Also schon ... dieser Markt verändert sich schon ... der Robotikmarkt, finde ich.

00:12:39: Also er kriegt eine neue Aufmerksamkeit von Unternehmen, die früher vielleicht gesagt haben,

00:12:43: oh nee, Robotik, da lassen wir mal mal die Hände davon.

00:12:45: Ja, klar.

00:12:46: Also es ist ja nach wie vor auch ein Stück Werk, wie die Roboter-Software bisher aussieht.

00:12:50: Und das quasi zu vereinfachen mit der Vielfalt der Komponenten umzugehen.

00:12:55: Das wir zwar ein PC hier haben.

00:12:57: Ich stecke quasi ein neues Mikrofon ein in mein Laptop und es funktioniert.

00:13:02: Ich teste vielleicht kurz vorher noch mal.

00:13:04: Das haben wir in der Robotik ja hinten und vorne noch nicht, was wir im PC-Markt haben.

00:13:07: Da müsste ich wahrscheinlich noch drei Wochen integrieren.

00:13:10: Was siehst du noch für Themen, die die Robotik in den nächsten Jahren umtreiben?

00:13:15: Klammern wir mal die Humanoiden aus.

00:13:17: Lass uns mal auf dem Boden so ein bisschen bleiben.

00:13:19: Was sind noch Themen, wo du sagst, da passiert gerade viel?

00:13:22: Also natürlich haben wir in der Bildverarbeitung schon einen ordentlichen Weg gemacht, auch

00:13:27: über Foundation-Modelle.

00:13:28: Ich mein wir haben hier auf dem iPhone ... kann ich einfach ein Bild freistellen per Fingerdruck und sowas

00:13:33: kann ich natürlich auch auf den Roboter bringen und plötzlich Bauteile erkennen, die der

00:13:37: Roboter vorher noch nie gesehen hat.

00:13:39: Was uns ja auch wiederum Lernaufwände reduziert.

00:13:42: Glaubst du daran, dass diese ganzen Vision-Start-Ups, die wir haben, dass die alle überleben werden?

00:13:48: Weil von meiner Wahrnehmung ist Vision Comodity so.

00:13:53: Also wir werden Vision-Modelle sehen, große Vision-Modelle, Foundation-Modelle, wo man

00:13:58: sich raus bedient und da wird es ein Vision-Robotics-Modell geben und dann sind die Kamerahersteller

00:14:03: gefragt, sich einfach von diesem großen Foundation-Modell Vision-Applikationen zu ziehen für die Robotik.

00:14:09: Oder glaubst du wirklich, dass man noch sagen kann, mit meinem ganz speziellen Vision-Modell

00:14:14: damit kann ich noch richtig mich am Markt absetzen in den nächsten Jahren?

00:14:18: Klar, also die.. entscheidend ist wirklich der Kundenzugang aus meiner Sicht.

00:14:23: Also wenn ich halt in der Lage bin, ein Endkunde wie ein Wirt zu bedienen mit meiner Vision-basierten

00:14:28: Robotik, der mir eben auch zutraut, dass ich seine Problem löse, auch Wartungsservice hinbekomme,

00:14:34: also sprich wiederum auch die Integratorrolle einnehmen, sehe ich da gute Karten.

00:14:38: Aber ich glaube, dass man mit eigenen Entwicklungen an der Stelle nicht mehr, also langfristig

00:14:44: im Bereich Vision mithalten kann.

00:14:46: Also jetzt übersetze ich mal für mich, okay, wenn ich Domänen-Daten habe zu bestimmten

00:14:51: Robotik-Themen, dann kann ich mit diesen Domänen-Daten differenzieren.

00:14:56: Gegen Standard Vision-Modelle sollte ich vielleicht nicht mehr antreten in Zukunft.

00:15:01: Ja, die sollte ich halt integrieren.

00:15:02: Also es ist vielleicht so was ähnliches wie Alpha Alpha im Bereich der LLMs.

00:15:06: Ja, so zu sagen, okay, wo ist meine Nische, wo gehe ich rein, wo habe ich Domänen-Daten,

00:15:11: die mich vielleicht am Markt von anderen unterscheiden?

00:15:14: Ja, gleichzeitig kommt ein Riesen... also Domänendaten ist ein gutes Stichwort also auch mit der Simulation synthetische

00:15:20: Datengenerierung wird ein großer Wert zukommen.

00:15:22: Und natürlich geht es der, also im Bereich Vision haben wir natürlich schon einen großen

00:15:27: Datensatz über die ganzen Bild- und Videodaten online.

00:15:30: Aber natürlich an der Stelle wird es eng werden, wo wir wirklich in Produktionsdaten

00:15:34: reingehen, wo der Kunde nicht mal CAD-Modelle von seinen Bauteilen in dem Zwischenschritt

00:15:40: hat.

00:15:41: Das heißt, wieder eine neue Nische sozusagen, synthetische Daten für die Robotik zu erstellen?

00:15:46: Das, ja, das würde uns auch, also auch wiederum, also auch wie schon bei Deep Learning jetzt

00:15:52: auch bei GenAi beschäftigen.

00:15:54: Das heißt, glaubst du, da entstehen Geschäftsmodelle?

00:15:57: Mit Sicherheit, weil man ja auch nicht nur wieder stumpf simulieren kann, muss auch über

00:16:04: Sim-to-Real-Gaps nachdenken, dabei Skurratieren von einem Datensatz.

00:16:09: Und am Ende vom Tag reduziere ich halt auch wiederum Ingenieursstunden.

00:16:13: Wenn ich ein Ingenieur produktiver mache, habe ich auch einen relativ guten Stundensatz.

00:16:17: Währenddessen ich ja beim Roboter selber zunächst in der Regel Behandhabungsaufgaben ja nicht

00:16:23: gegen den Chefarzt irgendwie ankämpfe, sondern eher auf Mindestlohnniveau automatisiere.

00:16:28: Du warst ja wahrscheinlich auch in Odense.

00:16:31: Lass uns ganz kurz noch über Industrial ROS sprechen oder ROS Industrial.

00:16:36: Was habt ihr in Odense gezeigt?

00:16:39: Was tut sich gerade in dem Bereich?

00:16:40: Ich habe tatsächlich in Stuttgart die Stellung gehalten.

00:16:43: Ah, okay.

00:16:44: Was wir aber umfangreich gezeigt haben, ist das Thema Testing und Validierung von KI-Lösungen

00:16:49: in AI-Matters, also Testing-Experimentation Facilities.

00:16:52: Und da entstehen gerade über 150 Test-Services, mit denen wir den ganzen KI-Lösungen auf

00:17:00: den Zahlen fühlen, ob die wirklich das halten, was wir versprechen, in Bezug auf

00:17:04: Robustheit, Performance, auch Umgang mit neuen Situationen, die im Datensatz nicht vorhanden

00:17:10: waren.

00:17:11: Was hat das genau mit ROS zu tun?

00:17:12: Kannst du es mal spezifizieren?

00:17:13: ROS, wie auch KI, sind ja auch neue Technologien, also wo ja auch nochmal Bedenken auch im

00:17:20: Markt sind.

00:17:21: Die sagen, hm, taugt es eigentlich, ist es wirklich robust.

00:17:24: Also quasi die Bedenken kommen ja vor allem aus der Welt, wo ich was im repetitiven,

00:17:29: festen Prozess habe, Echtzeit, alles deterministisch.

00:17:32: Und dann kommen mal schon die Fragen auf, wo liegen jetzt eigentlich die Grenzen dieser

00:17:35: Technologien?

00:17:36: Und bei ROS schwingt ja gerne auch noch so Echtzeitfähigkeit mit rein.

00:17:40: Und wir reden ja jetzt über KI-basierte Roboter, kognitive Roboter, wo ja auch der Sensor

00:17:46: in die Laufzeit mit eingebunden ist, zum Beispiel, weil der Roboter den Sensor nutzt, um

00:17:52: einer Naht zu folgen.

00:17:53: Und da werden dann zum Beispiel Roboter dann auch.. natürlich auch deren Dynamik identifiziert.

00:17:57: Also wie schnell sie tatsächlich auf Fehler reagieren können und wie dann am Ende auch

00:18:02: die Nahtqualität beim Speisen aussieht.

00:18:04: Das heißt, also es gab ja dann die Ankündigungen auch von Yaskawa, dass die auch ROS integrieren

00:18:09: in ihre Steuerung, UR hat was zu ROS gezeigt.

00:18:12: Aber so langsam wachen sie alle auf und tun was in dem Bereich, oder?

00:18:15: Ja, das ist auf jeden Fall, ist da also UR, für UR war das ein entscheidender

00:18:20: Vorsprung im Markt, dass sie sehr früh schon UR-Treiber haben, um auch in die ganzen Forschungsinnovationsabteilungen

00:18:26: mit reinzukommen.

00:18:27: Weil das halt.. immerhin ROS auch das ganze Ökosystem drum herum mit Move It, OpenCV,

00:18:33: also auch wiederum in die Bildverarbeitung reinkommen, auch in die mobile Robotik, das erlaubt

00:18:36: es ja rasend schnell neue Anwendungen zu realisieren und auch quasi die neueste Technologien einfach

00:18:42: mal auszuprobieren, bevor ich das quasi mühsam auf dem Industrieroboter nachimplementiere.

00:18:48: Und das heißt, das Thema Echtzeitfähigkeit ist immer noch kritisch oder tut sich da

00:18:53: was?

00:18:54: Also mit ROS 2 ist es im Griff, aber auch bei ROS 1 haben wir ja auch schon in der Produktion

00:18:59: bei Audi zum Beispiel schon vor zehn Jahren mit ROS automatisiert und auch dort also

00:19:04: wirklich produktionskritische Prozesse, wo es auch um Echtzeit Themen ging.

00:19:08: Jetzt gibt es ja immer die Diskussion, okay, ROS Robotik, aber die Zelle ist nicht losgelöst

00:19:14: von der Automatisierung drum herum.

00:19:15: Kannst du dir jetzt aus Fraunhofer IPA Sicht vorstellen, dass ROS über die Robotik hinausspringt

00:19:22: und auch auf den Shopfloor geht?

00:19:23: Also auf jeden Fall Anwendungsfälle, klar, wo man es auf jeden Fall auch sieht im Bereich

00:19:27: vom autonomen fahren, weil es eben auch hervorragende Möglichkeiten gibt, um Daten zu erfassen.

00:19:32: Es ist nach wie vor eine Mittelware und ich glaube auf übergeordneter Ebene gibt es andere

00:19:36: Systeme, aber ich kann mir schon vorstellen, also wirklich ganze Roboternlinien damit zu

00:19:41: betreiben und halt auch wiederum von diesen Skaleneffekten zu partizipieren, dass ich

00:19:46: auch Herstellerunabhängig bin.

00:19:48: Wenn eben eine komponente ausfällt, kann ich sie einfach austauschen.

00:19:51: Und es gibt jetzt basierend auf Brosts auch Forschungsthemen, die in Richtung Stabilität

00:19:57: gehen, also sowas wie eine Selbstheilung des Roboters.

00:20:00: Das heißt, wenn mal was schief gegangen ist, also z.B. ein Bauteil nicht sauber gegriffen

00:20:04: oder ein Sensor ausfällt, bekommt der Roboter Möglichkeiten an der Hand zu erkennen, was

00:20:08: schief gegangen ist.

00:20:09: Dann zu klassifizieren, kann ich selber heilen oder dann gibt dem Operator dann die Möglichkeit,

00:20:15: den Fehler schneller zu beseitigen.

00:20:17: Also es ist zum Beispiel dann auch, wenn man sich mal vorstellt, also nicht nur den einzelnen

00:20:20: Roboterarm, ich habe quasi ein Bauteil, was von mehreren Robotern bearbeitet wird.

00:20:24: Und dann muss ich mir auch, also das klassische Thema ist ja, wenn ich einen Roboter resette,

00:20:29: dann fährt er ja quasi linear auf meinen Nullpunkt und räumt bei der Gelegenheit alles über

00:20:34: den Haufen, was ihm in den Weg kommt.

00:20:35: Und da haben wir quasi Ansätze, die quasi in der Art, wie soll ich sagen, Mikado

00:20:39: spielen, die also einem Operator die Freiheiten aufzeigt, wie er jetzt diesen Roboter wieder

00:20:46: einen sicheren Zustand überführen kann, ohne dass er zu Kollisionen kommt.

00:20:50: Was liegt auf deinem Schreibtisch, Werner?

00:20:51: Was musst du noch erledigen in den nächsten vier, fünf, sechs Wochen?

00:20:55: Was sind so Themen, die dich beschäftigen?

00:20:57: Also inhaltlicher Natur sind es tatsächlich unsere Studien zu den Zukunftssystemen der

00:21:03: Robotik.

00:21:04: Also auch eine Studie zu Humanoiden-Robotern, zu den Anwendungspotenzialen, die dieses Jahr

00:21:08: noch fertig wird, auch zu Metaverse Safety.

00:21:11: Ihr kriegt einen Humanoiden, das dürfen wir noch ganz kurz verraten.

00:21:14: Ja, da sind wir auch dran.

00:21:16: Also das ist quasi auf der inhaltlichen Ebene auch Richtung Foundation-Modelle für diese

00:21:20: Automation of Automation.

00:21:22: Wie können wir eben diese Toolchain unterstützen vom Produkt zum Prozess?

00:21:25: Ja, und ansonsten liegt ganz viel um mich herum zum Eurpean Robotics Forum, was ja dann

00:21:31: schon in weniger als fünf Monaten in Stuttgart stattfindet.

00:21:34: Lass mich noch mal ganz kurz auf die Foundation-Modelle zurückkommen, bevor wir wieder an die Arbeit

00:21:38: gehen, an die richtige Arbeit gehen.

00:21:40: Da gibt es ja jetzt gefühlt jede Woche... publiziert jemand, okay, Stanford macht ein Weltmodell,

00:21:48: dann kommt zwei Wochen später jemand, der sagt, okay, MIT, wir machen ein Weltmodell

00:21:53: für die Robotik, dann kommt Toyota, wir wollen ein Weltmodell für die Robotik, machen die

00:21:58: jetzt alle Weltmodelle?

00:21:59: Warum ist das so verlockend, diese Weltmodelle zu machen?

00:22:02: Ja, es ist natürlich Open-World-Closed-World, ne?

00:22:05: Ja, genau.

00:22:06: Also, wir haben jetzt halt wirklich die Robotik über Jahrzehnte hinter dem Käfig gesehen,

00:22:10: und wir sehen natürlich, dass unglaublich viele Anwendungen sich eröffnen, sobald wir

00:22:16: die Umgebung vom Roboter verstehen.

00:22:18: Natürlich hat ChatGPT vor zwei Jahren auch die ganze Welt nochmal begeistert und auch quasi

00:22:25: Realitätssturm ausgelöst, wie kann man es quasi auf die Robotik überführen.

00:22:29: Und ich glaube, die Vielzahl der Modelle ist halt genau dieser Motivation und Euphorie

00:22:34: geschuldet.

00:22:35: Und rechtfertigt sich aber auch darin, dass es halt nicht das eine Weltmodell oder Actionmodell

00:22:41: für Roboter gibt, weil halt jeder Roboter wiederum andere Augen hat, andere Sensoren,

00:22:46: sprich, und andere Aktorik anders aufgebaut ist.

00:22:49: Das heißt, wir werden mehrere Weltmodelle sehen?

00:22:52: Also, ich würde mir mal meine Werner Kraus Meinung, dass es ähnlich laufen wird wie bei

00:22:58: den Cloud-Plattformen, wo auch jede Cloud-Plattform eigentlich den Anspruch hat, die Welt zu erklären,

00:23:03: und abzubilden.

00:23:04: Aber es am Ende dann doch maßgeschneidert ist für eine konkrete Anwendung und auch für

00:23:10: ein konkretes Robotersystem, was dem Ganzen zugrunde liegt.

00:23:13: Das heißt, es wird ein Foundation-Modell für Co-Bots geben, für Industriroboter, für

00:23:17: Service, dann vielleicht fürs Welding sogar, für einzelne Use-Cases vielleicht auch,

00:23:23: verstehe ich dich so richtig.

00:23:24: Ja.

00:23:25: Und jetzt habe ich gerade gesagt, Stanford, MIT macht da was, Toyota Research macht da

00:23:28: was.

00:23:29: Ist es nicht auch ein Markt, den die Robotik-Hersteller beackern müssten oder lässt man das die

00:23:34: Nvidias und Co's machen?

00:23:36: Ja, ich glaube, es wird halt auch wieder dieselbe Diskussion auflösen, wo liegt die Wertschöpfung

00:23:41: der Roboterhersteller in der Zukunft und inwieweit in die Wertschöpfungskette rein?

00:23:45: Weil du hast ja auch eben in deiner Aufzählung gesagt, hier Welding, Picking, Logistik, da

00:23:49: sind wir ja in ganz konkreten Anwendungsdomänen mit drin.

00:23:52: Und ich glaube, an der Stelle muss halt tatsächlich der Roboterhersteller auch die Basis bieten

00:23:59: in Richtung GPU solche Modelle auch zu rechnen.

00:24:01: Aber es wird wiederum auch die Frage vom Ökosystem sein, wie gut ist der Hersteller,

00:24:08: mit seinen Integratoren vernetzt, weil es halt immer nur im Zusammenspiel klappen kann.

00:24:12: Und da sind wir wieder beim Ausklang dieser Folge, der Integrator bleibt, die GPU kommt.

00:24:18: Ich sehe es noch ein bisschen kritisch, vielleicht ist es nur ein Übergang, wir werden irgendwann

00:24:21: auch über Embedded AI sprechen vielleicht schon, als Embedded Funktion eines Roboters.

00:24:26: Vielen herzlichen Dank, Werner, für deine Zeit und deinen Input.

00:24:30: Vielen Dank Robert fürs Gespräch.

00:24:31: Herzlichen Dank.

00:24:32: [Musik]

00:24:42: Copyright WDR 2020

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.