iQTeams

Digitale Zwillinge verstehen, umsetzen und deren Komplexität beherrschen

Die digitale Transformation ist bei Weitem kein reines IT-Thema, sondern rüttelt an den Grundfesten jedes Unternehmens. Der Einsatz digitaler Werkzeuge verändert die Arbeitsweisen der Anwender nachhaltig und weckt zugleich Ansprüche daran, wie sie künftig damit gearbeitet werden soll. Die Unternehmen brauchen neu gestaltete Geschäftsprozesse sowie selbstlernende Systeme, um agil auf die Herausforderungen hoher Volatilität reagieren zu können. Sie müssen sowohl unternehmensintern als auch in der Supply Chain im Sinne eines erweiterten Unternehmens enger zusammenarbeiten. Das erfordert eine teilweise das Überdenken von Beziehungen und Schnittstellen zwischen OEMs und ihren Zulieferern.
Gleichzeitig müssen die Unternehmen ihre bestehenden Geschäftsmodelle überdenken, um ihre Produkte um zusätzliche Mehrwertdienste zu ergänzen oder sogar ganzheitlich als Service anzubieten. Als Vorbild dienen digitalen Champions, die nicht mehr Produkte in den Mittelpunkt ihres Geschäftsmodells stellen, sondern die Daten, die sie erheben.

Im Zentrum einer erfolgreichen digitalen Transformation stehen die Kerndaten und die Fähigkeit, mit diesen Daten effizient umzugehen und sie für neue Services beziehungsweise den Übergang von einem produkt- zu einem serviceorientierten Geschäftsmodell zu nutzen. Kerndaten sind im betrachteten Kontext die Daten in ihrer „atomaren“ Form, so wie sie mit den originären Autorensystemen erzeugt werden. Das ist eine deutliche Erweiterung gegenüber den Metadaten, auf deren Management sich derzeit noch viele bestehende PLM-Systeme beschränken. Kerndaten können Anforderungen, Architekturmodelle, funktionale Beschreibungen, Elektrik/Elektronik- (E/E) und Hardware-Modelle sein. Die Herausforderung beim Aufbau eines digitalen Zwillings besteht darin, diese Daten sauber strukturiert abzulegen und zu verknüpfen, um Zusammenhänge transparent zu machen. Die Beherrschung und Zugänglichkeit der Kerndaten ist nicht nur die Voraussetzung für Anwendungen von digitalen Zwillingen, sondern auch für den Einsatz von intelligenten Assistenzsystemen oder für die Auswertung der Daten mit Hilfe von (Big) Data Analytics.

Die bestehenden PLM-Infrastrukturen decken im Wesentlichen das konventionelle Produktdatenmanagement (PDM) mit den Funktionen für Versionsverwaltung und Konfigurationsmanagement sowie das Management von formalen PLM-Prozessen wie Freigabe, Änderungswesen oder die Zerfizierung beziehungsweise die Sicherstellung der Compliance ab. Diese beiden unteren Ebenen müssen in zukunftsfähigen Konzepten um zwei weitere Schichten mit gemeinsam genutzten digitalen Diensten ergänzt werden. Diese ermöglichen den Zugriff auf bestimmte Umfänge der Kerndaten und damit ein besseres Verständnis des Dateninhalts. Im Rahmen der Konzepterstellung wurde deutlich, dass jedes Unternehmen für sich entscheiden muss, in welcher Granularität die Kerndaten für den digitalen Zwilling benötigt werden.

Um beim klassischen PLM-Begriff Irritationen zu vermeiden, wurde für diese erweiterten PLM-Fähigkeiten ein neuer Begriff eingeführt: Shared digital Enterprise Services (SdES).

Eine zentrale Rolle für die Prozesseffizienz spielt die digitale Durchgängigkeit. Die Anwender benötigen etwa die Fähigkeit, Kerndaten aus dem initialen Systems Engineering wie die Anforderungen mit den einzelnen Domänen Mechanik, E/E und So ware, über unterschiedliche Autorensysteme auszutauschen. Diese Kerndaten durchgängig in Simulationsanwendungen zu nutzen oder die Autorensysteme bei einem neuen Projekt oder Programm mit einem konsistenten Datensatz zu befüllen. Dazu sind weitergehende PLM-Fähigkeiten erforderlich, an denen beispielsweise Airbus seit zehn Jahren intensiv arbeitet.
Parallel dazu ermöglicht die Digitalisierung neue Fähigkeiten, um aus den Kerndaten, durch systematische semantische Auswertungen, zusätzliches Wissen abzuleiten. Das ist wichtig, um digitale Simulationsmodelle mit Hilfe von Daten aus der realen Welt kalibrieren zu können. So kann es beispielsweise passieren, dass eine hochempfindliche Messelektronik aufgrund von Fertigungstoleranzen in der Produktmontage nicht so ideal ausgerichtet wurde, wie es das zugrundeliegende 3D-Modell des Produkts erfordert hätte. Eine Messung oder Kalibrierung des realen Produkts könnte somit ins digitalen 3D-Modell rückgespielt und nachgebildet werden, um wahlweise zulässige Toleranzgrenzen zu definieren oder digitale Einflussanalysen durchzuführen.
Shared digital Enterprise Services erlauben eine durchgängige Digitalisierung der Geschäftsprozesse und den Aufbau vernetzter Prozessketten und zugleich neuer, datengetriebener Geschäftsmodelle. Sie sind die Grundlage für die Umsetzung eines nachhaltigen und skalierbaren Digital-Twin-Konzepts, mit dem unterschiedliche Anwendungsfälle unterstützt werden können.

Digitale Zwilling als Ausdruck der Realität

Der digitale Zwilling wird generell als virtuelles Abbild einer tatsächlich existieren Entität definiert, bei dem es sich um ein Produkt, einen Service, einen Prozess oder auch um eine Person oder Organisation handeln kann. Mit jeder Suchanfrage über Google, jedem gestreamten Musiktitel und jedem Online-Kauf vervollständigt sich im Hintergrund unser digitales Profil. Von den digitalen Champions haben wir gelernt, dass diese digitalen Avatars einen Mehrwert darstellen, weil sich daraus Wissen ableiten lässt, um Vorhersagen über unser Verhalten zu treffen. Digitale Zwillinge können nicht nur mit ihrem realen Gegenstück, sondern auch, wie die Entitäten der realen Welt, mit anderen digitalen Zwillingen interagieren. Im Gegensatz dazu nimmt in der Welt der komplexen technischen Systeme der digitale Zwilling in seinen virtuellen Umrissen bereits Gestalt an, bevor das reale Objekt existiert. Der digitale Zwilling ist somit am Beginn der Produktentwicklung eher eine Voraussage auf ein zukünftiges System/Systemverhalten.
Der digitale Zwilling eines technischen Systems besteht aus den Kerndaten, wie sie aus den Autorenwerkzeugen in Form von beschreibenden Modellen erzeugt werden. Diese werden beliebig erweitert durch Zusatzdaten, mit denen analytische Modelle initialisiert werden, sowie den Zeitdatenreihen (Ergebnissen) aus bestimmten Tests. Diese drei Datentypen (beschreibende Daten, analytische Daten, Ergebnisdaten) gibt es seit vielen Jahren. Was im Zuge der Digitalisierung neu hinzukommt ist ihre Verknüpfung, entweder automatisch oder durch spezialisierte Data Scientists.

Es gibt in komplexen Systemen üblicherweise nicht nur den einen digitalen Zwilling. Vielmehr bestehen und entstehen über den gesamten Lebenszyklus eine ganze Reihe von digitalen Abbildern, die aufeinander aufbauen, gemeinsame Schnittmengen an Daten haben und über die konzeptionellen Datenmodelle und andere Shared Services in engem Austausch stehen.

Der digitale Zwilling nimmt im Laufe der Produkt- beziehungsweise Systemgenese Gestalt an. Er existiert schließlich initial als „As-designed“-Ausprägung. Dieser Zwilling ist weitgehend identisch mit dem, was andere Autoren als digitalen Master bezeichnen, das heißt eine vollständige Beschreibung des späteren Produkts mit allen Informationen, wie es aussehen und sich verhalten soll. Entsprechend dazu gibt es den „As-planned Twin“ der Produktionsanlagen und -logistik, die benötigt werden, um die Systeme zu fertigen und zu montieren. Aus beiden Zwillingen lassen Informationen der „As-built Twins“ der tatsächlich gebauten Systeme kombinieren. Neben der eigentlichen Konfiguration enthalten diese Twins auch Informationen aus der Produktion wie beispielsweise die eingesetzten Produktionsmittel und -verfahren oder Abweichungen bei der Montage, die im Bereich der Toleranz liegen, aber vielleicht das spätere Verhalten beeinflussen können. Zugleich sind sie die Basis für die „As-operated Twins“, die die Betriebsdaten und Informationen über Service-Maßnahmen, Bauteilwechsel oder Upgrades erfassen. Wichtig ist, dass die digitalen Zwillinge aufeinander aufbauen beziehungsweise auseinander hervorgehen und durchgängig miteinander verknüpft sind.

Das Beziehungsgeflecht zwischen den digitalen technischer Systemen mit einer Vielzahl von möglichen Anwendungsfällen ist hochkomplex. Zwischen den verschiedenen den Repräsentationen müssen Informationen entlang des Lebenszyklus fließen, um die idealisierten Eigenschaften des Entwicklungszustands mit Fertigungsinformationen abzugleichen und beispielsweise im „As-built Twin“ die exakte Position eines Sensors einzutragen, die von der Idealposition im „As-designed Twin“ abweichen kann. Es geht also darum, die digitale Durchgängigkeit und das stetige Wechselspiel zwischen realer und digitaler Welt herzustellen. Welche konkreten Eigenschaften zurückgespielt werden, hängt vom jeweiligen Anwendungsfall ab, der mit dem digitalen Zwilling unterstützen soll. Das prinzipielle Konzept bleibt davon jedoch unberührt.
Wichtig ist auch das Rückspielen von Informationen aus dem laufenden Betrieb, etwa wenn ein Flugzeug nach einer harten Landung vermessen wird, um festzustellen, was sich verzogen hat und die Auswirkungen auf das Flugverhalten simulieren zu können. Dazu ist es erforderlich, seriennummernspezifisch die Eigenschaften nachverfolgen zu können. Im Sinne des Closed-Loop Engineerings muss außerdem gewährleistet sein, dass mögliche Probleme einer ausgelieferten Produktkonfiguration bis zu einer „Design Baseline“ zurückverfolgt werden können. Die Verbindung zwischen den verschiedenen digitalen Zwillingen ist die Voraussetzung für die Sicherstellung der Rückverfolgbarkeit.
Ein Großteil der Wertschöpfung in der Luft- und Raumfahrt, aber auch in anderen Branchen, entfällt heute auf die Lieferanten. Wie effizient der digitale Zwilling für welche Anwendungsfälle eingesetzt werden kann, hängt davon ab, ob und wie die Zulieferer ihre digitalen Zwilling bereitstellen. Die Zulieferer müssen deshalb in dieses Kalkül einbezogen werden. Das kann dazu führen, dass der digitale Zwilling am Ende in einer föderierten Architektur in der Cloud lebt, in der zwar alles nachvollziehbar, aber nicht alles für alle Beteiligten sichtbar ist.

Referenz-Modell für Shared digital Enterprise Services

Aufbauend auf den Erkenntnissen aus den verschiedenen Anwendungsfällen konnte gemeinsam mit den Experten von Airbus ein Referenz-Modell für die Shared digital Enterprise Services entwickelt werden, das die Konvergenz der bestehenden und neu hinzu kommenden PLM-Fähigkeiten gewährleistet. Es macht die Kerndaten unabhängig von den Autorensystemen in einem integrierten Viewer zugänglich. Unterste Schicht dieser Shared Services ist die Semantic App Integration, die die digitale Durchgängigkeit der Kerndaten gewährleistet und die Zusammenhänge zwischen den Lebensphasen einer einzelnen Produktentwicklung, zugleich aber über auch über mehrere Anwendungsfälle herstellt. Die Beziehungen zwischen den Kerndaten aus unterschiedlichen Autorensystemen werden in systemneutralen Datenmodellen abgebildet, die auch Funktionen enthalten, um die Modelle mit Inhalten zu befüllen. Es gibt eine zentrale Datenbank, in der die systemübergreifend genutzten Daten gepflegt werden.
Die „Configuration Referencial“ genannte Schicht umfasst im Wesentlichen die bestehenden PDM/PLM- Funktionen, die auf der Ebene der Dateien und Dokumente die Konsistenz der Konfigurationen sicherstellen. Die Raw-Data-Storage-Schicht dient der Unterstützung der Digitalisierung und sammelt alle Daten aus Engineering, Test, Fertigung und Betrieb, zwischen denen mit Hilfe der Semantic Data Integration dann Zusammenhänge für bestimmte Anwendungsfälle hergestellt werden können. Darüber hinaus sieht das Referenz-Modell Werkzeuge und Methoden für eine weitergehende, KI-basierte Auswertung der Daten vor. Die Workflows zur Nutzung der Shared Services sollten dem Umstand Rechnung tragen, dass die Produktentwicklung zunehmend agilen Methoden folgt.
Der Digital Twin lebt als Informationsstruktur in den verschiedenen Schichten der Shared digital Enterprise Services, während sich die eigentlichen Informationen über unterschiedliche Autoren und Verwaltungssysteme verteilen und bei Bedarf angezogen werden. Würde man die Engineering-Daten nur in den Autorensystemen halten, ließen sich beispielsweise keine Bezüge zu den Fertigungsinformationen herstellen, die möglicherweise Auswirkungen auf das Systemverhalten haben. Je nachdem, was man mit dem digitalen Zwilling erreichen möchte, sind andere PLM-Fähigkeiten erforderlich. Heute sind diese Fähigkeiten eng mit bestimmten Systemen verknüpft, sodass es nicht ohne weiteres möglich ist, mit dem digitalen Zwilling eines bereits produzierten/betriebenen Systems eine Analyse durchzuführen.
Von großer Bedeutung ist der konsistente Zugriff auf die Daten in dieser föderierten Systemarchitektur. Der Schlüssel dazu ist die End-to-End-Viewing-Schicht, die über eine klare Organisationsstruktur und Google-ähnliche Suchfunktionen den Einstieg vereinfacht. Es handelt sich nicht ausschließlich um ein Cockpit, sondern zugleich um eine sehr leistungsfähige Suchmaschine, die für jede Person und Rolle, entsprechend ihrer Präferenzen die Wahl eines anderen Einstiegspunkts ermöglicht.

Um den digitalen Zwilling für komplexe technische Systeme bereitstellen zu können, ist eine gewisse Organisaonsstruktur für die unterschiedlichen Aktivitäten erforderlich. In einigen Fällen müssen neue oder alternative Datenaustauschprozesse etabliert werden, um die digitalen Repräsentationen aktuell zu halten. Der Rahmen für diese Organisationsstruktur sind die in diesem Whitepaper vorgestellten Shared digital Enterprise Services. Sie bilden eine komplexe Infrastruktur ergänzend zu den Autorenwerkzeugen.
Ein zentrales Thema für die Akzeptanz digitaler Tools ist die User Experience, also insbesondere die Frage, wie die benötigten Informationen einfach und ansprechend aufbereitet werden können. Konzeptionelle Datenmodelle sind der Schlüssel zur Bewahrung der semantischen Konsistenz. Sie zu beherrschen ist eine Aufgabe, die man nicht den Systemanbietern der Autorensysteme überlassen kann. Die PLM-Systeme haben in diesem Framework ihren festen Platz als Konfigurationsreferenz, zumindest für die Anwender der Autorensysteme.

Leave a Comment!

you're currently offline

Malcare WordPress Security