Additive Manufacturing

Wissensgraphen erobern neue Anwendungsfelder

Wissensgraphen haben ihr Nischendasein als Vernetzungstechnologie hinter sich gelassen und sind auch außerhalb des Engineerings auf dem Vormarsch / Nachbericht zum sechsten Linked Data Day

Als amtlich verbrieft kann inzwischen gelten, dass Wissensgraphen wie die Linksphere-Technologie im Engineering-Umfeld die PLM-Domäne verlassen haben und dabei sind, neue Anwendungsbereiche, etwa Fertigung, Data Analytics oder auch künstliche Intelligenz für sich zu gewinnen. Linksphere wird von der Conweaver GmbH mit Sitz Darmstadt kontinuierlich weiterentwickelt und dient unter anderem dazu, die vielen Datenbanken, die es typischerweise in einem Unternehmen gibt, zu neuem Beziehungswissen zu verknüpfen. Der Clou dabei ist, dass die Vernetzung mit Siebenmeilenstiefen vonstatten geht, denn die Ontologie muss nicht aufwendig modelliert werden, sondern es kann bereits mit einem relativ grob definierten „Netz“ (das die möglichen Beziehungen zwischen den Objekten beschreibt) losgehen – beim Systemanbieter spricht man daher gerne auch von einer „Vernetzung im industriellen Maßstab“.
Von Linksphere sind aber auch die Kunden überzeugt, wie der vergangene, bereits zum sechsten Mal stattgefundene Linked Data Day im vergangenen November mit seinem Dreiklang „Digitalisierung, Vernetzung, Automatisierung“ deutlich zum Ausdruck brachte. Gut fünfzig Nutzer und Interessierte trafen sich zur Veranstaltung, die im bewährten Format von Keynotes am Vormittag, World-Cafés und Überraschungsvortrag am Nachmittag ablief.
Als Einstieg stellte Jochen Hechler aus Sicht des Kunden Continental Teves Data Governance unter dem Eindruck sich rasch verändernder Systemumgebungen vor. Es folgte Professor Oliver Riedel vom Fraunhofer IAO, der in seinem Vortrag über die Zukunft der Produktentstehung den Bogen zwischen den Domänen Engineering und Produktion schlug. Auf Seiten des Engineerings werde das derzeit viel diskutierte Systems Engineering ein tiefintegrierende Funktion übernehmen, vertrat Riedel die Ansicht. Dabei werde sich ein sogenanntes Advanced Systems Engineering (ASE) seinen Weg bahnen. Ziel dieser modellbasierten Produktentwicklung ist es, wegzukommen von der Bauteil- und Baugruppen-orientierten Vorgehensweise mit ihrer Vielzahl an Dokumenten, abgelegt in irgendwelchen Verzeichnissen, und Unmengen an Datenbanken. Dieses ASE will auch den Weg für weitere Prozessoptimierung in der Produktion ebnen, zum Beispiel bei Montagearbeitsplätzen mit komplexen Arbeitsschritten oder bei der Dokumentation geschäftskritischer Produktionsschritte in Hinsicht auf die Rückverfolgbarkeit (Traceability).

Linked Data (Analytics)

Conweavers Geschäftszweck steht für die Überwindung von Datensilos, eine Absicht, die auch die Anbieter von Business-Intelligence-(BI-)Anwendungen im Visier haben. Data Warehouses, auf die BI-Tools zugreifen, haben versucht, Daten physisch zusammen zubringen. Dem war jedoch wegen des großen Aufwandes nur in den seltesten Fällen Erfolg beschieden – also von Überwindung von Datensilos keine Spur. BI alleine ist folglich kein Königsweg in die Digitalisierung. Der nächste Sprecher Carsten Bange, Geschäftsführer und Gründer von Barc, wählte als Einstieg in seine Argumentation die Aussage: „Datensilos sind die größten Verhinderer der digitalen Transformation.“ Bange betonte die Gemeinsamkeiten von BI und auf Wissensgraphen aufsetzende Applikationen, denn beide Repräsentationsformen von Daten und deren Beziehungen hätten die Absicht, End-to-End-Prozesse zu analysieren, bei denen sich Daten ihren Weg durch mehrere Backend-Systeme bahnen. „Gerade das inhärente Abbilden von Datenbeziehungen, wie es Wissensgrafen ermöglichen, schafft neue Erkenntnisse,“ betonte der Geschäftsführer.

Es folgte eine ausführliche Vorstellung von dem, was in diesem Umfeld in den letzten zwei Dekaden so passiert ist: „Jede BI-Anwendung hat eigene Datenbank, wie jede Excel-Anwendung auch. Es sind daher unglaublich viele isolierte Datenbankanwendungen entstanden. Schon allein deshalb macht der Linked-Data-Ansatz Sinn“, sagte der Geschäftsführer mit Nachdruck.
Im Zuge der Vorstellung einer holistischen „Data-&-Analytics“-Strategie diskutierte Bange Use Cases für Linked Data im Zusammenhang mit BI. Eine derartige Strategie lässt sich laut Bange in die Bereiche Smart Processes (Automation und Innovation), BI (im Sinne von Corporate Management) und Advanced Analytics (kreativer Umgang mit Daten) unterteilen. Wegbereiter („Enabler“) seien dabei strukturierte maschinengenerierte Daten und Geschäftsdaten sowie polymorphe Daten aus dem Feedback mit Menschen.
Use Cases, bei denen Linked Data ihr Potenzial ausspielen kann, sind für die Kategorie Smart Processes unter anderem im Bereich Tracking & Tracing (Rückverfolgbarkeit) oder Identity & Access Management (Zugriffsrechtesteuerung) zu finden, für BI Recommendation Engines (Empfehlungsalogrithmen) und Data Cataloges (aus Metadaten zusammengesetztes Datenverzeichnisse) und für Advanced Analytics die Möglichkeit, effizient Beziehungsgeflechte von sozialen Netzwerken zu analysieren, die Betrugserkennung (Fraud Detection) und besser nachvollziehbare Schlussfolgerungen (Recommendation Engines). Auch im weiten Feld von Data Governance, Master Data Management und unternehmensweiten Suchmaschinen dürften sich interessante Anwendungsfälle finden lassen, war Bange der Ansicht.

World-Cafés zu Grundsätzlichem und zur Inspiration

Nach dem Mittagessen war die Zeit vorüber mit dem Stillsitzen, denn die anschließenden beiden World-Cafés verlangten engagierte Beiträge im Stehen. Der erster Diskussionstisch bewies Mut zur Lücke: Die Ergebnisse wurden von der Moderatorin Sylke Rosenplänter von Opel Automobile vorgestellt. Es drehte sich um die Frage, welche Zutaten notwendig sind, ein Linked-Data-Projekt zu initiieren. „Ziel muss es stets sein, Daten für sich arbeiten zu lassen, wobei die Verlinkungen im Hintergrund entstehen“, sagte Rosenplänter. Es sollten sich Zusammenhänge offenbaren, derer man sich zuvor nicht bewusst war. Dafür sei ein Stück weit Mut notwendig, denn man wird dabei teilweise mit erheblichen Dateninkonsistenzen konfrontiert.
Verschiedene Statements waren auf den Post-its am Flipchart zu lesen. Etwa: Innovationen brauchen Mut zur Lücke – einfach einmal anfangen ist sehr wichtig. Oder: Sind Inkonsistenzen Fehler? Die Antwort kam prompt: „Das ist eine Ermessensfrage. Sie liegt im Auge des Betrachters beziehungsweise des Prozesses“, sagte die Moderatorin. Immerhin: Die Existenz einer 80-20-Regel vorausgesetzt, lässt den Schluss zu, dass, wenn nur eine überschaubare Menge an Inkonsistenzen vorhanden ist, es sich in jedem Fall lohnt, mit einem derartigen Projekt an den Start zu gehen. Denn: „Vollständigkeit ist teuer und bringt einem am Ende eventuell nicht weiter“, warnte Rosenplänter.
Auf einer weiteren Karte war zu lesen: Synchronisation ist wichtiger als Vollständigkeit. „Zwar will der Kunde das 100-Prozent-Produkt, wenn man allerdings in der Produktentstehung darauf wartet, bis jeder 100 Prozent seiner Daten geliefert hat, besteht die Gefahr, erst sehr spät synchronisieren zu können, mit dem Ergebnis, dass Einiges asynchron gelaufen ist.“
Diskutiert wurde an diesem Tisch auch der Zusammenhang zwischen Data Governance und Innovation. „Innovation in ein Regelwerk zu pressen, geht mit hoher Wahrscheinlichkeit schief. Zwar sind gewisse Leitplanken notwendig, aber dem Einzelnen sollten erheblich mehr Freiheiten bei der Datenverknüpfung eingeräumt werden“, sagte Rosenplänter. So sollte es auf jeden Fall den kleinen Dienstweg zwischen den einzelnen Bereichen geben, und nicht für alle Konfliktfälle ein Data-Governance-Modell zur Anwendung kommen. Ein Linked Data Layer solle die Möglichkeit der Nachforschung bieten, wie sich Daten verknüpfen lassen und wer einem dabei helfen kann, Inkonsistenzen aufzulösen. Wichtig sei zudem, ein leistungsfähiges Feedback-System zu etablieren, um das zugrunde liegende Business-System nachzuschärfen. Denn es können einem ja auch Regeln und damit Verlinkungen in die Irre führen, gab Rosenplänter zu bedenken.

Am zweiten Tisch stellt man sich eine Frage, die ein wenig an einen schwedischen Einrichtungskonzern erinnert: Digitalisieren Sie noch, oder vernetzen Sie schon? Diesen Tisch moderierte Bastian Kreft von Hella, die Ergebnispräsentation indes überlies er dem Kollegen von Porsche. Es wurde eine User Journey entwickelt und, wie es sich gehört, mit einer Definition begonnen. „Digitalisierung und Vernetzung gehen Hand in Hand, um später erfolgreich Automatisierung durchführen zu können. Vernetzung von Dateien alleine reicht allerdings nicht aus, vielmehr müssen Inhalte miteinander verknüpft werden“, war zu hören. Mit anderen Worten: Ohne Vernetzung kommt keine Digitalisierung zustande. Und diese muss unternehmensweit stattfinden, eine Selbstvernetzung alleine genügt nicht. Vernetzung ruft nach Semantik, was wiederum den Aufbau von Datenkatalogen erfordert.
Man wollte die Freiheit nicht missen, Regeln zu befolgen, oder eben nicht. „Eben so, wie wir Menschen es im Alltag ja auch tun.“ Dabei darf der Nutzen freilich niemals aus den Augen verloren werden, etwa um Felddaten in den Produktentstehungsprozess einzubinden. Ein Unterfangen übrigens, das Stand heute meist noch kläglich scheitert. Ein Beispiel bringt Klarheit: „Wird ein Bauteil mit zu hohem Anzugsdrehmoment an ein anderes fixiert und nach Jahren kommt es deswegen zu Reklamationen aus dem Feld, ist es bisher nicht möglich, die Fertigungsanweisungen auf Basis dessen entsprechend zu korrigieren“, sagte der Kollege von Porsche.
Dieser Tisch ging auch der Frage auf den Grund, ob Verknüpfungen mit Wahrscheinlichkeiten belegt werden sollten – nach dem Motto: Ein Link gilt nur zu 80 Prozent. Bei KI-Anwendungen könnte dies eine Rolle spielen. „Zumindest muss darüber der Anwender in Kenntnis gesetzt werden“, forderte der Co-Moderator. Werden KI-Algorithmen für die Verlinkung genutzt, sind Einbußen bei der Vernetzungsqualität wahrscheinlich. Auf der Habenseite eines derartigen KI-Kalkül stünde immerhin, dass sich sehr schnell ein Wissensgraph aufbauen ließe. LinkedIn führt dies im Rahmen seiner Link Prediction erfolgreich vor: Dem Netzwerker werden neue Kontakte empfohlen, weil man gemeinsam eine andere Person kennt. Derartige „Bekanntschaften“ müssten allerdings dem Nutzer im Engineering-Anwendungsfall erst einmal transparent gemacht werden.

Linked Data beflügelt AI

Künstliche Intelligenz (KI) wird in Hinsicht auf ihr disruptives Potenzial alles Mögliche nachgesagt. Da mag viel Spekulation dran sein, in jedem Fall ist KI gut für Überraschungen. Dies belegte einmal mehr der erfrischend kurzweilige Abschlussvortrag von Peter Gentsch, Professor und Dozent der Otto Beisheim School of Management (WHU) und der Universität St. Gallen. „Es geht nicht um Big Data, nein, es geht um die Verknüpfung von Daten aus verschiedenen Quellen“, redete der Gelehrte den Anwesenden ins Gewissen. In gleichem Atemzug nannte er Linked Data als Game Changer in der KI: Als Gentsch promovierte, gab es lediglich einen Input-, Output- und Zwischenlayer sowie ein Netz. „Heute haben wir Hunderte von Zwischenlayern und nennen das Ganze Deep Learning.“ Gentsch machte auch die Open-Data-Bewegung zum Thema, denn „KI liebt die Vielfalt von Daten“. Offene Daten sind Datenbestände, die im Interesse der Allgemeinheit ohne jedwede Einschränkung frei zugänglich sind. Diese müsste in Richtung von „Open Linked Data“ weiter gedacht werden, forderte Gentsch. In ähnlicher Lesart begegnet einem der Begriff „Linked Open Data“ im Zusammenhang mit dem Semantic Web. Linked Open Data sind miteinander verknüpfte Daten, die ein weltumspannendes Netz ergeben (auch als „Giant Global Graph“ bekannt). Aber: „Der große Durchbruch von Linked Open Data ist wegen der geringen Nutzung bisher ausgeblieben, was schade ist, weil es ein sehr mächtiges Framework ist, beispielsweise um Trainingsdaten abzuleiten.“
Wie wohl jeder Intellektuelle von Rang und Namen in dem Metier ist auch Gentsch der Versuchung erlegen, sich an eine Definition von KI zu wagen. Zunächst wartete er mit einer Erklärung auf, was unter menschlicher Intelligenz zu verstehen sei. Dann kam der Sprung zu KI und seinen Fortschritten: Inzwischen sind Bilderkennungsalgorithmen besser als der Mensch, wobei das nicht an der Weiterentwicklung der Software liegt, sondern an der zur Verfügung stehenden enormen Datenmengen. Deshalb, so die überraschende Ansicht Gentsch’ ist KI zu allererst ein Wettrennen. Nach wie vor gibt es Sachen, die wir Menschen besser können, aber die Frage muss doch lauten: Wie lange noch? Denken wir nur an das älteste Brettspiel der Welt, Go: Im März 2016 fand damals mit dem Turnier zwischen AlphaGo gegen Lee Sedol ein weltweit beachteter Wettkampf zwischen einem Genie und einer Maschine statt. Der als stärkster Go-Spieler der Welt geltende Südkoreaner verlor vier der fünf Partien. Der Sieg der von Google DeepMind entwickelten Software der ersten vier Spiele gilt als Meilenstein im Bereich des maschinellen Lernens. Die Parallelen mit der historischen ersten Wettkampfpartie zwischen dem damaligen Schachweltmeister Garri Kasparow und dem Schachcomputer Deep Blue sind auffällig, die der Weltmeister 1996 verlor.
Sedol bezeichnete AlphaGo als „kreativ“ und gewann schließlich doch. „Noch sind wir besser, aber wie lange noch? KI zwingt uns, in bestimmten Fällen eine Extrameile zu gehen und besondere Leistungen zu vollbringen“, sagte Gentsch nachdenklich und betonte, dass KI den Menschen nicht ersetzt, ihn sehr wohl aber herausfordert.
AlphaGo bedient sich des Reinforcement Learnings, eine Art Try and Error. Der Algorithmus hat 9 Millionen Mal gegen sich selbst gespielt, um so gut so werden – klingt gewiss nicht nach smart, ist aber erfolgreich. „Bedenken Sie: Der Schachcomputer Deep Blue wurde noch programmiert! Nun geht der Trend hin zu Auto Machine Learning (AutoML). Und Google hat sich gesagt: Lass uns eine KI-Software schreiben, die KI-Software schreibt.“ Klingt schon ein bisschen „spooky“, wie der Gelehrte meint, aber „so lange wir Menschen die Zielen vorgeben, ist das alles nicht gefährlich.“

Doch zurück zum eigentlichen Thema, zu KI und Linked Data: Der KI-befeuerte Aufbau von Wissensgraphen kann sehr spannenden Zusammenhänge aufdecken. So können Vernetzungen zwischen Global Playern aufgedeckt werden, um Versicherungsbetrügereien auf die Schliche zu kommen. Allerdings ist es dafür notwendig, die möglichen Zusammenhänge vorab zu modellieren, sonst werden sie nicht selbstständig von der KI erkannt. Auf den Punkt gebracht: KI verlangt nach Smart Data, die in Form von Linked Data erzeugt werden können.

Fazit

Auch wenn das breit angesprochene Themenspektrum nicht unbedingt der Beritt jedes Anwesenden war, war der sechste Linked Data Day mit seiner Proud-to-Share-Haltung ein voller Erfolg.

Leave a Comment!

you're currently offline