DATA ANALYTICS

Erfolgreicher Einsatz von Datenanalyse in Industrie und Produktion, Handel sowie Medizin

SMARTE DATENANALYSE UND PROGNOSE

Digitalisierung und Automatisierung bringen in den unterschiedlichsten Branchen wie in der Industrie, im Handel oder in der Medizin eine umfangreiche Datenerfassung mit sich. Infolgedessen ist es erforderlich, große Datenmengen sicher zu speichern und nutzbringend zu verarbeiten, um daraus wertvolle Informationen abzuleiten.

Aus IKT-Sicht ist die Grundlage für die Wissensgenerierung das digitalisierte Know-how der Domänen-Expertinnen und Experten sowie der damit verbundenen Optimierung der Geschäfts- und Produktionsprozesse. Durch Anwendung von statistischen Verfahren, moderner Methoden aus dem Bereich Data- und Visual Analytics sowie Machine Learning wird das vorhandene Wissen in Kontext mit den aufgezeichneten Daten analysiert.

Dadurch können Anomalien und Muster identifiziert und in weiterer Folge zusätzliche Informationen über Korrelationen zur Fehler- und Ursachenanalyse abgeleitet werden. Mittels Methoden aus dem Umfeld der künstlichen Intelligenz wird Wissen generiert und daraus werden Handlungsempfehlungen für Expertinnen und Experten formuliert.

Durch Forschungs- und Entwicklungsprojekte sowie zahlreiche Projekte mit der Wirtschaft in unterschiedlichsten Bereichen des Data Managements und Analytics mit kleinen und großen Datenmengen sammelte die RISC Software GmbH bereits viel Erfahrung. Mit diesem Know-how unterstützt die RISC Software GmbH ihre Kundinnen und Kunden bei der Vorbereitung auf neue Herausforderungen durch einen besseren Einblick in ihre firmeneigenen Daten.

FRAGESTELLUNGEN

INDUSTRIE UND PRODUKTION

• Wie kann ich die Stillstandzeiten meiner Maschinen minimieren?
• Wann sollen Teile getauscht werden und wie sieht ein Wartungsplan aus?
• Wie entwickelt sich die Qualität meiner Produkte und von welchen Faktoren ist diese abhängig?

HANDEL

• Wie entwickelt sich das Kaufverhalten und welche Produkte bewerbe ich?
• Welche Werbemittel und Aktionen sind effektiv?
• Gibt es regionale oder saisonale Abhängigkeiten und wie stark sind die Schwankungen?

GESUNDHEIT

• Wie kann ich KI-Assistenzsysteme zur Früherkennung von Krankheiten nutzen?
• Wie können kritische PatientInnen frühzeitig identifiziert werden?
• Welcher Genesungsfortschritt wird durch unterschiedliche Behandlungsmethoden erzielt?

DATA SCIENCE PROZESS

1. Data Engineering

Maschinen-, Gesundheits-, Sensor- oder IT-Infrastrukturdaten fallen in den unterschiedlichsten Ebenen und Systemen an. Um diese Daten zu nützen, müssen sie intelligent zusammengeführt, gefiltert und verknüpft werden. Auch die Überprüfung auf Korrektheit und Vollständigkeit der Daten ist relevant. Dabei müssen bestehende IT-Infrastrukturen mit einbezogen werden, wobei Datensicherheit und -qualität unumgänglich sind.

  • Entwicklung von Datenmodellen
  • Automatisierung des Datenimports
  • Extraktion von komplexen Merkmalen aus medizinischen Bilddaten
  • Einsatz moderner Big Data-Technologien für große Datenmengen
  • Verwendung gängiger Industriestandards, bspw. OPC UA
  • Validierung und Verifikation von Daten
  • Detektion und Korrektur fehlerhafter Daten
  • Ermittlung von Trainings- und Evaluierungsdaten
  • Datenmodellierung und Abbildung des Domänenwissens
  • Modellentwicklung
  • Datenvorverarbeitung und –validierung
  • Feature Engineering
  • Explorative Datenanalyse und Visualisierung

2. Data Analytics und Künstliche Intelligenz

Um aus gesammelten und gefilterten Daten Erkenntnisse zu gewinnen, werden Verfahren aus Mathematik, Statistik und Künstlicher Intelligenz sowie Visual Analytics verwendet. Durch den Einsatz ausgewählter Algorithmen werden große Datenbestände auf Zusammenhänge und Muster untersucht. Es werden mathematische Modelle erstellt, um verschiedene Fragestellungen zu beantworten. Zusammenhänge, Verbindungen und Gesetzmäßigkeiten in den Daten können wichtige Informationen beinhalten, einerseits für kurzfristige Reaktionen im Echtzeitbetrieb und andererseits für effektive Vorhersagen für die Zukunft.

3. Data Presentation

Die visuelle Aufbereitung der Daten und Analyseergebnisse ist ein wichtiges Werkzeug zur Gewinnung neuer Erkenntnisse. Ein wesentlicher Faktor zur Interpretation von Analyseergebnissen ist die starke Einbindung der Domänen-Expertinnen und Experten. Die intuitive Wahrnehmungs- und Kombinationsfähigkeit bildet außerdem einen wesentlichen Faktor bei der Visualisierung der Ergebnisse. Die Interaktion zwischen menschlicher Expertise und maschineller Verarbeitung kann maßgeblich zur Unterstützung des Entscheidungsprozesses beitragen.

  • Visualisierung der Modelle und Analyseergebnisse
  • Individuelle Dashboards
  • Web-basiertes Front-End
  • REST-API zur Anbindung an externe Systeme
  • Anbindung an Reportingtools
  • Integration von Lösungen in bestehende Systeme

KI-METHODENFRAMEWORK

DATA SCIENCE KREISLAUF

REFERENZPROJEKTE

ANNA – Die virtuelle Produktionsassistentin

ANNA unterstützt in erster Linie die Domänen-Expertinnen und Experten. Sie führt das gesamte Know-how aus der Produktion, den Prozessen, der Konfiguration, der Aufträge sowie der Werkzeuge aller Maschinen zusammen. Daraus wird mittels Data- und Visual Analytics neues Wissen generiert, um Ursache-Wirkung-Zusammenhänge abzuleiten. Dadurch lässt sich beispielsweise die Ausfallswahrscheinlichkeit einzelner Komponenten reduzieren oder die Produktivität durch Verringerung ungeplanter Stillstände der Maschinen steigern.

Mehr erfahren

Medizinische Bildverarbeitung, Modellierung und Simulation

Obwohl medizinische Bilddaten in der täglichen klinischen Routine in großen Mengen anfallen, ist eine Verwendung für automatische Analysemethoden oftmals schwierig, da entsprechende Zusatzinformationen fehlen. Die manuelle Erstellung ist sehr zeitaufwändig und öffentlich zugängliche Datensätze sind rar. Im Forschungsbereich MIMAS wird deswegen an automatischen Methoden geforscht, die eine rasche Erstellung dieser Zusatzinformationen ermöglichen.

Ontologie-basierte Dateninfrastruktur

CALUMMA ist eine neue Generation von Data-Management-Software, die Datenkomplexität, Schnittstellenvielfalt und Visualisierung mit Bedienerfreundlichkeit vereinbart. Domänen-ExpertInnen werden hier von der Datenmodellierung hinweg, über die Integration und Validierung ihrer Daten sowie bei deren Verarbeitung und Auswertung unterstützt. Durch die Generizität des kompletten Systems kann die Anwendung auf unterschiedliche Szenarien und Daten angepasst werden.

Mehr erfahren

Intelligente Twitter Analyse

Das Untersuchen der Prämisse, dass positive Emotionen in Tweets über aktiennotierte Unternehmen mit deren Aktienkursentwicklung in Zusammenhang stehen, stand in diesem Projekt im Fokus. Während des Betrachtungszeitraumes von vier Monaten wurde eine nachweisbare Korrelation zwischen Aktienkursen und Emotionen in den Tweets festgestellt. Diese Erkenntnisse konnten u.a. durch den Einsatz von Sentimentanalysen sowie Deep-Neural-Networks gewonnen werden.

Mehr erfahren

Intelligente Weiche

Im Forschungsprojekt iTPP 4.0 wurden gemeinsam mit der voestalpine Signaling Zeltweg GmbH grundlagennahe Erkenntnisse entwickelt, die ein digitales Zustandsabbild einer Weiche für den Eisenbahnverkehr ermöglichen sollen. Dieses soll zukünftige Abnützung, Verschleiß oder Fehler der Weiche zu jedem Zeitpunkt zuverlässig prognostizieren können. Dazu leiten Machine Learning Algorithmen selbstlernend aus Daten von Eisenbahninfrastruktur-Sensoren Entscheidungen zu geplanten Wartungen ab.

Mehr erfahren

KONTAKT

Robert Keber

Technische Leitung
Telefon: +43 7236 / 33 43 - 233
E-Mail: robert.keber@risc-software.at