Eine VR-Applikation erkennt, wie gut Arme und Hände bei Parkison noch funktionieren. Machine- und Deep-Learning liefern bisher nicht auswertbare Klassifikationen und Muster der Neuro-Krankheit. Ein Sensorhandschuh und Gamifikation sollen Patienten gegen den Tremor helfen.
Nur ein leichtes Zittern oder schwerwiegende Behinderung? Einschränkungen der Hand- und Armfunktionen treten häufig bei neurologischer Erkrankungen wie Morbus Parkinson oder nach Schlaganfällen oder Rückenmarkverletzungen auf. Sie haben einen enormen Einfluss auf die Lebensqualität und die Teilhabe der Patienten. Eine genaue Diagnose der Hand- und Armfunktion ist sowohl für die Therapiesteuerung als auch für die Früherkennung von großer Bedeutung.
Ein Forschungsteam aus dem Ruhrgebiet hat in einem 3-Jahres-Projekt einen »virtuellen Arm- und Handtest mithilfe von maschinellem Lernen bei neurologischen Bewegungsstörungen«, kurz VAFES, entwickelt. Die neuartige VR-Applikation kombiniert medizinische Tests, Bewegungsparametern und Biosignalee ebenso wie Elemente bekannter neurologischer Assessments und wurde bereits als Prototyp auf der STEAM-Plattform veröffentlicht. Im Folgeprojekt wird eine VR-basierte Klinikanwendung zur Therapie des Schmerzphänomens entwickelt.
Die Entwicklung einer standardisierter Testumgebung setzt bestehende medizinische Tests und Assessments in Virtual Reality (VR) um und kombiniert diese mit der Erfassung objektiver Bewegungsparameter und ausgewählter Biosignale. Auf diese Weise wird es erstmals möglich, eine sehr komplexe Diagnostik und Therapiesteuerung von neurologischen Erkrankungen mit Hand- und Armfunktionsstörungen zu realisieren, die durch den Einsatz von modernen MachineLearning und Deep Learning-Algorithmen auch bislang noch nicht auswertbare Klassifikationen und Muster zu detektieren. Die Sensorik basiert auf konventioneller VR-Hardware, die App-Daten werden sicher gespeichert und abgelegt.
Innerhalb des Projektes wurde zustätzlich eine Laborversion des VAFES-Tests mit erweiterter Bewegungssensorik und einem Sensor-Handschuh sowie der synchronen Erfassung von EEG- und EMG-Biosignalen realisiert.
Die zur synchronen Aufnahme entwickelte Software-Lösung enthält eine integrierte Machine LearningAnalyse, die bereits in der Lage ist, aus den EEG-Daten präzise Bewegungen der Hand vorherzusagen. Weiterhin erfolgte im Rahmen der Laborversuche eine umfassende Analyse der Bewegungstrajektorien der oberen Extremität und deren Modellierung in 3D, um für die weitergehenden Bewegungsklassifikationen und die Erkennung pathologischer Muster eine Grundlage zu haben. Ebenso wurden detaillierte Analysen durchgeführt, um aus den EEG-Signalen Muster zur Fehlerverarbeitung im Gehirn zu identifizieren, d.h. die Erkennung sog. Error-Potenziale als neuronale Korrelate, die beim Bemerken oder sogar beim Beobachten eines Fehlers ausgelöst werden.
Eine Pipeline für die Modellierung von 3D-Avataren, die die VR-Immersion der Patienten während der Nutzung des Tests bzw. Spiels erhöht, sowie ein theoretisches Konzept zur Tremorkompensation durch antagonistische Stimulation wurden ebenfalls schon initiert und soll nach den Laborversuchen die Therapieoptionen bei Parkinson erweitern. (uh)
Im Rahmen des Forschungsprojekts „VAFES“ entwickelte die Hochschule Ruhr West gemeinsam mit ihren Partner:innen der RUB Universitätsklinikum Knappschaftskrankenhaus Bochum, das RUB Universitätsklinikum Bergmannsheil Bochum und die SNAP GmbH einen „Virtuellen Arm- und Handtest mithilfe von maschinellem Lernen bei neurologischen Bewegungsstörungen“. Das Projekt wurde 2020 für drei Jahre durch eine Förderung aus Mitteln des europäischen Fonds für regionale Entwicklung (EFRE) und des Landes Nordrhein-Westfalen in Höhe von 2,36 Millionen Euro gefördert.