
Projekt B3: Multimodale datengetriebene Sensorfusion
Beginn: 1. April 2026 Dauer: 3 Jahre
Die Entwicklung moderner chirurgischer Verfahren konzentriert sich zunehmend darauf, Eingriffe minimalinvasiv und patientenschonend zu gestalten, ohne die therapeutische Wirksamkeit zu beeinträchtigen. Eine der größten Herausforderungen während solcher Eingriffe ist die zuverlässige Identifikation der Zielstrukturen und des umgebenden Gewebes – ein besonders kritischer Aspekt in der onkologischen Chirurgie. Das GRK 2543 konzentriert sich auf die intraoperative Gewebedifferenzierung. Durch die Fusion von Daten neuartiger multimodaler Sensorsysteme soll eine präzisere Unterscheidung verschiedener Gewebetypen erreicht werden, als dies mit einzelnen Messverfahren möglich ist. Weitere Informationen: https://www.grk2543.uni-stuttgart.de/.
Das Projekt B3 untersucht datengetriebene Methoden zur Sensorfusion für die multimodale Gewebecharakterisierung in chirurgischen Anwendungen. Im Mittelpunkt steht die Kombination von Informationen aus verschiedenen Messmodalitäten – etwa elektrischen, optischen und mechanischen Sensoren – zur Verbesserung der Gewebeklassifikationsgenauigkeit. Obwohl die verfügbaren Datensätze relativ klein sind, erforscht das Projekt fortgeschrittene maschinelle Lernverfahren wie multimodale Merkmalsfusion und repräsentationsbasiertes Lernen, um die Informationsausbeute zu maximieren. Ziel ist die Integration komplementärer Sensordaten, um Gewebetypen, Tumorstadien und Therapieantworten besser zu unterscheiden. Die Arbeit leistet damit einen Beitrag zum übergeordneten Forschungsziel des GRK 2543, robuste und interpretierbare Modelle für multimodale medizinische Daten zu entwickeln
Project B3: Multi-modal data driven sensor fusion
to be filled by April 1, 2026 for a contract period of 3 years
New surgical methods aim to minimize invasiveness, morbidity and duration of the treatment while maximizing the therapeutic outcome. A key challenge during the interventions is the reliable identification of target structures and surrounding tissues, an aspect that is particularly critical in oncological surgery. The RTG focuses on intra-operative tissue differentiation. By fusing data from novel multimodal sensor systems, the project aims to achieve a more precise discrimination of different tissue types than is possible with individual sensing modalities alone. More information can be found at https://www.grk2543.uni-stuttgart.de/.
The B3 project investigates data-driven sensor fusion methods for multimodal tissue characterization in surgical applications. It focuses on combining information from different measurement modalities—such as electrical, optical, and mechanical sensors—to improve tissue classification accuracy. Although the available datasets are relatively small, the project explores advanced machine learning techniques like multimodal feature fusion and representation learning to maximize information extraction. The aim is to integrate complementary sensor data to better differentiate between tissue types, tumor stages, and therapy responses. The work contributes to the broader research goal of developing robust, interpretable models for multimodal medical data within the GRK 2543 research training group
• Excellent master degree in systems engineering, engineering cybernetics, medical engineering, electrical engineering, or computer science
• In-depth knowledge of signal and image processing, machine learning techniques, system dynamics
• Programming knowledge in Python, C/C++
• Good communication and team skills
Stellenmerkmale
Dein Beschäftigungsumfang
Vollzeit (befristet)
Dein Gehalt
E13
Dein Arbeitsplatz:
vor Ort
Dein Büro:
Raum Stuttgart
Ansprechpartner:in
Bei Fragen
Frau Prof. Dr.-Ing. Cristina Tarin
Website
externer Link