Vier Leinwände, über 100 Lautsprecher, ein Gitterboden: Das «Real Life Lab» in Stäfa ZH erinnert an eine Mischung aus Kino und futuristischem Hühnerstall. Heute arbeitet eine Gruppe Männer und Frauen im Labor des Hörgeräteherstellers Sonova daran, die Akustik eines Restaurants naturgetreu «nachzubauen». Ein erster Testlauf: Aus den Lautsprechern erklingt das Scheppern eines Tellers, der zu Boden fällt. Gesprächsfetzen mischen sich mit Gläserklirren – alles in perfektem Surround Sound. Auf den Leinwänden läuft eine dazu passende Videosequenz.
Für Menschen mit einem normal funktionierenden Gehör sind solche Szenen akustischer Alltag, «für Hörgeschädigte hingegen sind sie ein Albtraum», sagt Ingenieurin Ruksana Giurda nach dem Test. «Bei so vielen verschiedenen Tönen und Geräuschquellen haben sie erhebliche Mühe, einem Gespräch zu folgen.» Giurda arbeitet in der Entwicklungsabteilung von Sonova seit Jahren daran, Hörhilfen zu verbessern. Gemeinsam mit Informatik-Forschenden der Hochschule Luzern leitet sie nun ein Projekt, das die Technologie einen riesigen Schritt nach vorne bringen könnte.
Der «Cocktail Party Effect»
Weltweit leiden gemäss der Weltgesundheitsorganisation WHO fast 500 Millionen Menschen an einem Hörschaden; allein in der Schweiz sind es rund 650’000.
Was bedeutet es, hörgeschädigt zu sein? Menschen mit normal funktionierendem Gehör filtern an einem Fest mühelos die für sie wichtigste Konversation aus dem Lärm heraus – dies wird passend als «Cocktail Party Effect» bezeichnet. Hörgeschädigte hingegen nehmen insbesondere hohe Töne nicht oder nur noch vermindert wahr. Je schwerer der Hörschaden, desto anstrengender ist für sie daher das Filtern. Als Konsequenz daraus vermeiden Hörgeschädigte oft ermüdende Situationen wie Restaurantbesuche oder Feste und ziehen sich aus dem Sozialleben zurück.
Die Folgen sind gravierend: Einer Studie der Johns Hopkins Universität zufolge leiden Personen mit unbehandelter Schwerhörigkeit 40 Prozent öfters an Depressionen als Personen mit funktionierendem Gehör und weisen ein doppelt so hohes Demenzrisiko auf.
Eine KI spitzt die Ohren
Hörhilfen unterstützen Betroffene im Alltag. Trotzdem tragen selbst in Industrienationen nur ein Fünftel der Hörgeschädigten eine. Die Furcht, als behindert stigmatisiert zu werden, sei ein Grund dafür, so Ruksana Giurda, aber auch die Diskrepanz zwischen den hohen Erwartungen der Nutzerinnen und Nutzer und den tatsächlichen Fähigkeiten der aktuellen Geräte. Zwar arbeiten neuere Hörhilfen mit Audiofiltern, die automatisch einen Teil der Nebengeräusche unterdrücken können. Diese kommen aber lediglich mit sehr allgemein gehaltenen Voreinstellungen daher, wie Giurda sagt. «Das Hörgerät ‹weiss› ja nicht, welche akustischen Signale in einem bestimmten Moment für eine Person gerade wichtig sind und welche nicht.»
An diesem Punkt setzt Projektleiter Simone Lionetti von der HSLU an: Dem KI-Forscher schwebt eine Künstliche Intelligenz für Hörgeräte vor, welche die Hör-Absicht des Trägers oder der Trägerin ermitteln und die Audiofilter entsprechend automatisch anpassen kann. Eine Maschine, die Gedanken lesen kann also? Lionetti lacht. «Das wäre nützlich, wenn auch beängstigend», sagt er. Der Algorithmus soll vielmehr auf Basis statistischer Daten jene Audiosignale ermitteln, die für die Hörgerät-tragende Person mit hoher Wahrscheinlichkeit relevant sind. Den Rest filtert er heraus.
Vom Bund geförderter «Liebling»
Das KI-Forschungsprojekt des Hörgeräteherstellers Sonova und der HSLU trägt den klangvollen Namen «Darling» («Detecting And Reacting to Listening Intention aNd Goals»). Es startete im April 2022 und läuft bis Ende März 2024. Die schweizerische Agentur für Innovationsförderung Innosuisse unterstützt «Darling» mit rund 700’000 Franken. Das Gesamtbudget beträgt über 1.4 Millionen Franken.
Realistische Simulationen sind das A und O
Um an die Daten zu gelangen, machen sich die Forschenden physiologische Reaktionen zunutze, mit denen der menschliche Körper auf Geräusche reagiert. Diese Reaktionen wollen die Forschenden mittels Sensoren messen, die an den Probandinnen und Probanden angebracht werden.
Damit die Daten aussagekräftig sind, müssen die Experimente möglichst lebensnah ausfallen. Eine zentrale Rolle spielen dabei die realistischen akustischen Simulationen des «Real Life Lab». In der eingangs beschriebenen Restaurant-Simulation etwa werden die Probandinnen und Probanden unter anderem eine Bestellung aufnehmen – eine Handlung, die Menschen mit einem gesunden Gehör meistens leichtfällt, Hörgeschädigten aber viel Kraft und Konzentration abverlangt.
Roboter sammelt Audiodaten fürs KI-Training
Die wichtigste Voraussetzung, um eine Künstliche Intelligenz zu trainieren, sind grosse Datenmengen. Bei schriftlichen Texten oder Bildern kann dafür oft auf zahlreiche vorhandene Datensätze zurückgegriffen werden – nicht so im Falle der akustischen Daten, mit denen eine KI für Hörgeräte trainiert wird. Sie müssen zunächst einmal generiert werden. Dafür braucht es Audiodaten von typischen Hintergrundgeräuschen in verschiedenen Umgebungen und unterschiedlichen Klangräumen.
Eine direkte Aufnahme dieser Gespräche wäre jedoch zu zeitaufwändig. Daher wird der Klang eines Raumes in Form einer sogenannten raumakustischen Impulsantwort gemessen. Diese Messungen beinhalten die gesamte akustische Information einer spezifischen Gesprächssituation (d.h., des Raums). Durch Simulationen können anschliessend Audioaufnahmen so verändert werden, damit sie klingen, als hätten sie am Ort der Impulsantwortmessung stattgefunden.
Solche Messungen sind jedoch nach wie vor sehr arbeits- und zeitaufwändig. Unter der Leitung von Armin Taghipour arbeiten deshalb Forschende am Departement Technik & Architektur der HSLU zusammen mit Sonova an einem Roboter-System, welches diese raumakustischen Impulsantwortmessungen durchführt. Eine eigens entwickelte Software dient der Planung zur autonomen Ausführung zahlreicher Messungen. Die Messung von kartografierten Impulsantworten ermöglichen nicht nur Verbesserungen im Bereich der Hörgeräte, sondern eröffnen ein nie zuvor dagewesenes Forschungsgebiet. Das Roboter-Projekt wird ebenfalls von der Innosuisse gefördert.
«Wir betreten Neuland»
Die im Lab gewonnen Daten möchte das Forschungsteam mit Audioaufnahmen des Hörgeräts kombinieren. Das Resultat: eine zweidimensionale Audiokarte der Umgebung. Sie wird der Hörgeräte-KI als Entscheidungsgrundlage dienen, um zu bestimmen, welche akustischen Signale in einem bestimmten Moment für eine Person gerade wichtig sind und welche nicht. Je mehr Daten zur Verfügung stehen, desto besser «lernt» der Algorithmus, verschiedene akustische Situationen zu unterscheiden und die Filter des Hörgeräts immer rascher und präziser zu justieren.
In einem ersten Schritt wird das Forschungsteam die Labor-Experimente in den kommenden Monaten mit Menschen ohne Hörschäden durchführen, um das Konzept zu testen und zu verfeinern. Danach sollen Versuche mit Hörgeschädigten folgen. Die Forschenden hoffen, letztlich genügend Daten zu sammeln, um damit einen KI-Prototypen zu programmieren. Simone Lionetti betont, dass es bisher nirgends auf der Welt eine KI gibt, die die Hör-Absicht einer Person treffsicher vorhersagen kann. «Wir betreten mit unserer Forschung Neuland. Sollten wir Erfolg haben, könnten wir das Leben vieler Menschen enorm erleichtern.»