Liebe Freunde,
wir freuen uns, Ihnen mitteilen zu können, dass wir kürzlich unser drittes Projekt gestartet haben - CoVision! Es geht darum, eine kostenlose und leicht zugängliche Open-Source-Computer-Vision-App zu entwickeln, die CoVid-Schnelltestergebnisse mit mobilen Geräten klassifizieren kann. Diese App wird es blinden und sehbehinderten Menschen ermöglichen, CoVid-Antigen-Schnelltests selbst auszuwerten.
Blinde und sehbehinderte Menschen können die Tests zwar selbst durchführen, sind aber nicht in der Lage, die Testergebnisse abzulesen und somit auf die Hilfe anderer Personen angewiesen. Diese Abhängigkeit führt zu einem Mangel an Privatsphäre und zu erheblichen Unannehmlichkeiten, die mit der Inanspruchnahme von Hilfe durch andere Personen verbunden sind. Dies macht CoVid-Schnelltests für sehbehinderte Menschen weniger attraktiv und erschwert ihre Anwendung. Im schlimmsten Fall könnte dies dazu führen, dass diese Technologie von blinden und sehbehinderten Menschen seltener verwendet wird, was sie einem größeren Risiko aussetzen würde.
Unsere App wird die Benutzerfreundlichkeit und den Schutz der Privatsphäre für diese Personengruppe verbessern und die Tests zugänglicher machen. Insgesamt wird erwartet, dass die App dazu beitragen wird, die Gesundheit von Blinden und Sehbehinderten zu schützen und sie besser in die Maßnahmen gegen die Pandemie zu integrieren.
Angeregt durch die ursprüngliche Idee von Dr. Stefanie Lämmle vom InnovationLab der Landeshauptstadt München und Diskussionen mit Steffen Erzgraber vom Bayerischen Blinden- und Sehbehindertenverband hat eine Gruppe von Studenten kürzlich einen ersten funktionierenden Prototyp dieser Anwendung erstellt. Das Team, bestehend aus Simon Farshid, Raphael Feigl, Brigitta Jesica Kartono und Lennart Maack, erstellte den Prototyp als Team CoVision innerhalb von 48 Stunden während des TUM.ai Makeathons und gewann den ersten Preis bei diesem Event!
Der aktuelle Prototyp zeigt, dass eine solche Anwendung machbar ist, aber sowohl in Bezug auf die Genauigkeit als auch die Benutzerfreundlichkeit verbessert werden muss, um blinden Menschen den größtmöglichen Nutzen zu bieten. Solche Verbesserungen benötigen zusätzliche Ressourcen und Zeit für die Forschung und erfordern den Zugang zu weiteren Talenten aus dem Bereich Machine Intelligence (MI). Daher hat das CoVision-Team beschlossen, sich MI4People anzuschließen und seine angewandte Forschungsarbeit zu diesem Thema als Projekt im Rahmen des MI4People-Projektportfolios fortzusetzen!
Wir freuen uns sehr, das äußerst engagierte CoVision-Team bei MI4People begrüßen zu dürfen!
Motiviert durch diese Art von Anwendungen von Machine Intelligence zum Wohle der Allgemeinheit, haben wir uns entschlossen, diese Ausgabe unseres Newsletters Anwendungsfällen zu widmen, die aufzeigen, wie MI beeinträchtigte und behinderte Menschen unterstützen kann.
Genießen Sie den Newsletter, unterstützen Sie das Gemeinwohl und lassen Sie uns gemeinsam die Welt zu einem besseren Ort für uns alle machen!
Ihr MI4People-Team
Sehbehinderte und Blinde
Ähnlich wie bei unserer CoVision-App gibt es viele bestehende und potenzielle Anwendungen von MI, die Techniken der Computer Vision und der Spracherzeugung kombinieren, um Blinden und Sehbehinderten zu ermöglichen, die Welt um sie herum besser wahrzunehmen und sie unabhängiger zu machen.
Es gibt eine Reihe von Anwendungen, die in der Lage sind, getippten und handgeschriebenen Text auf Fotos von Dokumenten und Briefen oder auf Live-Videos von Mobiltelefonkameras zu verstehen und laut vorzulesen, so dass blinde Menschen Zugang zu schriftlichen Informationen erhalten können. Ein bemerkenswertes Beispiel ist die kostenlose Seeing AI von Microsoft. Da sie kostenlos ist, ist sie für jeden zugänglich, der ein Mobiltelefon oder ein Tablet besitzt, und verfügt über weitere hilfreiche Funktionen wie die Identifizierung von Personen und deren Emotionen, Farb- und Lichterkennung und einen Barcode-Scanner.
Ein weiterer Schritt besteht darin, im Grunde die gleiche MI-Technologie zu verwenden, sie aber nicht auf einem mobilen Gerät einzusetzen, sondern in eine tragbare Brille zu integrieren. Das ist genau das, was das Startup Envision macht. Auf der Grundlage der Google Glass-Plattform hat dieses niederländische Startup ein Gerät entwickelt, das nicht nur Text lesen und Personen identifizieren, sondern auch Objekte erkennen und sogar Szenen beschreiben kann. Außerdem verfügt es über eine Videoanruf-Funktion, die es Blinden und Sehbehinderten ermöglicht, ihre Vertrauenspersonen anzurufen, wenn sie in eine schwierige Situation geraten, so dass diese Personen Zugriff auf das Video der Brille erhalten und Hilfe leisten können. Leider ist diese Technologie derzeit noch sehr teuer (ca. 3.300 €) und für viele Menschen nicht zugänglich, aber es ist zu erwarten, dass diese und ähnliche Technologien mit der Zeit bezahlbarer werden.
Gehörlose Menschen
In ähnlicher Weise können auch gehörlose Menschen von den Fortschritten der MI-Technologien profitieren. So können beispielsweise Modelle der künstlichen Intelligenz (KI) für die Speech-to-Text-Generierung eingesetzt werden, um gesprochenen Text sofort in geschriebenen Text umzuwandeln. Und tatsächlich gibt es bereits Apps auf dem Markt, die dazu in der Lage sind.
RogerVoice, ein französisches Startup-Unternehmen, bietet beispielsweise eine App an, die Telefonanrufe transkribieren kann und damit gehörlosen Menschen bei der Nutzung dieser Alltagstechnologie hilft. Ein anderer Startup, Ava, hat eine App zur sofortigen Transkription entwickelt, die jedes Gespräch einer Gruppe von Menschen in Echtzeit transkribiert und sogar die verschiedenen Gesprächsteilnehmer erkennt, so dass eine gehörlose Person einem Gespräch mit mehreren Personen folgen kann, ohne Lippenlesen zu müssen. Ava stellt seine Dienste vor allem inklusiven Organisationen zur Verfügung und ermöglicht ihnen, Menschen mit Hörbehinderungen besser zu integrieren.
Beeinträchtigte Sprache
Eine weitere Gruppe von Menschen mit Behinderungen, die von KI profitieren könnte, sind Menschen mit Sprachstörungen. Initiativen wie Voiceitt oder Googles Projekt Euphonia arbeiten an KI-Modellen, die Menschen mit Hirnverletzungen, Parkinson, ALS und anderen Krankheiten verstehen können, deren Sprache auf den ersten Blick sowohl für Menschen als auch für herkömmliche Speech-to-Text-Anwendungen schwer zu verstehen ist. Diese KI-Modelle normalisieren die ansonsten schwer verständliche Sprache, um eine Audio- oder Textausgabe zu erzeugen, so dass Menschen mit nicht standardisierter Sprache dennoch mit anderen kommunizieren können und verstanden werden.
Menschen mit amputierten Gliedmaßen
Ein weiteres sehr interessantes Forschungsgebiet, in dem KI eingesetzt wird, um behinderten Menschen zu helfen, ist die Entwicklung intelligenter Prothesen, z. B. Hand- und Armprothesen.
In diesem Bereich gab es in den letzten Jahren einen dramatischen Fortschritt, der auf technologische Fortschritte zurückzuführen ist, die es ermöglichen, Finger unabhängig voneinander zu bewegen, mehrere Gelenke zu steuern, personalisierten Prothesen über 3D-Druck zu erstellen usw. Dennoch empfinden die meisten Benutzer moderne Armprothesen als recht schwierig zu steuern, da der gängigste Steuerungsmechanismus, die so genannte myoelektrische Abtastung, auf der Aufzeichnung der elektrischen Aktivität in den Armmuskeln beruht und von den Benutzern verlangt, dass sie ihre Muskeln in bestimmten Kombinationen von Mustern anspannen, um Hand- oder Handgelenkbewegungen zu erzeugen. Diese Muster sind oft kontraintuitiv und zeitaufwändig und führen häufig zu einer frustrierenden Erfahrung.
Ein Forscherteam um Diu Khue Luu und Anh Tuan Nguyen von der University of Minnesota hat kürzlich eine Arbeit veröffentlicht, die einen Weg zur Lösung dieses Problems mit Hilfe künstlicher Intelligenz beschreibt und das Potenzial hat, den Bereich der Entwicklung von Hand- und Armprothesen zu revolutionieren. Sie haben ein KI-Model entwickelt, das auf einem rekurrenten neuronalen Netz basiert und gelernt hat, die Bewegungsabsichten des Amputierten über eine periphere Nervenschnittstelle in tatsächliche Bewegungen umzusetzen. Es ist derzeit in der Lage, gleichzeitig sechs Freiheitsgrade aus mehrkanaligen Nervendaten in Echtzeit zu verarbeiten und wurde mit drei menschlichen Probanden mit amputierten Armen getestet.
Weitere Forschung in diesem Bereich ist erforderlich, aber es sieht so aus, als könnten Menschen mit amputierten Gliedmaßen schon bald Prothesen der neuen Generation verwenden, die sehr natürliche Bewegungen ermöglichen.
Smart Homes
Zu guter Letzt seien hier noch intelligente Assistenten wie Alexa oder Google Echo erwähnt, die mit intelligenten Haushaltsgeräten wie Thermostaten, Lichtschaltern, Vorhängen, Staubsaugerrobotern usw. verbunden werden und diese steuern können.
Was viele Menschen nur aus Bequemlichkeit oder Spaß nutzen, kann für Menschen mit Behinderungen lebensverändernd sein. Durch einfache Sprachbefehle können sie mitteilen, was sie brauchen, und nahezu jeden Aspekt ihres Zuhauses selbst steuern. Das macht sie unabhängiger und es ermöglicht ihnen, selbständiger zu agieren.
Schlusswort
Es gibt bereits viele Anwendungen von Machine Intelligence, die das Leben von Menschen mit Behinderungen verbessern. Viele von ihnen sind jedoch noch sehr teuer und nicht für jedermann zugänglich. Andere stecken noch in den Kinderschuhen und benötigen mehr Zeit und finanzielle Mittel für weitere Forschung und Entwicklung. Wir ermutigen den Leser, Initiativen wie die oben beschriebenen zu unterstützen und über neue, innovative Wege nachzudenken, wie behinderte Menschen mit Hilfe von Technologie besser in unsere Gesellschaft integriert werden können!
Comments