Was vor einigen Jahren noch als absolute Zukunftsvision abgestempelt worden wäre, funktioniert mittlerweile sehr gut. Artificial Intelligence, kurz AI, hilft sehbeeinträchtigten Menschen bei der Wahrnehmung ihrer Umgebung. Alles was dazu benötigt wird, ist ein Smartphone oder ein Tablet und die richtige App.

Visuelles wird verbal erklärt

Aktuell sind zwei Applikationen verfügbar, die einen besonders großen Leistungsumfang bieten. Envision AI liest Text live in über 60 verschiedenen Sprachen vor. Die App erkennt ausgedruckte Dokumente ebenso wie handgeschriebene Postkarten. Zudem bietet sie auch eine detaillierte Umgebungsbeschreibung, inklusive dem Erkennen von Menschen, dem Beschreiben von Farben oder Situationen. Der VoiceOver-Support ermöglicht eine Bedienung allein durch Sprache. Aktuell ist die App im App Store für iPhones und iPads erhältlich und kostet bei einem sechsmonatigem Abo 24 Euro pro Monat, bei einem jährlichen Abo 20 Euro pro Monat. Abgesehen davon kann sie für 100 Euro auch ohne Abo-Modell erworben werden.

Anwendungsbeispiele der Applikation Envision AI
Die Applikation Envision AI erkennt Texte sofort und liest in mehr als 60 Sprachen vor.

Seeing AI ist kostenfrei

Eine in der Funktionalität sehr ähnliche, aber kostenfreie Alternative bietet Microsoft mit der Applikation Seeing AI. Die NutzerInnen können zwischen neun verschiedenen Modi wählen, die kurze Texte, lange Dokumente, Barcodes, Personen, Szenen, Währungen, Lichtverhältnisse, Farben und sogar handgeschriebenen Text erkennen und verbalisieren. Mithilfe von Machine-Learning-Prozessen lernt die Applikation ständig dazu. Dabei wird diese in der Erkennung immer besser. Seit kurzem sind neben Englisch auch noch weitere Sprachen verfügbar. Darunter sind auch Deutsch, Französisch, Japanisch und Spanisch. Im Test der Hilfsgemeinschaft der Blinden und Sehschwachen Österreich schneidet die Applikation gut ab.

AI für mehr Barrierefreiheit

Die Applikation Seeing AI ist Ergebnis eines Forschungsprojekts von Microsoft, das sich intensiv mit den Möglichkeiten von Artificial Intelligence für Barrierefreiheit auseinandersetzt. Im Rahmen des Programms „AI for Accessibility“ setzt sich Microsoft mit Herausforderungen in der Kommunikation, im alltäglichen Leben und im Berufsleben auseinander. Dabei sind in Kooperation mit anderen Firmen auch andere spannende Projekte entstanden: InnerVoice hilft Kindern mit Autismus mit Hilfe von AI beispielsweise dabei, die Kommunikationsskills zu verbessern.

So funktioniert maschinelles Lernen

Künstliche Intelligenz basiert auf maschinellem Lernen mit dem Ziel, intelligentes menschliches Verhalten nachzuahmen. Der Computer soll Muster in Inputdaten (Bildern, Tonaufnahmen, Musik etc.) erkennen und diese dann richtig einordnen. Dafür werden zu Beginn sehr viele Daten mit der richtigen Zuordnung zur Verfügung gestellt. Bei einem einfachen Beispiel wären das Katzenbilder, mit der Zuordnung „Katze“ und Hundebilder mit der Einordnung „Hund“. Diese Informationen werden dann dazu verwendet, ein sogenanntes Neuronales Netzwerk zu erstellen, das mit jedem neuen zur Verfügung gestellten Bild neu dazulernt, welche Kriterien dazu führen, dass es sich entweder um eine Katze oder einen Hund handelt.

Die Applikationen Seeing AI und Envision AI zeigen deutlich, wie gut maschinelles Lernen bereits funktioniert und wie Künstliche Intelligenz Menschen aktiv unterstützten kann. Bisher wird KI unter anderem auch im Umweltbereich und in der und in der Kunst eingesetzt. Ganz fehlerfrei arbeiten die computergestützten Systeme allerdings auch nicht immer.