Microsoft stellt KI für Entwicklung eigener Anwendungen bereit

communication-1991850_1920Microsoft hat drei neue Cognitive-Services für die Integration von KI-Technologien in Anwendungen von Drittanbietern angekündigt: Der ab sofort verfügbare Custom-Speech-Service, erkennt Sprache in unterschiedlich lauten Umgebungen sowie dialektisch, mundartlich oder fachlich gefärbte Formulierungen. Der Content-Moderator erlaubt es, Texte, Bilder oder Videos nach unerwünschtem Material zu durchsuchen und etwa Gewaltszenen oder hetzerische Sprache herauszufiltern. Die Bing-Speech-API verwandelt Audiomaterial in Text, versteht den Inhalt solcher Texte und kann Texte auch in gesprochene Sprache (zurück-)verwandeln. Content-Moderator und Bing-Speech API werden ab März 2017 verfügbar sein. Die neuen Dienste sind ein weiterer Meilenstein von Microsofts Mission, künstliche Intelligenz zu „demokratisieren“.

Die Microsoft-Cognitive-Services sind 25 Dienste, die die Integration von Sprach-, visueller oder Stimmungserkennung sowie Sprachverständnis in Apps ermöglichen. Über REST-APIs können Entwickler Anwendungen von Drittanbietern aller Unternehmensgrößen und Branchen mit künstlicher Intelligenz anreichern.

Virtual-Reality-Unterhaltungen führen
Die Integration einer funktionierenden Sprachsteuerung erlaubt es zum Beispiel in Virtual-Reality-Spielen, dem Spieler die volle Kontrolle über den Erzählstrang einer Geschichte zu geben. Wie in Starship-Commander von Human Interact: Das Spiel nutzt Microsoft-Cognitive-Services für die (Sprach-)Steuerung von Raumschiffen, die auch in Lichtgeschwindigkeit noch auf ihre Kapitäne hören, anstatt eine vorprogrammierte Geschichte abzuspielen.
Bei Starship-Commander kommt auch der Language-Understanding-Intelligent-Service zum Einsatz, um zu verstehen, mit welcher Absicht Spieler bestimmte Aussagen treffen. Ein „Raus hier!“ könnte sowohl die Aufforderung an den Maschinenraum sein, Vollgas zu geben, als auch der Befehl an jemanden, den Raum zu verlassen. Der Language-Understanding-Intelligent-Service, derzeit in einer Public-Preview verfügbar, erlaubt Entwicklern das Trainieren von Sprachmodellen mit unterschiedlichen Bedeutungen von Sprache. Auch dieser Service arbeitet auf der Basis jahrzehntelanger Forschungen, bei denen es darum geht, Dienste mit einer begrenzten Menge von Daten zu trainieren. Bei Starship-Commander funktioniert das offensichtlich gut – so gut, dass sich CEO Alexander Mejia fast geschockt darüber zeigt: Es sei ein wenig angsteinflößend, wie gut das Spiel Sätze verstehe, die es nie zuvor trainiert habe, so Mejia: „Das ist Künstliche Intelligenz!“

Kundenindividuelle Sprachmodelle

Moderne Spracherkennung ist abhängig von statistischen Modellen, die maschinelles Lernen (Machine-Learning) und die Skalierbarkeit der Cloud nutzen, um aus einer großen Menge von Daten akkurate Übersetzungen gesprochener Wörter zu produzieren. Über die Cognitive-Services ist es möglich, akustische Modelle zu bauen, die aus kurzen Audioschnipseln Phoneme oder Toneinheiten in einer gegebenen Sprache erkennen. In Kombination mit den Phonemen in der unmittelbaren Nachbarschaft lassen sich gesprochene Wörter sicher erkennen. Die Vorhersage wird von einem speziellen Wörterbuch unterstützt, das alle Wörter der Zielsprache auf Phoneme-Ebene enthält. Um ähnlich klingende Wörter im Kontext zu bewerten, ziehen akustische Modelle auch kontextuelle Wahrscheinlichkeiten hinzu. So ist das Wort „Tor“ im Fußball wahrscheinlicher als „Treffer“ zu verstehen, denn als „Narr“.
McDonald’s setzt die Spracherkennung ein, um die einen möglichst effizienten, reibungslosen Ablauf der Drive-ins zu ermöglichen.
Das Akustikmodell der Microsoft-Speech-Recognition-API beruht auf einem neuronalen Netzwerk, das wiederum Theorien des menschlichen Spracherwerbs nutzt und mit tausenden Stunden Audiodateien aus der Cloud trainiert wurde. Dieser Spracherkennung gelang im Oktober 2016 der Durchbruch: Erstmals war die Engine in der Lage, Wörter einer seit 20 Jahren als Benchmark für Spracherkennung verwendeten Unterhaltung genauso gut zu erkennen wie ein Mensch.

Allerdings funktioniert das Modell nicht automatisch in unterschiedlichen, zum Beispiel lauten Umgebungen. Genau hier kommen die Custom-Speech-Services zum Tragen, die das Anpassen der Modelle an typische Umgebungen oder Sprachgewohnheiten erlaubt: Ob ein Geräusch ein Wort oder eine Hydraulikpresse ist, mag für Menschen einfach zu entscheiden sein. Maschinen müssen diesen Unterschied erst lernen – um das künftig dann zuverlässig zu erkennen.