#neueNähe: Maschinelles Lernen schafft Inklusion

Aktion Mensch und Microsoft haben mit den #neueNähe-Hackathons eine Plattform geschaffen, in der sich Expertenteams aus verschiedenen Kreisen an Anwendungsideen rund um das Thema Inklusion, Teilhabe und Barrierefreiheit versuchen können. Nach dem erfolgreichen Auftakt 2016 in Berlin freue ich mich auch am kommenden Wochenende (30. Juni – 2. Juli 2017) in Erlangen dabei zu sein.

Diese #neueNähe-Initiative kommt genau zur rechten Zeit, denn es findet unter dem Titel „Deep Learning“ gerade eine regelrechte Revolution des Umgangs von Menschen mit Computern und umgekehrt statt. Dies wird auch erheblichen Einfluss auf die Entwicklung von Mensch-Maschine-Schnittstellen im Allgemeinen aber eben auch Inklusionsangeboten im Besonderen haben.

Beim ersten Hackathon letztes Jahr in Berlin waren bereits etliche Ideen vertreten, die sich explizit maschinellen Lernens bedient haben, um zum Beispiel Bildinhalte zu analysieren oder Sprache zu verstehen.

Eine moderne Interpretation von Mimik und Gestik

Maschinelles Lernen ermöglicht es Computern mit Hilfe neuer Algorithmen und entsprechender Sensorik, typisch menschliche Alltagssituationen zu Interpretieren und Hilfestellungen anzubieten. Dies kann zum Beispiel das Verstehen der menschlichen Sprache und der Intention hinter einer Äußerung, deren Übersetzung oder aber das Interpretieren von Mimik und Gestik sein.

In diese Richtung ging auch das Projekt vom Team Metrilus beim Hackathon 2016 in Berlin: Wir haben eine Software geschrieben, die Personen detektiert und versucht, an deren Mimik und Stimme den emotionalen Zustand der Personen zu bestimmen. Dies soll Menschen in Gesprächen helfen, die von sich aus mit der Erkennung von Emotionen Schwierigkeiten haben. Diese Anwendung verwendet als Sensor eine Microsoft Kinect-Kamera. Die liefert neben einem konventionellen Farbbild auch 3D-Informationen, anhand derer Personen detektiert werden können. Zudem kann über das Mikrofon auch Sprache zu verschriftlichen. Diese Daten verwenden wir, um die Gesichter zu extrahieren und an die Emotion API der Microsoft Cognitive Services zu schicken. Der Text wird vom Tone Analyzer der IBM Watson API analysiert.

Wer Erfahrung mit Programmierung hat, kann sich das Projekt hier herunterladen und selber ausprobieren. Natürlich ist auch jeder herzlich eingeladen, zur Weiterentwicklung beizutragen.

Deep-Learning ist für alle gemacht

Das ist nur ein Beispiel der vielen Möglichkeiten, die Deep Learning-Anwendungen bieten. Und das Beste dabei ist, dass diese Möglichkeiten nicht nur einigen wenigen großen Firmen vorbehalten sind: Praktisch alle großen Cloud-Anbieter stellen Dienste bereit, mit denen jeder mit Grundkenntnissen in Programmierung seine Ideen ausprobieren kann, ohne selbst einen Algorithmus entwickeln zu müssen.  Und das ist für experimentelle Zwecke meist gratis. Eine gute Gelegenheit zum Ausprobieren ist zum Beispiel der nächste #NeueNähe-Hackathon vom 30. Juni bis 2. Juli 2017 in Erlangen – sehen wir uns dort? Du kannst dich jetzt hier anmelden.

 

Ein Gastbeitrag von Michael Balda
Geschäftsführer der Metrilus GmbH, Erlangen

Wie „Texteroboter“ Branchen, Arbeitsprozesse und Berufsbilder verändern

Saim Alkan, AX Semantics

Saim Alkan, AX Semantics

Auf der Digitalkonferenz Explained hat Saim Rolf Alkan, Geschäftsführer AX Semantics, mit uns die Datenbeziehungen der Zukunft diskutiert. In diesem Blogbeitrag geht er einer der aktuell sichtbarsten technologischen Entwicklungen auf den Grund: Schon heute werden täglich hunderttausende Texte nicht originär von Menschen, sondern von Software generiert und veröffentlicht. Was hat das für einen Einfluss auf Berufsfelder wie den Journalismus und den E-Commerce? Was sind künftige Entwicklungen und Einsatzgebiete?

Steht der Markt für Content- Strategien vor einem erneuten Umbruch, wie man ihn vor nicht allzu langer Zeit durch Clickworker und Crowdsourcing erlebt hat? Ich glaube fest an einen Paradigmenwechsel im Content Marketing.

Es gibt ein neues Zauberwort in der Welt des Online-Marketings: „Natural Language Generation“ kurz NLG, im Deutschen etwas sperrig „Natürlichsprachliche Textgenerierung“. Darunter versteht man die automatisierte Erzeugung von Sprache und Texten.

Die Grundlagen dieser Technologie werden in der Computer-Linguistik entwickelt, einer relativ neuen Wissenschaft, die sich der maschinellen Verarbeitung natürlicher Sprache widmet. Die praktische Umsetzung der Computer-Linguistik ist mittlerweile im Mainstream der Contentverleger und E-Tailment-Manager angekommen. Schnell, präzise, fehlerfrei, abwechslungsreich und im Gegensatz zum Menschen unermüdlich sind diese Anwendungen. Und obendrein in der Lage, Inhalte in Sekundenbruchteilen in vielen Sprachen zu generieren.

Science Fiction? Keineswegs. Schon heute werden täglich hunderttausende Texte nicht originär von Menschen, sondern von Software generiert und veröffentlicht. Vor allem Texte wie Sportmeldungen, Produktbeschreibungen, Wetterberichte, Börsenticker, individualisierte Textnachrichten und Chatbots bis hin zum Geschäftsbericht werden nicht mehr von Menschen, sondern von Software verfasst. Dank des Megatrends „Big Data“ eröffnen sich in schneller Folge neue Anwendungsgebiete für NLG. Überall dort, wo Daten in strukturierter Form vorliegen, kann und wird eine NLG-Software zum Einsatz kommen und in Sekundenbruchteilen Texte generieren und veröffentlichen.

Diese Diashow benötigt JavaScript.

Ich möchte Ihnen 5 Gründe nennen, warum sich der Umgang mit Content in den nächsten Jahren drastisch verändern wird:

  1. Textautomatisierung ermöglicht Nischencoverage
    Wie sich an den Trends der letzten Jahre ablesen lässt, wird die Anzahl der Texte im Internet in den nächsten Jahren exponentiell zunehmen. Das wird jedoch nicht dazu führen, dass der einzelne Leser im Content-Chaos versinken wird, wie einige negative Stimmen verlauten lassen. Vielmehr werden die Leser von der Zunahme profitieren, denn jetzt können sie selbst für Nischenprodukte umfangreiche Produktbeschreibungen bekommen oder ausführliche Texte zu Special-Interest-Themen lesen, die aufgrund der Ressourcen-Knappheit bisher schlicht nicht verfasst wurden. Jedes Tierchen erhält in Zukunft wirklich sein Pläsierchen.
  2. Inhalte werden personalisierter
    Hier spielt wie beschrieben der Megatrend Big Data der Textautomatisierung in die Hände. Die strukturierte Erfassung und Kombination von Kunden-, Produkt- und Nachrichtendaten ermöglicht es im zunehmenden Maße, passgenaue Einzeltexte zu generieren. So ist der Weg zur individualisierten Nachrichten- oder E-Commerce-Seite geebnet. Rein technisch wäre die Umsetzung schon heute möglich, noch stehen dem aber zu hohe Latenzen im Weg, auch wenn diese im Sekundenbereich liegen.
  3. Internationalisierung wird voranschreiten
    Zahlreiche Anbieter von NLG-Software bieten ihren Kunden bereits heute die Möglichkeit, ihre Inhalte in mehreren Sprachen zu erzeugen. Dabei ist wichtig zu verstehen, dass es sich nicht um einen automatisierten Übersetzungsvorgang handelt, wie ihn z.B. „Google Translate“ präsentiert. Stattdessen bietet die NLG Software für alle Sprachen „muttersprachliche“ Konditionen: Sie generiert die jeweiligen Texte direkt in der gewünschten Zielsprache ohne den Umweg über eine andere Sprache. Der ressourcenintensive Übersetzungsvorgang, der bei der Lokalisierung häufig ein Flaschenhals war, spielt nun keine Rolle mehr. Lokalisierungsbestrebungen werden somit ungemein beschleunigt.
  4. Selbstoptimierende Inhalte
    Die Erfahrungen im „machine learning“ zeigen: Je stärker sich die Systeme verknüpfen, desto intelligenter werden sie. Bezieht man beispielsweise performanceorientierte Daten in die NLG-Software ein, kann sich der Prozess der Textautomatisierung selbst trainieren und verbessern. Die Texte werden immer präziser und besser darin, den Kaufentscheidungsprozess von Nutzern und Lesern stärker zu unterstützen. Das übliche A/B-Testing wird damit überflüssig, da es ja Teil des automatisierten Content-Erstellungsprozesses ist.
  5. Agilität in der Content Produktion
    Die Content Produktion wird agiler und passt sich den Anforderungen des Marktes besser an: Keine monatelange Arbeit an riesigen Contentprojekten mit der Produktion monolithischer Textwerke mehr, stattdessen stellt die Content Produktion einen kontinuierlichen Prozess dar, in dem bestehende Inhalte kontinuierlich weiterentwickelt und den Umfeldbedingungen angepasst werden.

In der aktuellen Diskussion rund um die Textautomatisierung verfallen begreiflicherweise nicht alle Berufsgruppen unisono in Jubelarien. Einige Skeptiker sehen in der Verbreitung derartiger Software sogar eine Bedrohung für ganze Berufsstände, die bisher von der Produktion von Texten (ganz gut) gelebt haben. Die meisten Branchenfachleute mit denen ich gesprochen habe, stehen dem Thema aber relativ aufgeschlossen gegenüber. Sie sehen solche Systeme als willkommene Bereicherung ihrer Arbeit an und treiben den Perspektivenwechsel voran. In Zukunft werden Redakteure, Journalisten und Texter Hand in Hand mit Software arbeiten, die ihnen Inhalte auf der Basis strukturierter Daten liefert. Solche Inhalte lassen sich wiederum von Menschen mit Informationen und Inhalten anreichern, die sich eben nicht aus Daten ableiten lassen: Emotionen, Beurteilungen, Spekulationen über die Zukunft – die Maschinen können (noch?) nicht alles. Dieses Zusammenspiel von Mensch und Maschine ermöglicht die Veröffentlichung von Texten, die für den Leser einen persönlichen Bezug bieten und eine bisher nie dagewesene inhaltliche Tiefe aufweisen.

Eine Win-Win-Situation für alle Beteiligten, sofern man sich auf den Perspektivenwechsel einlässt.

Ein Gastbeitrag von Saim Rolf Alkan, Geschäftsführer AX Semantics