Wie „Texteroboter“ Branchen, Arbeitsprozesse und Berufsbilder verändern

Saim Alkan, AX Semantics

Saim Alkan, AX Semantics

Auf der Digitalkonferenz Explained hat Saim Rolf Alkan, Geschäftsführer AX Semantics, mit uns die Datenbeziehungen der Zukunft diskutiert. In diesem Blogbeitrag geht er einer der aktuell sichtbarsten technologischen Entwicklungen auf den Grund: Schon heute werden täglich hunderttausende Texte nicht originär von Menschen, sondern von Software generiert und veröffentlicht. Was hat das für einen Einfluss auf Berufsfelder wie den Journalismus und den E-Commerce? Was sind künftige Entwicklungen und Einsatzgebiete?

Steht der Markt für Content- Strategien vor einem erneuten Umbruch, wie man ihn vor nicht allzu langer Zeit durch Clickworker und Crowdsourcing erlebt hat? Ich glaube fest an einen Paradigmenwechsel im Content Marketing.

Es gibt ein neues Zauberwort in der Welt des Online-Marketings: „Natural Language Generation“ kurz NLG, im Deutschen etwas sperrig „Natürlichsprachliche Textgenerierung“. Darunter versteht man die automatisierte Erzeugung von Sprache und Texten.

Die Grundlagen dieser Technologie werden in der Computer-Linguistik entwickelt, einer relativ neuen Wissenschaft, die sich der maschinellen Verarbeitung natürlicher Sprache widmet. Die praktische Umsetzung der Computer-Linguistik ist mittlerweile im Mainstream der Contentverleger und E-Tailment-Manager angekommen. Schnell, präzise, fehlerfrei, abwechslungsreich und im Gegensatz zum Menschen unermüdlich sind diese Anwendungen. Und obendrein in der Lage, Inhalte in Sekundenbruchteilen in vielen Sprachen zu generieren.

Science Fiction? Keineswegs. Schon heute werden täglich hunderttausende Texte nicht originär von Menschen, sondern von Software generiert und veröffentlicht. Vor allem Texte wie Sportmeldungen, Produktbeschreibungen, Wetterberichte, Börsenticker, individualisierte Textnachrichten und Chatbots bis hin zum Geschäftsbericht werden nicht mehr von Menschen, sondern von Software verfasst. Dank des Megatrends „Big Data“ eröffnen sich in schneller Folge neue Anwendungsgebiete für NLG. Überall dort, wo Daten in strukturierter Form vorliegen, kann und wird eine NLG-Software zum Einsatz kommen und in Sekundenbruchteilen Texte generieren und veröffentlichen.

Diese Diashow benötigt JavaScript.

Ich möchte Ihnen 5 Gründe nennen, warum sich der Umgang mit Content in den nächsten Jahren drastisch verändern wird:

  1. Textautomatisierung ermöglicht Nischencoverage
    Wie sich an den Trends der letzten Jahre ablesen lässt, wird die Anzahl der Texte im Internet in den nächsten Jahren exponentiell zunehmen. Das wird jedoch nicht dazu führen, dass der einzelne Leser im Content-Chaos versinken wird, wie einige negative Stimmen verlauten lassen. Vielmehr werden die Leser von der Zunahme profitieren, denn jetzt können sie selbst für Nischenprodukte umfangreiche Produktbeschreibungen bekommen oder ausführliche Texte zu Special-Interest-Themen lesen, die aufgrund der Ressourcen-Knappheit bisher schlicht nicht verfasst wurden. Jedes Tierchen erhält in Zukunft wirklich sein Pläsierchen.
  2. Inhalte werden personalisierter
    Hier spielt wie beschrieben der Megatrend Big Data der Textautomatisierung in die Hände. Die strukturierte Erfassung und Kombination von Kunden-, Produkt- und Nachrichtendaten ermöglicht es im zunehmenden Maße, passgenaue Einzeltexte zu generieren. So ist der Weg zur individualisierten Nachrichten- oder E-Commerce-Seite geebnet. Rein technisch wäre die Umsetzung schon heute möglich, noch stehen dem aber zu hohe Latenzen im Weg, auch wenn diese im Sekundenbereich liegen.
  3. Internationalisierung wird voranschreiten
    Zahlreiche Anbieter von NLG-Software bieten ihren Kunden bereits heute die Möglichkeit, ihre Inhalte in mehreren Sprachen zu erzeugen. Dabei ist wichtig zu verstehen, dass es sich nicht um einen automatisierten Übersetzungsvorgang handelt, wie ihn z.B. „Google Translate“ präsentiert. Stattdessen bietet die NLG Software für alle Sprachen „muttersprachliche“ Konditionen: Sie generiert die jeweiligen Texte direkt in der gewünschten Zielsprache ohne den Umweg über eine andere Sprache. Der ressourcenintensive Übersetzungsvorgang, der bei der Lokalisierung häufig ein Flaschenhals war, spielt nun keine Rolle mehr. Lokalisierungsbestrebungen werden somit ungemein beschleunigt.
  4. Selbstoptimierende Inhalte
    Die Erfahrungen im „machine learning“ zeigen: Je stärker sich die Systeme verknüpfen, desto intelligenter werden sie. Bezieht man beispielsweise performanceorientierte Daten in die NLG-Software ein, kann sich der Prozess der Textautomatisierung selbst trainieren und verbessern. Die Texte werden immer präziser und besser darin, den Kaufentscheidungsprozess von Nutzern und Lesern stärker zu unterstützen. Das übliche A/B-Testing wird damit überflüssig, da es ja Teil des automatisierten Content-Erstellungsprozesses ist.
  5. Agilität in der Content Produktion
    Die Content Produktion wird agiler und passt sich den Anforderungen des Marktes besser an: Keine monatelange Arbeit an riesigen Contentprojekten mit der Produktion monolithischer Textwerke mehr, stattdessen stellt die Content Produktion einen kontinuierlichen Prozess dar, in dem bestehende Inhalte kontinuierlich weiterentwickelt und den Umfeldbedingungen angepasst werden.

In der aktuellen Diskussion rund um die Textautomatisierung verfallen begreiflicherweise nicht alle Berufsgruppen unisono in Jubelarien. Einige Skeptiker sehen in der Verbreitung derartiger Software sogar eine Bedrohung für ganze Berufsstände, die bisher von der Produktion von Texten (ganz gut) gelebt haben. Die meisten Branchenfachleute mit denen ich gesprochen habe, stehen dem Thema aber relativ aufgeschlossen gegenüber. Sie sehen solche Systeme als willkommene Bereicherung ihrer Arbeit an und treiben den Perspektivenwechsel voran. In Zukunft werden Redakteure, Journalisten und Texter Hand in Hand mit Software arbeiten, die ihnen Inhalte auf der Basis strukturierter Daten liefert. Solche Inhalte lassen sich wiederum von Menschen mit Informationen und Inhalten anreichern, die sich eben nicht aus Daten ableiten lassen: Emotionen, Beurteilungen, Spekulationen über die Zukunft – die Maschinen können (noch?) nicht alles. Dieses Zusammenspiel von Mensch und Maschine ermöglicht die Veröffentlichung von Texten, die für den Leser einen persönlichen Bezug bieten und eine bisher nie dagewesene inhaltliche Tiefe aufweisen.

Eine Win-Win-Situation für alle Beteiligten, sofern man sich auf den Perspektivenwechsel einlässt.

Ein Gastbeitrag von Saim Rolf Alkan, Geschäftsführer AX Semantics

Kommentar verfassen