Botcial Media

Mrz 16 2010 Published by under medienkritik, meine realität

Vor zwei Wochen war ich auf dem 2. Social Media Measurement Summit (SMMS10) der AGSM (Arbeitsgemeinschaft Social Media). Wie der Titel schon vermuten lässt, ging es um die Entwicklung von Maßzahlen für Social Media, einem Thema zu dem man, nicht nur innerhalb der AGSM, seit mehreren Jahren eine Lösung sucht. Gewünscht wird eine für Kunden verständliche Währung, die die Wirksamkeit einer Social Media Kampagne beziffert und der vielfältigen Möglichkeit und Intensität von Social Media gerecht wird. Verständlich, die Reichweitenmessung von Zeitung, Radio und Fernsehen ist an sich schon kritikwürdig und im Bereich Social Media als alleinige Maßzahl noch weniger passend. Nun hat die AGOF (Arbeitsgemeinschaft Online Forschung) ein Kategorisierungsmodell vorgestellt, nach dem folgende Aktivitäten unterschieden werden sollen: „Networking“, „Contribution“, „Sharing“ und „Messaging“.

Für die Datenerhebung gibt es unterschiedliche Ansätze, die aus verschiedenen Gründen zu hinterfragen sind. Als erstes hätten wir etwa das Crawlen von Social Media Angeboten, das mit den Nutzungsbedingungen einiger Plattformen kollidieren dürfte. Panelgruppen deren Aktivitäten mittels Software erfasst werden. Hier ergibt sich das Problem, dass Panelgrößen von ein paar zehntausend Nutzern schlecht den Longtail abbilden, der hier aber gerade wichtig wäre. Der Ansatz der AGOF Social Media Angebote zu verpixeln, steht der Konfiguration des Browsers oder Clients, die einen API nutzen, entgegen. Wer sagt denn, dass das Zählpixel der AGOF überhaupt geladen wird?

Sinnvoller erscheint es mir, wenn Plattformbetreiber den Wunsch nach Kennzahlen als Monetarisierungsmöglichkeit erkennen und den Zugriff auf entsprechende Schnittstellen gegen Geld anbieten. Die Vergleichbarkeit der Zahlen unterschiedlicher Plattformen sei mal dahingestellt.

Je länger ich mich selbst mit dem Thema befasse, desto mehr frage ich mich, ob die gewünschte Währung nicht mehr Probleme aufwirft, als sie an Nutzen verspricht? Angefangen bei fingierten Rezensionen bis hin zu automatisierter Content-Generierung – also quasi BGC (Bot Generated Content).

Warum ich zu dieser Ansicht komme?

Anfang es Jahres habe ich mich mit Bratwurstjournalimus auseinandergesetzt, einem jungen Begriff, den man in der Wikipedia für irrelevant hält. Bratwurstjournalimus kennzeichnet sich durch eine gewisse Floskelhaftigkeit aus und stellt die Art der Berichterstattung sehr vorhersehbarer Veranstaltungen, etwa das 150 jährige Bestehen des Oberunterhinterhausener Schützenvereins, in Frage. OK, für die Erstellung eines derartigen Artikels benötigt man ein paar Fakten, wie Titel der Veranstaltung, Wetter, Essen, Beteiligte, Redner etc., O-Töne der Redner und des Vereinsvorstands, und Texte ähnlicher Veranstaltungen als Vorlage für den Aufbau und Formulierungen für den neuen Artikel. Kurzum – der Aufwand für einen Journalisten über ein solches Ereignis zu berichten ist relativ gering.

Peter Kirwan hat bereits letztes Jahr, in einem bemerkenswerten Artikel, auf den Aufstieg des „machine-written journalism“ hingewiesen. Der Text befasst sich mit der Generierbarkeit von Texten. Einer automatisierten Berichterstattung kommt die Verfügbarkeit von maschinenlesbaren Fakten sehr entgegen. So kann man sich das am Beispiel Fußball verdeutlichen. Meinem Wissen nach gehört Fußball zu einer der am besten überwachten Sportarten. Sensoren in der Kleidung der Spieler so wie im Ball ermöglichen Statistiken, die nicht nur für Trainer relevant sind. Diese Daten werden genutzt, um etwa im Fernsehen mit Experten die Spielzüge zu analysieren. Andererseits können diese Daten genutzt werden, um automatisiert Spielberichte zu generieren. Mittels Mustererkennung können vorbereitende Spielzüge und daran beteiligte Spieler über die Sensoren identifiziert werden. Statistische Werte wie die Dauer des Ballbesitzes, gelbe bzw. rote Karten, Eckbälle, Freistöße, und Elfmeter können ebenso, wie Informationen über das Wetter Vorort oder die Zahl der Fans im Stadion, als Fakten für den Bericht herangezogen werden.

Aber was macht man jetzt mit diesen Fakten?

Theoretisch kann man eine einzelne Berichtsvorlage verwenden, doch wäre es sehr langweilig immer denselben Bericht mit unterschiedlichen Fakten bei unterschiedlichen Spielen lesen zu müssen. Das führt uns zu Markov-Ketten, dem @plomlombot und Google Translate.

„Markow-Ketten eignen sich sehr gut, um zufällige Zustandsänderungen eines Systems zu modellieren, falls man Grund zu der Annahme hat, dass die Zustandsänderungen nur über einen begrenzten Zeitraum hinweg Einfluss aufeinander haben oder sogar gedächtnislos sind.“ Wikipedia

Überträgt man diese Idee auf Text, so kann man Texte in ein Netzwerk aus Worten überführen, aus dem erkennbar ist mit welcher Wahrscheinlichkeit ein bestimmtes Wort von einem anderen gefolgt wird. Der @plomlombot nutzt als Datenbasis für seine Tweets die Tweets von Christian Heller @plomlompom, die in ein solches Netzwerk überführt wurden. Wenn der @plomlombot einen neuen Tweet erzeugt, hangelt er sich durch dieses Netzwerk und bildet damit eine Wortkette, die in Wortwahl und Duktus dem Spender der Datenbasis ähneln. Dass dabei nicht immer perfekte Sätze herauskommen liegt an der, mit etwa 18k Tweets, relativ geringen Datenbasis. Auch Google nutzt für seinen Dienst Google-Translate unteranderem diese Methode mit der Erkenntnis: Die Größe der Datenbasis korreliert mit der Qualität des Ergebnisses.

Wenn man diese Methodik auf die Erstellung von Berichten zum Thema Fußball anwendet, ergibt sich eine textuelle Basis in Form allerlei Artikeln, die in diesem Bereich geschrieben worden sind, um Artikelaufbau, Wortwahl und Duktus der generierten Artikel zu bestimmen. Ein weiterer Bestandteil wären die oben erwähnten statistischen Daten des Fußballspiels. Inhalte der Pressemittleilung/Pressekonferenz, etwa Zitat von Trainern oder Teamchefs, könnten einen zusätzlichen Bestandteil darstellen. Inwiefern manuelle Nachbearbeitung der Texte tatsächlich erforderlich ist hängt, wie bei der Übersetzung von Texten, vom Umfang der Datenbasis ab. In jedem Fall würde sich der Arbeitsaufwand des Redakteurs verringert.

Aber was hat das jetzt mit Kennzahlen für Social Media zu tun?

Auf der Ignite Berlin sprach David Bausola (@zeroinfluencer) über „Bot personalities for Social Media Streams“ – also Identitätsmashups.

Die Ideen von Textgenerierung und Identitätssimulation implizieren die zunehmende Schwierigkeit bei der Messung von Social Media Aktivitäten, da man zusätzlich zu den bestehenden Herausforderungen, geeignete Kennzahlen zu finden, noch zwischen menschlicher und maschineller Rezeption und Interaktion unterscheiden muss.

Welcher Kunde möchte schon für die erreichten Bots bezahlen?

Plattformen wie Twitter kommen auf Grund der Interaktionsminimalisierung den Bots entgegen, da sie durch die Einschränkungen leichter als menschliche Kommunikationspartner wahrgenommen werden. Ein Turing Test auf Twitter dürfte somit ungleich leichter sein als unter anderen Bedingungen.

Die Bestrebungen Kennzahlen zu definieren eignen sich gar hervorragend um Neues Verhalten in die Bots zu Implementieren!

Unabhängig von der ganzen Kennzahlgeschichte sehe ich durchaus Vorteile in der Botifizierung von Social Media. So kann ich mir Bots als eine Art Sinneserweiterung vorstellen, die durch Personalisierung meine Interessen (Möglicher Input: Bookmarks, Blogbeiträge, Tweets, etc.) kennen und dadurch in der Lage sind mich auf Neues zu meinen Interessen hinzuweisen. Sie können auch dazu dienen den eigenen Social Graph zu erweitern, in dem sie andere, die sich mit den Themen befassen, auf eigene Veröffentlichungen hinweisen (An so etwas experimentiere ich gerade selbst herum). Ansonsten kann ich mir auch durch aus vorstellen, dass früher oder später sich Bots gegenseitig über die Interessen ihrer Besitzer austauschen und bei genügen hoher Übereinstimmung diese einander Vorstellen.

Auch ein Projekt wie Wikileaks könnte davon profitieren. Man stelle sich vor, Wikileaks würde Ontologien zu der enormen Menge an Dokumenten aufbauen, dann könnten nicht nur Bezüge zwischen den Dokumenten erzeugt, sondern auch Journalisten und Blogger, die diese Themen covern, automatisiert kontaktiert werden. Vielleicht können dann mehr Themen aus Wikileaks in der Öffentlichkeit verbreitet und diskutiert werden. Da ist die Hervorhebung der Notwendigkeit Daten zu Verlinken, wie im Open Data Network Blog vorgeschlagen, nur konsequent und verständlich.

  1. (Open Data || Wikileaks) + Ontologie + CMS with API + Bots (for Excerpt generation & spreading) + Advertisement
  2. ???
  3. Profit !!!111elf!1

by Don Solo

One response so far

Hinterlasse eine Antwort

LeAYL

Bitte geben Sie den Text vor: