Automatische Kommentare der Anteilnahme und Empathie – vorgeschlagen von Facebook und dessen Algorithmen. Von diesem Experiment hat sich das Social Network nach öffentlicher Kritik nun wieder verabschiedet, mit der halbherzigen Erklärung, das sei wohl (noch?) nicht „richtig implementiert“ gewesen.

Stellen Sie sich vor, es passiert etwas Schreckliches – und vielen von uns verschlägt es die Sprache. Während wir der Live-Übertragung eines Katastrophenfalls via Facebook folgen und die dramatischen Ereignisse kaum verkraften, wissen wir nicht so recht, ob und was wir dazu nun öffentlich kommentieren sollen.

Da das sogenannte Engagement jedoch eine wichtige Größe im Kommerz sowie Kampf um Aufmerksamkeit ist dachte man sich in der Ideenschmiede von Facebook: Mensch, lass uns doch automatische Kommentarvorschläge auf Basis von Machine Learning generieren. Konkret sah das dann vor wenigen Tagen an einem traurigen Novembermontag so aus:

Screenshot Facebook - Automatische Kommentare - Hope everyone is OK - Betende Hände - Stay Safe

Facebook: Screenshot Automatische Kommentare - This is so sad

Facebook: Automatische Kommentare - Unbelievable

  • Facebook-Nutzer schauten sich Berichterstattung über eine Schießerei an einer Klinik in Chicago an.
  • Im Rahmen derselben verloren mehrere Menschen ihr Leben.
  • Um das Ausdrücken von Anteilnahme leichter zu machen, blendete der Facebook-Algorithmus automatisch aus Kontext und Sentiment generierte Kommentarvorschläge ein, die nur noch angeklickt werden mussten.
  • Zu den automatisch vorgeschlagenen Kommentaren gehörten Formulierungen wie „Das ist so traurig“, „Ich hoffe, es geht allen gut“, „Herzzerreißend“ – und so weiter. Oder ein Paar betender Hände als Emoji.

Ich weiß nicht, wie es Ihnen geht, aber wir haben ab und zu den Eindruck, Facebook sollte mehr Energie in die Qualitätssicherung stecken statt derart krude Experimente mit Machine Learning durchzuführen.

Mehr Intelligenz, weniger künstlich –

intelligente Entscheidungen und vorsichtige Weiterentwicklung statt plattes Forcieren von Engagement. Das wäre mal was.

Update am 23.10.2018: Vielen Dank an Nicole, die eine ähnlich fragwürdige Praxis auch bei Xing entdeckt hat. Als ob dort nicht schon genug Floskeln ausgetauscht würden schlägt das Business-Netzwerk nun ebenfalls Antworten automatisch vor.

Automatische Antwort-Floskeln auf Xing (Screenshot: Nicole Y. Jodeleit)

Automatische Antwort-Floskeln auf Xing (Screenshot: Nicole Y. Jodeleit)

Quelle der Facebook Screenshots oben: Twitter-Profil von Steph Habermann (@StephLauren)

 

Tweet von Steph Habermann zu den automatischen Empathie-Kommentar-Vorschlägen bei Facebook, Text im Screenshot: So I’m just noticing that Facebook has a thoughts and prayers autoresponder on our Chicago Hospital shooting livestream and I have thoughts

Tweet von Steph Habermann zu den automatischen Empathie-Kommentar-Vorschlägen bei Facebook