Mission Impossible?
Mission Impossible?
In letzter Zeit habe ich oft darüber nachgedacht, wie ein Soziales Netzwerk beschaffen sein müsste, um das Adjektiv "sozial" auch wirklich zu verdienen. Über den Like-Button und Konsumismus habe ich mich hier schon ausgelassen. Das man zumindest Instagram jetzt so konfigurieren kann, dass Likes ignoriert werden, ist ein Fortschritt. Auf die unerwünschte Werbung könnte man verzichten, indem man das Netzwerk für die Nutzer kostenpflichtig macht. Die Bereitschaft dafür wäre laut einer aktuellen Umfrage¹ vorhanden. Doch es bleibt immer noch mindestens ein Problem: Die Inhalte.
Ein wirklich soziales Netzwerk würde seine Nutzer vor Inhalten, die sie nicht sehen wollen, schützen. Und solche Inhalte wird es immer geben. Warum? Dazu möchte ich an den alten 10 DM Schein erinnern. Darauf war der Mathematiker Carl Friedrich Gauß abgebildet und neben ihm die sogenannte Gaußsche Normalverteilung. Ohne darauf genauer einzugehen, kann man daran ablesen, dass es von dem, was wir als normal bezeichnen, immer am meisten gibt. Je weiter man sich vom Normalen entfernt, desto weniger gibt es, aber dieser Wert wird nie Null. Übersetzt in das politische Spektrum hieße das, in der Mitte tummeln sich die meisten Wähler und an den rechten oder linken Rändern die wenigsten, aber es wird immer Extremisten an beiden Enden des Spektrums geben. Und die Inhalte der Extremisten sind es, vor denen man sich oder seine Kinder in der Mitte vielleicht schützen möchte.
Wie kann das funktionieren und vor welchen Inhalten genau soll wer geschützt werden? Natürlich könnte der Nutzer Angaben dazu machen, was er nicht sehen will. Ich würde zum Beispiel gerne auf Gewaltdarstellungen verzichten. Trotzdem möchte ich über die Opositionsbewegungen in Belarus und Hong Kong informiert werden, die gewaltsam unterdrückt werden. Wie soll also ein Algorithmus entscheiden, welche Gewaltdarstellungen er aussortieren soll und welche nicht. Soweit ist die Künstliche Intelligenz noch lange nicht. Und es ist fraglich, ob man sich bei der politischen Meinungsbildung überhaupt auf durch Computer ausgewählte Meldungen verlassen sollte. Was dabei herauskommt, sind zum Beispiel Querdenker.
Letztendlich müssen Menschen die fragwürdigen Inhalte beurteilen. Diese Menschen nennt man euphemistisch: Content Moderator. Was macht das mit einem Menschen, wenn er oder sie den ganzen Tag Inhalte (Fotos, Videos und Texte) beurteilen muss, die potentiell gewaltverherrlichend, brutal, pornographisch, menschenverachtend oder in irgend einer anderen Art und Weise strafrechtlich relevant sind. Davon erhält man einen Eindruck in den Dokumentarfilm "The Cleaners", welcher derzeit kostenlos in der Mediathek der Bundeszentrale für Politische Bildung² zu Verfügung steht. (Nichts für schwache Nerven!) Der Umgang mit Content Moderatoren ist jedenfalls alles andere als sozial.
Wo Menschen sich äußern dürfen, besteht immer die Gefahr, dass Straftäter und Extremisten das Wort ergreifen. Das ist der Preis der (Meinungs-)Freiheit. Und dieses Dilemma macht ein wirklich soziales Netzwerk unmöglich. Uns bleiben nur die, die es schon gibt. Und die Hoffnung, dass sie solange an sich arbeiten, bis sie eines Tages ein Optimum erreicht haben. Wie wäre es, Herr Zuckerberg, mit der Option Facebook, Instagram und Whatsapp werbefrei, ohne Datensammlung und Timeline Algorithmus zu nutzen, wenn man dafür ein paar Euro im Monat zahlt?
¹ Quelle: golem.de
² Hier gehts zum Film: The Cleaners