/People

Kevin Systrom von Instagram ist der Mr. Nice Guy des Internets

Nicholas Thompson 09.03.2018 Lesezeit 21 Min

Instagrams Kevin Systrom hat eine Mission: Schluss mit dem &*#!%!-Internet. Seine Social-Media-Plattform soll der freundlichste Ort im Netz werden.

Kevin Systrom, der CEO von Instagram, stand mitten in Disneyland, als er endgültig befand: Das Internet ist eine Jauchegrube, deren Inhalt gereinigt gehört. Systroms Firma veranstaltete im Juni 2016 in dem Vergnügungspark eine Party anlässlich der VidCon, einem alljährlichen Treffen von Social-Media-Figuren.

Auf der Party unterhielt sich Systrom angeregt mit einigen Instagram-Stars, man lachte und schoss untereinander Fotos. Die Influencer aber waren auch etwas besorgt. Instagram soll ja ein Ort sein, an dem man sich selbst ausdrückt. Doch wer möchte das tun, wenn man in Kommentaren unter eigenen Bildern zunehmend verspottet und beleidigt wird? Instagram ist ein wenig wie Disneyland – nur dass sich auf der Fotoplattform hin und wieder sieben Zwerge zusammentun, um Schneewittchen anzubrüllen: „Du bist fett!“

Er sieht nicht nur nett aus, er ist es tatsächlich – Kevin Systrom.

Systrom postete später ein Boomerang-Video, auf dem man den 33-Jährigen auf der Party zwischen Influencern sieht. Es sind ausgelassene Aufnahmen von jungen Leuten, die winken, posen, lächeln; man sieht eine Frau, die die Knie zusammenschlägt und eine Handbewegung macht, als würde sie Eier schlagen. Die ersten Kommentare unter dem Foto waren ein Herz-Emoji, ein fröhliches „Hoooooo“ und „So fun!“. Doch wie es so häufig online geschieht, dauerte es nicht lange, bis widerliche Reaktionen auftauchten, die sich vor allem auf die junge Frau im Bild konzentrierten:„Don’t close wait just wait OPEN them leg baby“, „cuck“,„succ“, „cuck“, „Gimme ze suc“, „Succ4succ“, „Succme“. Schließlich schrieb jemand: „Spring doch aus dem Fenster“. In einigen Kommentaren tauchte das Wassermelonen-Emoji auf, das je nach Kontext entweder rassistisch oder sexistisch gemeint sein kann – aber auch ganz harmlos etwa auf ein Picknick hinweisen kann.

Diverse Male erschien der Slogan #memelivesmatter der rechtsradikalen Alt-Right-Bewegung unter dem Bild, ein Kommentar enthielt einen Link auf Arabisch, der auf vermeintliche Verdienstmöglichkeiten in Dubai verwies. Jemand forderte Systrom auf, ihm zu folgen. Und einige User protestierten noch mal gegen die im vergangenen Sommer gerade vollzogene Neusortierung des Feeds auf Instagram: „BRING BACK THE CHRONOLOGICAL ORDER!“

Systrom ist ein großer, schlanker Mann, er tritt zurückhaltend und besonnen auf. Mittlerweile ist er zwar Milliardär, doch das Alphamann-Gehabe der Superreichenkaste scheint ihm fremd zu sein: Systrom besitzt weder eine Yacht noch hat er offenbar politische Ambitionen, und es gibt auch keine Ex-Partner, die Verschwiegenheitserklärungen unterschrieben haben. Systroms Instagram-Account besteht im Wesentlichen aus Fotos von Hunden, Kaffeebechern, Fahrrädern und grinsenden Celebrities.

Die einstige Tech-Gossip-Website Valleywag beschrieb Systroms Stimme mal als die „gestelzt-monotone eines Mannes, der seinen eigenen Nachruf vorliest“, doch Systrom ist in letzter Zeit erheblich lockerer geworden. Wenn er eine Schwäche habe, sagen seine Kritiker, dann sei es seine Harmlosigkeit: Er und sein Mitgründer Mike Krieger hätten Instagram, das die beiden ein paar Jahre nach ihrem Abschluss in Stanford gelauncht hatten, zu früh an Facebook verkauft. Eine Milliarde Dollar bekamen sie dafür. Zum Vergleich: Konkurrent Snapchat, dem auch früh ein Übernahmeangebot von Facebook vorlag, ist heute 17 Milliarden Dollar wert.

Instagram soll zum freundlichsten Ort im Internet werden.

Systrom ist stolz auf seinen Ruf, ein freundlicher Zeitgenosse zu sein, er betrachtet diesen Wesenszug zugleich auch als charakteristisch für Instagram. Nachdem Krieger und er die Plattform im Jahr 2010 gestartet hatten, haben sie anfänglich eigenhändig Hasskommentare gelöscht und einzelne User-Accounts von Instagram entfernt. Systrom sagt, sein Mitgründer Krieger lächle ständig und sei „stets freundlich“; er selbst versuche, dem Vorbild seiner Frau zu folgen, die „einer der nettesten Menschen ist, denen man im Leben begegnen kann“.

Kevin Systrom will tatsächlich die herzensgute Person sein, die man in den Bildern seines Accounts @kevin erkennen kann. Und deshalb verkündete Systrom seinen Kollegen nach seiner Rückkehr von der VidCon 2016 ins Instagram-Hauptquartier in Menlo Park, dass er eine neue Mission gefunden habe. Instagram solle sich in eine Art Social-Media-Utopie verwandeln: den freundlichsten Ort im Internet.

Mit diesem Auftrag schickte er seine Entwickler an die Arbeit. Das erste Foto, das Systrom danach auf Instagram postete, waren prächtige, selbst gebackene Brezeln. „Nice buns like your mum“, kommentierte ein gewisser @streamlinedude – „bun“ steht im Englischen ebenso für Brötchen wie für Hintern. Und @juliaamezcu fügte hinzu: „if you stop reading this you will die“ und irritierenderweise noch „If u don’t post this on 20 photos I will sleep with you forever“.

Onlineplattformen, das ist heute allgemein Konsens, sind niemals neutral. Ihr Design und ihre Struktur fördern jeweils bestimmte Verhaltensweisen, und ihre Algorithmen geben uns das Gefühl, wir säßen in unserem eigenen kleinen Bötchen und paddelten frei vor uns her. Doch die Plattform ist der Fluss, und ihre Algorithmen sind dessen Strömung.

Als Chef einer App mit 700 Millionen Nutzern weiß Systrom, dass er so etwas Ähnliches ist wie der gütige Diktator eines Landes, das mehr als doppelt so viele Einwohner hat wie die USA. Die Entscheidungen, die er trifft, wirken sich auf alle Nutzer aus. Manche von ihnen sind unsichere Teenager, manche ausgeglichene Erwachsene, manche Werbekunden. Und manche sind Popstars, die von Schlangen heimgesucht werden.

Mitte Juli 2016, kurz nach der VidCon, bekam Systrom es mit einer solchen Reptilienplage zu tun. Innerhalb einer Woche hatte Taylor Swift hintereinander Online-Streitereien mit ihrem Ex-Freund Calvin Harris, ihrer Kollegin Katy Perry und mit Kim Kardashian angezettelt. Die öffentliche Meinung wendete sich gegen Swift, ihr wurde Niedertracht und Verrat vorgeworfen. Bald begann ihr Instagram-Feed wie die Reptilienabteilung eines Zoos auszusehen – Swifts Posts wurden fast alle mit Schlangen-Emojis kommentiert.

Schlangen türmten sich auf Schlangen und wechselten sich mit Schweine-Emojis ab. Doch dann verschwanden die Schlangen plötzlich, und Swifts Feed sah wieder so aus, wie ihn die Sängerin sich vermutlich wünscht: Unter den Fotos von Swift und ihren schönen Freunden und Freundinnen in schönen Badesachen standen fast nur noch Kommentare, die bestätigten, wie schön doch alle aussähen. Die plötzliche Veränderung war kein Zufall. In den Wochen zuvor hatten Systrom und sein Team bei Instagram in aller Stille einen Filter gebaut, der automatisch bestimmte Wörter und Emojis aus den User-Feeds löscht.Swifts Schlangen wurden der erste Live-Test für den Filter.

Im September 2016 verkündete Systrom dann das neue Feature öffentlich, seither können alle Nutzer die Funktion „hide inappropriate comments“ verwenden, mit der eine von Instagram erstellte Liste an Wörtern geblockt werden; diese Liste umfasst rassistische Beschimpfungen ebenso wie Einzelwörter wie etwa „whore“. Man kann auch selbst Wörter hinzufügen, die geblockt werden sollen, und sogar Emojis wie eben das der Schlange.

Nicky Jackson Colaco ist Director of Public Policy bei Instagram.

Für die Instagram-Entwickler war das erst der Anfang. Ab Oktober 2016 stellte die Plattform sukzessive eine Reihe an weiteren Tools bereit. Schreibt man etwa das Wort „suicide“, poppt seither ein Kästchen auf, in dem das Hilfsangebot steht: „If you’re going through something difficult, we’d like to help.“ Daraufhin erscheint die Nummer einer Hotline, an die sich Suizidgefährdete wenden können. Und seit Dezember 2016 können alle Instagram-Nutzer die Kommentarfunktion unter eigenen Posts nach Bedarf abschalten – für die Gelegenheiten, wenn man seine Fotos für sich sprechen lassen will.

Zyniker könnten nun einwenden, diese Veränderungen seien nicht nur für die Seelen der Nutzer von Instagram gut. Sondern auch für dessen Geschäft. Werbekunden geben gern Geld an digitalen Orten aus, wo Menschen nur Positives zu sagen haben; Stars wiederum mögen es, wenn sie nicht angepöbelt werden; und Teenager stellen ihre Accounts dann auf öffentlich, wenn sie sich sicher fühlen. Und trotzdem: Wenn man mit Leuten bei Instagram spricht – nicht nur mit Systrom, sondern auch mit Mitarbeitern in den Hierarchiestufen darunter –, bekommt man das Gefühl, dass diese Maßnahmen nicht nur im Sinne des Geschäftsmodells des Unternehmens als richtig empfunden werden, sondern den Menschen wirklich am Herzen liegen. Nicky Jackson Colaco zum Beispiel, bei Instagram für Public Policy zuständig, sagt: „Ich glaube, wir zeigen damit, dass wir in einer anderen, besseren Welt leben möchten.“

Doch diese Welt kann Instagram nicht nur mit eher simplen Technologien wie der automatischen Schlangen-Emoji-Löschung erschaffen. Deshalb begannen die Instagram-Entwickler, noch während sie im vergangenen Herbst all die Neuerungen auf die Plattform hoben, bereits an etwas erheblich Komplexeren zu arbeiten: Statt wie bisher Menschen sollen künftig Maschinen das Internet vom Müll befreien.

Im vergangenen Juni kündigte Facebook ein Tool an, das Computern beim Interpretieren von Sprache helfen soll. Dieses System, genannt DeepText, basiert auf einem Maschinenlernkonzept namens word embeddings: Entdeckt das System ein Wort, das es nicht kennt, versucht es, sich dessen Bedeutung anhand der umliegenden Wörter zu erschließen. Tauchen etwa Wassermelonen-Emojis stets im Kontext von rechtsextremen Memes auf, hat das etwas zu bedeuten. Je mehr Daten diese Einstufungsmaschine analysiert, desto smarter wird das System.

Wie wir Menschen lernt es im Laufe der Zeit dazu; im Gegensatz zu uns ermüdet es jedoch nicht oder wird depressiv, wenn es x-mal hintereinander die übelsten Schimpfwörter lesen muss. Tatsächlich ist DeepText mit dem Gehirn eines Erwachsenen vergleichbar, aus dem lediglich alle Erinnerungen gelöscht wurden und das sich nun leidenschaftlich jeder linguistischen Aufgabe widmet, die man ihm stellt. Facebook besitzt sozusagen einen ganzen Eisschrank voll mit diesen leeren künstlichen Hirnen, mit denen die Ingenieure des Social-Media-Giganten experimentieren. Sie bringen den Maschinen etwa bei zu erkennen, ob ein Messenger-Nutzer ein Taxi brauchen könnte; oder lotsen Leute, die ihr Rad verkaufen wollen, auf Facebooks Marketplace.

Nachdem Systrom von der Existenz von DeepText erfahren hatte, wurde ihm klar, dass seine Ingenieure das System darauf programmieren könnten, auf Instagram Spam zu bekämpfen. Zunächst aber müsste es wie ein Kind den Spracherwerb hinter sich bringen, und Menschen müssten ihm dabei helfen. Also scharte Systrom ein Team um sich, das sich durch die Kommentarspalten auf Instagram wühlen würde. Die Mitarbeiter wiesen Kommentare entweder als Spam oder Nichtspam aus und befütterten DeepText mit den Ergebnissen.

Die Maschinen analysierten die Kategorien, die den Kommentaren zugewiesen worden waren, und entwickelten so eine Mustererkennung und Regeln, anhand derer sie selbstständig entscheiden konnten, ob eben zum Beispiel ein finanzielles Angebot aus Dubai womöglich nicht doch ernst gemeint sei könnte. Als DeepText dann Müll mit ausreichender Treffgenauigkeit als solchen klassifizieren konnte, gaben die Ingenieure das System frei, und Instagram launchte es in aller Stille im vergangenen Oktober.

Facebook besitzt einen ganzen Eisschrank voll mit leeren künstlichen Hirnen, mit denen es experimentiert.

Danach hatte Systrom eine noch weitergehende Idee: Könnte man DeepText nicht auch dazu nutzen, böse Kommentare automatisch zu löschen – und nicht nur leicht identifizierbare Schimpfwörter? Könnte die KI mehrdeutige Inhalte herausfiltern? Die Aussage „Spring doch aus dem Fenster“ etwa ist grundsätzlich feindselig gemeint, doch sie ist eine Kombination aus an sich harmlosen Wörtern. Auch der Spruch „Nice buns like your mum“ war im Kontext, in dem er auftauchte, eine Unverschämtheit. Doch wenn er von einem Freund aus Kindertagen gestammt hätte, der einst die selbst gebackenen Brezeln der Mutter gern gemocht hatte, wäre es ein netter Kommentar gewesen.

Organisatorisch ist Instagram eine relativ kleine Firma. Sie hat nur rund 500 Mitarbeiter – auf jeden einzelnen von ihnen entfallen so ungefähr 1,5 Millionen Nutzer der Plattform. Auch das Team für DeepText ist winzig. Als ich es in diesem Juni besuchte, umfasste es rund 20 Leute, alle jung. Das Team war bunt gemischt, eine Frau mit Kopftuch saß neben einem weißen Typen im Baseball-Shirt. Ihrer aller Aufgabe ist es, Kommentare durchzukämmen und zu entscheiden, ob jeder Insta­grams Community-Regeln entspricht – entweder im Wortsinne oder, wie eine Firmensprecherin es ausdrückte, „dem Geiste nach“.

Der Leitfaden, den Instagram im Jahr 2012 entwickelt hat, dient als eine Art Verfassung der Social-Media-Plattform, es gibt eine recht einfache, 1200 Wörter lange Fassung, die öffentlich ist. Deren Kurzfassung lautet: Geht stets respektvoll miteinander um und behaltet auf Fotos bitte eure Kleidung an. Die Kontrolleure bei Instagram, die rater, benutzen eine wesentlich längere, geheime Version der Community-Guidelines, um zu bestimmen, welche Kommentare gegen die Regeln verstoßen.

Es gibt Dutzende dieser raters, alle beherrschen mindes­tens zwei Sprachen, haben je mindestens zwei Millionen Kommentare analysiert, und jeder einzelne Kommentar wurde von mindestens zwei Leuten beurteilt. Auch wenn man es mit den ekelhaftesten Wörtern zu tun bekommt, sind kleinste Nuancen bedeutsam. „Wenn das N-Wort in beleidigender Absicht verwendet wurde in einem Kommentar, so ist das nicht erlaubt auf unserer Plattform“, sagt James Mitchell, Director of Content Operations bei Instagram, der auch Chef der rater ist. „Ausnahmen gibt es, wenn ein User das Wort auf sich selbst bezieht oder eine Begebenheit nacherzählt, bei der er diskriminiert wurde.“

Vier Fünftel aller Kommentartexte, die rater irgendwann mal durchgegangen sind bei Instagram, wurden beim DeepText-Projekt in die Maschinen eingespeist. Die analysierten die Daten und suchten nach erkennbaren Mustern, mit denen die Kommentare von den raters als gut oder schlecht klassifiziert worden waren. Auf Basis der Ergebnisse von DeepText stellten die Entwickler ein Regelwerk auf, mit dem negative Kommentare automatisch identifiziert werden können, sowohl anhand deren Inhalt wie auch etwa des erkennbaren Verhältnisses zwischen demjenigen, der ein Foto gepostet hat, und demjenigen, der es kommentiert hat.

Außerdem wurde eine Metrik benutzt, welche bei Instagram intern als karma score bezeichnet wird und die Posting-Historie eines Nutzers erfasst. Um zu überprüfen, ob die maschinellen Bewertungen mit denen übereinstimmten, die zuvor die rater abgegeben hatten, wurde schließlich das verbliebene Fünftel der Kommentartexte, die das System noch nicht analysiert hatte, an DeepText getestet.

Chef der Rater bei Instagram: James Mitchell. 

Die Maschinen benoteten jeden Kommentar auf einer Skala von 0 bis 1 (also etwa 0,41 oder 0,89) – der Wert gibt das Maß an, in dem Instagram sich sicher ist, dass ein Kommentar beleidigend oder unangemessen ist. Je höher der Wert, desto übler der Kommentar, und wenn die Zahl eine bestimmte Grenze nach oben überschreitet, wird der Kommentar automatisch gekillt. Instagram hat das System so feingetunt, dass es eine false-positive rate von einem Prozent hat, das bedeutet: Ein Prozent der Kommentare, die die Maschinen gelöscht haben, wären von ihren menschlichen Counterparts durchgewinkt worden.

Eine Maschine zu benutzen, um ein Problem zu lösen, erscheint uns oft die sauberste Form des Umgangs mit einem Problem. Menschen sind voreingenommene Wesen, Computer hingegen besitzen keinerlei Emotionen. Doch Maschinen sind auch nur so gut wie die Regeln, die ihnen von Menschen einprogrammiert wurden. Anfang dieses Jahres hat Rob Speer, Chief Scientist beim Textanalysetool-Hersteller Luminoso, mithilfe von word embeddings einen Algorithmus geschrieben, der die Gefühlsstimmungen von Posts untersuchen sollte.

Er probierte den Algorithmus an Onlinekommentaren über Restaurants aus, und seltsamerweise befand der Algorithmus, dass Läden mit mexikanischer Küche schlecht bewertet worden seien. Obwohl die meisten Leute mexikanisches Essen doch mögen. Daraufhin schaute Speer sich die Daten ganz genau an und fand schließlich heraus, wo der Fehler lag: „Das System hatte das ganze Netz nach dem Begriff ,mexican‘ abgesucht.“ Und im Internet wird das Wort „mexican“ häufig im Zusammenhang mit „illegal“ verwendet, woraus der Algorithmus geschlossen hatte: Mexikanisch musste etwas Schlechtes sein.

Als ich Systrom diese Geschichte erzähle, erwidert er unmittelbar: „Das klingt furchtbar.“Dann sagt er, dass die Bewertungen bei Instagram eben nicht auf Algorithmen basierten, sondern auf den Bewertungen, die Menschen zuvor mal gemacht hätten. Doch könnten die rater nicht auch voreingenommen sein? Dann würde die Summe ihrer verschiedenen Arten von Voreingenommenheit die eines Filters bestimmen, der in das Leben von 700 Millionen Nutzern regelnd eingreift.

Die Anwendung wurde im Juni diesen Jahres live geschaltet, bislang sind die Reaktionen recht positiv. Viele Nutzer haben auch gar nicht gemerkt, dass sich etwas geändert hat. Der Filter funktioniert noch nicht perfekt, er hat etwa Probleme mit Wörtern, die in verschiedenen Kulturen verschiedene Bedeutungen haben. So sortiert er grundsätzlich das englische Wort fag aus, das in den USA als Schimpfwort gegen Schwule benutzt wird – Briten hingegen verwenden es auch als harmloses Synonym für „Zigarette“. Ebenfalls Schwierigkeiten hat der Filter mit Hip­Hop-Texten. So wird diese Stelle von Kanye West herausgefiltert, weil sie Schimpfwörter enthält: „For my southside niggaz that know me best / I feel like me and Taylor still might have sex / Why, I made that bitch famous“. Hat sich Kanye kreativere Beschimpfungen einfallen lassen, gibt es keine Beanstandungen: „You left your fridge open / Somebody just took a sandwich“.

Ein großes Risiko besteht für Instagram darin, dass dieser Filter die Inhalte der Plattform verändern könnte. Natürlich geht es bei Instagram hauptsächlich um Fotos, doch was passiert, wenn in den Kommentaren kaum noch diskutiert wird, und sei es auch mal hitzig? Die besten Ideen entstehen ja nicht immer nur dann, wenn Leute positiv und freundlich gestimmt sind. Gut möglich, dass die Welt, die Systrom erschaffen möchte, sich nicht einfach nur nett anfühlen könnte – sondern irgendwann regelrecht gesäubert. So wie, sagen wir: Disneyland.

Als er im Juni das neue System vorstellte, postete Systrom dazu ein Bild, das aus Buchstaben bestand, die zusammen ein Herz bildeten. Zudem erklärte er das Vorgehen. Die Reaktionen waren überwiegend positiv, manche überschwänglich: „How great it is!!!!!!!“, „ “, „Amazing“, „Thank you!“. Manche der kritischen Kommentare handelten gar nicht von der Filterfunktion, stattdessen beklagten sich Leute erneut über die nicht mehr chronologisch sortierte Timeline. Andere fanden die ganze Sache bloß seltsam. Doch einige stellten die naheliegendste Frage, etwa ein User namens @futurestrader: „Ich bin grundsätzlich auch der Meinung, dass Instagram und Social Media überhaupt sich in Jauchegruben voller Trolle verwandelt haben. Doch ich hoffe, dass diese neue Filterfunktion nicht zu einer Zensur von lediglich unerwünschten Kommentaren führt.“

Aber wo beginnt Zensur eigentlich, und was überhaupt ist Zensur? Die Vorstellungen dazu sind im Silicon Valley verschieden. Die US-Verfassung etwa schränkt staatliche Organe ein bei möglichen Zensurmaßnahmen, doch das gilt nicht für private Unternehmen. Trotzdem galt das Recht zur freien Meinungsäußerung im Silicon Valley lange als hohes Gut, und im Hacker-Ethos wird dem freien Fluss von Informationen viel Wert beigemessen. Im Jahr 2009 hieß Facebooks mission statement noch: „make the world more open and connected“.

Im selben Jahr wurden die Proteste nach den Präsidentschaftswahlen im Iran als „Twitter-Revolution“ tituliert. „Wir wollten die Menge der geäußerten Meinungen online maximieren, weil wir daran glaubten, dass mehr freie Rede auch bessere Rede sei“, sagte Jason Goldman, ein Mitglied des Gründungsteams von Twitter. Noch 2012 sprach ein leitender Angestellter der Firma davon, die Plattform sei „der Free-Speech-Flügel der Partei der freien Rede“. Von heute aus betrachtet wirkt diese Phase von Twitter fast naiv. Dass über die Plattform einmal sexistische oder gar faschistische Botschaften verbreitet werden könnten, schien keiner der Gründer vorauszuahnen. Menschen, die damals ihr Recht auf freie Rede einforderten, wollten noch Diktaturen stürzen. Heutzutage fordern manche Leute auf Twitter bloß noch ihr vermeintliches Recht, sich rassistisch äußern zu dürfen, ohne deswegen Rassisten genannt zu werden.

Und so verändert sich, was sich Internet-Konzerne noch unter freier Rede im Netz vorstellen. Facebook etwa muss sich damit auseinandersetzen, dass Fake-Stories – letztlich auch nichts anderes als Meinungsäußerungen – im eigenen News-Feed die Wahl Donald Trumps befördert haben. Es ist vermutlich kein Zufall, dass das Unternehmen im Juni sein mission statement verändert hat. Nun lautet das Ziel: „Give people the power to build community and bring the world closer together“. Das ursprüngliche mission statement klang noch nach Offenheit und Aufklärung, das neue klingt eher wie eine Coke-Werbespruch.

Das Recht auf freie Meinungsäußerung, beinhaltet nicht das Recht auf Shitposts.

Kevin Sysrom

Für Systrom stellt sich alles ganz einfach dar: Das Recht auf freie Meinungsäußerung, glaubt er, schließt nicht das Recht auf Shitposts ein. Sein Netzwerk ist kein öffentlicher Raum; es ist eine Plattform, die Menschen benutzen können – oder eben auch nicht. Wenn man ihn darauf festnagelt, fragt er zurück: „Stellt es freie Rede dar, wenn jemand gemein zu jemand anderem ist?“ Jackson Colaco formuliert es noch schärfer: „Wenn die Atmosphäre auf einer Plattform derart toxisch wird, dass Leute nicht mal mehr Kommentare posten möchten, nicht mal mehr eine Idee teilen möchten – dann ist die freie Rede tatsächlich bedroht.“

Diese Aussage wiederum zeigt ein neues Problem auf: Wie genau weist man eigentlich nach, dass man dadurch, dass man die freie Rede zunächst einschränkt, tatsächlich die freie Rede fördert? Wann ist weniger mehr – und wann weniger weniger? Auf diese Fragen gibt es keine simplen Antworten, und Systrom wischt sie zur Seite mit dem Hinweis, Instagram gehe ja lediglich gegen die übelsten Kommentare vor. „Wir reden hier von den unteren fünf Prozent. Das wirklich böse Zeug. Ich glaube nicht, dass wir uns da in einem Graubereich bewegen.“

Tristan Harris sieht das anders. Harris, der einige Jahre bei Google gearbeitet hat und heute ein Nonprofit namens Time Well Spent leitet, führt einen Feldzug gegen Social Media. „Alles, was die tun, hat mit der Erhöhung von Zugriffszahlen zu tun, mit engagement“, sagt er – mit „die“ meinte Harris die Tech-Firmen. „Man kann den Begriff ,engagement‘ auch durch das Wort ,Sucht‘ ersetzen, das läuft auf dasselbe hinaus.“ Harris hat sich mit den Betreibern der App Moment zusammengetan, die die Zeit misst, die Menschen mit Apps auf ihren Telefonen verbringen und sie dann fragt, ob sie zufrieden waren. 99 Prozent der Nutzer von Google Calendar sind es, 96 Prozent der Nutzer der Navigations-App Waze. Bei Instagram hingegen sagen mehr als die Hälfte der Leute, sie seien unglücklich mit dem Erlebnis – obwohl sie durchschnittlich 54 Minuten pro Tag auf der Plattform verbringen.

Als ich Harris im Gespräch mit Systrom erwähne, wischt der dessen Kritikpunkte vom Tisch, bevor ich sie überhaupt genannt habe: „Sorry, aber die Vermutung, dass hier bei uns irgend­jemand etwas designen will, das auf böswillige Weise süchtig macht, ist sehr weit hergeholt. Wir versuchen, für Menschen Probleme zu lösen. Wenn das bedeutet, dass sie unser Produkt benutzen, dann haben wir unseren Job gut gemacht.“

Die beiden Stanford-Absolventen Harris und Systrom sind sich bei einer wichtigen Sache aber einig: Die Art, wie Menschen Technologie gebrauchen, kann ziemlich ungesund sein. Harris möchte, dass Firmen „aufhören damit, den Verstand von Menschen für engagement zu benebeln“. Systrom hingegen möchte mehr Sonnenschein ins engagement zaubern.

Nachdem Systrom im Juni die neue Filterfunktion hat launchen lassen, hat er sich an eine damit verbundene Sache gemacht: qualitativ hochwertige Kommentare in den Feeds stärker hervorzuheben. Systrom mag zwar nicht genau definieren, was er unter Qualität versteht und wie er die messen will. Doch die anstehende Veränderung gleicht der, als die chronologische Instagram-Sortierung aufgegeben wurde zugunsten der Relevanz von Posts. Die Idee dahinter ist, den sogenannten mimicry effect zu verstärken: Wenn Menschen sehen, dass andere etwas Nettes geschrieben haben, sagen sie auch etwas Nettes. Sollte das wirklich funktionieren, können sich die bislang mit DeepText betrauten Instagram-Mitarbeiter bald neuen Aufgaben widmen.

Systroms Ehrgeiz geht aber über Instagram hinaus. Natürlich möchte er zunächst mal seine eigene Plattform aufräumen, doch er möchte außerdem beweisen, dass der Hass, der sich im Internet zeigt, nicht unvermeidlich ist. „Unser Tun könnte andere Firmen animieren, dies ebenfalls zu einer Priorität zu machen, und eine Debatte anstoßen, dass wir online sichere und inklusive Gemeinschaften schaffen sollten – nicht nur für unsere Kinder, sondern auch für unsere Freunde und Familienmitglieder“, sagt er. „Ich glaube, das wird ein Erfolg.“ Ist sein Fernziel, Instagram besser zu machen – oder die Menschen selbst? „Ich glaube tatsächlich, dass es darum geht, das Internet besser zu machen.“

Ist ein ruhigeres, freundlicheres Internet auch automatisch ein besseres? Vielleicht. Ein komplett gefiltertes Instagram wird aber keine Diktaturen stürzen. Womöglich macht es auch nicht mehr so viel Spaß. Insgeheim bereitet es einem ja schon ein gewisses Vergnügen, zum Beispiel die Bilder der perfekt durchkuratierten Sommerpartys von Taylor Swift von grünen Schlangen-Emojis gestört zu sehen. Und trotzdem fällt es umgekehrt schwer, in Zeiten von Donald Trump Argumente dafür zu finden, weshalb das Internet noch gemeiner werden sollte.

Dieser letzte Punkt schien sich zu bestätigen, als kurz nach Launch des neuen Filters die Firma Instagram im Juli von einer Tragödie heimgesucht wurde. Systroms enger Vertrauter Joy-Vincent Niemantsverdriet, einer der Chefdesigner von Instagram, starb bei einem Schwimmunfall. Ein sichtlich bestürzter Systrom brach danach in Teammeetings in Tränen aus. Knapp eine Woche nach dem Unfall postete er dann im Andenken an seinen einstigen Kollegen etwas: „JV stand für alles, für das Instagram steht. Er verkörperte die Liebe zum Handwerk, bewies Liebenswürdigkeit, ohne sich davon etwas zu erwarten, und betrachtete die Welt mit einem neugierigen Blick.“

Ob es nun daran lag, dass der neue Filter tatsächlich funktioniert oder dass Menschen online mitunter auch Empathie zeigen: In den Tagen danach sah man unter dem Post keine einzige abfällige Bemerkung, nicht einen dummen Spruch. Es fanden sich Beileidsbekundungen, Ausdrücke von Trauer, Nachdenkliches. Und niemand brüllte irgendetwas davon nieder.