/Big Data

Zehn Thesen zur Zukunft des Internets, Frau Merkel!

Max Biederbeck 04.09.2017 Lesezeit 13 Min

Die Themen Fortschritt und Digitales haben im TV-Duell der Kanzlerkandidaten kaum eine Rolle gespielt. Schlimmer noch: Angela Merkel instrumentalisiert den dringend notwendigen Wandel bei der Netzpolitik für ihren Wahlkampf. Inhalte liefert sie keine. Die „Das ist Netzpolitik!“-Konferenz in Berlin zeigte aber vergangenen Freitag: Genau das muss sie. Wir haben zehn der dort diskutierten Kernprobleme zusammengefasst.

Am Schluss bleibt weniger als eine Minute für das Internet. Als Kanzlerin Angela Merkel und SPD-Herausforderer Martin Schulz am Sonntagabend aufeinandertreffen, geht es inhaltlich so überhaupt nicht um das digitale Deutschland. Nur ihr Schlussplädoyer nutzt die Kanzlerin. „Durch den digitalen Fortschritt wird sich vieles ändern“, sagt sie. „Allein das Smartphone steht prototypisch dafür.“ Es folgt purer Wahlkampf, gepresst in wenige Sekunden: Heute sichere Arbeitsplätze müssen trotz technologischen Fortschritts sicher bleiben, so sagt Merkel. „Die Bildung muss umgestellt werden“ und Bürger bräuchten einen digitalen Zugang zu ihrem Staat. „In den vergangenen Jahren haben wir da einiges erreicht.“ Die Moderatoren könnten ihr da widersprechen. 

Aber die Kanzlerin hat für ihre Aussagen einen geschickten Moment gewählt – jenen nämlich, zu dem Nachfragen nicht mehr möglich sind; den Schluss der Sendung. Und die Taktik geht auf: Während Schulz das Jetzt kritisiert, spricht Merkel über die Zukunft und das kommt an bei den Bürgern. Sie wird als Gewinnerin aus dem Duell gehen, wenn man diversen Blitzumfragen danach traut. Dass entscheidende Punkte ihrer digitalen Agenda in Deutschland nach wie vor nicht umgesetzt sind, dass etwa der Breitbandausbau und die Schulbildung im internationalen Vergleich in Deutschland hinterherhinken, das sagt Merkel natürlich nicht.

So sprach etwa Netzaktivist Markus Beckedahl bereits am Freitag auf der Das ist Netzpolitik!-Konferenz keineswegs von „einigem Erreichten“. Stattdessen warf er der Großen Koalition „Raubbau an den Grundrechten“ vor. WIRED hat zehn Thesen von der Konferenz zusammengetragen. Um mit ihnen umzugehen, braucht eine zukünftige Regierung mehr, als nur einige Worte Wahlkampf.

# Deutschland sucht den Superinternetminister (oder die Superinternetministerin) – bisher versinkt die Digitalpolitik im Grabenkampf
Immerhin: Digitalisierung und Netzpolitik sind inzwischen begehrte Gebiete, um sich politisch zu profilieren. „Inzwischen wollen alle Internetminister werden“, so Markus Beckedahl von Netzpolitik.org. Der deutschen Netzpolitik fehlt allerdings eine koordinierende Stelle – denn bisher scheitern digitale Debatten und Entscheidungen oft am politischen Machtkampf der Parteien. „Wir haben drei Internetminister bisher, weil drei Parteien die Koalition gebildet haben – mehr Logik gab es da nicht“, so Beckedahl.

Ein echtes Internetministerium zu bilden, wäre sinnvoll, um die Digitalisierung in Deutschland voranzutreiben. Aber nur, wenn man Kompetenzen aus den verschiedenen Ministerien vereinen würde, mit Politikern, die tatsächlich Ahnung von IT und Netzpolitik haben – „Sonst bringt auch das beste Internetministerium nichts.“ Eine Besetzung wie auf EU-Ebene mit Günther Oettinger als Digitalkommissar dürfe sich nicht wiederholen, so Beckedahl. Die Fehlbesetzung war deshalb so verheerend, weil die wichtigsten netzpolitischen Entscheidungen gerade in Brüssel und in Straßburg getroffen werden.

# Staaten weltweit attackieren Bürger und Aktivisten mit Spähsoftware – nur eine globale digitale Verteidigung kann die Lösung sein
In Ländern wie Mexiko und den Vereinigten Arabischen Emiraten späht der Staat Dutzende von Journalisten, Aktivisten und Anwälten vom Staat aus. „Überwachung ermöglicht Unterdrückung“, warnt der Sicherheitsexperte Claudio Guarnieri, der für Amnesty International und das Citizen Lab in Toronto digitale Angriffe erforscht. Die Dimension der Attacken durch Staaten ist enorm: Seit 2012 boomen massenhafte Phishing-Attacken, mit denen Angreifer sich etwa Zugang zu E-Mailkonten verschaffen, aber auch der Einsatz von mobiler Spähsoftware. „Es ist ein globaler Trend, aber es gibt nur sehr wenige Menschen, die das Problem angehen“, so Guarnieri.

Die meisten der Attacken sind nicht einmal besonders ausgefeilt, dennoch sind sie oft erfolgreich. Das Problem: Viele NGOs und Aktivisten sind noch nicht fit in den Basics der IT-Sicherheit – und es gibt zu wenige Experten, um jeden Einzelnen zu trainieren. „Sicherheit ist derzeit wie ein Flaschenhals – das Wissen muss breit verfügbar gemacht werden“, so Guarnieri. „Wir müssen zusammenhalten, wir können uns keine Territorialkonflikte oder Hyperkonkurrenz leisten – sonst können wir nicht den Leuten helfen, die Hilfe brauchen“, fordert der Sicherheitsforscher. „Während die meisten von uns das Privileg haben, digitalen Aktivismus aus einem netten Café in Berlin betreiben zu können, gehen viele andere, die oft Quellen für uns sind, große Risiken ein.“

Anstatt mehr auf Sicherheit für ihre Bürger zu setzen, so hört man auf der Netzkonferenz oft, untergrabe die Regierung diese allerdings. Etwa durch die vor der Sommerpause beschlossene Ausweitung des Einsatzes des sogenannten Staatstrojaners. Der kann jetzt von der Polizei auch bei einfachen Verbrechen zur Anzapfung von Endgeräten benutzt werden, obwohl das Bundesverfassungsgericht eine „Online Durchsuchung“ eigentlich als rechtswidrig einstuft.  Dazu kommt die Vorratsdatenspeicherung des Bundes und die Gefahren durch die neue e-Privacy-Reform der europäischen Kommission.

# Tech-Konzerne als Internetpolizei: Der Kampf gegen Hate Speech gefährdet die Meinungsfreiheit
Hass und Hetze auf Facebook, Terrorvideos auf YouTube: Die Tech-Konzerne verwandeln sich in Zensurgehilfen für den Staat. Soziale Netzwerke wie YouTube oder Facebook beschäftigen jetzt schon Scharen von Content-Moderatoren, die im preiswerten Ausland, aber auch in Deutschland Netzwerke nach illegalen Inhalten, Gewaltdarstellungen oder Copyright-Verletzungen durchforsten und Inhalte auf Basis eines Regelwerks löschen. Das Problem: Die Lösch-Leitfäden lassen oft Spielraum, internationale und nationale Gesetze können sich widersprechen, und warum Inhalte gelöscht werden, ist in vielen Fällen nicht nachvollziehbar.

Das neue Netzwerkdurchsetzungsgesetz (NetzDG) führt dazu, dass noch rigoroser gelöscht wird: Denn Konzerne wie Facebook können mit Bußgeldern belegt werden, wenn sie strafbare Inhalte nicht innerhalb von 24 Stunden entfernen. Das könnte zu einer wahren Löschflut, einem „Overblocking“, führen – auch von Inhalten, die nicht so „offensichtlich strafbar“ sind. Das Problem wird sich weiter vergrößern, wenn zunehmend Algorithmen die Zensur übernehmen: „Die Menschen stellen für Facebook eine Brückentechnologie dar, es wird früher oder später über KI geregelt werden und erst dann werden die Effekte richtig sichtbar werden“, so Markus Beckedahl.

# Wahlkampf der Zukunft: Darkads werden auch im deutschen Wahlkampf schon benutzt – ihr Einfluss muss noch erforscht werden
Microtargeting soll auch für deutsche Parteien die neue Wunderwaffe darstellen: personalisierte, auf den jeweiligen Nutzer zugeschnittene Digitalanzeigen in sozialen Netzwerken wie Facebook oder YouTube statt Wahlplakate mit hohem Streuverlust. Doch weder Parteien, noch Plattformen verraten etwas über den Umfang des Microtargetings. Auf Basis der Nutzergewohnheiten, je nach Likes, Interessen, Wohnort, aber auch sexuellen und politischen Präferenzen, werden die Nutzer kategorisiert.

Das Problem: So verstärkt sich die Filterblase, wird der Umfang und die Art der Wahlwerbung immer weniger nachvollziehbar – weil die Werbung nur für die Zielgruppe sichtbar ist. Es ist umstritten, wieviel Anteil die Macht von Facebook und das Microtargeting am Wahlsieg von Donald Trump hatte – denn zum Microtargeting hält sich das Netzwerk bedeckt. Erforscht werden konnte das Phänomen bisher nur unzureichend, weil Facebook sich weigert, Informationen und Daten herauszugeben. In Deutschland hat etwa die CSU Facebook-Micro-Ads, sogenannte „Dark ads“ eingesetzt, die Russlanddeutsche ansprechen sollten. Dazu zielte die Schwesterpartei der CDU mit einer russischen Werbung auf User, die RT (Russia Today) und CSU liken. Die russische Aussage Seehofers: „Wir wollen keine Republik, in der linke Kräfte und der Multikulturalismus die Vorherrschaft haben.“ Eine mehr als merkwürdige Art des Wahlkampfs, die im TV-Duell nicht einmal zur Sprache kam.

„Die Ads sind auch deshalb so brisant, weil sie flüchtig und nicht zugänglich sind“, sagt Adrienne Fichter, Techjournalistin und Autorin des Buches Smartphone-Demokratie. Mit dem Hashtag #politikads versuchen sie und der Politikberater und Blogger Martin Fuchs, Darkads zu finden und sichtbar zu machen – um das Phänomen zu analysieren. Diese Art der Wahlwerbung gesetzlich zu verbieten, halten sie derzeit für sinnlos. „Wir brauchen erstmal Erkenntnisse, wir brauchen Transparenz und eine Sensibilisierung, damit alle 32 Millionen Facebooknutzer wissen, wie das funktioniert, wie sie Zielgruppe von dark ads geworden sind und wie sie sich dagegen wehren können“, so Fuchs.

# Der Hype um Fake News ist enorm – dabei sollten wir aufhören, den Begriff zu verwenden
Die Angst ist groß, dass Fake News, die massenhaft und automatisiert durch Bots weiterverbreitet werden, auch den deutschen Wahlkampf manipulieren können. „Fake News“ seien zum Kampfbegriff geworden, sagt Markus Reuter von Netzpolitik, der den Bundestag als Sachverständiger eben diesen Themen beraten hat. Er glaubt: Das Phänomen ist völlig überschätzt.

Um die Debatte zu versachlichen, sollte man zuallererst aufhören von Fake News zu reden und analysieren, wobei es sich bei einer falschen Nachricht handelt: Um eine Lüge? Einen journalistischen Fehler? Oder politische Propaganda? Auch wissenschaftliche Studien, die belegen, welchen Einfluss der Einsatz von Bots hat, existieren noch nicht. „Man sollte generell mit Followern und Likes vorsichtig umgehen und nicht diesen künstlichen Hype weiterverbreiten“, so Reuter. „Aber wir haben keine relevante Anzahl von Meinungsrobotern gefunden, die in den deutschen Wahlkampf eingreifen.“ Es gebe Parteien, die automatisiert vorgehen, aber das seien weniger Meinungsroboter als vielmehr „Officemanagement aus Sachsen“, so Reuter. Bei seinen Datenrecherchen für den Tagesspiegel hat Reuter aber ein AfD-nahes Netzwerk gefunden, mit Profilen, die „auf Parteilinie Werbung machen, eine Gruppe, die untereinander kommuniziert, die gleichen Leute blockt und retweetet, ein manuelles Botnetz von Unterstützern“. So eine Fake News fand übrigens auch Eingang in das TV-Duell: Moderator Claus Strunz konfrontierte Schulz mit einem aus dem Zusammenhang gerissenen Zitat. Ob Schulz die Flüchtlinge in Deutschland noch immer als diejenigen bezeichnen würde, die „Gold“ mitbrächten. Nur: So hat Schulz das nie gesagt. Oder vielmehr: Er hat es auf die Einstellung der Geflüchteten zu Europa bezogen. Die Verkürzung macht das Zitat zu einer Fake News, die sich vor allem in rechten Gruppen hartnäckig hält.

# Seit den Snowden-Enthüllungen wird die Macht der Geheimdienste nicht abgebaut – sondern ausgebaut
Das Gesetz zur Videoüberwachungsverbesserung und der umstrittene Gesichtserkennungssoftware-Test am Berliner Südkreuz, Registrierungspflicht für SIM-Karten, massenhafte Sammlung von Daten durch das Bundeskriminalamt, Staatstrojaner und Journalisten, die grundlos auf einer G20-Blacklist landen: Die Überwachung wird zunehmend weiter ausgebaut. „Die Große Koalition betreibt Raubbau an unseren Grundrechten“, kritisiert Markus Beckedahl. „Wir haben immer mehr Ressourcen, Personal und Befugnisse zur Netzüberwachung bei unseren Geheimdiensten.“

Außer einem 1902-Seiten-Abschlussbericht hat auch der NSA-Untersuchungsausschuss wenig Spuren hinterlassen. „Die Snowden-Enthüllungen haben nicht zu weniger Überwachung geführt, sondern zu mehr“, so auch Andre Meister in seinem Fazit zur Arbeit des Ausschusses. „Es wurde nicht aufgeklärt, was genau passiert ist, es wurde nicht beendet, was die Geheimdienste tun, die Befugnisse wurden sogar noch ausgeweitet.“ Mit dem BND-Gesetz sei im Nachhinein legalisiert worden, was im Ausschuss angeprangert wurde, Sicherheitsprotokolle werden durch staatliche Dienste aktiv geschwächt, um sich Zugriff auf Daten zu verschaffen, mit dem Ankauf von Sicherheitslücken setzen die Behörden auch die digitale Sicherheit von Bürgern aufs Spiel. „Diese Legislaturperiode war der krasseste Angriff auf das freie und offene Internet, die wir je gesehen haben“, so Meister.

#Uploadfilter
Beim Urheberrecht bleibt die Bundesregierung bisher auffällig ruhig. Davon kann die Piratin und Europaparlamentarierin Julia Reda einiges erzählen. Sie tourt seit einem Jahr durch Europa, um Schlimmeres zu verhindern. Der deutsche Politiker Günther Oettinger nämlich hat auf EU-Ebene etwas ins Rollen gebracht, dass „die Grundfeste des Internets angreifen könnte“, wie Reda sagt.

Die neue Richtlinie zum Urheberrecht macht die Hoster (Soziale Netzwerke, Universitätsdatenbanken, GitHub, Wikipedia) verantwortlich, wenn Urheberrecht auf ihren Seiten verletzt wird (bisher war dem nicht so). „Sie alle sollen jetzt Uploadfilter installieren, um solche Inhalte zu verhindern“, erklärt Reda. Das sei ein direkter Angriff auf das freie Teilen und Hochladen von Inhalten im Internet.

Weil kleine Unternehmen die geplanten Uploadfilter überhaupt nicht programmieren könnten, müssten sie auf fertige Angebote zurückgreifen. „Die kommen dann aus der Verwertungsindustrie oder den großen Internetfirmen Google, Apple, Facebook, Amazon“, sagt Reda. Das führe zu einer gefährlichen Machtkonzentration. Eine neue Regierung hat auch die Aufgabe, dieser Monopolisierung entgegenzutreten und den komplizierten Streit mit Lobby-Gruppen aufzunehmen.

# Smarte Städte sind die Zukunft – aber sie müssen sich stärker am Menschen orientieren
Lieferungen per Drohnen, Sensoren, die Stadtbehörden dabei helfen sollen, die Müllabfuhr effizienter zu organisieren, Beleuchtung, die sich automatisch reguliert: Städte weltweit werden mit High-Tech aufgerüstet, die Digitalisierung soll die Verwaltung erleichtern. In New Mexico entsteht gerade eine smarte Geisterstadt, die ganz ohne Menschen funktionieren soll. Dabei müssten gerade der Mensch und dessen Bedürfnisse stärker in den Fokus bei Smart City-Entwürfen rücken. „Jetzt liegt der Fokus auf Effizienz, aber es ist wichtig, von sozialen Problemen auszugehen“, so Leon Kaiser. Einer Technologie nach der anderen hinterherzulaufen, bringe nichts. Bisher findet die smarte Stadtplanung noch zu sehr im Silo statt, durch Staat oder staatliche Forschungsinstitute und Privatunternehmen, Bürger werden kaum beteiligt.

Datensouveränität, die zunehmende Privatisierung der öffentlichen Verwaltung und der Einfluss, den Digitalisierung auf unterschiedliche Menschengruppen hat, müssten bei der Stadtplanung stärker hinterfragt werden. London hat mit einem Projekt, das Obdachlosen helfen sollte, etwa Daten über ihren Aufenthaltsort und ihre Nationalität gesammelt – die Daten wurden dann von der Immigrationspolizei dazu benutzt, Personen abzuschieben. „Smart“ kann für verschiedene Menschen unterschiedliche Konsequenzen bedeuten, denn es geht wirklich darum, Menschen mit Dingen, mit Datenbanken zu verknüpfen und für einige kann das sehr unangenehm werden“, so Leon Kaiser. „Wenn man obdachlos ist, kann die einzige Information, wo ich mich aufhalte, zum Problem werden.“

# Intelligente Toaster und smarte Kühlschränke: Das Internet der Dinge ist ein Sicherheitsrisiko – Hersteller müssen mehr Verantwortung übernehmen
Mit dem Internet der Dinge entstehen massenhaft neue Sicherheitslücken, wie Angriffe aus der Vergangenheit zeigen: Mirai-IoT-Botnetze übernahmen etwa Hunderttausende Geräte wie Kameras oder digitale Videorekorder, um DDoS-Angriffe zu fahren, Sicherheitsforscher haben 2016 eine Ransomware für smarte Thermostate präsentiert, die Geräte gegen Lösegeldforderung blockieren kann. Sexspielzeuge, aber auch smarte Kinder-Puppen verwandelten sich in Eigenheim-Spione.

Um zu erkennen, wenn etwa Haushaltsgeräte von Angreifern übernommen und zum Teil eines fremdgesteuerten Botnetzes werden, werden die Zugriffsmöglichkeiten von Netzanbietern verstärkt: „Die Telekom darf das analysieren, erkennen und dann Geräte vom Netz nehmen“, so Anna Biselli von Netzpolitik. „Das ist eine Art Deep Packet Inspection Light.“ Besser wäre laut Biselli eine Produkthaftung, die Anbieter dieser Geräte haften lässt und sie verpflichtet, regelmäßig Sicherheitsupdates bereitzustellen. Bisher werden viele Geräte gar nicht mit Updates versorgt. Unklar ist auch, wie die erhobenen Daten weiterverarbeitet werden. Die smarten Gegenstände sind für die Nutzer meist wie eine Blackbox: „Wir brauchen ein Recht auf Tüfteln“, fordert Markus Beckedahl. „Es kann nicht sein, dass man Geräte hat, in die man nicht mehr hereinschauen kann.“

# Algorithmen bestimmen die Zukunft – und führen zu digitaler Diskriminierung
Entscheidungen in Gesellschaft, Wirtschaft und Politik bis hin zur Polizeiarbeit werden immer stärker von Daten gesteuert – doch Algorithmen bilden Vorurteile und gesellschaftliche Mehrheiten ab und verstärken Ungleichheiten.

Predictive Policing, also Polizeiarbeit, die auf Prognosen basiert, setzt sich etwa weltweit durch. Sie hat das Ziel, potentielle Verbrechen und Verbrecher frühzeitig zu identifizieren – doch existierende Stereotype werden so verstärkt. Weil die Polizei in den USA afro-amerikanische Bürger und Viertel öfter kontrolliert, wird auch die Software mit entsprechenden Daten aus der Vergangenheit trainiert – so dass Hotspots verstärkt ins Visier geraten. „Beim Predictive Policing wird Diskriminierung recycelt“, kritisiert Marwa Fatafta, die Predictive Policing in Israel analysiert hat. Marwa Fatafta zufolge gibt es in Israel 800 Fälle junger Palästinenser, die aufgrund von Posts in sozialen Netzwerken zwei bis vier Monate inhaftiert wurden, zum Teil länger – während bei Gewaltaufrufen in sozialen Netzwerken durch Israelis nichts passiere.

Spracherkennung soll in Zukunft dabei helfen, etwa die Herkunft von Migranten anhand des Dialekts einzuordnen. Doch die Aufgabe ist komplex, die Methode nicht fehlerfrei – ihre Anwendung, auch durch den deutschen Staat, könnte aber gravierende Auswirkungen auf das Schicksal von Flüchtlingen haben. „Gesichtserkennung kann auch extrovertierte, introvertierte, homosexuelle und heterosexuelle Menschen erkennen“, warnt Maya Ganesh vom Tactical Tech Collective. Der Wissenschaftler Michal Kosinski, dessen Forschung zur Psychometrik die umstrittene Firma Cambridge Analytics zum Microtargeting für Trump-Wähler genutzt hat, habe vor kurzem gezeigt, wie Algorithmen Muster in Gesichtern finden – und auch in unbekannten Datenbanken die sexuelle Gesinnung richtig zuordnen können. Da Homosexualität in vielen Ländern weltweit kriminalisiert oder verboten ist, wäre solche Erkennungssoftware in den Händen vieler Staaten ein gefährliches Tool. Aktivisten in Ländern wie Südafrika stünden laut Maya Ganesh immer vor der Herausforderung, dass sie ihre Arbeit sichtbar präsentieren müssen, um Einfluss zu haben – aber dass sie sich dadurch auch selbst gefährden. Wenn der Staat Algorithmen einsetzt, besteht die Herausforderung darin, die demokratische Kontrolle zu erhalten, einen Weg zu finden, die Faktoren und ihre Gewichtung transparent zu machen, die zu Entscheidungen führen.