Netzpolitischer Wochenrückblick KW 10: Uploadfilter, Uploadfilter überall

Der Widerstand gegen Upload-Filter erreicht die Straße CC-BY-NC-SA 2.0 Philipp Nordmeyer Unser Wochenrückblick wird auch als wöchentlicher Newsletter verschickt. Hier könnt Ihr Euch anmelden.

Die Kritik an der geplanten EU-Urheberrechtsreform und den Uploadfiltern in Artikel 13 erreicht die Straße: Vergangenen Samstag demonstrierten rund 5.000 Menschen gegen die geplante Urheberrechtsreform in Berlin . Gegener:innen der Uploadfilter zogen vom Axel-Springer-Hochhaus über das Justizministerium zur Vertretung der Europäischen Union vor dem Brandenburger Tor.

Auch netzpolitik.org-Chefredakteur Markus Beckedahl beteiligte sich mit einem Redebeitrag . Im Zentrum der Kritik an der Urheberrechtsreform stehen insbesondere verpflichtende Uploadfilter, die nicht nur die Freiheit im Internet einschränken, sondern auch Grundstein für eine Zensurinfrastruktur sein könnten.

Zeitgleich verhandelt das EU-Parlament einen weiteren Gesetzesvorschlag, der ebenfalls Inhalte filtern, überprüfen und gegebenenfalls automatisiert löschen soll . In dem Fall geht es dabei um den Kampf gegen Terrorpropaganda im Netz. Ein erster Parlamentsausschuss lehnt nun diese Form der Inhaltekontrolle ab.

Verfahrenstricks und Spontan-Demos

Anfang der Woche sah es so aus, als wollten die europäischen Konservativen die Abstimmung zur Urheberrechtsreform im Europaparlament vorverlegen . Dieser Verfahrenstrick sollte die Pläne der immer größer Protestbewegung zunichte machen, mit europaweiten Demonstrationen am 23. März noch Einfluss auf die später stattfindende Abstimmung im Plenum zu nehmen.

Gegner:innen der Uploadfilter organisierten daraufhin Spontan-Demonstrationen in mehreren Städten , an denen mehrere Tausend Menschen teilnahmen. Doch die Pläne der Konservativen scheiterten nicht nur am Druck der Öffentlichkeit, denn die verpflichtenden Übersetzungen des Gesetzes in alle EU-Sprachen wären zu einem früheren Termin nicht fertig zu stellen gewesen.

Indes gehen die Proteste weiter, etwa im Bierzelt beim Politischen Aschermittwoch der CDU , und werden größer: Hier geben wir erneut einen Überblick über geplante Demonstrationen gegen Artikel 13 in Deutschland und Europa.

Kritik an Facebook reisst nicht ab

Facebook macht weiterhin negative Schlagzeilen: In einer firmeneigenen Spitzel-Abteilung sammelt Facebook Daten von ehemaligen Mitarbeiter:innen, von denen eine Gefahr für das Unternehmen ausgehen könnte. Dafür analysiert der Konzern die eigenen Daten, kritische Stimmen gegen den Konzern ausfindig zu machen. Nicht nur Ex-Mitarbeiter:innen sollen betroffen sein, auch Journalist:innen könnten sich auf solchen schwarzen Listen befinden. Besonders problematisch ist hier nicht nur, dass Facebook Privat-Polizei spielt, sondern auch, dass betroffene Personen nicht wissen, dass sie beobachtet werden. Deutsche Datenschützer zeigten sich alamiert und fordern nun Antworten zu diesen Praktiken in Deutschland.

Ebenso wurde bekannt, dass Facebook die Handynummern seiner Nutzer:innen missbraucht – jedenfalls in den USA, möglicherweise auch in Deutschland. Zum besseren Schutz der persönlichen Daten kann bei vielen Internetdiensten neben Nutzer:innenname und Passwort auch die eigene Handynummer hinterlegt werden. Doch Facebook verwendet diese zu Werbezwecken weiter, was gegen die Datenschutzgrundverordnung verstoßen könnte: diese fordert eine klare Zweckbindung, was in diesem Falle durch Facebook absichtlich missachtet wird. Wir haben bei Facebook und beim Datenschutzbeauftragte von Hamburg, Johannes Caspar, nachgefragt.

Massenüberwachung wieder vor Gericht

Nach der Auffliegen der Massenüberwachung durch den USA-Geheimdienst NSA und sein britisches Pendant GCHQ – remember Edward Snowden? – flatterten mehrere Beschwerden beim Europäischen Menschenrechtsgerichtshof gegen die britische Regierung ein. Nun ist die Massenüberwachung wieder vor Gericht : Zwei Urteile, die eine ungezielte Überwachung durch europäische Auslandsgeheimdienste bereits eingeschränkt hatten, könnten nun noch nachjustiert werden. Auf die Anhörung im Juli freut sich unter anderem unsere Autorin Constanze Kurz , die eine der Beschwerdeführerinnen im Verfahren „Privacy not PRISM“ ist.

Justizministerin gegen Whistleblower

Gleichzeitig möchte die Europäische Union eine Richtlinie beschließen, die Whistleblower:innen in ganz Europa besser schützen soll . Doch noch gibt es Streit zwischen EU-Parlament und Mitgliedstaaten, darunter Deutschland, ob Missstände direkt an die Öffentlichkeit gehen dürfen oder nicht.

Ausgerechnet Bundesjustizministerin Katharina Barley (SPD) steht für ihre Position in der Kritik und blockiert neben anderen Mitgliedstaaten die Verhandlungen. Dies geht aus dem aktuellen Verhandlungsstand hervor . Gegen die Position ihrer Partei setzt sie sich für einen schwachen Schutz ein: Whistleblower:innen sollten sich immer zuerst an eine interne Stelle in der eigenen Organisation wenden müssen, bevor sie Medien und Behörden informieren dürfen – das könnte allerdings viele Hinweisgeber:innen abschrecken.

Brandenburg speichert Autokennzeichen auf Vorrat

In Brandenburg speichert die Polizei Kennzeichen aller Autos auf bestimmten Autobahnen . Das hat die Polizei in Berlin öffentlich bestätigt. Doch ob die Kennzeichenerfassung legal ist, bleibt umstritten, denn erst kürzlich wurden ähnliche Systeme in anderen Bundesländern von Gerichten teilweise für rechtswidrig erklärt .

Auslesen von Mobiltelefonen an Grenze geplant

Die technischen Möglichkeiten der Bundespolizei an der bayerischen Grenze sollen ausgeweitet werden. Im Forschungsprojekt „SmartIdentifikation“ forscht die Bundespolizei zur schnellen Auswertung der Mobiltelefone von Geflüchteten. Bei der Bearbeitung von Asylanträgen ist es bereits erlaubt, die Mobiltelefone geflüchteter Menschen zu untersuchen. Nun soll diese Praxis mit einer mobilen Version auch auf Grenzkontrollen vor Ort ausgeweitet werden. Die Auswertung von Telefonen soll nicht nur eine schnelle Identifikation von Menschen an der Grenze ermöglichen, sondern auch beim Aufspüren von Schleusernetzwerken helfen.

Journalismus und E-Commerce-Richtlinie in der Krise

Der Medienforscher Christopher Buschow kommentiert in einem Gastbeitrag die Krise des kommerziellen Journalismus und beleuchtet die schwierigen Bedingungen journalistischer Neugründungen.

Kirsten Fiedler von European Digital Rights (EDRi) berichtet über die stetige Aushöhlung und mögliche Neufassung der e-Commerce-Richtlinie , die nicht nur Haftungsfragen im Umgang mit vermeintlich illegalen Inhalten im Internet beinhaltet, sondern auch die Meinungsfreiheit sichert.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Menschen lernen, Maschinen trainieren

So sah es früher aus, wenn Menschen etwas zu lernen hatten. Bei Maschinen funktioniert der Input auf anderen Kanälen. Gemeinfrei-ähnlich freigegeben durch unsplash.com Roman Mager Dies ist ein Auszug aus dem Buch „Die Künstliche Intelligenz des Kapitals“ von Timo Daum, das im März 2019 bei Nautilus erscheint.

Insbesondere im Bereich der Bilderkennung, beim autonomen Fahren oder bei Sprachassistenten, die natürliche Sprache verstehen und generieren können, sind erhebliche Fortschritte erzielt worden. Maschinelles Lernen wird immer weiter verbessert und schließlich auch zum ökonomischen Faktor – Amazon macht 35 Prozent seines Umsatzes durch Käufe, die durch das Klicken auf vorgeschlagene Produkte zustande gekommen sind . Hinter Amazons Vorschlägen steckt eine „maschinelle Lernempfehlungsmaschine“, so die von einer weiteren KI, nämlich von Google Translate, generierte Übersetzung von machine learning recommendation engine.

Im Jahre 1959 brachte der amerikanische KI-Pionier Arthur Samuel einem Computer das Dame-Spiel bei und implementierte dabei die ersten selbstlernenden Verfahren. Spiele haben in der Geschichte des Computers schon immer eine große Rolle gespielt – als Testszenarien, aber auch als Werbemaßnahmen. Brettspiele wie Dame oder Schach, aber auch das Go-Spiel, sind durch einfache Regeln bestimmt, die in wenigen Zeilen Code implementierbar sind. Das Dame-Spiel ist dabei eines der einfachsten. Weiße und schwarze Steine werden abwechselnd auf einem 8×8-Brett platziert, Steine dürfen nur in diagonaler Richtung vorwärts bewegt werden, ein gegnerischer Stein kann durch diagonales Überspringen geschlagen werden, beim Schlagen gegnerischer Steine sind mehrere Züge in Folge erlaubt – solche Regeln lassen sich umstandslos in Programmcode überführen; ein Computerprogramm, das Dame regelkonform spielen kann, ist schnell geschrieben.

Doch wie bringe ich dem Programm bei, aus den formal korrekten Zügen denjenigen auszuwählen, der die besten Chancen bietet, das Spiel zu gewinnen? Der historisch zunächst verfolgte Ansatz lässt sich unter dem Begriff „brute force“ zusammenfassen: Alle möglichen Züge und alle möglichen Folgezüge werden untersucht und nach vorgegebenen Kriterien bewertet, etwa nach der Anzahl eigener Steine und deren Nähe zum gegnerischen Ende des Brettes. Der Zug mit der höchsten Bewertung ist der beste. Diese Methode gerät jedoch schnell an ihre Grenzen, schon bei einer untersuchten Tiefe von wenigen Zügen steigt die Zahl der Möglichkeiten ins Unermessliche. Gebraucht werden also Strategien, die nur die aussichtsreichsten Züge untersuchen und bewerten.

Hier kommt das Konzept des Lernens ins Spiel: Die Ergebnisse vergangener Spiele fließen in die Bewertung der Stellungen ein. Wurde ein Spiel gewonnen, können entsprechend alle vorangegangenen Stellungen dieses Spiels positiver bewertet werden und umgekehrt. Das Programm wird besser, da es in Zukunft eher Positionen anstreben wird, die bereits in der Vergangenheit auf einem Gewinnerpfad lagen. Mit dieser Methode gelang es Arthur Samuel, sein Programm so zu trainieren, dass es nach nur acht Stunden Trainingszeit besser spielte als er selbst.

Samuel selbst prägte den Begriff machine learning für das Teilgebiet der Künstlichen Intelligenz, das auf Lernverfahren basiert. Mit der landläufigen Vorstellung von allgemeiner Künstlicher Intelligenz hat dieser Bereich wenig gemein, geht es doch meist darum, Software mit einer Menge an Daten zu füttern, damit diese bei der Bewältigung eng begrenzter Aufgaben im Laufe der Zeit besser wird. Oder, wie Arthur Samuel es formulierte, sie auszustatten „mit der Fähigkeit, zu lernen, ohne dafür explizit programmiert worden zu sein“ . Gemeint ist damit, dass der Programmcode nur die Regeln enthält, während die Qualität des Spiels durch die Daten geliefert wird, die in Bewertungen bestimmter Konstellationen eingehen, die vorher eben nicht existierten. Insofern kann das Programm im Laufe der Zeit besser werden, ohne dass sich an der zugrundeliegenden Programmierung etwas geändert hätte.

Drei Typen von Maschinen

Timo Daum arbeitet als Hochschullehrer in den Bereichen Online, Medien und Digitale Ökonomie. Er ist studierter Physiker und verfügt über zwei Jahrzehnte Berufserfahrung in der IT-Branche. Er veranstaltet Vorträge und Seminare zur Thematik des digitalen Kapitalismus. Sein Buch Das Kapital sind wir. Zur Kritik der digitalen Ökonomie (2017) wurde mit dem Preis Das politische Buch 2018 der Friedrich-Ebert-Stiftung ausgezeichnet. Timo Daum lebt in Berlin. Alle Rechte vorbehalten Fabian Grimm

Es gibt Maschinen, die nur für eine bestimmte Aufgabe konstruiert sind: Ein Haartrockner kann föhnen, sonst nichts. Ich kann ihn zwar zweckentfremden, also damit beispielsweise ein Türschloss enteisen, trotzdem hat er einen sehr eingeschränkten Anwendungsbereich – es handelt sich sozusagen um eine eindimensionale Ein-Zweck-Maschine. Diese nenne ich Typ1-Maschinen.

Dann gibt es Maschinen, die nicht nur ein Problem oder einige wenige lösen können, sondern ganze Klassen von Problemen, weil sie programmierbar sind: Mit einem neuen Programm ausgestattet, sind sie auch in der Lage, neue Probleme zu lösen. Diese Maschinen nennen wir Computer, deren theoretische Basis bzw. deren Aktionsradius schon Alan Turing beschrieben hatte. Die Anwendungsmöglichkeiten sind dabei im Prinzip unendlich, weil es ja unendlich viele Möglichkeiten gibt, Software zu programmieren – wir haben es demzufolge mit Viel-Zweck-Maschinen zu tun. Ich nenne sie Typ2-Maschinen. Typ2-Maschinen sind eine tolle Sache, täglich werden die Aufgaben mehr, die sie zu bewältigen in der Lage sind. Trotzdem haben sie die Eigenschaft, dass sie ein- und denselben Code immer nur exakt gleich ausführen, deshalb nennt man sie auch deterministische Automaten. Selbst nach der x-ten Ausführung des Programmcodes hat sich ihr Funktionsumfang nicht erweitert, sie liefern im Prinzip dieselben Ergebnisse – sehen wir einmal von Zufallszahlen ab. Sie sind mit der Zeit nicht besser geworden, aber auch nicht schlechter. Ada Lovelaces Argument, dass diese nicht in der Lage sein würden, über das in sie Hineinprogrammierte hinauszuwachsen, trifft absolut zu.

Typ3-Maschinen werden ebenfalls auf Computern simuliert, unterscheiden sich aber von Typ2-Automaten dadurch, dass sie durch maschinelles Lernen befähigt werden, bei ein und derselben Aufgabe im Laufe der Zeit veränderte und – so die Hoffnung – verbesserte Ergebnisse zu liefern im Zusammenspiel mit den Daten, mit denen sie gefüttert werden. Insofern sind Typ3-Maschinen keine deterministischen Automaten mehr, das Argument von Lady Ada gilt nicht mehr: Auf dieselbe Eingabe folgt bei gleichen Ausgangsbedingungen nicht notwendigerweise dieselbe Ausgabe bzw. dasselbe Ergebnis. Im Unterschied zu Maschinen vom Typ1 und Typ2 sind Typ3-Maschinen in der Lage, Aufgaben zu lösen, für die sie so nicht programmiert worden sind. Dazu muss die Software lernen, und lernen heißt, aus sehr vielen Daten Modelle abzuleiten.

Nehmen wir an, wir füttern Software mit den Bewegungsdaten einer Person. Diese geht werktäglich zur Arbeit, kauft ein, unternimmt Reisen, besucht Freunde. Nachdem eine gewisse Zeit vergangen ist bzw. eine Menge Daten angehäuft sind, wird die Software in der Lage sein, Voraussagen für zukünftiges Verhalten zu treffen. Und mit hoher Trefferquote voraussagen können, dass die Zielperson an einem Montag um neun Uhr ins Bad gehen wird. Sie hat ein Modell ihres Gegenstandes entwickelt und kann beinah jeden seiner Schritte vorhersagen, ohne zu wissen, was ein Mensch ist und ohne jegliches Verständnis dafür, was Arbeit oder Schlaf bedeuten. Von einer solchen einfachen KI-Anwendung kann erwartet werden, dass sie nach einer Weile ihr Modell so gut kennt, dass sie etwa zu der Aussage: „Musst du nicht heute zum Sport?“ fähig ist. Aber auch die dystopische Anwendung scheint in diesem einfachen Beispiel auf: „Ich habe gerade deiner Versicherung mitgeteilt, dass du schon wieder nicht beim Sport warst.“

Geheimnis Lernen

Marvin Minsky, einer der Pioniere der KI und Teilnehmer des Gründungs-Hangouts am Dartmouth College, nannte Wörter, die eine Vielzahl an Bedeutungen haben können, „Kofferwörter“ (suitcase words): Ein und derselbe Behälter (das Wort) kann ein ganzes Sammelsurium an Bedeutungen enthalten. „Lernen“ ist ein solches Kofferwort, genau wie „Intelligenz“ auch: Fahrrad fahren lernen, eine Sprache lernen, Programmieren lernen, ein Gedicht auswendig lernen, Schach spielen lernen, Tango tanzen lernen – immer ist von Lernen die Rede, dabei sind die Vorgänge jeweils denkbar unterschiedlich.

Wenn wir als Kinder unsere erste Sprache, die Muttersprache, lernen, dann sprechen wir nach, imitieren, sammeln, variieren, probieren aus, kurz: Wir lernen intuitiv. Bald beherrschen wir unsere Muttersprache, ohne explizit ihre Regeln zu kennen, ohne z. B. sagen zu können, was eine Partizipialkonstruktion ist. Ganz anders läuft in der Regel das bewusste Erlernen aller weiteren Sprachen, der Fremdsprachen ab: Wir eignen uns bewusst Vokabeln und Regeln an und prozessieren Input und Output, ganz wie eine deterministische Symbolverarbeitungsmaschine das auch täte, also Software, die ein Programm in formallogischer Sprache abarbeitet. Diese Form des Lernens bereitet uns viel mehr Mühe, und unsere Beherrschung der Fremdsprache reicht nie an die der Muttersprache heran. Die Unterscheidung zwischen Mutter- und Fremdsprache geht auf die Theorie des Zweitspracherwerbs des Linguisten Stephen Krashen zurück , die dieser in den 1970er Jahren entwickelt hatte. Krashen differenziert darin prinzipiell zwischen dem bewussten grammatikalischen Prozess des Lernens (learning) und der Aneignung (acquisition) der Muttersprache durch Kinder. Es handelt sich um grundsätzlich verschiedene Lernprozesse, die im Übrigen auch in unterschiedlichen Hirnregionen stattfinden.

Wie Maschinen lernen, ist nicht zu vergleichen mit dem schwammartigen Aufsaugen von Information, deren Rekombination und Abstraktion, die wir von uns selbst kennen. Wenn wir hören, dass ein Computer den Schachweltmeister (1997) oder den weltbesten Go-Spieler (2016) schlagen kann, neigen wir dazu, davon auszugehen, die Computer hätten das Spiel gespielt „wie ein Mensch“. Natürlich haben diese Programme in Wirklichkeit keine Ahnung, was ein Spiel ist. Sie spielen es zwar besser, stellen sich aber gleich wieder ganz blöd an, sobald man die Regeln ein wenig ändert. Für einen Menschen ist das prinzipiell kein Problem, die KI hingegen muss wieder ganz von vorne anfangen mit dem Trainingsprozess.

Unser Gehirn: Die einzige bisher bekannte Allgemeinen Künstlichen Intelligenz

Das Gehirn ist das komplexeste Organ und gleichzeitig die mächtigste Denkmaschine, die einzige bisher bekannte erfolgreiche Umsetzung einer Allgemeinen Künstlichen Intelligenz, man könnte es auch Typ4-Maschine nennen. Da liegt es nahe, einen Nachbau zu versuchen. Erste Konzepte für künstliche neuronale Netze (ANN, artificial neural networks) skizzierten der Neurophysiologe und Kybernetiker Warren McCulloch und der Mathematiker Walter Pitts schon 1943, ab 1954 gab es dann die ersten Umsetzungen auf Rechenmaschinen.

Unser Gehirn, das natürliche neuronale Netz par excellence, verfügt über 100 Milliarden Nervenzellen (Neuronen), deren Aufgabe darin besteht, neuroelektrische und neurochemische Signale aufzunehmen, zu verarbeiten und weiterzuleiten. Jedes Neuron ist wiederum im Schnitt über Synapsen mit stolzen 7.000 anderen Gehirnzellen verbunden. Demgegenüber nehmen sich die künstlichen Gehirne aus den Laboren eher bescheiden aus. Diese werden schon mit einigen 10 bis 100 Zellen, die mit jeweils wiederum 10 bis 100 anderen Zellen verbunden sind, betrieben und liefern dabei durchaus Ergebnisse. Wohlgemerkt, es handelt sich um auf Computern simulierte neuronale Netze, nicht etwa um Versuche, mit Biomasse das Gehirn nachzubauen. AlphaGo, die von der Alphabet-Tochter DeepMind entwickelte Software, die 2016 erstmalig beim komplizierten Go-Spiel einen Menschen schlug, verfügte über 17.328 Eingabe-Neuronen , wohingegen selbst eine durchschnittliche Ameise eine Viertelmillion Nervenzellen vorweisen kann. Da ist noch viel Luft nach oben.

Ein neuronales Netz besteht üblicherweise aus drei Teilen: Aus der sogenannten Eingabeschicht, die alle Neuronen umfasst, die Eingangssignale weiterleiten, aus einer oder mehreren Schichten verdeckter Neuronen, die meistens nichtlineares Leitungsverhalten zeigen, und schließlich aus der Ausgabeschicht, die alle Signale der vorhergehenden Schichten zusammenfasst und ausgibt. (PAYWALL, behalten?) Die Verbindungen zwischen den Knoten sind gewichtet, d. h. sie sind mehr oder weniger stark ausgeprägt, diese Verbindungsgewichte sind zudem veränderbar. Die Neuronen aller Schichten sind mit ihren Vorgängern und Nachfolgern verbunden und darüber hinaus mit weiteren Schichten. Dies erlaubt die Implementierung von Lernen bzw. eines Gedächtnisses: Vorangegangene Ereignisse können Auswirkungen haben auf zukünftiges Verhalten – ein Rückkopplungseffekt.

Beim überwachten Lernen werden dem neuronalen Netz Ein- und Ausgabemuster vorgegeben: Der gewünschte Output zu einem gegebenen Input ist also bekannt, und kann zur Überprüfung des gelieferten Outputs dienen. Aus den Abweichungen mit dem gewünschten Ergebnis folgen Korrekturen für die Gewichte der Verbindungen. Ein Beispiel: Möchten wir ein Programm entwickeln, das auf Bildern Birnen erkennen kann, zeigen wir ihm viele Bilder mit Birnen und ggf. auch Bilder ohne Birnen, aber z.B. mit Äpfeln. Das Programm analysiert die Bilder und versucht, Gemeinsamkeiten aller Birnen-Bilder zu finden, z.B. die spezifische Birnenform oder einen Stiel an der Kopfseite. Irgendwann wird das Programm mit einer gewissen Toleranz in der Lage sein, Birnen-Bilder zu erkennen, die es noch nie zuvor gesehen hat. Es hat ein Modell davon entwickelt, was eine Birne ist. Bei neuen, unbekannten Bildern prüfte es von nun an, ob diese dem Modell entsprechen. Das Programm weiß immer noch nicht, was eine Birne ist, hat aber ein Modell von ihr entwickelt: Birne ist für das Programm einfach ein Satz an Werten bestimmter Parameter. Es kann nun auch unbekannte Objekte klassifizieren: Birne oder Nicht-Birne.

Tiefes Lernen

Als Deep Learning wird der Teilbereich des maschinellen Lernens bezeichnet, der mit künstlichen neuronalen Netzen arbeitet und in dem die meisten derzeitigen Erfolge zu verzeichnen sind. „Deep Learning“ und „künstliche neuronale Netze“ werden dabei meist synonym verwendet. In den letzten Jahren wurde klar, dass Deep Learning sehr effektiv ist, um damit Computern Aufgaben wie Spracherkennung, Bildinterpretation, automatische Übersetzung und das Üben von Spielen wie Go beizubringen, die so etwas wie intuitives Wissen erfordern.

Das Konzept für Deep Learning – der Begriff wird meist synonym verwendet mit der Verwendung neuronaler Netze und in Anspielung auf dessen „verborgene“ Schichten – ist vergleichsweise alt: Geoffrey Hinton und Kollegen erfanden das Prinzip der „Rückpropagation“ (back propagation) vor über drei Jahrzehnten. Um bei diesem wichtigsten Verfahren zum Trainieren von künstlichen neuronalen Netzen deren verborgene Schichten sinnvoll optimieren zu können, muss zu allen Trainingsmustern die gewünschte Ausgabe bekannt sein – wir sprechen von überwachtem Lernen (supervised learning). Eine Voraussetzung dafür sind gelabelte (beschriftete) Daten.

Für die Bilderkennung bedeutet dies, dass jedes einzelne Bild, mit dem der Deep-Learning-Algorithmus gefüttert wird, von Hand gelabelt werden muss, also die Bildinhalte beschrieben werden müssen, z. B. „Katze mit Wollknäuel auf Sofa und Fernseher“, und zwar jeweils mit Angabe einer zugehörigen Begrenzung (bounding-box). Dieses Labeln der Input-Daten, das vielleicht mit der Verschlagwortung von Texten vergleichbar ist, ist ein sehr aufwendiger Prozess, der gegenwärtig noch immer von Menschen manuell organisiert und ausgeführt werden muss. Am Anfang überwachter maschineller Lernprozesse steht also ein immenser Kennzeichnungsaufwand.

Eine Unterkategorie des überwachten Lernens ist das bestärkende Lernen (reinforced learning). Hier kann die Maschine erst einmal drauflosprobieren und bekommt nachträglich Feedback: Das war gut, das war nicht so gut. Diese Methode kommt zum Beispiel beim maschinellen Erlernen von Computerspielen oder beim Roboter-Fußball zum Einsatz, oder wenn ein neuronales Netz lernen soll, die Sprache von Wörtern zu bestimmen. Die Ziele bzw. der Output sind bekannt, es werden aber keine Vorgaben gemacht, hier wird gewissermaßen nach der Trial-and-Error-Methode vorgegangen und ex post evaluiert.

Der KI-Experte Ethem Alpaydin meint, derzeitige „tiefe Netzwerke“ seien nicht tief genug und weit von den Fähigkeiten unserer Sehrinde entfernt, um etwa komplexe Szenerien zu erfassen. (PAYWALL, behalten???) Um in begrenzten Kontexten abstrahieren zu können, z.B. handschriftliche Zeichen oder Objekte auf Bildern zu erkennen, reiche es gerade eben aus. Auch Geoffrey Hinton selbst hält heute gar nicht mehr so viel von seinem Prinzip und findet alle aktuellen KI-Fortschritte dementsprechend schal, wie er kürzlich dem Nachrichtenportal Axios gegenüber offenbarte . Er hält diese Form überwachten oder angeleiteten Lernens mittlerweile für überholt und neue Formen nichtüberwachten Lernens für viel interessanter. (!!! spanischer Link)

Letzteres (unsupervised learning) ist relativ neu. Hier werden keine gelabelten Daten bereitgestellt, Bilder z. B. also ohne Beschriftung. Trotzdem sind neuronale Netze in der Lage, versteckte Strukturen, auffällige Muster oder wiederkehrende Formen in Datenstrukturen zu erkennen und dabei sogar Neuland zu betreten. Hier lässt sich einfach beobachten, was passiert, etwa wenn die Software in Bildern Strukturen erkennen soll, von denen wir nichts wissen bzw. die wir ihr nicht ex ante verraten. Es liegt auf der Hand, dass nichtüberwachte Verfahren auch ökonomisch interessant sind, entfällt doch der Labeling-Aufwand.

Dann gibt es noch den spannenden Bereich des nachahmenden Lernens (imitational learning). Hier werden ein bestimmtes Verhalten oder Handlungen vorgegeben, z. B. das Greifen von Gegenständen oder Auto fahren, und die Software versucht, das Gesehene zu imitieren. Algorithmen wird etwa die Beobachtung von menschlichen Testfahrer*innen überlassen, die die Software dann nachahmen soll. Deshalb werden die im Simulator gefahrenen Testkilometer zum Hauptkriterium des Erfolgs dieser Technologie.

Garri Kasparow berichtet in seinem lesenswerten Buch über seinen (verlorenen) Kampf gegen den Computer am Schachbrett von frühen Versuchen aus den 1980er Jahren, mit machine learning beim Königsspiel zu reüssieren. Forscher hatten ihr Programm mit hunderttausenden Partien von Schachgroßmeistern gefüttert, in der Hoffnung, die Software würde Modelle entwickeln und in den siegreichen Partien Muster erkennen.

Zunächst schien es zu funktionieren, die Bewertung von Stellungen war genauer als bei herkömmlichen Programmen. Als das Programm jedoch selbst spielte, verhielt es sich eigentümlich. Nach durchaus passablem Eröffnungsspiel opferte das Programm seine Dame, seine wertvollste Figur, um kurz darauf mit fliegenden Fahnen unterzugehen. Was war passiert? Wenn ein Großmeister seine Dame opfert, ist das fast immer ein brillanter und entscheidender Zug, der dann auch zum Sieg führt. Das Programm hatte dieses Muster klar erkannt. Es konnte nicht wissen, dass die Umkehrung nicht gilt: Die Dame opfern allein ist keine Garantie für den Sieg.

Montagsmalen

In Mark Twains berühmtem Jugendroman Tom Sawyer und Huckleberry Finn von 1876 schickt Tante Polly Tom eines Morgens hinaus, um den Gartenzaun weiß zu tünchen. Etwas später kommt Ben Rogers vorbei, ein anderer Junge in Toms Alter. Tom überzeugt Ben, dass es eine spielerische Freude sei, einen Zaun zu streichen, und nach einigem Verhandeln willigt dieser ein, seinen Apfel einzutauschen gegen die Erlaubnis, den Pinsel in die Hand nehmen zu dürfen – ein frühes Beispiel für gelungene Gamification.

Die Firma Google hat immer mal wieder Zäune zu streichen, jüngst bat sie ihre „Freunde“ – sprich uns alle –, doch an einer tollen Sache mitzuwirken, nämlich dem Trainieren einer ihrer Lernmaschinen, die gezeichnete Objekte erkennen soll. Also machte sich die halbe Welt daran, auf der Website quickdraw.withgoogle.com zu zeichnen. Entscheidend für die Qualität – sprich Geschwindigkeit und Zuverlässigkeit in der Erkennung von Objekten – sind möglichst viele unterschiedliche Trainingsbeispiele. Die Software ist schon ganz gut, sie erkennt teilweise schon nach zwei Strichen, was gemeint ist, etwa ein Hockey-Schläger oder ein Schneemann bzw. eine Schneefrau. Google lernt durch das Malspiel viel mehr als nur Zeichnungen zu erkennen. Zum Beispiel enthüllt dieses Experiment kulturelle Unterschiede: Anhand eines Kreises – zeichne ich ihn im Uhrzeigersinn oder dagegen – oder eines Schneemanns – zeichne ich ihn mit zwei oder drei Kreisen – kann die Software etwa mit hoher Wahrscheinlichkeit feststellen, ob ich aus dem asiatischen Raum komme, links- oder rechtshändig bin, jung oder alt, weiblich oder männlich. Voraussetzung dafür ist allein die Auswertung der Browser-Anfragen, die z. B. den Ort verraten, an dem sich die Person befindet. Ähnlich wie Tom Sawyers Freunde waren und sind viele Menschen bereit, für Google zu zeichnen, obwohl es dafür keine Bezahlung gibt, wir im Gegenteil mit unserer kreativen Leistung auch noch eine Fülle verwertbarer kultureller Daten liefern. Googles Mal-Spielwiese belegt eindrücklich den Zusammenhang von KI-Algorithmen und deren Training durch Userdaten: Wir füttern die Maschine, die uns später dann in Form von Anwendungen wieder begegnet. Google sagt Danke.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

NPP 168: Wenn Männer stalken, drohen und abhören

Irgendwie weiß er immer, wo du bist und mit wem du gesprochen hast? Auch in Deutschland nutzen viele Spy-Apps, um Partnerinnen auszuspähen. Gemeinfrei-ähnlich freigegeben durch unsplash.com Daria Nepriakhina „Handys sind eine Schatzgrube. Wenn Sie das Handy Ihrer Freundin mit einer Spion-App überwachen, werden Sie alles über sie wissen und das auch ohne erwischt zu werden.“ Mit solchen Sätzen wirbt der Hersteller einer beliebten Spionage-App online für sein Produkt. Etwa 30 Euro im Monat kostet es, dann kann ein Freund oder Ex-Freund alle E-Mails und WhatsApp-Nachrichten mitlesen, die seine Partnerin schreibt, ihre Fotos sehen, ihren Standort verfolgen oder auch, was sie eigentlich auf Snapchat, Tinder oder Skype macht. Die Frau selbst bekommt das erst mal nicht mit.

So ein Eingriff in die Privatsphäre einer anderen Person ist extrem und doch ist das kein Einzelfall mehr. Wie Recherchen der Redaktion Motherboard ergeben haben , nutzen auch in Deutschland Tausende solche Apps. Eine Umfrage unter Frauenberatungsstellen aus dem vergangenen Jahr zeigt, dass es auch dort längst zum Alltag gehört: Frauen, die mit Hilfe von Handys ausspioniert werden, deren Partner sich die Passwörter zu ihren Accounts und Geräten aushändigen lassen, und bei Widerstand damit drohen, intime Bilder zu veröffentlichen.

Digitale Gewalt ist der Begriff, den Aktivist*innen und Fachleute in der vergangenen Zeit dafür geprägt haben: die Fortsetzung von Gewalt gegen Frauen mit technischen Mitteln. Das Ausspähen und Erpressen der Partnerin gehört dazu, ist aber nur ein Aspekt. Gruppen auf Reddit tauschen sich über die besten Techniken aus, um das Gesicht von ihnen unbekannten Frauen auf den Körper von Pornodarstellerinnen zu montieren. Andere verabreden sich in Foren zu Hass-Kampagnen gegen einzelne Frauen auf Twitter, veröffentlichen die Adressen von Politikerinnen und Feministinnen, oder schicken ungefragt Aufnahmen ihres Penis im Chat zu.

Ja, von solchen Angriffen sind auch Männer betroffen, sagt Anna Hartmann, die beim Bundesverband der Frauenberatungsstellen (bff) das Thema Digitale Gewalt betreut. Sie sind aber nicht betroffen, weil sie Männer sind. Frauen dagegen schon. Geschlechtsspezifische Gewalt nennt man das. Sie ist an sich nichts Neues, aber seit unser Alltag digitaler geworden ist, erstreckt sie sich nun auch in diese Bereiche.

Anne Roth ist Referentin für Netzpolitik bei der Linkenfraktion. Sie hat vergangenes Jahr eine Anfrage der Fraktion zum Thema begleitet und auf dem Congress des Chaos Computer Clubs einen aufsehenerregenden Vortrag dazu gehalten . Gemeinsam mit ihr und Anna Hartmann sprechen wir über die Frage, warum dieses Thema in Deutschland bisher so wenig Aufmerksamkeit bekommt, warum man Spionage-Apps nicht einfach verbieten kann (und so ein Verbot auch wenig bringen würde), warum es mehr Menschen mit Technik-Ahnung in den Beratungsstellen bräuchte und an welchen weiteren Stellen Geld, Studien und ganz schlicht guter Wille fehlen.

document.createElement(‘audio’);

Wie immer könnt ihr den Podcast auch als OGG-Datei herunterladen .

Shownotes

„Aktiv gegen digitale Gewalt“ , Info-Webseite für Betroffene von digitaler Gewalt

Bundesweite Datenbank von Beratungsstellen , die sich mit digitaler Gewalt auskennen

Anne Roth auf Twitter

„Stalking, Spy Apps, Doxing: Digitale Gewalt gegen Frauen“ , Anne Roths Vortrag auf dem 35C3

Kleine Anfrage der Fraktion Die Linke zu Digitaler Gewalt inklusive der Antworten der Bundesregierung

„Sigi Maurer sammelt Spenden für Klagen gegen Hass im Netz“ (netzpolitik.org)

„Voyeurismus: Das unsichtbare Verbrechen“ (Zeit Online)

„App Absher: Männer überwachen Frauen nicht nur in Saudi-Arabien“ (netzpolitik.org)

Die Istanbul-Konvention oder auch: Konvention des Europarates zur Verhütung und Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt

Gesetz gegen „Rache-Pornografie“ in New York (New York Times)

Cyber-Harassment-Helpline in Pakistan

Pakistanische Aktivistin Nighat Dad auf Twitter

Hamara Internet , ein Projekt zum Thema Digitale Gewalt gegen Mädchen und Frauen in Pakistan

Technology Safety , eine Webseite des National Network to End Domestic Violence (NNEDV) in den USA

Fachbereich Cyberstalking im FRIEDA Frauenzentrum Berlin

Hilfetelefon „Gewalt gegen Frauen“ des Bundesfamilienministeriums

Kleine Anfrage des Linken-Abgeordneten Dennis Lander im Saarland zu Digitaler Gewalt

Berliner Dienststelle für Straftaten gegen die sexuelle Selbstbestimmung

Ergebnisse einer Umfrage zu Digitaler Gewalt unter Frauenberatungsstellen und Frauennotrufen

Webseite BSI für Bürger

Studie des Pew Research Centers zu Online Harassment aus dem Jahr 2014

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Urheberrechtsreform: Wenn der Internetprotest ins Bierzelt kommt

Mehrere Hundert Menschen demonstrierten am 6. März in Hannover vor der CDU-Zentrale. Alle Rechte vorbehalten @Lalelein24 Die Proteste gegen Uploadfiter in der EU-Urheberrechtsreform ebben nicht ab. Nach den gestrigen Protesten vor den CDU-Zentralen in Hannover und Hamburg mit jeweils mehreren hundert Teilnehmenden, kündigten Aktivisten alleine in den letzten 24 Stunden für das Wochenende drei neue Demonstrationen an.

So werden nun am Samstag in Köln, Leipzig, Magdeburg und Kassel Proteste erwartet. In Köln sind die Gegner der Urheberrechtsreform seit Mitte Februar schon dreimal auf die Straße gegangen – und hatten jeweils tausende mobilisiert. Wir haben alle uns bekannten Demonstrationen und Termine in einer Liste gesammelt.

Protestaktion im Bierzelt

Zu einer Protestaktion kam es auch beim Politischen Aschermittwoch der CDU im nordrheinwestfälischen Recke . Dort war der EVP-Fraktionsvorsitzende Manfred Weber als Hauptredner angekündigt. Nicht angekündigt hatten sich etwa 15 Demonstrant:innen, die im geschmückten Bierzelt lautstark gegen Uploadfilter protestierten (Video) . Die Anhänger der Union reagierten empört, rissen den Protestierenden Plakate und Transparente aus der Hand. Angeblich nahm die Polizei später die Personalien von Beteiligten auf.

Nach Angaben eines Demonstranten waren insgesamt 50 Menschen an der Aktion beteiligt, der Großteil war von der Security nicht ins Bierzelt gelassen worden. Laut „IVZ aktuell“ soll Manfred Weber die Demonstranten mit den Worten „Demokraten hören einander zu“ kritisiert haben. Zur Erinnerung: Er wollte die europaweiten Proteste durch eine Vorverlegung des Abstimmungstermins im Europaparlament umgehen.

Webers Plan, die Abstimmung zu verlegen, wurde von verschiedener Seite als „demokratieverachtend“ bezeichnet und hatte am Dienstag Abend tausende Menschen in kurzfristig angesagten Demonstrationen auf die Straßen und vor die CDU-Zentralen getrieben .

#no13 – Dezentrale Proteste aus den Fenstern

Zu dezentralen Protesten unter dem Hashtag #no13 mit Plakaten, Schildern und Transparenten an Fenstern hat der Musiker und Produzent Bruno Kramm aufgerufen .

Die Mitmach-Aktion soll den Protest gegen die Urheberrechtsreform im Stadtbild und auf den Straßen unter dem Hashtag #no13 sichtbar machen und auf allen sozialen Netzwerken stattfinden. Die Zahl 13 bezieht sich auf den besonders umstrittenen Artikel 13 der Reform, der zum Einsatz von Uploadfiltern führen wird.

Als Gast beim Podcast Logbuch:Netzpolitik habe ich mit Tim Pritlove und Linus Neumann über die Protestbewegung und die neuesten Entwicklungen ausführlich gesprochen.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Was vom Tage übrig blieb: Cyber-Attacken, Elysium-Ende und 5G-Auktion

Wenn uns zu dem Bild die Melodie von “Über den Wolken” einfällt – begehen wir dann eine Urheberrechtsverletzung?Phishing attacks using third-party applications against Egyptian civil society organizations (Amnesty International)

Cyber-Angriffe auf ägyptische Menschenrechtsaktivist:innen sind vermutlich durch staatliche Stellen unterstützt worden. Amnesty International berichtet, dass es seit Anfang Januar 2019 wohl mehrere Attacken gegen E-Mail-Konten von Aktivist:innen und NGOs gab. Der Report fasst die Ereignisse zusammen und zeigt anschaulich, wie solche Attacken aussehen können.

Jagd auf ‚Elysium‘: Das Ende der größten deutschen Kinderporno-Plattform (Vice)

Heute fielen die vorerst letzten Urteile im Prozess um die Darknet-Seite Elysium, auf der sich Kinderschänder organisierten und Bildmaterial über Vergewaltigungen austauschten. Theresa Locker und Max Hoppenstedt beschreiben für Vice die Betreiber, die Szene und die technischen Tricks der Polizei.

Bundesregierung will lokales Roaming erst nach der 5G-Auktion beschließen (Handelsblatt)

Es klang von Anfang an wie eine Nebelkerze, jetzt dürfte das Thema aber bis auf Weiteres vom Tisch sein: In letzter Sekunde – immerhin soll die Versteigerung der 5G-Frequenzen am 19. März beginnen – wollte die Bundesregierung noch mit einer Novelle lokales Roaming gesetzlich festschreiben, um unterm Strich eine bessere Mobilversorgung und mehr Wettbewerb zu erreichen. Was wir selbst schon in den letzten Tagen gehört haben, bestätigt nun das Handelsblatt. Angeblich soll die Gesetzesänderung aber einfach später kommen – wenn die Frequenzen bereits vergeben sind.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

#Artikel 6: Ausschuss des EU-Parlaments lehnt Uploadfilter im Kampf gegen Terrorpropaganda ab

Laut EU-Kommission und den Mitgliedstaaten ist Terrorpropaganda im Internet ein großes Problem. Eine EU-Verordnung soll solche Inhalte aus dem Netz fegen, um die Bürger zu schützen, gefährdet dabei aber die Meinungs- und Informationsfreiheit. Gemeinfrei-ähnlich freigegeben durch unsplash.com Oscar Keys Nur selten schaffen es Paragraphen oder Artikel eines Gesetzes, zum weithin bekannten Schlagwort zu werden – zuletzt etwa der § 219a oder der Artikel 13 aus der EU-Urheberrechtsrichtlinie . Letzterer sorgt derzeit für Demonstrationen in ganz Deutschland , weil die darin enthaltenen Uploadfilter jeden einzelnen Inhalt auf seine Rechtmäßigkeit prüfen sollen, bevor er auf einer Online-Plattform erscheinen kann. „Man schießt mit der Schrotflinte Artikel 13 auf Youtube und Facebook und trifft aber leider noch das halbe Internet dazu“, warnte jüngst der netzpolitik.org-Chefredakteur Markus Beckedahl vor den brandgefährlichen Nebenwirkungen des Gesetzes.

Weniger bekannt ist hingegen der Artikel 6 aus dem gegenwärtig verhandelten Verordnungsentwurf der EU-Kommission , der die Verbreitung terroristischer Inhalte im Internet verhindern soll. Auch dieser sieht Uploadfilter vor – bloß dass diese nicht nur bestimmte Plattformen betreffen würden, sondern für alle in Europa tätigen Diensteanbieter verpflichtend angeordnet werden können. Darüber hinaus müssten sämtliche Online-Dienste, ob eine große Plattform wie Facebook oder ein kleines Blog wie netzpolitik.org, innerhalb einer Stunde auf Entfernungsanordnungen reagieren, um von Nutzern hinterlassene, mutmaßlich terroristische Inhalte zu löschen.

Flurschaden für die Meinungs- und Informationsfreiheit

Das würde nicht das halbe, sondern das ganze Internet unter die Räder kommen lassen und das Recht auf Meinungs- und Informationsfreiheit empfindlich einschränken. Denn zum einen ist „Terrorismus“ ein unscharfer Begriff, der etwa auf Aktionen zivilen Ungehorsams wie beispielsweise gegen die Rodung des Hambacher Forsts angewendet werden könnte. Zum anderen neigen automatisierte Filtersysteme zu Fehlern, weil sie den Kontext von Inhalten nicht einschätzen und beispielsweise bei wissenschaftlicher oder journalistischer Berichterstattung anschlagen . Und Anbieter könnten im Zweifel lieber zu viel als zu wenig löschen, um den drohenden Geldbußen von bis zu vier Prozent des weltweiten Jahresumsatzes zu entgehen.

Kein Wunder, dass der Vorschlag auf heftigen Widerstand stößt. Der kommt unter anderem aus der Zivilgesellschaft , aus der Agentur der Europäischen Union für Grundrechte , aus der Internet-Wirtschaft , von UN-Sonderberichterstattern – und jetzt auch aus dem EU-Parlament, das derzeit seine Position klärt, bevor es in die Verhandlungen mit der Kommission und dem Rat gehen kann. Am Montag hat der Ausschuss für Binnenmarkt und Verbraucherschutz des EU-Parlaments (IMCO) als erster beratender Ausschuss seinen Bericht beschlossen und sich mit überwältigender Mehrheit gegen die Vorab-Kontrolle aller Inhalte ausgesprochen.

Zielgerichtete statt automatisierte Maßnahmen

Anstatt im Kampf gegen mutmaßlich terroristische Inhalte im Internet auf sogenannte „proaktive Maßnahmen“ zu setzen – also von Künstlicher Intelligenz gestützte Uploadfilter, die solche Inhalte schon im Vorfeld selbstständig und automatisiert erkennen und ein Hochladen auf Online-Plattformen unterbinden –, schlägt der Bericht zielgerichtete und „spezifische Maßnahmen“ vor. Zudem stellt er klar, dass die Vorschriften „keine automatisierten Inhaltefilter oder andere Maßnahmen enthalten sollen, die ein systematisches Monitoring von Nutzerverhalten beinhalten“ (unsere eigene, nicht-juristische Übersetzung aus dem Englischen ).

Neben dem neu gefassten Artikel 6 entschärft der unter der Federführung der Berichterstatterin Julia Reda (Piraten/Grüne Fraktion) erstellte Bericht auch die insbesondere für kleinere Anbieter kaum umsetzbare, kurze Löschfrist. Statt einer harten Grenze von einer Stunde gibt der IMCO-Vorschlag den Anbietern mindestens acht Stunden Zeit, um Löschgesuchen „unverzüglich“ nachzukommen.

Das schützt nicht nur kleinere Anbieter, sondern macht die Verordnung obendrein kompatibel mit der E-Commerce-Richtlinie. Diese verbietet es den Mitgliedstaaten, Anbietern allgemeine Überwachungspflichten aufzuerlegen und regelt zudem das „Notice & Takedown“-Verfahren. Dieses Regelwerk, das die Grundlage für den rechtssicheren Betrieb von Online-Diensten bildet, kommt zwar in letzter Zeit immer heftiger unter Beschuss und dürfte in der kommenden Legislaturperiode überarbeitet werden. Bis es aber soweit ist, verlagern immer mehr EU-Gesetze durch die Aushöhlung dieses Prinzips Haftungsfragen zunehmend auf die Plattformbetreiber. Und das wiederum führt zur sogenannten „privatisierten Rechtsdurchsetzung“, die sich jeglicher demokratischen Kontrolle entzieht.

Die Zeit wird knapp

Die Stellungnahme des IMCO-Ausschusses ist nun das erste offizielle Signal, dass das EU-Parlament die Verordnung nicht im Schnellverfahren durchwinken könnte – selbst wenn der Ausschuss lediglich beratend und nicht federführend für die Position der Abgeordneten verantwortlich ist. Der Hauptverhandler des Parlaments im Ausschuss für bürgerliche Freiheiten, Justiz und Inneres (LIBE), der konservative Brite Daniel Dalton , gibt sich zwar zuversichtlich, den LIBE-Bericht noch in dieser Legislaturperiode festzurren zu können – die Abstimmung für den finalen LIBE-Bericht ist weiterhin für den 21. März angesetzt.

Doch das wäre erst der Startschuss für den Trilog, also die Verhandlungen zwischen Kommission, Rat und dem Parlament. Wie diese verlaufen werden, lässt sich derzeit noch nicht abschätzen, wird aber maßgeblich vom Inhalt des LIBE-Berichts abhängen. Und davon, ob sich die Abgeordneten dem Druck der Kommission beugen werden, der es nicht schnell genug gehen kann, sowohl bei der Verabschiedung des Gesetzes als auch bei der Entfernung möglicherweise illegaler Inhalte.

Denn neben Artikel 6 mit seinen Uploadfiltern sind auch die Artikel 4 und 5 problematisch, die den Prozess für eine mögliche Entfernung von Inhalten regeln. Beide Artikel sehen keine Kontrolle durch einen unabhängigen Richter vor, sondern verlassen sich auf die Einschätzung der Ermittlungsbehörden oder gar nur der privaten Plattformbetreiber selbst, ob nun ein bestimmter Inhalt illegal ist oder nicht. Auch an dieser Stelle bessert der IMCO-Bericht nach und schlägt zumindest eine nachträgliche, rechtsstaatliche Überprüfung von Entfernungsanordnungen vor. Das soll die Verschicker solcher Meldungen anregen, sorgfältig zu arbeiten, heißt es aus dem Parlament.

Die EU-Kommission hat solche Bedenken augenscheinlich nicht. So sagte etwa gestern der Kommissionsbeamte Hans Das vom Generaldirektorat für Migration und Inneres bei einer Veranstaltung zur geplanten Verordnung : „Online gibt es so viel Terrorpropaganda, die so schnell recycelt wird. Es wäre total irrational, die Beweisführung [ob es sich um einen tatsächlich illegalen Inhalt handelt] den Ermittlungsbehörden und den Gerichten aufzuhalsen“.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Plattformen: Die Zukunft von Notice & Takedown in Europa

Daten sind nicht das neue Öl. Aber Bohrplattformen wie diese können dennoch als Metapher für Online-Plattformen dienen. CC-BY 4.0 Divulgação Petrobras / ABr Kirsten Fiedler ist Senior Policy and Campaigns Manager bei European Digital Rights (EDRi), einer zivilgesellschaftlichen Organisation für digitale Rechte mit Sitz in Brüssel. Kirsten ist eine langjährige Autorin bei netzpolitik.org .

In Brüsseler Fluren sorgt die Marktmacht und Dominanz der Datenkonzerne Google und Facebook für immer größeren Missmut. Die Frage, wie solche Plattformen reguliert werden sollten und vor allem wie diese mit vermeintlich illegalen Inhalten umgehen, füllt ganze Konferenzräume. Noch gibt es keine konkreten Vorschläge, aber seit mehreren Monaten wird gemunkelt, dass die e-Commerce-Regeln in Europa kommende Legislaturperiode geändert werden sollen. Plattform-Regulierung ist mehr als ein Schlagwort: Das Thema konkretisiert sich und könnte in der Tat zur nächsten großen Lobby-Schlacht werden.

Worum es geht

Die e-Commerce-Richtlinie (2000/31/EC ) der Europäischen Union regelt zentrale Fragen rund um den elektronischen Geschäftsverkehr und vor allem die Haftung und Verantwortlichkeit von Providern.

Die Richtlinie bietet Diensteanbietern seit mehr als 15 Jahren einen sicheren Hafen. Sie schreibt vor, dass Anbieter unter bestimmten Bedingungen nicht für die Inhalte verantwortlich sind, die Nutzer*innen bei ihnen hochladen und teilen. Die Regel hat dazu beigetragen, dass sich das Internet revolutionär entwickeln konnte. Durch sie müssen Anbieter nicht fürchten, für jede Rechtswidrigkeit ihrer Nutzer vor Gericht geschleppt zu werden.

Die Richtlinie erklärt (Erwägungsgrund 40):

„Die Diensteanbieter sind unter bestimmten Voraussetzungen verpflichtet, tätig zu werden, um rechtswidrige Tätigkeiten zu verhindern oder abzustellen. Die Bestimmungen dieser Richtlinie sollten eine geeignete Grundlage für die Entwicklung rasch und zuverlässig wirkender Verfahren zur Entfernung unerlaubter Informationen und zur Sperrung des Zugangs zu ihnen bilden.“

Was ist „Notice & Takedown“?

Die e-Commerce Richtlinie hat in Europa indirekt ein sogenanntes „Notice & Takedown“-Verfahren eingerichtet. Laut Artikel 14 dieser Richtlinie können Provider von einer Haftungsbefreiung profitieren, wenn sie den Zugang zu Informationen schnellstmöglich entfernen oder deaktivieren, sobald sie Kenntnis von deren rechtswidrigem Charakter erlangen. Die Regeln gelten für jegliche Art von illegalen oder rechtswidrigen Inhalten.

Zudem bestimmt Artikel 15 der Richtlinie, dass Diensteanbieter nicht zur Internetpolizei ernannt werden dürfen – jedenfalls dürfen sie nicht zu einer allgemeinen, aktiven Überwachung aller Inhalte gezwungen werden.

Trotz der weiten Verbreitung bezeichnet der Begriff „Notice und Takedown“ nur eine von vielen Mechanismen, die ein Provider ergreifen kann. Passender wäre eigentlich „Notice und Action“, da der Begriff die verschiedenen Verfahren umfasst, um illegale oder rechtsverletzende Inhalte von ihren Plattformen aufgrund von einer erhaltenen Meldung zu beseitigen. Provider können auf unterschiedliche Weise auf Meldungen reagieren. Sie können entweder sofort handeln und den Inhalt sperren oder blockieren, oder auf eine Antwort des Nutzers oder der Nutzerin warten und entsprechend reagieren, nachdem sie per Gegen-Meldung eine Verteidigung erhalten haben.

Grundrechte und Kollateralschäden

„Notice und Action“-Mechanismen haben eine direkt Auswirkung auf die Meinungsfreiheit, da sie regeln, wie Inhalte aus dem Netz entfernt oder gesperrt werden sollen. Von Providern wird seit der e-Commerce Richtlinie erwartet, dass sie über die konkurrierende Rechte und Interessen entscheiden. Dies ist natürlich insofern problematisch, da Privatunternehmen nicht qualifiziert sind, Gerichte in einer derart wichtigen Aufgabe zu ersetzen. Dies wird auch oft als „privatisierte Rechtsdurchsetzung“ bezeichnet.

Weigern sich Plattformen, Inhalte zu löschen, laufen sie in Gefahr, für diese Inhalte haftbar zu werden. Gewinnorientierte Unternehmen wollen Kosten minimieren und vermeiden nach Möglichkeit Rechtsstreitigkeiten und Gerichtsverfahren. Daher ist es wahrscheinlich, dass eine Plattform ein Verfahren anwendet, das eher zu viel als zu wenig löscht. Es ist nicht verwunderlich, dass in vielen Fällen die Prüfung des möglichen illegalen Charakters des Inhalts und die Abwägung der betroffenen Rechte minimal sind. Dies dürfte zur präventiven Übersperrung von völlig legitimen Inhalten führen, auch „Overblocking“ genannt.

Schließlich sind die internen Prozesse der großen Plattformen intransparent. Das macht es unmöglich, objektiv zu analysieren, wie effektiv oder präzise die von ihnen geschaffenen Maßnahmen sind.

Wohin die Reise geht

Seit der e-Commerce Richtlinie haben einige wenige Plattformen im Internet eine große Marktmacht erlangt, sie nehmen eine immer aktivere Rolle ein und verfügen über unglaubliche Mittel – technologisch wie auch finanziell. Es stellt sich also immer mehr die Frage, ob die Regeln zum Haftungsausschluss noch zeitgerecht und sind.

Hinzu kommt ein kontroverser Trend auf EU-Ebene, der die Regeln der e-Commerce über den Haufen wirft: Plattformen müssen vermutlich bald proaktive Maßnahmen einsetzen, um Inhalte zu identifizieren und zu filtern, oder den Zugang zu ihnen zu sperren – was meist automatisierte Technologien, etwa Uploadfilter , bedeutet.

Die EU-Kommission schlug in den vergangenen Jahren mehrfach Regelungen vor, die auf automatisierten Systeme hinauslaufen. Ein Beispiel ist die Urheberrechtsreform, aber auch die Revision der Richtlinie über audiovisuelle Mediendienste und der Vorschlag zur Verhinderung der Verbreitung terroristischer Online-Inhalte . Im Hinblick auf den Schutz der Meinungsfreiheit wäre es ratsam, den horizontal geltenden sicheren Hafen für Provider nicht abzuschaffen – jedoch wird dieser bereits durch die genannten legislativen Initiativen vertikal ausgehebelt.

Die Frage ist also nun, wie die e-Commerce Richtlinie überarbeitet wird. Fest steht, dass eine Revision auch Chancen bietet. Bisher unklare Begriffe könnten geklärt, es könnte endlich harmonisiert sowie mehr Rechtssicherheit geschaffen werden. Es könnte endlich ein weitaus klareres, abgestuftes System für Europa eingeführt werden, das die Meinungsfreiheit wahrt und Vorschläge der Zivilgesellschaft sowie aus der Wissenschaft beachtet. Ein Beispiel dafür sind die Manila Principles oder die Santa Clara Principles .

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kennzeichenerfassung: Brandenburg speichert Autofahrten auf Vorrat

TraffiDesk: Auswertesoftware für Verkehrsverstöße. Alle Rechte vorbehalten Jenoptik In Brandenburg werden Kfz-Kennzeichen nicht nur nach Verdächtigen gerastert, sondern auch auf Vorrat gespeichert. Gestern haben Polizei und Staatsanwaltschaft in Berlin zugegeben:

Das vom Tatverdächtigen genutzte Fahrzeug […] wurde am Tag des Verschwindens Rebeccas von einer Verkehrsüberwachungsanlage auf der Bundesautobahn 12 zwischen Berlin und Frankfurt/Oder, am Montag, den 18. Februar 2019, um 10.47 Uhr und am darauf folgenden Tag, Dienstag, den 19. Februar 2019, um 22.39 Uhr, festgestellt.

Schon 2012 haben wir enthüllt , dass in Brandenburg Kennzeichen-Scanner nicht nur vorher definierte Kennzeichen suchen, sondern mit einen „Aufzeichnungsmodus“ auch sämtliche Kennzeichen speichern können.

Ein Jahr später haben wir die Standorte der vier stationären Geräte veröffentlicht , darunter auch das aktuell diskutierte auf der Autobahn 12 . Laut Journalisten ist die Polizei Brandenburg jetzt „stinksauer“ , weil ihre Kollegen in Berlin das nun erneut öffentlich bekannt gemacht haben.

Wie lange die Kennzeichen gespeichert werden, konnte uns auf Anhieb niemand sagen.

Straßenabschnitte flächendeckend erfasst

Schon 2008 hatte das Bundesverfassungsgericht eine „automatisierte Erfassung von Kraftfahrzeugkennzeichen“ nur unter strengen Auflagen erlaubt . Es ist strittig, ob das Brandenburger System mit diesen Vorgaben vereinbar ist. Vor wenigen Wochen hatte das oberste Gericht zwei weitere Aspekte von Kennzeichen-Scannern für teilweise verfassungswidrig erklärt .

Auch die Landesdatenschutzbeauftragte Brandenburg prüft das System, seit vier Jahren . Sie geht davon aus , „dass die Kameras ständig Kennzeichen aufzeichnen und daher bestimmte Straßenabschnitte entgegen der Entscheidung des Bundesverfassungsgerichts flächendeckend erfasst werden.“ Die Prüfbehörde hatte Mängel gerügt und „eine andere Rechtsmeinung als die Polizei“ vertreten.

Die Prüfung war damals noch nicht abgeschlossen : „Eine abschließende Prüfung und Bewertung der technisch-organisatorischen Ausgestaltung des Systems steht daher noch aus.“ Ob diese Prüfung mittlerweile abgeschlossen ist, konnte ein Sprecher der Landesdatenschutzbeauftragten auf Anfrage nicht sagen.

Sachverhalt wird geprüft

Auf Anfrage von netzpolitik.org haben Polizei und Politik in Berlin auf Brandenburg verwiesen. Die Polizei Brandenburg hat auf unsere Anfrage bisher nicht geantwortet. Ein Sprecher der Landesdatenschutzbeauftragten Brandenburg antwortete:

Den von Ihnen geschilderten Sachverhalt kennen wir bislang nur aus den Veröffentlichungen des gestrigen Tages; auch sind dazu Anfragen von Bürgern bei uns eingegangen. Darüber hinausgehende Informationen liegen uns nicht vor, wir gehen jedoch davon aus, dass es sich um das Kennzeichenerfassungssystem KESY handelt. Um eine datenschutzrechtliche Einschätzung des Sachverhalts vornehmen zu können, bitten wir das Polizeipräsidium Brandenburg heute um eine Stellungnahme.

Die Zulässigkeit der Kennzeichenerfassung bemisst sich unter anderem daran, auf welcher Rechtsgrundlage sie erfolgt ist. So erlaubt das Brandenburgische Polizeigesetz unter den in § 36a des Gesetzes formulierten Voraussetzungen eine Erfassung zu präventiven Zwecken; die Strafprozessordnung hingegen regelt in verschiedenen Vorschriften den Einsatz für repressive Zwecke, d.h. für Zwecke der Strafverfolgung, und sieht hierfür teilweise abweichende Bedingungen vor (u. a. § 111 , § 100h , § 163e StPO ).

Auch die von Ihnen erfragte Zulässigkeit der Aufzeichnungszeiträume hängt letztlich von den genannten Rechtsgrundlagen ab. So werden Nicht-Treffer bei einer präventiven Kennzeichenerfassung sofort automatisiert gelöscht, während für die zu Zwecken der Strafverfolgung erfassten Daten eine längere Speicherdauer zulässig ist. Insofern wird uns eine Bewertung der Angelegenheit erst nach einer Stellungnahme des Polizeipräsidiums möglich sein.

In diesem Zusammenhang möchten wir Sie darauf hinweisen, dass die Kennzeichenerfassung auf der Grundlage der Strafprozessordnung nicht Gegenstand der von Ihnen angeführten Entscheidungen des Bundesverfassungsgerichts zu automatisierten Kennzeichenkontrollen nach den Polizeigesetzen anderer Länder war.

Ob und inwieweit die Entscheidungen des Bundesverfassungsgerichts Auswirkungen auf das Brandenburgische Polizeigesetz haben, prüfen wir derzeit.

Die Thematik steht auch auf der Tagesordnung der heute stattfindenden Sitzung des Ausschusses für Inneres und Kommunales im Landtag Brandenburg. Die Sitzung ist öffentlich und wird in Echtzeit übertragen.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Was vom Tage übrig blieb: Datenfresser Duolingo, Schrotflinten-Anhörung und nie mehr SPD

In der Nacht ist es zeitweise stark bewölkt, aber trocken.Uber ist für tödlichen Unfall mit Autopilot strafrechtlich nicht haftbar (Neue Zürcher Zeitung, 2 Minuten)

Müssen sich Betreiber selbstfahrender Autos für Verkehrsunfälle ihrer Fahrzeuge verantworten? In dieser rechtlich und ethisch komplexen Frage gibt es nun ein Urteil aus Arizona. Ein Staatsanwalt dort sieht nach einem tödlichen Unfall eines autonomen Testautos von Uber keine Grundlage dafür, die Firma rechtlich zur Verantwortung zu ziehen.

Guess what? Facebook still tracks you on Android apps even if you don’t have a Facebook account (Privacy International, 8 Minuten)

Die NGO Privacy International berichtete bereits im Dezember, dass beliebte Apps aus dem Google Play Store automatisiert persönliche Daten an Facebook senden. Seither haben einige Softwarefirmen wie Spotify das abgestellt, aber noch immer melden zahlreiche beliebte Apps Daten an das soziale Netzwerk weiter, darunter Yelp und Duolingo.

Urheberrecht: Die Alles-Mitmach-Partei SPD (Sascha Lobo, Spiegel Online, 10 Minuten)

„Nie mehr CDU“ singen und twittern derzeit die gegen Artikel 13 Protestierenden, die Union ist die treibende Kraft bei der schädlichen Urheberrechtsreform. Aber die SPD macht auf eine Weise mit, die ihr jede Chance auf die Stimmen der Generation YouTube verbaut.

Mit der Schrotflinte durchs Internet (Rundfunk Berlin-Brandenburg, 11 Minuten)

Im Berliner Abgeordnetenhaus fand heute eine Anhörung zur EU-Urheberrechtsreform und Uploadfiltern statt. Markus Beckedahl war für uns einer der Sachverständigen. Der RBB fasst die Debatte zusammen.

Jeden Tag bleiben im Chat der Redaktion zahlreiche Links und Themen liegen. Doch die sind viel zu spannend, um sie nicht zu teilen. Deswegen gibt es jetzt die Rubrik „Was vom Tage übrig blieb “, in der die Redakteurinnen und Redakteure gemeinschaftlich solche Links kuratieren und sie unter der Woche um 18 Uhr samt einem aktuellen Ausblick aus unserem Büro veröffentlichen. Wir freuen uns über weitere spannende Links und kurze Beschreibungen der verlinkten Inhalte, die ihr unter dieser Sammlung ergänzen könnt.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Facebook missbraucht Handynummern zu Werbezwecken

Doch nicht ganz sicher, denn Facebook verwendet Handynummern weiter. CC-BY 2.0 Stock Catalog Immer wieder wird empfohlen, aus Sicherheitsgründen die Handynummer bei Online-Dienstleistern zurückzulegen, so auch durch das Bundesamt für Sicherheit in der Informationstechnik (BSI) . Zum besseren Schutz der persönlichen Daten kann bei vielen Internetdiensten neben Nutzer:innenname und Passwort auch die eigene Handynummer hinterlegt werden. Diese sogenannte Zwei-Faktor-Authentifizierung verbessert die Sicherheit, um sich vor fremdem Zugriff zu schützen: Würde sich unerlaubter Zugriff zu einem Account verschafft, wäre neben dem Passwort immer noch ein Code vom Handy notwendig, um völligen Zugriff auf den Account zu erhalten.

Zweckentfremdung der Handynummern

Jetzt stellte sich allerdings heraus, dass diese Daten zu anderen Zwecken – insbesondere Werbung – missbraucht werden, wie Zack Whittaker für techcrunch berichtet (in Deutsch bei Zeit Online ). Mehrere Tweets des Unternehmers und Bloggers Jeremy Burge sorgten Anfang der Woche für weltweites Aufsehen: Er zeigte, dass Facebook die Handynummern seiner Nutzer:innen nicht nur aus Sicherheitsgründen speichert, sondern zu Werbezwecken weiternutzt. Es gibt auch keine Möglichkeit, die eigene Nummer vollständig zu verbergen.

For years Facebook claimed the adding a phone number for 2FA was only for security. Now it can be searched and there’s no way to disable that. pic.twitter.com/zpYhuwADMS

— Jeremy Burge 🐥🧿 (@jeremyburge) March 1, 2019

Facebook nutzt also die Zwei-Faktor-Authentifizierung nicht nur, um die Accounts der User:innen sicherer zu machen. Die Handynummern werden zu Werbezwecken weiterverwendet, ohne dass Nutzer:innen dem vorher zugestimmt hätten oder im Nachhinein der Weiterverwendung widersprechen können. Zudem ist es nicht möglich, die Nummer komplett zu verbergen. Denn die Einstellungen erlauben es lediglich, den Kreis der User:innen, die die eigene Nummer sehen können, auf die Facebook-Freunde zu beschränken.

Der Missbrauch von Handynummern durch die Werbeplattform zeigt, dass die Zwei-Faktor-Authentifizierung einen Online-Account nicht nur sicherer macht. Problematisch ist allerdings, dass zugleich die Nummern ohne Zustimmung zu einem anderen Zweck verwendet werden können.

Kritik durch Datenschutzbeauftragten

Besonders bedenklich ist dies aus datenschutzrechtlicher Perspektive. Der Datenschutzbeauftragte von Hamburg, Johannes Caspar, zeigte sich besorgt über diese Entwicklung und äußerte gegenüber netzpolitik.org „erhebliche Bedenken mit Blick auf die Einhaltung der Bestimmungen der Datenschutzgrundverordnung“ (DSGVO):

Hier wird die Datensicherheit gegen den Schutz der Privatsphäre der Nutzerinnen und Nutzer von Facebook ausgespielt. Personen, die sich für eine Zwei-Faktor-Authentifizierung entscheiden, haben einen klaren Zweck für die Verwendung ihrer Mobilfunknummer festgelegt. Diese wird nun durch den eigenmächtigen Schritt von Facebook in den Bereich der zu wirtschaftlichen Zwecken einsetzbaren Daten der Nutzer „eingemeindet“, ohne dass hierfür eine Einwilligung der Nutzer vorab abgefragt wird. […] Dies gilt sowohl hinsichtlich der Verwendung der Nummer zur Auslieferung von Werbung als auch zur Identifizierung von Nutzerinnen und Nutzern.

Kritisch sieht der Datenschutzbeauftragte auch den Austausch von Daten zwischen Facebook, Instagram und Whatsapp, obwohl dieser eigentlich untersagt worden sei: „Mehr und mehr erhärtet sich der Verdacht, dass Facebook das Inkrafttreten der DSGVO nicht nutzt, um den Datenschutz zu optimieren, sondern um ihn tiefstmöglich zu unterlaufen“, so Johannes Caspar. „Die Datenschutzaufsichtsbehörde wird diese Fragestellung noch intensiver einer Prüfung unterziehen und dann gegebenenfalls den Vorgang der federführernden Aufsichtsbehörde in Irland überstellen.“

Kaum Auskunft von Facebook

Auf Anfrage von netzpolitik.org wurde die Verwendung der Handynummern zu Werbezwecken nicht weiter kommentiert. Eine Sprecherin von Facebook gab lediglich an, dass die Zwei-Faktor-Authentifizierung eine sichere, aber nicht verpflichtende Einstellung sei, und betonte, dass User:innen nicht über Handynummern oder Mailadressen gesucht werden könnten.

Damit bestätigt sich erneut, dass Facebook nach wie vor wenig Interesse an der Privatspäre seiner Nutzer:innen hat und Datenschutz nicht allzu ernst zu nehmen scheint. Denn klar ist, dass Handynummern zweckentfremdet und diese nicht komplett verborgen werden können.

Offen ist noch, wie mit solchen Datenschutzverstößen durch Facebook zukünftig umgegangen wird. Denn die neue DSGVO definiert klar, dass personenbezogene Daten nur für eindeutige Zwecke erhoben und nicht anders weiterverwendet werden dürfen (Art. 5 Abs. 1 b DSGVO, „Zweckbindung“). Sie könnte sich somit als nützliches Instrument im Kampf gegen den Missbrauch von Daten erweisen. Ob und wann dies jedoch gegenüber Facebook durchgesetzt wird, damit der Konzern endlich in seine Schranken gewiesen wird, bleibt abzuwarten.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.