Blogs

Neues Polizeigesetz: Streit um Kontrollen bei der Bremer Polizei

netzpolitik.org - 2 Juli, 2020 - 14:39

Am vergangenen Donnerstag hat die Bremer Regierungskoalition aus SPD, Grüne und Linke ihren Entwurf für ein neues Polizeigesetz in Bremen vorgestellt. Die Vorschläge enthalten mehr Befugnisse für die Polizei, etwa einen Ausbau der Videoüberwachung sowie Telekommunikationsüberwachung zur Gefahrenabwehr. Gleichzeitig sollen auch die Rechte von Betroffenen bei Polizeikontrollen gestärkt werden.

Seit einigen Jahren geben vor allem Länder mit Unions-geführten Innenministerien immer neue Instrumente in die Hände der Polizei. Neue Länderpolizeigesetze brauchten etwa Befugnisse zum Staatstrojaner-Einsatz oder für Taser. Es ist eine Spirale der Aufrüstung, bei der die Bundesländer anscheinend um das schärfste Polizeigesetz konkurrieren.

Gegen den bundesweiten Trend

Bremen schlägt einen anderen Weg ein und folgt damit dem Beispiel Berlins. Zwar würde die Polizei neue Befugnisse bekommen, zugleich soll jedoch die Überprüfbarkeit von polizeilichem Fehlverhalten für Betroffene erleichtert werden. Das stößt auf teils heftigen Widerstand und wird von der Deutschen Polizeigewerkschaft als Misstrauen gegenüber der Polizei bezeichnet. Es sei ein „fataler Tag für die Polizei“, sagte der innenpolitische Sprecher der CDU, Marco Lübke, und spricht von einem „Anti-Polizeigesetz“.

Einer der größten Streitpunkte im geplanten Gesetz ist die Ausweiskontrolle. Bislang darf die Polizei an vier Orten in Bremen jede Person ohne Anlass kontrollieren. Immer wieder würden an diesen sogenannten besonderen Kontrollorten rassistische Polizeikontrollen dokumentiert, sagt eine Mitarbeiterin der Beratungsstelle für Betroffene rechter Gewalt Soliport gegenüber netzpolitik.org.

Wer sich ausweisen muss, soll eine Kontrollquittung bekommen

Zukünftig müssten Polizist:innen stets einen „auf die Person bezogenen Anhaltspunkt“ für die Kontrolle nennen können und diesen auf Verlangen schriftlich auf einer Quittung aushändigen. Der bloße Aufenthalt an einem besonderen Kontrollort, wie etwa dem Hauptbahnhof, würde nicht mehr genügen.

So soll die Maßnahme für Bürger:innen transparenter werden. Die Idee dazu sei auf mehreren Fachtagungen zum Thema „Racial Profiling“ entstanden. Dabei habe man sich von Expert:innen aus anderen europäischen Ländern beraten lassen, wo es bereits positive Erfahrungen mit dem Instrument der „Kontrollquittung“ gebe, sagt der Sprecher der Grünen-Fraktion.

Die Deutsche Polizeigewerkschaft wirft der Regierung vor, „ideologiebedingt“ zu handeln. Ein Redakteur von Radio Bremen befürchtet, dass sich auf dieser Grundlage „jeder Drogendealer hinterher beschweren kann, wenn er kontrolliert wurde“. Doch alle Menschen müssen die Möglichkeit haben, die Rechtmäßigkeit von polizeilichem Handeln überprüfen zu lassen.

Unabhängige Kontrollen auf Missstände bei der Polizei

Die Koalitionsparteien wollen zudem eine unabhängige Beschwerdestelle schaffen, die Missstände untersuchen und für Bürger:innen, Polizist:innen und die Fraktionen im Landtag ansprechbar sein soll. Die Soliport-Beratungsstelle unterstützt das Vorhaben. Die Erfahrung zeige, dass „Menschen, die rassistische Kontrollen erleben, sich aus nachvollziehbaren Gründen nicht an die Polizei wenden, um Anzeige zu erstatten oder eine Dienstaufsichtsbeschwerde einzureichen“.

Außerdem soll die Datenschutzbeauftragte neue Instrumenten an die Hand bekommen. Wie in manchen anderen Bundesländern auch dürfte sie zukünftig eine Anordnung gegenüber der Polizei aussprechen, der die Polizei folgen muss.

Die bereits bestehende Kennzeichnungspflicht soll ausgeweitet und gesetzlich verankert werden. Seit 2014 müssen Polizist:innen in Bremen ihre Dienstnummer oder Namen an der Uniform tragen. Ausgenommen von der Regelung war bisher die Bereitschaftspolizei im Alltagseinsatz. Gelegentlich seien Beamt:innen derart kurzfristig zu Demonstrationen beordert worden, dass sie keine Zeit mehr gehabt hätten, rechtzeitig ihre Kennzeichnung anzubringen, sagt der Sprecher der Grünen-Fraktion. Zukünftig soll das verhindert werden, indem alle Polizist:innen ihre Kennzeichnung immer tragen müssen.

Prävention bei Gewalt in Partnerschaften

In einem engen Rahmen dürfte die Polizei zukünftig die Kontaktdaten von Menschen, die in ihrer Partnerschaft wiederholt Gewalt erfahren oder ausüben, an eine entsprechende Beratungsstelle weitergeben. Das soll die Hürden für den Erstkontakt senken. Wenn die betroffene Person nicht auf das Beratungsangebot reagiert, sollen ihre Daten wieder gelöscht werden.

Die Bremer Interventionsstelle gegen Beziehungsgewalt „Neue Wege“ forderte die Datenweitergabe seit Jahren und begrüßt die geplante Gesetzesänderung. „Opfer von häuslicher Gewalt fällt es meist schwer, in ihrer Ausnahmesituation die Entscheidung zu treffen eine Einverständniserklärung zu unterschreiben“, sagt eine Sprecherin gegenüber netzpolitik.org. Sie würden zwar meistens den Flyer erhalten, aber nicht aus eigener Initiative den Kontakt aufnehmen.

Gleiches würde zukünftig für Personen gelten, die einer gewaltbereiten Szene angehören. Bernd Wagner von Exit, einer Beratungsstelle für den Ausstieg aus dem Rechtsextremismus, lehnt eine solche geheime Kooperation von Sicherheitsbehörden und Beratungsstellen ab. „In unserer mehr als 20-jährigen Praxis haben sich Aktivitäten hinter dem Rücken von Personen nicht bewährt“, sagt er gegenüber netzpolitik.org. Er plädiert stattdessen für eine offene Vermittlung durch Polizeibeamte, die „in der Regel für alle sehr hilfreich“ sei.

Rechte von Trans- und Interpersonen sollen gestärkt werden

Die Rechte von Trans- und Interpersonen gegenüber der Polizei sollen gestärkt werden. Bei einer Durchsuchung am eigenen Körper sollen insbesondere Trans- und Interpersonen zukünftig einen Wunsch zum Geschlecht der durchsuchenden Beamt:in angeben und eine Begleitperson mitnehmen dürfen.

Auch der Ermessensspielraum der Justiz würde mit dem Gesetz eingeschränkt. Bisher kann die Dauer des präventiven Gewahrsams durch eine Richterin verlängert werden. Zukünftig wäre die Präventivhaft dann auf 96 Stunden gedeckelt. Bei allem, was darüber hinaus geht, müssten die Beamt:innen ein Ermittlungsverfahren eröffnen. In der Praxis dürfte dieses Instrument ohnehin kaum zur Anwendung gekommen sein. Ihnen sei kein einziger Fall bekannt, in dem eine Person länger als 48 Stunden von der Polizei festgehalten worden sei, sagt der Pressesprecher der Grünen-Fraktion gegenüber netzpolitik.org.

Videoüberwachung und Abhören von Telefonen

Als eines der letzten Bundesländer will Bremen der Polizei das Abhören von Telefonaten zur Gefahrenabwehr erlauben. Allerdings soll die Telekommunikationsüberwachung (TKÜ) in engen Grenzen stattfinden: So genügt es nicht, dass eine Person als verdächtig gilt, wie in Berlin geplant, vielmehr muss bereits ein konkretes Ereignis, wie eine schwere Straftat, absehbar sein und unmittelbar bevorstehen. Die TKÜ ist vorerst auf vier Jahre befristet und soll bis dahin evaluiert werden.

Zuletzt soll der Einsatz von Videokameras ausgebaut werden. Zukünftig sollen beispielsweise Kraftwerke dauerhaft überwacht werden. Außerdem will die Polizei auf Großveranstaltungen filmen dürfen. Wenn keine Straftaten vorliegen, müssen die Aufnahmen innerhalb von zwei Monaten gelöscht werden.

Im Herbst wird der Gesetzentwurf im Innenausschuss diskutiert. In der Regel werden dabei die Polizeigewerkschaften, die Datenschutzbeauftragte und externe Jurist:innen um ihre Einschätzung gebeten. Das Gesetz könnte noch in diesem Jahr verabschiedet werden.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Eilantrag zum Kohlegesetz vor Oberverwaltungsgericht: Transparenz nutzt nichts, wenn es zu spät ist

netzpolitik.org - 2 Juli, 2020 - 11:41

Wer mithilfe von Informationsfreiheitsgesetzen die Grundlagen von Regierungsentscheidungen erfahren will, hat ein grundlegendes Problem: Während in manchen Fällen Gesetzentwürfe innerhalb von wenigen Wochen veröffentlicht und beschlossen werden, lassen sich Bundesministerien bei der Beantwortung von Anfragen dazu monatelang Zeit.

Das führt dazu, dass Transparenz über neue Gesetze meist erst hergestellt wird, wenn ein Gesetz schon verabschiedet ist. Beispielsweise beim umstrittenen Kohlegesetz, das am Freitag der Bundestag beschließen soll. Kohlekonzerne sollen demnach für den anstehenden Kohleausstieg insgesamt 4,35 Milliarden Euro Steuergelder erhalten.

Entschädigungen zwei Milliarden Euro zu hoch

Unklar ist allerdings, auf welcher Grundlage die Milliardenzahlungen basieren. Das zuständige Bundeswirtschaftsministerium von Peter Altmaier (CDU) ist sich selbst offenbar nicht sicher, wofür die Milliardenzahlungen fließen sollen. Deswegen hatten die Organisationen ClientEarth und FragDenStaat einen Eilantrag beim Verwaltungsgericht Berlin eingereicht, um auf Basis des Umweltinformationsgesetzes sämtliche Informationen zur Berechnung der Entschädigungssumme zu erhalten.

Das Gericht hat den Antrag mit der Begründung abgelehnt, das Gesetz könne im Nachhinein noch geändert werden. Gerade in Bezug auf ein hart umkämpftes Kohlegesetz ist allerdings fraglich, ob dies in Bezug auf Entschädigungszahlungen so einfach möglich ist. Nach einem Gutachten des Öko-Instituts sind die geplanten Entschädigungen um zwei Milliarden Euro zu hoch angesetzt.

ClientEarth und FragDenStaat haben daher Beschwerde beim Oberverwaltungsgericht Berlin-Brandenburg eingelegt, über den voraussichtlich noch heute entschieden wird – vor der morgigen Abstimmung im Bundestag. Dabei hat die Entscheidung auch über den speziellen Fall hinaus Bedeutung. Wenn nämlich die Bundesregierung davon ausgehen kann, dass sie über die Hintergründe von Gesetzesvorhaben erst nach Abschluss von Gesetzgebungsprozessen berichten muss, fehlt damit ein Teil öffentlicher Kontrolle. Im Falle des Kohlegesetzes könnte dies einige Milliarden Euro kosten.

Transparenzhinweis: Arne Semsrott betreut für die Open Knowledge Foundation Deutschland das Portal zur Informationsfreiheit FragDenStaat.de.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Was vom Tage übrig blieb: Gesundheitsdaten, Gesichtserkennung und gelöschte Gruppen

netzpolitik.org - 1 Juli, 2020 - 18:32

Digitales Gesundheitswesen: Spezifikationen für das elektronische Rezept fertig (Heise)
Die Gematik, die für die elektronische Gesundheitsinfrastruktur in Deutschland zuständig ist, hat neue Spezifikationen veröffentlicht. Sie sollen die Grundlage dafür bilden, dass in genau einem Jahr einfache Rezepte als E-Rezepte ausgestellt werden können. Eigentlich sollte das E-Rezept noch in diesem Jahr eingeführt werden. Außerdem hat die Gematik die elektronische Patientenakte auf Stufe 2 gehoben – damit sollen jetzt neben Ärzten auch Hebammen und Entbindungspfleger, Pflegepersonal und Physiotherapeuten Zugriff auf die Patientenakte haben.

ACM calls for governments and businesses to stop using facial recognition (Venture Beat)
Neben vielen anderen Organisationen hat jetzt auch die amerikanische Association for Computing Machinery (ACM) hat ein Statement veröffentlicht, in dem sie den Gesetzgeber bittet, Gesichtserkennung sowohl für Unternehmen wie auch für Behörden zu verbieten. Die Technologie sei noch nicht ausreichend ausgereift und deshalb eine Gefahr für die Menschenrechte, heißt es in der Stellungnahme.

Facebook löscht hunderte Accounts und Gruppen von rechtsextremem Netzwerk (Spiegel)

Rund 320 Konten, mehr als 100 Gruppen und 28 Seiten, die im Zusammenhang mit dem rechtsextremen „Boogaloo“-Netzwerk aus den USA stehen, hat Facebook jetzt gesperrt. Dort wurde zu Gewalt gegen Zivilpersonen, Sicherheitskräfte, Beamte und Regierungsinstitutionen aufgerufen. In den vergangenen Tagen haben sich immer mehr Unternehmen von Coca-Cola über Volkswagen bis zu SAP einem Boykott angeschlossen, weil Facebook ihrer Meinung nach zu wenig gegen Hasspostings und Rassimus auf seinen Plattformen tut. Facebook will das jetzt ändern.

Jeden Tag bleiben im Chat der Redaktion zahlreiche Links und Themen liegen. Doch die sind viel zu spannend, um sie nicht zu teilen. Deswegen gibt es jetzt die Rubrik „Was vom Tage übrig blieb“, in der die Redakteurinnen und Redakteure gemeinschaftlich solche Links kuratieren und sie unter der Woche um 18 Uhr samt einem aktuellen Ausblick aus unserem Büro veröffentlichen. Wir freuen uns über weitere spannende Links und kurze Beschreibungen der verlinkten Inhalte, die ihr unter dieser Sammlung ergänzen könnt.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Internetfreiheit: Brasilien stimmt für Fake-News-Gesetz, das mehr Überwachung bringt

netzpolitik.org - 1 Juli, 2020 - 16:45

Am Dienstag hat der Senat in Brasilien ein Fake-News-Gesetz angenommen, das die Internetfreiheit gefährdet und neue Überwachungsmaßnahmen einführt. Das Gesetz verlangt unter anderem von allen Anbietern von sozialen Netzwerken oder Messengern, die mehr als zwei Millionen Nutzer:innen weltweit haben, eine Registrierungspflicht ihrer Nutzer mit Personalausweis. Brasilien hat heute schon eine Vorratsdatenspeicherung wie auch eine Pflicht, dass SIM-Karten-Registrierungen einen Identitätsnachweis benötigen.

Darüber hinaus sieht das Gesetz vor, dass soziale Netzwerke und Messenger alle Nachrichten, Nachrichtenketten sowie die beteiligten Nutzer:innen für drei Monate speichern, sofern diese „massiv weitergeleitet“ wurden. Die Electronic Frontier Foundation (EFF) befürchtet, dass diese Regelung auch Druck auf verschlüsselte Messenger ausüben könnte, denn bei einer Ende-zu-Ende-Verschlüsselung ist diese Regelung nicht anwendbar.

Gesetz könnte Protest-Mobilisierungen verhindern

Anbieter von Messengern werden mit dem Gesetz verpflichtet, die maximale Anzahl von Abonnenten in Gruppen zu begrenzen. Das heißt, dass Dienste wie beispielsweise Telegram, die in Hongkong oder Iran intensiv zur Organisation und Mobilisierung von demokratischen Protesten genutzt wurden, unter dem Gesetz nicht mehr in dieser Form operieren können. Kommunikation von vielen zu vielen soll laut dem Gesetz nicht mehr in Messengern, sondern nur noch öffentlich geschehen.

Weiterhin sollen große soziale Netzwerke und Messenger einen Ansprechpartner in Brasilien haben, welche Zugriff auf die Logs und Datenbanken haben und diese bei Bedarf an die brasilianischen Behörden herausgeben müssen.

Obwohl das Gesetz gegenüber der ersten Variante ein wenig entschärft wurde, bedroht es weiterhin die Internetfreiheit und die Privatsphäre der Nutzer:innen in Brasilien. Gegen das Gesetz hatten sich zahlreiche Menschenrechts- und Digitalorganisationen gewandt. Auch der UN-Sonderberichterstatter für die Meinungsfreiheit David Kaye hat das Gesetz kritisiert.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Medienpädagogik mit Freier Software: Nicht nur Technik fördern, sondern Wissen

netzpolitik.org - 1 Juli, 2020 - 13:40

Daniel Schlep ist selbstständiger Musiker und Medienkünstler und arbeitet als Medienpädagoge mit Menschen vom Kindergarten- bis zum Seniorenalter. Digitale Werkzeuge waren für ihn schon immer wichtig, um sich kreativ auszutoben. Seit einigen Jahren nutzt er ausschließlich Freie Software für seine Workshops – und das kommt gut an.

netzpolitik.org: Was heißt Medienkompetenz für Sie?

Daniel Schlep: Der Begriff selbst ist leider fürchterlich inflationär genutzt. Für mich heißt das vor allem ein gesundes Basiswissen und Verständnis dafür, was Freie Software ist. Denn für mich ist das der Schlüssel, um Probleme aus Ökonomie, Ökologie und Datenschutz zu lösen, die mit den Mainstream-Konzepten, an die wir uns seit den 80er Jahren klammern, einfach nicht funktionieren.

Ich erlebe immer wieder, dass in Schulen völlig sorglos Zoom, Skype oder Microsoft Teams genutzt werden – obwohl sogar im Schulministerium NRW auf der Internetseite steht, dass beispielsweise Microsoft Office 365 als bedenklich eingestuft und nicht empfohlen wird. Gleichzeitig sind die Schulen voll von Freier Software – aber meistens nur, weil es umsonst ist. Dabei wird aber schnell vergessen, dass der Nutzen von Freier Software darin liegt, dass das ein Gemeingut ist, wodurch Nutzer:innen kreativ werden können.

Genau da setze ich an: Ich gehe in Schulen rein und diskutiere mit den Schüler:innen, was Freie Software eigentlich ist – und wo sie schon genutzt wird, zum Beispiel mit Firefox oder LibreOffice. Wir arbeiten ganz praktisch mit den Geräten und wir schauen an, was es in den Bereichen Büro, Grafik, Video, Musik und Spiele oder Spieleentwicklung so gibt. Wir müssen gar nicht alle Systemadministrator:innen oder Spieleentwickler:innen werden, aber ein Grundverständnis davon entwickeln, was möglich ist.

Beats und virtuelle Bauklötze

netzpolitik.org: Haben Sie ein Beispiel, mit welcher Software Sie da arbeiten?

Daniel Schlep: Am liebsten natürlich im Musik-Bereich, das ist ja mein Steckenpferd. Da gibt es verschiedene Programme. Audacity zum Audioschnitt kennen viele Menschen; das kann aber viel mehr, als die meisten wissen. Ich habe beispielsweise schon mit Kindergartenkindern mit der Rhythmus-Maschine Hydrogen gearbeitet. Das ist erstaunlich, wie schnell die da einfache Beats selbst machen und kreativ werden können.

Außerdem merke ich immer wieder, wie viel Spaß Grundschüler, aber auch ältere Menschen haben, das Spiel SuperTux anzupassen. Oder auch Minetest, was die freie Alternative zu Minecraft ist und auch viel weniger Ressourcen braucht. Ich dachte lange, man kriegt die Kinder nur mit Grafik. Das stimmt aber gar nicht. Auch auf Terminal-Spiele fahren die Jugendlichen total ab.

netzpolitik.org: Kann man denn überhaupt mit Freier Software richtig arbeiten? Insbesondere im Kreativbereich schwören ja viele auf proprietäre Software.

Kunst nur mit Freier Software ist möglich, sagt der Medienkünstler. Daniel Schlep

Das ist Quatsch, dass man mit Freier Software nicht kreativ und produktiv sein kann. Ich arbeite seit fünf Jahren ausschließlich damit und ich bin professioneller Künstler. Es gibt vorgefertigte Linux-Betriebssysteme wie AV Linux oder Ubuntu Studio, die die wichtigsten Programme schon installiert haben, wie etwa Gimp für Bildbearbeitung, Krita zum Zeichnen oder Darktable für professionelle Foto-Rohdaten.

Damit kann man die gleichen Effekte erzielen, wie mit proprietärer Software auch. Dafür muss ich aber verstehen, wie die Programme funktionieren. Ich sehe, dass viele Anwendungssoftware mit automatischen Effekten funktioniert – das ist für mich aber so weit weg von Kunst, wie es nur geht. Ein anderer Vorteil an Freier Software ist, dass man die sogar vom USB-Stick starten kann und nicht auf Cloud-Systeme, die permanent Internet erfordern, angewiesen ist.

Material ist zweitrangig, wichtiger ist das Wissen

netzpolitik.org: Wenn das so gut funktioniert, warum läuft das dann nicht überall so?

Daniel Schlep: Am wichtigsten ist für mich dabei die Erkenntnis, dass Material zweitrangig ist. Das Wissen muss im Fokus stehen. Das Verhältnis der Budgets ist aber gerade genau andersrum: Fast alles wird für Hardware und Lizenzen ausgegeben, nur ein geringer Bruchteil fließt in Personal und Ausbildung.

Meine Erfahrung damit ist: Es wird Material abgekippt. Dann heißt es, man sei jetzt digital. Bei den Personen, die das umsetzen sollen, fehlt aber das Wissen. Lehrer:innen werden aber gar nicht richtig dafür geschult, sondern müssen sich selbst versuchen, da reinzuarbeiten – und fühlen sich doch unsicher im Umgang. Als Lösung gelten dann häufig iPads, die viel toller sein sollen. An etlichen Stellen kommt dann aber raus, das iPads für Schulen gar nicht gemacht sind.

netzpolitik.org: Warum das?

Daniel Schlep: Für mich sind die Funktionen dort Spielerei. Apple ist sehr, sehr gut mit seiner Werbung. Gute Rechner kann man bis 20 Jahre nutzen, iPads, aber auch ähnliche Microsoft-Geräte halten oft nur drei bis fünf Jahre. Dann wird der Akku zu schwach oder das Gerät zu langsam. Aus ökonomischer Sicht ist das gerade im öffentlichen Sektor nicht nachvollziehbar.

Diese Geräte bieten selbst nur eingeschränkte Möglichkeiten, eine Dateiverwaltung kennenzulernen. Das ist für mich aber das Minimum-Werkzeug, um überhaupt Kontrolle über den eigenen digitalen Haushalt zu haben. Viele Schüler:innen wissen aber gar nicht, was das ist und wie man damit umgeht. Der Begriff Medienpädagogik wird zwar immer in die Dose iPads reingedrückt, funktioniert aber nicht.

Upcycling in der Schule

netzpolitik.org: Wie könnte man das denn besser machen?

Wenn Geräte nicht wirklich repariert werden können, sind sie auch ökologisch fragwürdig. Spätestens, wenn die Software nicht mehr aktualisiert und dadurch unsicher wird, sind die Geräte reif für den Müll. Im Gegensatz dazu steht in den Schulen angeblich Elektro-Schrott.

Meistens ist das gar nicht kaputt, sondern kann einfach repariert werden. Auch das schaue ich mir gemeinsam mit den Schüler:innen an und wir beschäftigen uns mit den Innereien eines Computers. Vieles können wir upcyclen und wenn wir ein Linux installieren, dann läuft das viel besser auch auf älteren Geräten.

Für echte Kompetenz brauchen wir also Zeit – und die Lehrer:innen brauchen Ruhe, um sich damit beschäftigen zu können und entsprechende Fortbildungen. Aber dafür ist kein Geld da, weil das schon für Hardware ausgegeben wurde. Im Zuge des Digitalpakts kommt jetzt gerade Geld. Das sollten wir aber eigentlich in Wissen investieren, in Personal, in Menschen, in Leute, die vor Ort Dinge umsetzen oder Technik instandhalten.

netzpolitik.org: Vielen Dank für das Gespräch.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Interview zu Technikängsten: Ein kritischer Blick kann zu mehr Sorgfalt führen

netzpolitik.org - 1 Juli, 2020 - 09:31

Christian Vater war im Sonderforschungsbereich „Materiale Textkulturen“ der Deutschen Forschungsgemeinschaft tätig und arbeitete in verschiedenen Start-Ups als wissenschaftlicher Referent. Er ist Wissenschaftlicher Mitarbeiter am KIT – Institut für Technikzukünfte (itz) – Department für Geschichte, HEiKA-Projekt „Autonome Systeme im Spannungsfeld von Recht, Ethik, Technik und Kultur“. Eine kürzere Fassung des Interviews erschien zuerst beim Goethe-Institut unter der Lizenz CC BY-SA 3.0.

Für den Technikphilosophen Christian Vater stellt der Computer als Universalwerkzeug eine disruptive Technologie dar, die dementsprechende Reaktionen von Panik bis Euphorie auslöst. In Deutschland ließe sich dabei aber keine besonders starke Angstreaktion feststellen, vielmehr attestiert er den Deutschen einen aufgeklärteren Umgang mit gewissen Technologien, der besonders durch gesellschaftliche Akteure wie den Chaos Computer Club geschult wurde. Auch Hindernisse für deutsche Start-Ups sieht er eher in Infrastruktur und Finanzierung.

Der Technikphilosoph Christian Vater. Alle Rechte vorbehalten Ute von Figura, Heidelberg

Arne Cypionka: Wir wollen heute über Technikangst sprechen, auch darüber, ob es sich dabei um eine typisch „deutsche Angst“ handelt. Wie können wir uns diesem Begriff nähern? Lässt sich dieses Phänomen Ihrer Meinung nach über die gesamte Menschheitsgeschichte belegen oder kommt es zu Brüchen, beispielsweise durch bestimmte Technologien?

Christian Vater: Ich bin ja theoretischer Philosoph und kümmere mich um Wissenschaftstheorie und Wissenschaftsgeschichte. Da haben wir natürlich Schnittmengen mit der Technikgeschichte, aber gehen oft auch ein bisschen anders an die Sache heran. Zur Technikangst ist erst vor wenigen Monaten ein Beitrag von Martina Heßler und Bettina Hitzer in der Technikgeschichte erschienen, genau zum Thema Technikangst. Das Vorwort ist wundervoll lesbar und dort werden verschiedene Schwierigkeiten gesammelt, die man aus technikhistorischer Sicht hat, sich mit Fragen aus diesem Feld zu beschäftigen.

Angst ist als Kategorie nicht unbedingt Teil des Raums, den ich als theoretischer Philosoph untersuchen kann. Dementsprechend würde ich für meine eigene Arbeit eher den Begriff der Sorge vorziehen. Sorge ist ein Begriff, der irgendwo aus dem Grenzbereich der praktischen Philosophie, der politischen Philosophie und der Anthropologie kommt, den wir zum Beispiel in Harry Frankfurts „On Caring“ finden.

Sorge ist ein Modus des Umgangs mit der Welt ist und zum Umgang mit der Welt gehört auch ein Umgang mit den Werkzeugen und die Frage, wie ich mit der Welt umgehe, wenn ich Werkzeuge verwende. In die Klasse der Werkzeuge gehören natürlich auch Rechenmaschinen, Kommunikationsgerät, mediale Vervielfältigungsapparate und – natürlich – die universelle Rechenmaschine Computer, die alles gleichzeitig ist.

Dementsprechend kann man schwer in der Gegenwart über Sorge der Welt gegenüber oder anderen Menschen gegenüber nachdenken, ohne über Computer nachzudenken. Wenn man über Computer nachdenkt, ist es nicht mehr weit zu Spezialfragen wie der nach künstlicher Intelligenz.

Arne Cypionka: Könnte die universelle Rechenmaschine Computer also in besonderem Maße zu Technikangst führen?

Christian Vater: Seitdem wir Geschichte schreiben, finden wir Geschichten über neue Techniken und Technologien. Diese Geschichten sind immer sehr einschneidend und haben mit großen Hoffnungen, aber auch mit großen Ängsten zu tun. Sie können alle Formen annehmen, die wir an Literatur kennen. Es gibt großartige Versuche, Zäsuren zu markieren, entlang dessen, was wir aus heutiger Perspektive „Einführung disruptiver Technologien“ nennen.

Der Buchdruck wäre ein Kandidat für tiefgreifende Veränderungen durch disruptive Technologien, die Dampfmaschine ein anderer. Wenn ich mir die Geschichte dieser disruptiven Technologien anschaue, komme ich nicht umhin zu sagen: Ja, verkoppelte, verbundene Rechenmaschinen, die universell mit allen uns bekannten und verwendeten Medien umgehen können und die wir kooperativ nutzen – global – sind wohl eine disruptive Technologie.

Also erwarte ich zurzeit Mythenbildung und Angstgeschichten, sowohl was Erzählung über Ängste angeht, als auch was die Formulierung von Hoffnung angeht: „AI wird unseren Planeten erfolgreicher durch die Klimakatastrophe steuern können als jeder Mensch; künstliche Intelligenz wird selbstständig werden und uns alle vom Planeten tilgen.“

Wenn wir in das Regal mit Science-Fiction-Literatur schauen oder in die Cinethek, dann ist das alles schon da und auch nicht seit gestern, sondern mindestens seit der Romantik mit Frankenstein und auf jeden Fall in der Frühgeschichte des Kinos mit Metropolis. Hier kommt der Begriff der Sorge ins Spiel. Ich kann den Modus der Sorge verwenden, um mir die Technologie genau anzugucken, vielleicht in aufklärerischer Absicht, und versuchen, besser zu verstehen, wie diese Technologie auf Menschen wirkt.

Arne Cypionka: Nimmt die Computertechnologie aber nicht sogar unter diesen disruptiven Technologien eine Sonderstellung ein, wenn man an künstliche Intelligenz denkt – Maschinen, die sich potenziell selbst weiterentwickeln können?

Christian Vater: Sind Rechenmaschinen denkbar, die mehr sind als Werkzeuge des Menschen? Sind Rechenmaschinen denkbar, die durch einen Konstruktionstrick, durch einen Zufall wie einen Blitzschlag oder durch exponentielle Entwicklung nicht mehr unter unseren Maschinenbegriff fallen?

Meine Antwort darauf ist gleichzeitig spektakulär und auch nicht: Natürlich sind solche Maschinen denkbar.

Maschinen, die sich eigenständig rekonfigurieren können, umgeben uns bereits. Dieses Verfahren nennen wir maschinelles Lernen und es ist im Detail unspektakulär. Es ist gleichzeitig eine beeindruckende Technik, von der unsere Vorfahren vor 80 Jahren noch nicht geglaubt hätten, dass es so etwas gibt. Hat es dazu geführt, dass wir es plötzlich mit erwachten, intelligenten anthropomorphen Androiden zu tun haben? Nein!

Wir haben einfach Geräte, neben die wir keine Hilfskraft stellen müssen, die ständig alles umstöpselt und wir haben Geräte, die zum Beispiel Messreihen durchführen können, ohne dass ein Experte daneben steht und immer wieder am Rad dreht, weil die Geräte das Rad selbst drehen können. Unsere Technik ist adaptiv geworden. Nicht mehr, und nicht weniger.

Arne Cypionka: Dennoch entwickeln sich diese Maschinen zunehmend zu Blackboxen, bei denen nicht nur für den Laien nicht mehr nachvollziehbar ist, was im Inneren passiert. Stellt der Einsatz von solchen Technologien nicht potentiell eine Art gesellschaftlichen Kontrollverlust dar? Ich denke hier zum Beispiel an Predictive Policing, wo Algorithmen auf einer Datengrundlage zukünftige Verbrechen vorhersagen sollen und präventive Polizeieinsätze rechtfertigen.

Christian Vater: Predictive Policing ist mir als weiterer Versuch bekannt, Prognosewerkzeuge zu bauen, die stark datengestützt sind. Dahinter stecken zum einen Modelle, wie Verbrechen funktioniert, wie Menschen Verbrechen begehen; zum anderen demografische Annahmen, in welchem Viertel Personen wohnen, die bestimmte Verbrechen auf welche Art und Weise begehen.

Diese Annahmen sind immer mit der Suche nach Merkmalen verbunden, die den Konstrukteuren dieser Maschinen dabei helfen sollen, eben diese Annahmen zu treffen und zu begründen. Das heißt, hinter einem Apparat für Predictive Policing stecken sehr viele Annahmen, die man auflisten und Stück für Stück, zum Beispiel unter Zuhilfenahme soziologischer Werkzeuge, prüfen kann, wenn man sie transparent vorgelegt bekommt.

Das ist allerdings sehr viel Arbeit und die Frage ist, ob eine Behörde oder eine Firma, die Maschinen oder Apparate dieser Art entwickelt, Interesse daran hat, auch noch Arbeit in die Überprüfung der eigenen Grundannahmen zu stecken. Wenn nicht, wäre das eine Aufgabe für die interessierte akademische Öffentlichkeit.

Hierin besteht vielleicht eine Besonderheit in Deutschland. Im Gegensatz zu fast allen anderen Ländern der Welt haben wir die Möglichkeit, Vereine zu gründen. Das ist ein Artefakt unserer Institutionsgeschichte. Vereinsgründung ermöglicht es, eine Institution zu schaffen, die sich mit fast beliebigen Fragen beschäftigt. Eine dieser Fragen ist die nach dem Nutzen und dem Übel der Rechenmaschinen. Wir haben in Deutschland einen solchen Verein: den Chaos Computer Club. Dieser Verein wird inzwischen auch bei den Bundestagsanhörungen angehört.

Sie haben mich danach gefragt, ob ich bestimmte nationale Eigenarten sehe. Es fällt mir sehr schwer, sie im Großen zu sehen, denn unseren Ideenhorizont teilen wir mindestens mit der westlichen Welt. Wir alle haben Descartes gelesen und Hobbes und Kant. Wir zitieren Platon und Aristoteles und wir teilen Homer, Shakespeare und Goethe. Ob wir hier in Deutschland in einer anderen Welt leben, was zum Beispiel Ängste angeht, das halte ich für eine schwierige und voraussetzungsreiche Frage.

Was wir uns aber anschauen können ist, ob Deutschland als Staatswesen anders funktioniert. Ein Unterschied sind Vereine und wir haben einen auffällig aktiven und sehr ernst genommenen Verein, der sich mit diesen Fragen beschäftigt.

Arne Cypionka: Das heißt, durch Vereine wie den Chaos Computer Club gibt es in Deutschland, vielleicht stärker als in anderen Ländern, eine aufgeklärte Öffentlichkeit sowie eine stärkere Beteiligung der Bürgerinnen und Bürger in politischen Gremien bei Fragen der Informationstechnologie?

Christian Vater: Aber auch durch die Einrichtung von Hackerspaces, die ja nichts damit zu tun haben, dass man in das BTX-Netz einsteigt, um der Sparkasse Pfennigbeträge zu klauen, sondern die etwas damit zu tun haben, dass Spitzentechnologie der Gegenwart über private oder öffentliche Förderung oder Sponsoring beschafft wird und für alle interessierten Laien zur Verfügung steht, zum Beispiel mit Virtueller Realität, Drohnen oder mit 3D-Druck…

Arne Cypionka: Sehen Sie neben der aufklärerischen Arbeit des Chaos Computer Club noch andere Gründe für einen besonderen Umgang mit Technologie in Deutschland? Hat die oft unterstellte Ablehnung insbesondere digitaler Technologien vielleicht historische Ursprünge?

Christian Vater: Hier haben wir es vielleicht mit einem Zielkonflikt zu tun. Es gibt nur begrenzte Kapazitäten für Forschung und Entwicklung. In Deutschland lag der Schwerpunkt aus ganz verschiedenen Gründen nicht auf der Entwicklung von programmierbaren, elektrischen Rechenmaschinen. Vielleicht lag es daran, dass man der Meinung war, dass mit Kant die Logik zu Ende gedacht war und die Leibniz-Rechenmaschine das Maximum ist, was man im Prinzip aus den Versuchen herausholen kann, Logik zu mechanisierten.

Vielleicht lag es daran, dass man Ressourcen eher in die Atomforschung steckte, um die Unabhängigkeit der Energiegewinnung für die heimische Industrie und die heimischen Städte zu gewährleisten. Oder es lag daran, dass der Schwerpunkt im Maschinenbau lag, zum Beispiel in der Flugzeugforschung und in der Automobilentwicklung.

Diese beiden Beispiele sind übrigens auch hochkomplexe Technologien – vor denen wir auch in Deutschland nie Angst hatten.

Arne Cypionka: Als Garant für innovative Technologieentwicklung gelten heute Start-Up-Unternehmen. Sie selbst waren als wissenschaftlicher Referent zu künstlichen Intelligenzen in verschiedenen Start-Ups tätig. Was genau muss man sich darunter vorstellen?

Christian Vater: Spaß und Abenteuer. Und viel Arbeit, auch am Wochenende und an Feiertagen. Die Gelegenheit, sich als theoretischer Philosoph den Arbeitsalltag in einem entwicklungsgetriebenen Forschungsunternehmen anzuschauen, ist ein großes Privileg. Ich war auch eingestellt, um mit den einzelnen Entwicklungsteams mitzuarbeiten und sie zu begleiten, die konkreten Fortschritte zubeobachten um dann zu gucken, ob das konkret Gebaute, das Erhoffte und das, was andere publiziert haben, zusammenpasst.

Arne Cypionka: Im Vergleich mit dem Silicon Valley wirkt die deutsche Start-Up-Szene vorsichtiger und weniger chaotisch. Auch ein Mentalitätsunterschied zu den Vereinigten Staaten?

Christian Vater: Das sage ich nicht als Wissenschaftler, sondern als jemand, der da dringesteckt hat: Sie können über die Funktionsweisen der amerikanischen Startup-Szene sehr viel in der in der Autobiographie „Chaos Monkeys: Obscene Fortune and Random Failure in Silicon Valley“ des US-amerikanischen Start-Up-Gründers Antonio García Martínez nachlesen. Er war einer der ersten Leute, die im Silicon Valley dieses Spiel mitgespielt haben und seine Biografie ist lesenswert.

Ich kann Ihnen sagen, dass es so in Deutschland nicht funktioniert. Ich denke, es hat viel damit zu tun, dass bei uns die Finanzierungsstrukturen anders sind. Typischerweise ist es so, dass es in Deutschland nicht besonders viele Hedgefonds gibt, die sich auf Seed-Investment spezialisiert haben. Die wissen, wenn sie zehn kleine Start-Ups finanzieren und sie die Regeln der Finanzierung betrachten, dass nach drei Jahren eines dieser Start-Ups so viel Gewinn abwerfen wird, dass alle anderen Investitionen sich damit amortisieren.

Das haben wir in Deutschland nicht. Was wir in Deutschland haben, sind Sparkassen und Volksbanken, die typischerweise die ersten Investoren für ein neues Geschäft sind. Ich bin ein ganz großer Freund von Sparkassen und Volksbanken. Da sie aber mehr oder minder das Geld der Gemeinschaft verwalten, sind sie vorsichtige Geschäftspartner, die weniger leicht in Projekte investieren.

Das mag sich ändern, zum Beispiel dadurch, dass Universitäten diese Lücke identifiziert haben und jetzt selber Investment betreiben, das nennt sich Inkubator und ist so etwas wie eine universitätsinterne Förderung der ersten Phase, von der Idee zum Planen. Die Förderung ist da ganz niedrigschwellig: Sie brauchen einen Raum, sie brauchen eine Internetleitung, sie brauchen ein Postfach. Das zu bekommen ist erst mal gar nicht so einfach, wenn sie kein Geld haben.

Und es gibt zunehmend als Erweiterung der Hackerspaces, darüber haben wir vorhin schon geredet, so etwas wie spezielle Coworking-Spaces. Ein Beispiel dafür ist in Darmstadt entstanden, das Lab3 und der Hub31 drumherum, wundervoll. Da steht also das Equipment der Hackerspaces und daneben gibt es genau für diese erste Phase Büroräume. Und sie haben noch den Vorteil, dass sie mit diesen Geräten arbeiten können, zum Beispiel mit 3D-Druckern für Metall, was ihnen das Prototyping erheblich vereinfacht.

Das entsteht gerade, es gibt also Strukturunterschiede.

Arne Cypionka: Sie führen diese Unterschiede also eher auf Infrastruktur und Finanzierung zurück. Wäre es angemessener, von Skepsis gegenüber neuer Technologie statt von Technikangst zu sprechen und kann dieser kritische Blick unter Umständen vielleicht sogar als Vorteil betrachtet werden?

Christian Vater: Ich würde sagen ja und es wäre schön, wenn es ihn gäbe. Es ist aber auch wichtig festzuhalten, dass ein kritischer Blick kein destruktiver Blick und auch nicht pessimistisch sein muss. Er kann auch in Sorge zur Sorgfalt führen und muss nicht in Angst vor einer unbestimmten Zukunft münden.

Ein kritischer Blick ist auch nicht notwendig Auslöser der Maschinenstürmerei. Auslöser der Maschinenstürmerei sind meinen historischen Studien gemäß üblicherweise sozialökonomische Konflikte entlang von Veränderungen. Ich komme aus dem kleinen Städtchen Hannoversch Münden, wo Fulda und Werra zusammenfließen. Dieses Städtchen kontrollierte den Weserhandel über Jahrhunderte, die Flößer auf der Weser kamen aus Münden. Das erste Dampfschiff auf deutschem Boden, vielleicht sogar der Weltgeschichte, konstruiert von Denis Papin, ist bis nach Münden gefahren und wurde dort von den Flößern zerlegt – und zwar am Samstag, den 24. September 1707.

Bis heute haben wir im Rathaus ein großes Historiengemälde, was die glorreichen Flößer der Vergangenheit feiert. Aber da ging es nicht um die Angst vor einer Dampfmaschine. Da ging es um Durchfahrtsrechte und darum, dass die Flößer weiter flößen wollten.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

95. Netzpolitischer Abend: Polizeigesetze und Filteranalysen

netzpolitik.org - 1 Juli, 2020 - 08:04

Trotz Corona-Krise findet wie jeden ersten Dienstag im Monat am 7. Juli 2020 der Netzpolitische Abend der Digitalen Gesellschaft statt – ohne Vor-Ort-Publikum, trotzdem mit Stream zum Dabeisein. Die neue Referentin der Digitalen Gesellschaft wird sich bei dieser Gelegenheit kurz vorstellen. Außerdem steht auch unsere Redakteurin Marie mit auf dem Programm:

  • Marie Bröckling: Neues Polizeigesetz. Berlin macht es besser
    Die Berliner Landesregierung hat am 12. Juni 2020 einen Entwurf für ein neues Polizeigesetz [PDF] vorgelegt. Die Polizist:innen der Hauptstadt würden damit im wesentlichen zwei neue Überwachungswerkzeuge zur Hand bekommen: das Filmen mittels Bodycam und das Abhören von Telefongesprächen. Zugleich würden mit dem Gesetz langjährige Forderungen aus der queeren und Schwarzen Community sowie den Berufsverbänden von Sexarbeiter:innen aufgegriffen. Dazu gehören die teilweise Streichung eines Absatzes, der Racial Profiling begünstigt, und ein Wahlrecht zum Geschlecht der Beamt:in bei einer Durchsuchung am Körper. Im Vortrag gibt Marie einen Überblick, was sich für Berliner:innen ändern wird.
  • Johannes Filter: Warum automatisierte Filter rassistisch sind
    Mark Zuckerberg will mit sogenannter Künstlicher Intelligenz Hass aus dem Netz filtern. Aktuelle Verfahren reproduzieren jedoch rassistische Muster. Der Vortrag erklärt, warum es so schwer ist, faire Filter zu erzeugen. Johannes Filter hat sich im Rahmen seines Prototypefund-Projekts Kommentare.vis.one als auch in seiner Masterarbeit mit Maschinellem Lernen (KI) auf Kommentaren beschäftigt.
  • Volker Grassmuck: Uploadfilter im Urheberrecht kommen, aber nicht so schlimm wie befürchtet
    Während in Brüssel die Interessengruppen noch diskutieren, wie mit dem berüchtigten Artikel 17 der neuen EU-Urheberrechtsrichtlinie umzugehen ist, hat das deutsche Justizministerium seinen Umsetzungsvorschlag zur Diskussion gestellt. Doch Was sind Uploadfilter? Eine neue Broschüre der DigiGes klärt auf, wie Uploadfilter funktionieren, wofür sie verwendet werden und was die Probleme dabei sind.

Im Stream geht es um 20 Uhr los. Der Link wird kurz vorher über Twitter (#npa095) und auf der Seite der Digitalen Gesellschaft bekanntgegeben.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Repression gegen Demokratiebewegung: Abschiedsnachrichten aus Hongkong

netzpolitik.org - 1 Juli, 2020 - 07:54

Peking hat heute das neue „Sicherheitsgesetz“ für Hongkong erlassen, am Parlament der 7-Millionen-Einwohner-Stadt vorbei. Es ist der vorläufige Höhepunkt der Unterwerfung der Stadt und seiner Bewohner:innen unter das autoritäre chinesische Regime, die mit der Aushöhlung der Pressefreiheit und dem Untergraben anderer bürgerlicher Freiheiten begonnen hatte.

Das neue Sicherheitsgesetz (PDF) hat 66 Artikel und sieht für die neuen Straftatbestände Sezession, Subversion, Terrorismus und Mitwirkung bei einer Einmischung von außen Haftstrafen von zehn Jahren bis lebenslanger Haft vor.

Unter den Straftatbestand Terrorismus können auch schon „Vandalismus“ oder „Aufruhr“, vergleichbar mit Landfriedensbruch, fallen. Eine Einmischung von außen kann schon darstellen, wenn Aktivist:innen in Zukunft einen Appell an internationale Regierungen richten. Die Definitionen sind so weit gefasst, dass eine Anwendung des Gesetzes gegen alle möglichen Formen von demokratischem Protest und Dissidenz möglich sein wird. Darüber hinaus legt das Gesetz fest, dass Peking über die Interpretation des Gesetzes entscheidet: kein Gericht in Hongkong darf es überprüfen.

Das Gesetz sieht zudem ein schärferes Vorgehen gegen Nichtregierungsorganisationen und ausländische Presseorganisationen vor. Es gilt auch für Menschen, die nicht in Hongkong wohnen und gegen dieses Gesetz woanders verstoßen. Auch Unternehmen fallen unter das Gesetz und können bestraft werden.

Drangsalierung, Überwachung, Haft

Zudem kann die Pekinger Zentralregierung mit dem Gesetz ein „Büro für nationale Sicherheit“ mit eigenen Ermittlern in Hongkong eröffnen, die nicht von der Hongkonger Regierung juristisch oder parlamentarisch kontrolliert werden. Auf dem chinesischen Festland werden solche Büros zur Drangsalierung, Überwachung, Einschüchterung, Folterung und Inhaftierung von Menschenrechtsverteidigern und Andersdenkenden eingesetzt, schreibt Amnesty International.

Das Sicherheitsgesetz weitet die Überwachungsbefugnisse aus, es erlaubt die Überwachung von Verdächtigen. Mit dem Gesetz werden Gerichtsverfahren hinter verschlossenen Türen ermöglicht. Mit dem Gesetz wird China Angeklagte für Gerichtsverfahren nach Festland-China ausliefern können.

Bis zur Verabschiedung geheim

Das Gesetz fällt unter Anhang III des Grundgesetzes von Hongkong, der Verfassung der Sonderverwaltungszone. Das bedeutet, dass das Gesetz am Tag der Verabschiedung rechtskräftig wurde, ohne dass der Legislativrat der Stadt es prüfen konnte. Es war zudem bis zur Verabschiedung geheim.

„Es ist klar, dass das Gesetz schwerwiegende Auswirkungen auf die Meinungsfreiheit, wenn nicht auf die persönliche Sicherheit der Menschen in Hongkong haben wird“, sagt Professor Johannes Chan, Rechtswissenschaftler an der Universität Hongkong, gegenüber der BBC.

Seit Jahren kämpfen die Hongkonger:innen für demokratische Rechte. Die Protestbewegung der letzten 12 Monaten war die größte. Nun scheint sie mit dem Sicherheitsgesetz gebrochen zu werden. (Archivbild September 2019) CC-BY 2.0 Studio Incendio

Während die Pekinger Zentralregierung das Gesetz als „Schwert“ gegenüber einer kleinen Minderheit von Unruhestiftern darstellt, führt das Gesetz schon jetzt zu Akten von Selbstschutz und Selbstzensur bei Demokratie-Aktivist:innen in Hongkong, die beinahe ein Jahr, kreativ und mit großer Beteiligung demonstriert haben.

Als erste Reaktion traten bekannte Aktivist:innen wie Joshua Wong aus ihren Organisationen aus, weil sie fürchten, dass die Mitgliedschaft unter dem neuen Gesetz zu einer sofortigen Haft führen kann. Joshua Wongs Partei Demosistō löste sich nach dem Rücktritt vier ihrer Köpfe auf. Auch die Hong Kong National Front löste sich auf und verlagert ihre Arbeit nach Taiwan und London. Andere demokratische Organisationen könnten folgen.

Menschen löschen ihre Accounts und Beweismaterial gegen sie

DailyBeast berichtet von Schriftstellern, die bei den Verlagen um Löschung ihrer Texte bitten. Viele Menschen in Hongkong löschen ihre Twitter-Accounts und Inhalte auf Social Media, die Rückschlüsse auf politische Aussagen geben, weil sie Angst vor Repression haben.

Das hat auch der chinesisch-australische Künstler Badiucao festgestellt, dessen Zeichnung diesen Artikel aufmacht: „Ich verliere seit vier Tagen jeden Tag etwa 100 Follower, was sehr ungewöhnlich ist. Zudem bekomme ich Abschiedsnachrichten von Usern aus Hongkong, die mir noch ein letztes Mal schreiben, bevor sie ihren Account löschen.“

Am heutigen 1. Juli protestiert in Hongkong traditionell die Demokratiebewegung. Dieses Jahr ist die Großdemo erstmals verboten und es ist ungewiss, ob dieses Jahr wieder Hunderttausende auf die Straße gehen werden. Oder können.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Was vom Tage übrig blieb: Strafen, Sicherheitsvorfälle und Stellungnahmen

netzpolitik.org - 30 Juni, 2020 - 18:00

Künstliche Intelligenz: Bundesregierung will Meldepflicht bei Unfällen (Heise)
Im Februar von der EU-Kommission vorgestellt, hat die Bundesregierung heute eine Stellungnahme zur EU-Strategie rund um Künstliche Intelligenz abgegeben. Demnach soll für KI-Systeme mit hohem Risiko Buch geführt sowie eine Meldepflicht erschaffen werden, sollte es zu „Unfällen“ kommen. Ein Wach- und Alarmsystem soll dafür sorgen, dass Sicherheit sowie Verbraucher- und Grundrechte gewahrt bleiben, fasst Stefan Krempl das 28 Seiten starke Papier zusammen.

LfDI Baden-Württemberg verhängt Bußgeld gegen AOK Baden-Württemberg (LfDI Baden-Württemberg)
Die AOK Baden-Württemberg muss rund 1, 2 Millionen Euro Strafe zahlen. Sie hatte zwischen 2015 bis 2019 Gewinnspiele durchgeführt und dabei personenbezogene Daten der Teilnehmer erhoben. Diese Daten hat sie zu Werbezwecken genutzt, was nicht in allen Fällen rechtens war. Künftig soll eine neu geschaffene Task Force für Datenschutz sicherstellen, dass so etwas nicht mehr vorkommt.

Delivery Hero Confirms Foodora Data Breach (Data Breach Today)
Na Prost Mahlzeit. Beim Lieferdienst Foodora wurde bereits 2016 virtuell eingebrochen, dabei kamen Daten, darunter Namen, Adressen sowie gehashte Passwörter, von 727.000 Accounts in die falschen Hände. Betroffen sind auch Kunden aus Deutschland und Österreich, die dabei erbeuteten Daten zirkulierten später im Netz. Wer bei Foodora je einen Account hatte, sollte sicherheitshalber sein Passwort ändern.

Jeden Tag bleiben im Chat der Redaktion zahlreiche Links und Themen liegen. Doch die sind viel zu spannend, um sie nicht zu teilen. Deswegen gibt es jetzt die Rubrik „Was vom Tage übrig blieb“, in der die Redakteurinnen und Redakteure gemeinschaftlich solche Links kuratieren und sie unter der Woche um 18 Uhr samt einem aktuellen Ausblick aus unserem Büro veröffentlichen. Wir freuen uns über weitere spannende Links und kurze Beschreibungen der verlinkten Inhalte, die ihr unter dieser Sammlung ergänzen könnt.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

TikTok, WeChat & Co.: Indien blockiert zahlreiche chinesische Apps

netzpolitik.org - 30 Juni, 2020 - 13:14

Indische Behörden haben knapp 60 chinesische Apps und Online-Dienste aus dem Land verbannt, darunter die Video-Plattform TikTok und den Messenger WeChat. Die Dienste würden die „Souveränität und Integrität Indiens“ gefährden, begründete das indische IT-Ministerium den Schritt.

Das Ministerium habe viele Beschwerden erhalten, dass die Apps die Daten indischer Bürger stehlen und sie unautorisiert auf Server außerhalb Indiens transferieren würden, heißt es in einer Pressemitteilung der Behörde. Die Speicherung und Auswertung der Daten durch Indien feindlich gegenüber stehende „Elemente“ würde diese Notfallmaßnahme erfordern.

Verbot wird ausgeweitet

Die Spannungen zwischen Indien und China sind groß. Zuletzt war es zu tödlichen Scharmützeln an der indisch-chinesischen Grenze gekommen. Mindestens 20 indische Soldaten starben, die chinesische Opferzahl ist nicht bekannt. Es handelt sich um die größte Gewalteskalation zwischen den beiden Nuklearmächten seit über 50 Jahren. Kürzlich einigten sich die beiden Staaten auf einen Truppenabzug aus dem umstrittenen Himalaya-Gebiet.

Bereits 2017 untersagte die indische Regierung an der Grenze stationierten Truppen die Nutzung zahlreicher aus China stammender Apps. Auch damals gab es einen militärischen Hintergrund, Apps wie Weibo oder BeautyPlus seien Spyware und würden die nationale Sicherheit gefährden, warf die ethno-nationalisitische Regierung von Narendra Modi den über 40 Anwendungen vor.

Nun wurde das Verbot auf mehr Apps und ganz Indien ausgeweitet. Wie genau der Bann durchgesetzt werden soll, bleibt derzeit unklar. Die Apps könnten beispielweise aus den App Stores von Apple oder Google verschwinden, in Frage kommen aber auch Netzsperren, die in Indien regelmäßig verhängt werden.

Erst kürzlich hat Indien staatlichen Netzbetreibern verboten, Equipment von chinesischen Herstellern wie Huawei oder ZTE zu nutzen. Die billige Ausrüstung spielt eine große Rolle beim einsetzenden Ausbau der 5G-Mobilfunktechnik.

Die USA haben den Einsatz von Technik dieser Unternehmen verboten und üben starken Druck auf die EU und andere internationale Partner aus, ebenfalls nachzuziehen. Angeführt werden sicherheits- und geopolitische Bedenken. Bislang sträubt sich die EU dagegen, ein klares Verbot auszusprechen. In Deutschland ist die Debatte noch nicht gänzlich abgeschlossen, was für Verunsicherung in der Branche sorgt.

Wichtiger indischer Markt

„Techno-Nationalismus, der Daten als nationales Vermögen sieht, ist schon seit einiger Zeit populär in Indien“, sagte Nikhil Pahwa vom indischen Online-Medium MediaNama gegenüber der NY Times. Es sehe ganz danach aus, sagte Pahwa dem eigenen Medium, dass es sich weitgehend um eine politische Entscheidung handle, die ein Signal an China senden soll.

In den vergangenen Jahren schafften es viele chinesische Online-Dienste, Fuß auf dem riesigen indischen Markt zu fassen. Über 600 Millionen Menschen nutzen dort das Internet, rund ein Drittel aller weltweiten TikTok-Nutzer sollen etwa aus Indien stammen.

Die rasant wachsende Video-Plattform sah sich zuletzt heftiger Kritik ausgesetzt. Zum einen bediente sich das chinesische Unternehmen einer fragwürdigen Moderationspraxis und unterdrückte potenziell kontroverse Inhalte, die sich mal gegen Menschen mit Behinderungen, mal gegen Menschenrechtsaktivisten in Hongkong richten.

Zum anderen wurden Sicherheitsbedenken laut, weil die App bei manchen Betriebssystemen auffällig oft und ohne Anlass die Zwischenablage auslas sowie zahlreiche weitere Daten abzugreifen schien.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Polizeigewalt beim G20: Keine einzige Anklage

netzpolitik.org - 30 Juni, 2020 - 11:20

Unmittelbar nach dem G20-Gipfel in Hamburg tauchten dutzende Videos, Fotos und Augenzeugenberichte auf, in denen Fälle von mutmaßlich rechtswidriger Polizeigewalt dokumentiert sind. Die teilweise brutalen Videos lösten eine bundesweite Debatte über Polizeigewalt aus.

Drei Jahre später sind die Ermittlungen so gut wie abgeschlossen. Die traurige Bilanz: Von den 169 eingeleiteten Verfahren, 133 davon wegen Körperverletzung im Amt, hat bislang kein einziges zu einer Anklage geführt.

Täter:innen konnten oftmals entweder nicht identifiziert werden oder die Ermittlungsbehörden hielten den Gewalteinsatz für gerechtfertigt. Mittlerweile sind 120 Verfahren eingestellt. Das geht aus den Antworten auf eine Große Anfrage der Fraktion der Linken in Hamburg hervor. Der einzige erlassene Strafbefehl richtete sich gegen einen Polizeibeamten, der einen anderen Polizeibeamten am Finger verletzte.

Um ein Gefühl zu bekommen, welche Art von Gewalt die Staatsanwaltschaft für gerechtfertigt hält, muss man sich die Beispiele anschauen.

Das mildeste Mittel?

Eine Frau in roten Leggins und blauem Shirt war auf einen Räumpanzer der Polizei geklettert. Dass die Polizei hier Maßnahmen ergreifen darf, ist unstrittig.

Der Verhältnismäßigkeitsgrundsatz beim polizeilichen Handeln legt fest, dass die Polizei als Träger des Gewaltmonopols immer das mildeste Mittel einsetzen muss, das geeignet und erforderlich ist, um das Ziel einer Maßnahme zu erreichen. Polizist:innen haben nicht das Recht, die für sie einfachste, bequemste, effektivste und schnellste Maßnahme umzusetzen.

In einem längeren Video sieht man, dass die Polizei nicht unter Druck ist oder angegriffen wird. Ein Polizist spricht die Frau auf dem Panzer an, etwas später erscheinen etwa 30 weitere Polizist:innen und zwei Wasserwerfer. Das mildeste Mittel ist ganz offenbar, dass die Polizei nun die Frau noch einmal anspricht und dann mit Polizist:innen unter Anwendung einfacher Gewalt vom Dach des Panzers holt.

Stattdessen greifen zwei Beamte zu Pfefferspray, einem Reizstoff, das vom Bundesgerichtshof als „gefährliches Werkzeug“ eingestuft wird und dessen nicht-polizeilicher Einsatz regelmäßig zu Verurteilungen wegen gefährlicher Körperverletzung führt. Der Reizstoff löst starke körperliche Schmerzen aus, außerdem können bei bestimmten gesundheitlichen Voraussetzungen Komplikationen mit Todesfolge auftreten.

Pfefferspray ist offensichtlich nicht das mildeste Mittel, in der Antwort des rot-grünen Senats aber heißt es: Der „Einsatz von Pfefferspray gegen Person auf Räumpanzer war gerechtfertigt“.

Zusammenschlagen und weitergehen

Im Fall des „Mannes mit den lila Haaren und der Beinschiene“ schlagen mehrere Beamten eine Person, werfen sie zu Boden traktieren sie mit einem Tritt und mehreren Faustschlägen ins Gesicht. Die Polizist:innen lassen irgendwann von ihm ab und gehen einfach weiter. Es sieht damit wie eine Strafmaßnahme aus.

Auch hier wurde das Ermittlungsverfahren eingestellt, „weil die polizeilichen Maßnahmen gerechtfertigt waren“, heißt es in der Antwort.

Es gibt zahlreiche Fälle wie diesen.

Nach dieser „Aufarbeitung“ der Polizeigewalt von Hamburg müssen wir fragen: Was bitte müssen Polizeibeamte eigentlich noch machen, damit eine Maßnahme später nicht mehr als gerechtfertigt eingestuft wird?

In jedem fünften Fall bleiben Polizist:innen unerkannt

Neben den Entscheidungen, dass derart brutale Vorgehensweisen gerechtfertigt sein sollen, zeigt der Stand der Ermittlungen ein anderes Problem auf: Viele mutmaßliche Täter:innen in Uniform können gar nicht erst identifiziert werden.

In 24 Fällen der 120 eingestellten Verfahren konnten die Polizist:innen nicht gefunden werden. Das ist jedes fünfte Ermittlungsverfahren.

Mit einer konsequenten Kennzeichnungspflicht von Polizeibeamt:innen ließe sich diese Ermittlungslücke in vielen Fällen schließen. Daran besteht aber auf Seiten von Polizei, Polizeigewerkschaften und konservativer Sicherheitspolitik kein Interesse, die Kennzeichnung wird als „Generalverdacht“ verunglimpft. Bis heute haben mehrere Bundesländer und die Bundespolizei keine Kennzeichnungspflicht.

„Bankrotterklärung des Rechtsstaats“

Der Republikanische Anwaltsverein (RAV) spricht bei der Aufarbeitung der Polizeigewalt beim G20-Gipfel von einer „Farce“. Es seien keine Ermittlungen, sondern es gehe um die „umfassende Immunisierung der Polizei gegen jede Strafverfolgung“. Philipp Krüger von Amnesty International nennt die bisherige Aufarbeitung „eine Bankrotterklärung des Rechtsstaats“.

Deniz Celik von der Fraktion der Linkspartei in Hamburg sagt gegenüber netzpolitik.org, es sei „unfassbar, dass nach wie vor kein einziger Polizist angeklagt wurde.“ Die derzeitigen Strukturen zur Aufarbeitung und Verfolgung von Polizeigewalt seien offenbar völlig ungeeignet.

Das Signal, das von Hamburg ausgeht, ist fatal: Polizist:innen können sich sicher sein, dass sie selbst in eindeutigen Fällen keine Strafverfolgung zu befürchten haben und dabei die Rückendeckung der Politik genießen.

Während gegen mutmaßliche Gewalttäter:innen unter den Demonstrierenden immer wieder die „ganze Härte des Rechtsstaates“ in Stellung gebracht wird, bleibt dieser in der Verfolgung von Straftaten von Polizist:innen windelweich und zahnlos.

Ein Rechtsstaat zeichnet sich aber dadurch aus, dass er verbindliche Regeln für alle schafft und auch die staatlichen Organe diesen unterwirft. Der so oft beschworene Rechtsstaat wird sonst zur hohlen Phrase, die einzig und allein der „Desavouierung des politischen Gegners, der dadurch zum inneren Feind gestempelt wird“ dient, wie Danijel Majic nach dem G20-Gipfel treffend schrieb.

Es gibt Ideen für Reformen

Der staatliche Umgang mit der Polizeigewalt von Hamburg macht deutlich, dass sich etwas ändern muss, wenn wir der Polizei in Zukunft nicht einen Freibrief für Gewalttaten gegen Protestierende geben wollen.

In einer Demokratie gibt es viele mögliche Reformansätze, die das Ausmaß von rechtswidriger Polizeigewalt eindämmen können. Das fängt mit Kleinigkeiten an, wie die Hürden für den Einsatz von Pfefferspray höher zu setzen und dessen Gebrauch und die dadurch entstehenden Schäden zu erfassen. Eine Kennzeichnungspflicht würde zumindest die Chance bietet, dass Täter:innen in Uniform ermittelt werden können.

Wir könnten polizeiliche Befugnisse zurückdrehen oder die Grundrechte von Demonstrierenden stärken. Wir könnten die Militarisierung der Polizei stoppen, mit Anti-Diskriminierungsgesetzen Rassismus bekämpfen oder versuchen die Cop Culture in der Ausbildung der Polizei zu verändern. Es gibt viele Ansätze.

Die Pseudo-Aufarbeitung von Hamburg zeigt aber vor allem eines: Wir brauchen so schnell wie möglich von der Polizei unabhängige Beschwerdestellen, damit nicht die Polizei gegen sich selbst ermittelt und so wie in Hamburg auch die härtesten Rechtsverletzungen unter den Tisch gekehrt werden.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Deplatforming: Großes Hass-Domino in sozialen Netzwerken

netzpolitik.org - 30 Juni, 2020 - 09:47

Kein guter Wochenstart für weiße Nationalisten, Rassisten sowie Donald Trump und seine Fans in sozialen Netzwerken. Nachdem Facebook nun auch Hass-Postings des US-Präsidenten mit Warnhinweisen versehen will, hat die Videostreaming-Plattform Twitch Donald Trump vorübergehend den Account abgedreht und auch Inhalte entfernt. Begründet wurde die Maßnahme mit Hassrede. Das zum Amazon-Konzern gehörende Twitch ist damit die erste Plattform, die Trump wirklich bannt.

Bei Reddit hingegen ging es Trump-Fans an den Kragen. Die Plattform entfernte heute zahlreiche Sub-Reddits, darunter „The_Donald“. Diese hätten regelmäßig diskriminierende „regelbrechende Inhalte“ gehostet.  Reddit änderte im Zuge der Ankündigung auch seine Richtlinien für Nutzer:innen: Communities und einzelne Nutzer:innen, die Hass auf Grundlage von Identität verbreiten, können von nun an gelöscht werden.

Youtube sperrt 25.000 Kanäle wegen Hassrede

Youtube schmeißt derweil den amerikanischen Neo-Nazi Richard Spencer und den kanadischen Rechtsradikalen Stefan Molyneux sowie weitere rassistische Kanäle von der Videoplattform. Molyneux alleine hatte mehr als 900.000 Abonnenten.

„Wir haben strenge Richtlinien, die Hassrede auf YouTube verbieten, und schließen jeden Kanal, der wiederholt oder auf unerhörte Weise gegen diese Richtlinien verstößt“, sagte ein YouTube-Sprecher gegenüber The Daily Beast. Nach einer Aktualisierung der Richtlinien habe das Unternehmen einen fünffachen Anstieg bei der Entfernung von rassistischen Videos bemerkt und habe in diesem Zug über 25.000 Kanäle wegen Verstoßes gegen die Richtlinien für Hassrede eingestellt.

Deplatforming

Was hier auf den Plattformen gerade passiert, nennt sich Deplatforming. Es meint den Ausschluss von Accounts aus sozialen Netzwerken oder aber auch von Zahlungsdienstleistern. Deplatforming verringert in der Regel die öffentliche Sichtbarkeit der betroffenen Organisationen oder Einzelpersonen signifikant und oftmals auch deren finanzielles Einkommen. Es ist ein sehr mächtiges Instrument, das den privaten Plattformen zur Verfügung steht.

In manchen Fällen gibt es anfangs eine erhöhte Aufmerksamkeit durch einen Streisand-Effekt, doch meist folgen nur vergleichsweise wenige Nutzer:innen den Verbannten in ihre neue Heimat auf kleineren oder Special-Interest-Plattformen, die sich nur an eine bestimmte politische Zielgruppe richten. Das schmälert ihre Reichweite dauerhaft, da sich die Medienkonsumgewohnheiten der meisten Menschen nicht wegen eines gesperrten Accounts grundlegend ändern.

Große Macht für soziale Netzwerke

Problematisch am Deplatforming auf marktdominanten sozialen Netzwerken wie Youtube oder Facebook ist, dass sich Betroffene nur sehr schwer juristisch wehren können und es keine vernünftigen Widerspruchs- und Einspruchsmechanismen auf den Plattformen selbst gibt. Wer fälschlicherweise von einem der marktdominanten Netzwerke ausgeschlossen wird, verliert möglicherweise seine gesamte Reichweite.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Was vom Tage übrig blieb: Bausimulatoren, Bunker-IPs und Boykott

netzpolitik.org - 29 Juni, 2020 - 18:00

„Größter Humbug war die Behauptung, die Richtlinie könne ohne Upload-Filter umgesetzt werden“ (sueddeutsche.de)
Simon Hurzt hat die netzpolitische Sprecherin der Grünen Tabea Rößner dazu interviewt, wie es um die Uploadfilter steht. Das Justizministerium hatte letzte Woche einen Entwurf zur Umsetzung der Urheberrechtsreform veröffentlicht, der gegen die Versprechungen Uploadfilter zu bringen droht. Rößners Fazit: „Auf den ersten Blick sieht vieles im neuen Entwurf ganz vernünftig aus, aber die Tücke steckt oft im Detail.“ Wir kamen bei unserer Kurzanalyse zu einem ähnlichen Ergebnis.

Missing Link: Wie ich beinahe den BER eröffnete (heise.de)
Maximilian Kraft hat den BER-Bausimulator des Postillion durchgespielt und amüsant rezensiert. „Beim Bau tauchen immer wieder Baumängel auf, die es zu beheben gilt, außerdem darf man den Eröffnungstermin nicht überschreiten. Den Termin kann man zwar beliebig oft nach hinten verschieben, darf dies aber nicht vergessen.“ Zum Glück lässt sich das Verschieben mit ein bisschen Geld automatisieren. Und zum Glück geht es nach dem Game Over einfach immer weiter. Doch führt das wirklich zum Erfolg?

Cyberbunker 2.0: Analysis of the Remnants of a Bullet Proof Hosting Provider (SANS)
Zwei Forscher haben untersucht, was zu den IP-Adressen, die früher zum Cyberbunker gehört haben, noch funkt. Sie fanden Datenverkehr, der wie Anfragen an einen Command-and-Control-Server eines Botnetzwerks aussah und Phishing-Seiten, die auf Cyberbunker-IPs verweisen. Moritz Tremmel hat die Erkenntnisse auch auf golem.de zusammengefasst.

Diverses zum Facebook-Boykott
In den letzten Tagen wurde viel zum Werbeboykott aus Protest gegen Facebooks Umgang mit Hate Speech und Falschnachrichten geschrieben. Die Tagesschau berichtet, dass mittlerweile fast 100 Unternehmen keine Werbung mehr bei dem Sozialen Netzwerk schalten wollen. CNN pflegt eine Liste der Firmen. Der Guardian berichtet, dass auch versprochene Änderungen die Unternehmen bisher nicht zufriedenstellen.

Jeden Tag bleiben im Chat der Redaktion zahlreiche Links und Themen liegen. Doch die sind viel zu spannend, um sie nicht zu teilen. Deswegen gibt es jetzt die Rubrik „Was vom Tage übrig blieb“, in der die Redakteurinnen und Redakteure gemeinschaftlich solche Links kuratieren und sie unter der Woche um 18 Uhr samt einem aktuellen Ausblick aus unserem Büro veröffentlichen. Wir freuen uns über weitere spannende Links und kurze Beschreibungen der verlinkten Inhalte, die ihr unter dieser Sammlung ergänzen könnt.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

#StopHateForProfit: Facebook beugt sich wirtschaftlichem Druck

netzpolitik.org - 29 Juni, 2020 - 17:50

Vor einem Monat kündigte Twitter an, mehr gegen Hass auf der eigenen Plattform unternehmen zu wollen und auch US-Präsident Donald Trump keine Extrawurst mehr gönnen zu wollen, den eigenen Hass und Aufstachelungen zu Gewalt ohne Filter und Warnhinweise heraus posaunen zu können.

Twitter stand damit unter Druck, auch weil Facebook sich weigerte, ähnliche Schritte zu unternehmen. Das führte zu Verwerfungen bei Facebook, weil sich viele Mitarbeitende mit der eigenmächtigen Entscheidung von Mark Zuckerberg, nichts dergleichen tun zu wollen, nicht glücklich fühlten.

Und dann passierte es doch. Am Freitag verkündete Mark Zuckerberg ähnliche Schritte wie Twitter einen Monat zuvor. Es soll strengere Regeln für politische Werbung geben und auch die Hasstiraden von Donald Trump sollen nicht mehr so einfach kommentarlos stehen bleiben, sondern dementsprechend gekennzeichnet werden.

Das ist die am wenigsten schlechte Option, um mit Donald Trump in sozialen Medien umzugehen, argumentiert der Harvard-Professor Jonathan Zittrain in The Atlantic.

Der Sinneswandel von Facebook fiel nicht vom Himmel und sowas passiert auch immer erst, wenn der Konzern mit dem Rücken zur Wand steht und überhaupt nichts mehr geht. Vorausgegangen war eine Kampagne der Anti-Defamation League (ADL), die zusammen mit anderen Organisationen wie Mozilla über die Kampagnenseite „Stop Hate for Profit“ Druck auf Werbetreibende ausgeübt hat, die mit ihren Marketinggeldern das System Facebook finanzieren.

Die #StopHateForProfit – Kampagne argumentiert, dass 99 Prozent der 70 Milliarden Dollar Umsatz von Facebook durch Werbung verdient werden. Und das damit durch Werbetreibende ein System finanziert wird, welches die Verbreitung von Hass, Rassismus und Holocaustleugnung fördert.

Es gibt das Sprichwort „Du bist kein Kunde von Facebook, Du bist das Produkt“. In vielen Netzdebatten wurde darüber gestritten, ob das stimmt. Der Spruch kommt ursprünglich auch nicht aus dem Netz, sondern ist älter und beschrieb früher schon das Geschäftsmodell von kostenlosen Fernsehsendern, die sich über Werbung finanzierten. Die Zuschauenden zahlten nichts, sondern gaben ihre Aufmerksamkeit und zwischen den Werbebocks wurde Programm angeboten.

Genau an dieser Stelle setzten in den vergangenen Jahren die Aktivist:innen der „Sleeping Giants“-Initiative an. Die Mitgründer von #StopHateForProfit machen rechten Medien wie Fox News oder Breitbart erfolgreich das Leben schwer, indem sie zahlreiche Werbepartner zum Absprung drängten und damit eine Blaupause für die gegen Facebook gerichtete Aktion schufen.

Das Geschäftsmodell von Facebook ist nicht, für uns einen schönen Ort im Netz zu schaffen. Das Geschäftsmodell ist, soviel Aufmerksamkeit und Zeit von uns zu bekommen und gleichzeitig so viele Daten über uns zu sammeln, damit Facebook uns Werbung seiner eigentlichen Kunden, den Werbetreibenden, möglichst spitz in eine Zielgruppe hinein ausspielen kann.

Seit vergangener Woche haben sich mehr als 160 Unternehmen der Kampagne und ihren Zielen mehr oder weniger angeschlossen und zumindest einen temporären Werbeboykott angekündigt, darunter große Marken wie Coca Cola.

Wenn daraufhin Mark Zuckerberg eine Kehrtwende einleitet, die er vor Wochen noch abgelehnt hat, dann macht das sehr deutlich, dass Facebook vor allem ein Werbevermarkter ist.

Und es sollte uns allen zu denken geben, dass Marketingverantwortliche offensichtlich mehr Druck auf digitale Konzerne ausüben können, als es die Nutzenden und Politiker:innen bisher vermögen. Das muss sich ändern, denn eine gute Regulierung mit klaren Regeln für alle ist immer besser als Selbstregulierung aufgrund von wirtschaftlichem Druck.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Contact-Tracing-Apps: Kritik an Datenschutzfolgenabschätzung für die Corona-Warn-App

netzpolitik.org - 29 Juni, 2020 - 16:31

Kirsten Bock, Christian Ricardo Kühne, Rainer Mühlhoff, Měto Ost, Jörg Pohle und Rainer Rehak engagieren sich im Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF).

Am 16. Juni war es endlich soweit, in ganz Deutschland und auch darüber hinaus blickte man auf die nun veröffentlichte Corona-Warn-App. Nach wochenlanger Diskussion um Nutzen, Technik und Architektur konnte sie endlich installiert und genutzt werden, was Stand heute bereits über vierzehn Millionen Mal getan wurde. Die halbe Welt berichtete über den deutschen Erfolg bei der digital-automatisierten Kontaktverfolgung.

Aber wie so oft ist nicht alles Gold, was glänzt, und nicht jeder kennt den Unterschied zwischen Datenschutz und IT-Sicherheit. Das FIfF hat daher heute eine Analyse samt konstruktiver Anmerkungen und Vorschläge zur offiziellen Datenschutzfolgenabschätzung (DSFA) für die im internationalen Vergleich sehr populäre Corona-Warn-App veröffentlicht. Darin spart das FIfF nicht mit grundsätzlicher und konkreter Datenschutz-Kritik, verteilt aber auch Lob für den gesamten Entwicklungsprozess.

Der Gastbeitrag erklärt den Sinn und Zweck einer DSFA und erläutert auch, welche nach wie vor gültigen Ergebnisse eine eigene DSFA, die das FIfF bereits im April veröffentlichte, erbracht hat. Eine DSFA ist dabei keine Fingerübung im akademischen Diskurs, sondern eine notwendige und gesetzliche Anforderung an Datenprojekte, die Informationen von Menschen verarbeiten – denn Datenschutz ist Grundrechtsschutz.

Eine ausführlichere Auseinandersetzung mit der Datenschutzfolgenabschätzung folgt im Laufe der Woche in Form eines Interviews mit Kirsten Bock.

Datenschutzfragen dezentraler Corona-Tracing-Apps

„Es geht nicht um Privatsphäre, sondern es geht darum, eine Technik sozial beherrschbar zu machen.“
Wilhelm Steinmüller (1934–2013)

Gesellschaftliche Implikationen durch Datenschutzfolgenabschätzungen diskutierbar machen

Mehrere Wochen kreiste die Diskussion zur die Eindämmung der Corona-Pandemie um den Einsatz technischer Hilfsmittel, insbesondere von sogenannten Corona-Tracing-Apps. Diese sollen automatisiert die epidemiologisch relevanten Kontaktereignisse von Nutzerïnnen aufzeichnen und es so erlauben, im Infektionsfall zeitnah und rückwirkend die exponierten Kontaktpersonen warnen und isolieren zu können. Bislang wird das sogenannte Contact-Tracing manuell von Mitarbeiterïnnen der Gesundheitsbehörden vollzogen, also etwa anhand der Erinnerung der Infizierten und anschließender Warnung per Telefon. In einigen Ländern, zum Beispiel China, werden auch weitere Informationsquellen genutzt wie beispielsweise Kreditkartendaten oder Reiseinformationen. Diese mühsame Arbeit kann, so die Vision, durch den Einsatz von Apps wesentlich beschleunigt werden.

Auch wenn die konkrete Tauglichkeit einer solchen App für diesen Zweck sowohl epidemiologisch als auch technisch noch umstritten ist und die Gefahr einer grundsätzlichen gesellschaftlichen Gewöhnung an Contact-Tracing besteht, soll es an dieser Stelle nicht um ein generelles „Ob“, sondern ein „Wie“ einer solchen App gehen. Denn erst bei der Betrachtung der konkreten technischen Umsetzung lassen sich individuelle und gesellschaftliche Konsequenzen analysieren. Die Erkenntnisse können dann wiederum in Form von Anforderungen zurück in die konkrete Ausgestaltung des Verfahrens fließen.

Datenschutz und seine Verankerung in der Gesetzgebung ist ein Garant der Grundrechte und Grundfreiheiten im digitalen Zeitalter. Er bezieht sich nicht nur auf individuelle, sondern auch auf kollektive Rechte. Datenschutz hält die funktionale Differenzierung moderner Gesellschaften aufrecht, indem er strukturelle Machtasymmetrien problematisiert und somit gesellschaftliche Grundfunktionen absichert.

Im Unterschied zu Fragen der IT-Sicherheit geht es dem Datenschutz weniger um externe Angriffe auf Systeme und Daten, sondern um Grundrechtseinschränkungen durch die Datenverarbeitung selbst. Im Fokus steht deshalb nicht primär die „Privatheit“ des einzelnen Datensubjekts, sondern die gesamtgesellschaftlichen, strukturellen Auswirkungen und Machteffekte einer Datenverarbeitung. Eine Datenschutzanalyse geht somit prinzipiell von der verarbeitenden Organisation als der primären Risikoquelle aus, um den Blick von dort schließlich auch auf Plattformen, Dienstleisterïnnen, Nutzerïnnen und externe Dritte zu richten.

Datenschutzfolgenabschätzung

Auch wenn die technischen Eigenschaften der Tracing-Apps, darunter sogar ihre genaue Zweckbestimmung, noch nicht abschließend ausgehandelt sind, müssen die datenschutz- und somit grundrechtsrelevanten Folgen dieses Vorhabens nach wie vor detailliert diskutiert werden. Für diese Art der Analyse gibt es in der DSGVO das Instrument der Datenschutzfolgenabschätzung. Dort heißt es in Art. 35 DSGVO:

(1) Hat eine Form der Verarbeitung, insbesondere bei Verwendung neuer Technologien, aufgrund der Art, des Umfangs, der Umstände und der Zwecke der Verarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge, so führt der Verantwortliche vorab eine Abschätzung der Folgen der vorgesehenen Verarbeitungsvorgänge für den Schutz personenbezogener Daten durch.

Für das methodische Vorgehen im Rahmen einer DSFA gibt es unterschiedliche Ansätze. In Deutschland wird dafür von der Konferenz der Datenschutzbeauftragten des Bundes und der Länder das von ihr ausgearbeitete „Standard-Datenschutzmodell” (SDM) empfohlen, an dem auch wir uns im Folgenden orientieren. Dieses verlangt zunächst eine Schwellwertanalyse, um zu klären, inwiefern eine DSFA für ein gegebenes Datenverarbeitungssystem nicht nur gesellschaftlich wünschenswert, sondern auch datenschutzrechtlich gefordert ist. Weil mit den Contact-Tracing-Apps sowohl eine neuartige Technologie als auch personenbezogene Daten in großem Umfang und im Infektionsfall sogar medizinische Daten verarbeitet werden, ist dies hier unzweifelhaft der Fall.

Trotzdem hatte noch bis Ende April keine verantwortliche Stelle eine DSFA für eine der in Deutschland diskutierten Apps vorgelegt. Um die gebotene Aufmerksamkeit auf dieses Thema zu legen, haben wir im April kurzerhand eine Muster-DSFA zur Corona-App erarbeitet und in die öffentliche Diskussion eingebracht.

Im ersten Schritt wird der Zweck des gesamten Datenverarbeitungsverfahrens definiert, in diesem Falle ausschließlich das Erkennen und Unterbrechen von Infektionsketten. Danach gilt es den Kontext der Verarbeitung herauszuarbeiten. Dies umfasst nicht nur die allgemeine gesellschaftliche und politische Lage sowie technische Umstände, sondern auch explizit die verschiedenen Akteure und ihre Interessen. Erst auf dieser Grundlage kann später eine fundierte Analyse von Risiken und Angriffsszenarien erstellt werden.

Sodann müssen Annahmen und Anwendungsfälle für die Verarbeitung erarbeitet werden, um daran anschließend die Verarbeitungstätigkeit im Detail zu beschreiben. Dabei ist zu beachten, dass Verfahren in Teilschritte zu zerlegen sind, von denen nicht alle technikgestützt ablaufen müssen. Im vorliegenden Falle umfasst das Verfahren nicht nur die App, sondern auch die dazugehörigen Serversysteme, Fachanwendungen und Infrastrukturbestandteile wie etwa Betriebssysteme oder technische Kommunikationsbeziehungen. Auf dieser Basis werden dann Rechtsgrundlagen und die Verantwortlichkeit der Verarbeitungstätigkeit diskutiert sowie rechtliche Anforderungen erarbeitet.

All diese Vorarbeiten kombinierend werden Schwachstellen, Gefahren und Risiken der Verarbeitung entwickelt. Damit sind Risiken bezüglich der Grundrechte der Betroffenen gemeint, und zwar aller Grundrechte. Auf die Risikoanalyse aufbauend werden dann Schutzmaßnahmen für die Rechte der Betroffenen bestimmt und zuletzt Empfehlungen für die Verantwortlichen aufgeführt. Die Empfehlungen umfassen insbesondere die besonders problematischen Aspekte, etwa Risiken, für die keine Schutzmaßnahmen existieren.

Zentral oder dezentral?

Aus Gründen der Minimierung des Grundrechtseingriffs und zur Vereinfachung der Analyse gehen wir in unserer DSFA von einem eng umrissenen Zweck für die Datenverarbeitung aus: die Warnung von Personen, die mit Infizierten Kontakt hatten. Die Grundfunktionalität einer solchen App wird im Idealfall umgesetzt, indem das Smartphone in regelmäßigen Abständen über den „Bluetooth Low Energy Beacons“-Standard wechselnde Zeichenfolgen (temporäre Kennungen, tempIDs) via Bluetooth versendet und entsprechend die temporären Kennungen (tempIDs) von anderen Apps empfängt, sofern diese örtlich nah genug sind. Diese Daten ermöglichen eine Kontaktnachverfolgung; aus Dauer und Nähe des Kontakts soll ein Ansteckungsrisiko berechnet werden. Ortsinformationen, also zum Beispiel der GPS-Standort, werden durch dieses System nicht erhoben.

An dieses grundlegende Prinzip zur Detektion von Kontaktereignissen mittels Bluetooth schließen sich nun technische Fragen an, in denen verschiedene Varianten diskutiert wurden. Im Mittelpunkt der Diskussion stand die Frage, ob die Berechnungen des individuellen Expositionsrisikos lokal auf den Mobiltelefonen der Nutzerïnnen oder serverseitig stattfindet. Damit hängt auch die Frage zusammen, wie genau die exponierten Nutzerïnnen kontaktiert werden, um sie zu warnen.

In der zentralen Architektur werden im Fall der positiven Testung alle Kontaktereignisse von der App der infizierten Person auf einen Server hochgeladen. Dieser Server berechnet das Expositionsrisiko für alle Kontakte dieser Person und informiert diese dann aktiv. Der Server hat in dieser Variante somit Kenntnis der Infizierten, derer Kontakte und des sozialen Graphen.

Die dezentrale Architektur dagegen sieht vor, dass im Falle der positiven Testung nur die von der Person in den vergangenen vierzehn Tagen ausgesendeten temporären Kennungen (tempIDs) auf den Server geladen werden. Die anderen Apps laden sich regelmäßig einen Datensatz aller tempIDs von infizierten Nutzerïnnen herunter und berechnen lokal auf ihrem Smartphone, ob ein Risiko der Ansteckung vorliegt. Der Server kennt in dieser Variante nur die temporären Kennungen der Infizierten, er kann weder ihre Kontakthistorie noch das Kontaktnetzwerk der Nutzerïnnen nachvollziehen. Aus diesem Grunde ist die dezentrale Variante deutlich datenschutzfreundlicher.

Unsere DSFA betrachtet nur den dezentralen, grundrechtsschonenderen Ansatz, der inzwischen von Ländern wie etwa Österreich, Schweiz, Estland und seit Ende April auch von Deutschland verfolgt wird.

Zentrale Erkenntnisse

Im Folgenden sollen vier wichtige Ergebnisse unserer DSFA vorgestellt werden.

1.
Die häufig beteuerte Freiwilligkeit der App-Nutzung ist ein voraussetzungsreiches Konstrukt, das sich in der Praxis als Illusion herausstellen kann. So ist vorstellbar und wird auch bereits diskutiert, dass die Nutzung der App als Bedingung für die individuelle Lockerung der Ausgangsbeschränkungen gelten könnte. Das Vorzeigen der App könnte als Zugangsbedingung für öffentliche oder private Gebäude, Räume oder Veranstaltungen dienen. Eine solche Verwendungsweise wäre mitunter nicht durch den Zweck des Systems gedeckt, könnte aber durch dritte Akteure (z. B. Arbeitgeber oder private Veranstalter) in Kraft gesetzt werden. Dieses Szenario würde eine implizite Nötigung zur Nutzung der App bedeuten und zu einer erheblichen Ungleichbehandlung der Nicht-Nutzerïnnen führen; die ohnehin vorhandene „digitale Schere“ zwischen Smartphone-Besitzerïnnen und -Nicht-Besitzerïnnen würde sich hiermit auf weitere Lebensbereiche ausweiten. Zudem könnte der Zweck des Systems unterminiert werden, wenn Nutzerïnnen aus Angst vor Nachteilen ihr Smartphone absichtlich nicht bei sich führten oder abwechselnd verschiedene Geräte nutzten. Nur durch eine flankierende Gesetzgebung, die diese und andere Zweckentfremdungen effektiv unterbindet, ist dieses Risiko abzumildern.

Hierbei ist darauf hinzuweisen, dass die informierte Einwilligung kein geeigneter rechtlicher Rahmen für eine freiwillige App-Nutzung ist. Denn die informierte Einwilligung externalisiert das Risiko der (Grundrechts-)Folgen sowie die Abwägung zwischen Nutzen und Folgen auf die Betroffenen. Dabei käme es darauf an, gerade diese Abwägung zum Gegenstand demokratischer Aushandlung zu machen. Als Rechtsgrundlage wäre deshalb ein Gesetz erforderlich, in dem die (demokratisch legitimierte und kontrollierte) Gesetzgeberïn die Verarbeitung festlegt und auch deren Grenzen definiert.

Kirsten Bock Alle Rechte vorbehalten privat

2.
Ohne Intervenierbarkeit (Einschreitbarkeit) und enge Zweckbindung ist der Grundrechtsschutz gefährdet: Es besteht ein hohes Risiko fälschlich registrierter Expositionsereignisse (falsch Positive durch Wände, Masken oder Laborfehler), die zu Unrecht auferlegte Selbst-Quarantäne zur Folge hätten. Um dem zu begegnen, bedarf es rechtlicher und faktischer Möglichkeiten zur effektiven Einflussnahme, etwa das Zurückrufen falscher Infektionsmeldungen, die Löschung falsch registrierter Kontaktereignisse oder das Anfechten möglicher anderer Konsequenzen.

Jörg Pohle

3.
Alle bislang besprochenen Varianten einer Corona-App unterliegen der DSGVO, denn sie verarbeiten personenbezogene Daten. Alle Daten auf einem Smartphone sind personenbezogen, nämlich bezogen auf die Nutzerïn des Gerätes. Die gilt unabhängig davon, ob Beteiligte die versendeten Zeichenfolgen auf eine Person zurückführen können oder ob das Gerät gut vor dem Zugriff Dritter abgesichert ist. Und weil nur diejenigen Personen Daten an den Server übertragen, die als infiziert diagnostiziert wurden, handelt es sich bei diesen hochgeladenen Daten sogar um Gesundheitsdaten.

Nur durch ein Zusammenspiel organisatorischer, rechtlicher und technischer Maßnahmen kann der Personenbezug wirksam und irreversibel von den hochgeladenen Daten abgetrennt werden, so dass sie letztlich auf dem Server nur noch als „infektions-indizierende Daten ohne Personenbezug“ ankommen. Dieses Anonymisierungsverfahren kann diverse Formen annehmen, muss jedoch kontinuierlich datenschutzrechtlich durch die zuständigen Aufsichtsbehörden prüfbar sein: Organisatorisch müssen die Verantwortlichen in strategischer und die Betreiberïn(nen) in operativer Hinsicht eine Mischstruktur etablieren. Die Verantwortliche – etwa das RKI – könnte strategisch beispielsweise zwei unterschiedliche Betreiberïnnen auswählen: Eine betreibt die Eingangsknoten im Netzwerk und trennt die Metadaten ab, darunter die IP-Adressen, die andere betreibt den eigentlichen Server. Auf der Ebene der Betreiberïnnen muss dann operativ auf eine angemessene Abteilungsstruktur und Funktionstrennung geachtet werden, die die informationelle Gewaltenteilung innerhalb der Organisation – also die funktionale Differenzierung – durchsetzen. Rechtlich müssen die Betreiberïnnen unabhängig sein, keine eigenen Interessen an den Daten haben und vor Pflichten zur Herausgabe von Daten geschützt sein, auch gegenüber staatlichen Sicherheitsorganen. Technisch muss die Betreiberïn die Trennung so umsetzen, dass die Uploads nicht protokolliert werden können, weder auf dem Server noch in ihrem Netzwerk. All diese Maßnahmen müssen durch ein Datenschutzmanagementsystem kontinuierlich prüfbar gemacht und auch geprüft werden.

Rainer Rehak

4.
Die Rolle der Plattformanbieter Apple (iOS) und Google (Android) ist kritisch zu diskutieren und über den gesamten Verarbeitungsprozess hinweg zu begleiten. Eine Bluetooth-basierte Corona-Tracing-App ist aus technischen Gründen auf die Kooperation der Plattformanbieter angewiesen, da der Zugriff auf das Bluetooth-Modul der Geräte auf Betriebssystemebene ermöglicht werden muss. Diese Machtposition haben die Plattformanbieter in den vergangenen Wochen genutzt, um gegen zahlreiche Regierungen eine dezentrale und somit datenschutzfreundlichere Architektur zu erzwingen. Damit ist das Datenschutzrisiko, das von den Plattformbetreibern selbst ausgeht, in der öffentlichen Diskussion weitestgehend aus dem Blick geraten. Als Betriebssystemhersteller ist es prinzipiell möglich (und auch realistisch, wie die DSFA zeigt), dass Google und Apple an die Kontaktinformationen gelangen und daraus Informationen über Infektionsfälle und Expositionsrisiken ableiten können. Eine kritische Begleitung der Rolle von Apple und Google erfordert daher eine umfassende Sensibilisierung für dieses Problem und die rechtliche Verpflichtung der Unternehmen, sich datenschutzkonform zu verhalten.

Rainer Mühlhoff Diskussion in gesellschaftlicher Breite

Insbesondere die quelloffene Entwicklung von Server und Apps nebst allen ihren Komponenten – beispielsweise als freie Software – ist eine wesentliche Voraussetzung dafür, dass nicht nur für Datenschutzaufsichtsbehörden die nötige Transparenz bezüglich der Umsetzung der Datenschutz-Grundsätze vorliegt, sondern auch für die Betroffenen und die Öffentlichkeit insgesamt. Diese Datenschutzfolgenabschätzung zeigt aber auch, dass eine Fokussierung allein auf die Quelloffenheit der Technik die durchaus größeren gesellschaftlichen Implikationen des gesamten Verfahrens verschleiern kann. Nur Datenschutzfolgenabschätzungen können Derartiges offenlegen und sollten in diesem, aber auch in anderen ähnlich folgenreichen Datenverarbeitungsprojekten veröffentlicht werden, damit sie nicht nur von den Datenschutz-Aufsichtsbehörden, sondern auch in gesellschaftlicher Breite und sozialwissenschaftlicher Tiefe diskutiert werden können.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

European Parliament: MEPs blast ‚Apple-only‘ voting app

netzpolitik.org - 29 Juni, 2020 - 12:00

Since the outbreak of the Corona pandemic, much of the work in the European Parliament has been done virtually. However, the choice of tools is causing controversy. In some committees, MEPs have started voting with an app called iVote. To use the app, an Apple device and an account with the US company are required.

This is remarkable, not least because the European Union has repeatedly taken action against Apple in recent years. The EU Commission ordered the digital giant to pay back 13 billion euros in taxes in Ireland in 2016. It also recently launched an investigation into Apple’s App Store for antitrust violations. And yet Apple’s infrastructure will soon be indispensable for voting in the European Parliament.

The iVote app is being used or tested in several of the 22 parliamentary committees, including the important committees for the internal market and the budget. The app is intended to replace a procedure that was introduced at the beginning of the pandemic. Since then, votes have been cast mostly by e-mail using scanned ballots. This shall continue to be possible, but committee chairmen are urging the use of the new app.

iVote is an in-house development of the IT department of the Parliament, a document circulated to MEPs notes. It can only be accessed via Apple’s App Store. In order to explain the use of the app to Members of Parliament, the Parliament has produced a six-minute video explaining the app.


https://netzpolitik.org/wp-upload/2020/06/iVote-How-to-vote-from-remote.mp4

For votes of MEPs in plenary, the Parliament continues to use its previous system with scanned ballot papers. The system has recently been improved with additional security measures. For example, voting papers are now transmitted via a VPN connection.

However, this improved infrastructure for voting with scanned ballot papers cannot be used for committees, according to the document sent to MEPs. However, the parliament could not explain why this is not possible when asked by netzpolitik.org.

„Just a bad joke“

Some MEPs are critical of the use of iVote. „The dependence on a big tech company is completely unnecessary“, says Martin Schirdewan, the co-president of the left-wing GUE/NGL group. His group protested against the use of iVote in a letter to the president of the Parliament, David Sassoli.

For Schirdewan, it is only the most recent in a series of developments, as he says already a large part of parliament systems are only accessible via Apple devices. „Parliament is tying itself unnecessarily to Apple, that is unfortunate and inexplicable,“ he told netzpolitik.org.

Criticism also come from Martin Kolaja, a Czech pirate MEP who is part of the Green group. Making the vote in parliament dependent on a US company is „just a bad joke“, Kolaja criticises in a blog entry.

Kolaja, who is one of 14 vice-presidents of the parliament, says that when using iVote, an iCloud account with Apple is necessary for voting. „In addition to it, iVote also sends all voting data to the cloud storage,“ he writes in his blog. If MPs refused to accept the iCloud terms of use, they could not vote,

More tempered criticism comes from German social democrat Katarina Barley, who also is a vice-president of the parliament. „For me, the use of such an app can at best be temporary, this is also a question of Europe’s digital sovereignty,“ says the former justice minister.

Barley hopes that in future, instead of using the app, it will be possible to vote in committees using a secure e-mail voting procedure.

In its FAQ, the parliamentary administration emphasises that login via iCloud is a „technical necessity“. However, the app does not really use the Apple account to authenticate the ballots and is not able to link an iCloud account to a specific person. „Merely logging in to vote with iVote does not per se give any data to Apple.“

However, some open questions about the use of the app remain. The data protections rules of the EU institutions foresee a data protection impact assessment (DPIA) for important IT systems, but it remains unclear whether one was done for iVote. Only last year, the EU’s data watchdog stopped a project in which the parliament handed voter data to controversial US company NationBuilder.

A parliament spokesperson told netzpolitik.org that the iVote app was only a temporary measure. She said that app data was encrypted and that „cybersecurity aspects of this system received a positive assessment“. The spokesperson did not elaborate on the earlier question on why the e-mail voting system used in the plenary could not be used in comittee votes and whether a DPIA was needed for iVote.

While the app has some critics on the left, other MEPs are more sympathetic to the attempt to introduce new technologies. „The European Parliament has had to digitise its way of working at breakneck speed“, says Danish MEP Karen Melchior, who is part of the liberal Renew Europe group.

„Within two weeks, we went from only working sur place and requirements for physical copies and signatures for everything to online meetings, online voting and 100% teleworking“, she says. „Hopefully we can use the Covid-19 lockdown to improve the way the European Parliament works also in the years to come.“

Update on June 29, 2020: The statment by the parliament spokesperson was added after publication.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

iVote: EU-Abgeordnete kritisieren neue Abstimmungs-App

netzpolitik.org - 29 Juni, 2020 - 11:52

Seit Ausbruch der Corona-Pandemie läuft ein Großteil der Arbeit im Europäischen Parlament virtuell ab. Die Wahl der Werkzeuge sorgt nun allerdings für eine Kontroverse. Denn in einigen Ausschüssen stimmen die Abgeordneten seit Kurzem mit einer App namens iVote ab. Für die Nutzung der App ist ein Apple-Gerät und ein Konto bei dem US-Konzern notwendig.

Das ist nicht zuletzt bemerkenswert, weil die Europäische Union in den vergangenen Jahren wiederholt gegen Apple vorgegangen ist. Die EU-Kommission verdonnerte den Konzern etwa 2016 zu einer 13-Milliarden-Euro-Steuernachzahlung in Irland, seit wenigen Wochen ermittelt die Wettbewerbsbehörde außerdem wegen Kartellrechtsverstößen in Apple App-Store. Genau diese Infrastruktur soll nun dem EU-Parlament die Weiterarbeit in der Coronakrise garantieren.

Nur für Apple-Geräte verfügbar

Die iVote-App wird bereits in einigen der 22 Parlamentsausschüssen genutzt oder getestet, darunter in den wichtigen Gremien für Binnenmarkt und Budget. Die App soll ein Verfahren ablösen, dass zu Beginn der Pandemie eingeführt wurde: Seither laufen Abstimmungen oft mit eingescannten Stimmzetteln per Mail. Das soll weiter möglich sein, die Vorsitzende einiger Ausschüsse drängen jedoch zur Verwendung der neuen App.

Bei iVote handelt es sich um eine Eigenentwicklung der IT-Abteilung des Parlaments, wie es in einem FAQ für die Abgeordneten heißt. Sie ist nur über den App-Store von Apple zugänglich. Um den Abgeordneten die Nutzung der App zu erklären, hat das Parlament sogar eigens ein sechsminütiges Erklärvideo produziert, dass wir unseren Leser:innen nicht vorenthalten möchten.

https://netzpolitik.org/wp-upload/2020/06/iVote-How-to-vote-from-remote.mp4

Bei Abstimmungen aller Abgeordneten im Plenum verwendet das Parlament weiterhin sein bisheriges System mit den eingescannten Stimmzetteln, zuletzt wurde es mit zusätzlichen Sicherheitsmaßnahmen verbessert. Etwa erfolgt die Übermittlung der Stimmzettel nun per VPN-Verbindung.

Diese verbesserte Infrastruktur für Abstimmungen mit gescannten Stimmzetteln sei allerdings nicht für Ausschüsse verwendbar, heißt es in dem FAQ zu iVote. Warum das nicht möglich ist, konnte die Parlamentsverwaltung allerdings auf Anfrage nicht erklären.

Abgeordnete: „Schlechter Scherz“

An der iVote-App gibt es heftige Kritik von Linken und Grünen. „Die Abhängigkeit von einem Big-Tech-Konzern ist völlig unnötig“, sagt der linke Co-Fraktionschef Martin Schirdewan. Seine Fraktion protestierte in einem Brief an Parlamentspräsidenten David Sassoli gegen die Verwendung von iVote.

Für Schirdewan handelt es sich nur um den Höhepunkt einer Entwicklung, denn in der Pandemie habe bereits ein Gutteil der Arbeit des Parlaments – etwa die Software für Videokonferenzen – nur über Apple-Geräte funktioniert. „Da bindet sich das Parlament völlig unnötigerweise an Apple, das ist unglücklich und nicht zu erklären“, sagt er gegenüber netzpolitik.org.

Harte Worten kommen auch von Parlamentsvizepräsident Martin Kolaja, einem tschechischen Piraten in der Fraktion der Grünen. Die Stimmabgabe im Parlament von einer US-amerikanischen Firma abhängig zu machen, sei „ein schlechter Scherz“, kritisiert er in einem Blogeintrag.

Kolaja beschreibt, dass für die Stimmabgabe ein iCloud-Konto bei Apple notwendig sei. „Darüber hinaus sendet iVote auch alle Abstimmungsdaten an den Cloudspeicher“, schreibt er in seinem Blog. Wenn Abgeordnete sich weigerten, die iCloud-Nutzungsbedingungen zu akzeptieren, könnten sie nicht abstimmen.

Etwas verhaltenere Kritik kommt von der Sozialdemokratin Katarina Barley, die ebenfalls Vizepräsidentin des Parlaments ist. „Für mich kann der Einsatz einer solchen App allenfalls temporär sein, das ist auch eine Frage der digitalen Souveränität Europas“, sagt die frühere Justizministerin. Sie hofft, dass statt mit der App künftig auch in den Ausschüssen mit dem gesicherten E-Mail-Abstimmungsverfahren gewählt werden kann.

Offene Datenschutzfragen

Die Parlamentsverwaltung betont in ihrem FAQ, das Log-in über iCloud sei eine „technische Notwendigkeit“. Die App verwende das Apple-Konto jedoch nicht zur Authentifizierung der Stimmzettel und sei nicht in der Lage, ein iCloud-Konto mit einer bestimmten Person zu verknüpfen. „Das bloße Einloggen zur Abstimmung mit iVote gibt per se keine Daten an Apple weiter.“

Derzeit ist unklar, ob die Nutzung App tatsächlich mit den Datenschutzregeln der EU-Institutionen vereinbar ist. Diese sehen für wichtige IT-Systeme eine Datenschutz-Folgeabschätzung vor. Der Datenschutzbeauftragte des EU-Parlaments antwortete nicht auf eine Anfrage von netzpolitik.org, ob eine solche Folgeabschätzung durchgeführt wurde. Erst im Vorjahr stoppte der Europäische Datenschutzbeauftragte das Parlament dabei, mithilfe einer umstrittenen US-Firma Wähler:innendaten zu sammeln.

Auf Anfrage von netzpolitik.org erklärt die Parlamentsverwaltung, bei der App handle es sich um eine temporäre Maßnahme. Die Daten würden verschlüsselt und die Sicherheit der App werde positiv bewertet. Unsere Fragen zum Datenschutz und möglichen Alternativen zu dem System ließ die Parlamentssprecherin unbeantwortet.

Während es Kritik von links gibt, äußern andere Abgeordnete Verständnis gegenüber dem Versuch, im Parlament neue Technologie einzuführen. „Das Europäische Parlament musste seine Arbeitsweise in halsbrecherischer Geschwindigkeit digitalisieren“, erzählt die dänische Abgeordnete Karin Melchior von der liberalen Fraktion Renew Europe.

Innerhalb von zwei Wochen sei das Parlament von einer Papier-Arbeitsumgebung zu Abstimmungen und Sitzungen online sowie fast hundertprozentiger Telearbeit übergegangen. „Hoffentlich können wir die Covid-19-Abriegelung nutzen, um die Arbeitsweise des Europäischen Parlaments auch in den kommenden Jahren zu verbessern“, sagt Melchior.

Update 29.06.2020: Die Antwort des Parlaments ging nach Veröffentlichung des Artikels ein und wurde nachträglich hinzugefügt.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Migrationsabwehr: EU zahlt Überwachung im Golf von Tunis

netzpolitik.org - 29 Juni, 2020 - 10:42

Zur Kontrolle und Abwehr von Migration unterstützt die Europäische Union nordafrikanische Staaten bei der Grenzüberwachung. Eine besondere Rolle spielt dabei das zentrale Mittelmeer vor Malta und Italien, über das Asylsuchende von Libyen und Tunesien nach Europa gelangen wollen. Die EU führt dort verschiedene Operationen durch, darunter die Militärmission „Irini“ und die Frontex-Mission „Themis“. Immer seltener werden die Schiffbrüchigen jedoch von den EU-Mitgliedstaaten gerettet. Stattdessen helfen die Staaten der tunesischen oder libyschen Küstenwache, die Geflüchteten zurückzuholen. Menschenrechtsgruppen, Seenotrettungsorganisationen und AnwältInnen halten diese Beihilfe zu „Pull backs“ für völkerrechtswidrig.

Mit mehreren Maßnahmen wollen die EU-Mitgliedstaaten die Kontrolle des Mittelmeeres vor Nordafrika verbessern. Zusammen mit der Schweiz hat die EU-Kommission ein zweiteiliges „integriertes Grenzmanagementprojekt“ in Tunesien finanziert. Es ist Teil der Reform des Sicherheitssektors, die einige Jahre nach dem Sturz des früheren Diktators Ben Ali begonnen wurde. Eine Säule des Programms widmet sich der maritimen Überwachung, damit will die EU „kriminellen Netzen das Handwerk legen“ und die Behörden im Golf von Tunis befähigen, „Menschenleben auf See zu retten“.

„Integriertes“ System für Militär und Grenzpolizei

Die neue Anlage trägt den Titel „Integrated System for Maritime Surveillance“ (ISMariS) und soll laut der Kommission möglichst viele Informationen aller Behörden zusammenführen, die mit Meeres- und Küstenschutzaufgaben befasst sind. Hierzu gehören das Verteidigungsministerium mit der Marine, die dem Innenministerium unterstehende Küstenwache, die Nationalgarde sowie Behörden für IT-Management und Telekommunikation. Die Gelder stammen aus einem EU-Nothilfe-Treuhandfonds für Afrika, der 2015 auf dem Migrationsgipfel in Valletta eingerichtet wurde. „ISMariS“ wird vom italienischen Innenministerium durchgeführt und knüpft an eine frühere Initiative Italiens an. Ähnliche Vorhaben finanziert die EU mit „EU4BorderSecurity“ außer in Tunesien auch für andere Mittelmeeranrainer.

Verantwortlich für die Grenzkontrollprojekte in Tunesien ist ein Institut mit Sitz in Wien. Dieses International Centre for Migration Policy Development (ICMPD) wurde zwar 1993 von Österreich und der Schweiz gegründet, es ist aber eine nichtstaatliche Organisation. Auch das Auswärtige Amt hat im Rahmen des ICMPD Vorhaben in Tunesien unterstützt, darunter den Aufbau von Grenzstationen und die Ausbildung von Grenztruppen.

Vergangenen Monat ist die Bundesregierung dem Institut schließlich selbst beigetreten. Für einen Jahresbeitrag von 210.000 Euro sichert sich das Bundesinnenministerium nicht nur Stimmrechte zur Ausrichtung von Projekten des ICMPD, die deutschen Polizeibehörden erhalten außerdem das Recht zur uneingeschränkten Auswertung von Analysen des Instituts für eigene Zwecke.

Möglicherweise werden zukünftig auch die bilateralen deutschen Projekte zur Überwachung tunesischer Seegrenzen über das ICMPD abgewickelt. Letztes Jahr hatte die Bundesregierung die dortige Küstenwache mit Ausrüstung für eine Bootswerkstatt versorgt, allein im vierten Quartal 2019 führte die Bundespolizei 14 Aus- und Fortbildungsmaßnahmen für die Nationalgarde, die Grenzpolizei und die Küstenwache durch, darunter auch zur Bedienung von „Kontrollbooten“. Patrouillenschiffe erhielt Tunesien zuvor aus Italien und den USA.

Schiffsverfolgung und Küstenüberwachung

Es ist unklar, welche Firma im Auftrag des ICPMD das Überwachungssystem „ISMariS“ für Tunesien hergestellt und installiert hat. Ähnliche Anlagen zum Verfolgen und Darstellen von Schiffsbewegungen („Vessel Tracking System“) vertreiben alle großen europäischen Rüstungskonzerne, darunter Airbus, Leonardo in Italien oder Indra in Spanien. Vermutlich wird die italienische Projektleitung jedoch einheimische Unternehmen wie Leonardo bevorzugen. Die Firma und ihr Ableger e-GEOS verfügen über ein breites Portfolio maritimer Überwachungssysteme.

Möglich ist auch die Einbindung von Satellitenaufklärung, hierzu müssen die Regierungen aber weitere Verträge mit den Firmen abschließen. „ISMariS“ wird aber nicht nur als Schiffsverfolgungssystem installiert, es soll die Kontrolle der gesamten Küste ermöglichen. Hersteller bewerben solche „Coastal Surveillance Systems“ als Technik gegen irreguläre Migration, Piraterie, Terrorismus und Schmuggel. Die Regierung in Tunesien hat hierfür „vorrangige Küstengebiete“ definiert, die in das maritime Überwachungssystem eingebunden werden.

Maritime Massendaten

„ISMariS“ soll mit bereits vorhandenen Komponenten bei Behörden in Tunesien kompatibel sein, darunter Führungs- und Kontrollsysteme der Küstenwachen, Radaranlagen, Sender und Empfänger zur Positionsbestimmung, Nachtsichtgeräte sowie thermische und optische Sensoren. Teil des Projekts ist ein dreijähriger Wartungsvertrag mit der Firma, die das „ISMariS“ installiert.

Die für die EU vielleicht wichtigste Komponente des „ISMariS“ ist ein ebenfalls enthaltenes Kommunikationssystem. Damit sollen die Küstenwache und Marine „zur Verbesserung der operativen Zusammenarbeit“ mit Italien und anderen EU-Mitgliedstaaten Informationen austauschen. Die Projektbeschreibung nennt Frontex und EUROSUR, das europaweite Überwachungssystem der EU-Grenzagentur, als mögliche Teilnehmerinnen. Frontex überwacht die Küstenregionen vor Libyen und Tunesien unter anderem mit Satelliten und einem Flugdienst.

Auch EUROSUR wird jetzt aufgerüstet, Frontex gibt 2,6 Millionen Euro für eine neue Anwendung aus, die auf künstlicher Intelligenz beruht. Sie soll sogenannte Massendaten („Big Data“) verarbeiten, darunter neben Schiffsbewegungen auch Daten aus Schiffs- und Hafenregistern, Angaben zu SchiffseigentümerInnen und Reedereien, eine mehrjährige Aufzeichnung früherer Routen großer Schiffe und weitere maritime Informationen aus öffentlichen Quellen im Internet. Der Vertrag wird zunächst über ein Jahr geschlossen und kann bis zu drei Mal verlängert werden.

Verbund mit Libyen

Für den Anschluss nordafrikanischer Küstenwachen an EU-Systeme hatte die EU-Kommission zwei Jahre nach dem Sturz einiger nordafrikanischer Despoten das Projekt „Seepferdchen Mittelmeer“ begonnen. Zur Bekämpfung irregulärer Migration haben Spanien, Italien und Malta ab 2013 insgesamt 141 Angehörige der libyschen Küstenwache zur Seenotrettung ausgebildet. „Seepferdchen Mittelmeer“ hat auf diese Weise ähnliche Ausbildungsmaßnahmen ergänzt, die Frontex im Rahmen der EU-Mission EUBAM Libyen für die Seepolizei und die Militärmission EUNAVFOR MED für die Küstenwache in Libyen durchführt.

Das Budget von „Seepferdchen Mittelmeer“ gibt die Kommission mit 5,5 Millionen Euro an. Das Projekt wurde im Januar 2019 beendet, laut dem deutschen Auswärtigen Amt hat Libyen eine Partnerschaftserklärung für eine Teilnahme an einer gemeinsamen Kommunikationsplattform für die Überwachung des Mittelmeers unterzeichnet. Auch Tunesien, Algerien und Ägypten sollen hierfür gewonnen werden. Bislang bevorzugen die Regierungen jedoch die einseitige EU-Unterstützung zur Ausrüstung und Ausbildung ihrer Küstenwachen und Marinen, ohne in Projekten wie „Seepferdchen Mittelmeer“ Verbindlichkeiten wie die Verfolgung von Migration und Schmuggel auf Hoher See eingehen zu müssen.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Fitbit-Übernahme: Wenn dir Google beim Atmen zuhört

netzpolitik.org - 29 Juni, 2020 - 08:00

Ioannis Kouvakas ist Jurist und Projektleiter Daten und Wettbewerb bei Privacy International.

Wie viel weiß Google über uns? Oder anders gefragt: Gibt es etwas, das Google nicht über uns weiß? Durch unsere Suchanfragen bei Google und bei YouTube kennt der Konzern unsere Interessen. Er weiß potentiell was wir denken. Und durch Anwendungen wie Google Maps weiß er womöglich sogar immer, wo wir sind.

Am 15. Juni informierte der Google-Konzern die Europäische Kommission über seinen Plan zur Übernahme von Fitbit, einem Hersteller von Smartwatches und Fitness-Trackern. Die Kommission hat nun bis zum 20. Juli Zeit, um die Transaktion zu prüfen.

Mein Arbeitgeber Privacy International ist eine internationale NGO, die sich gegen die Ausbeutung unserer Daten durch Staaten und Unternehmen einsetzt. Wir wollen die Übernahme von Fitbit verhindern.

Google kauft Gesundheitsdatenschatz

Durch die geplante Übernahme von Fitbit könnte Google Zugriff auf Gesundheitsdaten von Millionen Menschen erhalten. Die Verarbeitung von sensiblen Daten wird durch EU-Recht streng reguliert – eigentlich. Die Übernahme könnte die Rechte von Milliarden Menschen verletzen, obwohl viele von ihnen noch nie etwas von Fitbit gehört haben.

Die Produktpalette von Fitbit reicht von einfachen Schrittzählern bis hin zu Geräten, die Kalorienverbrauch, Atmung und Herzfrequenz aufzeichnen. Fitnessdaten liefern detaillierte Analysen etwa über das Schlafverhalten, die Geräte erlauben ihren Nutzer:innen außerdem Angaben darüber, ob die Person menstruiert oder ungeschützten Geschlechtsverkehr hatte. Ein großer Teil des Wertes von Fitbit liegt in diesen Gesundheitsdaten.

In der Vergangenheit hat Fitbit seine Datenbank stetig durch neue Zukäufe erweitert. Die Firma schloss außerdem zuletzt lukrative Partnerschaften mit Krankenversicherungen ab.

Der Kauf von Fitbit erlaubt es Google, seine Datenmacht auf den Gesundheitssektor auszuweiten. Der Konzern verdient den Großteil seines Jahresumsatzes, der allein 2018 136,22 Milliarden US-Dollar ausmachte, durch personalisierte Werbung. Der Fitbit-Kauf ermöglicht es dem Technologiegiganten potentiell, diese lukrativen Datensätze und detaillierten persönlichen Profile mit Echtzeitdaten über den Gesundheitszustand und die Bedürfnisse der Menschen sowie mit allgemeinen Informationen über ihr tägliches Verhalten und ihre Körperrhythmen zu verknüpfen.

Und all das von Google. Erst vor einigen Monaten berichtete ein Whistleblower, dass der Konzern die Daten von US-Patienten, einschließlich Laborergebnissen und Krankenhausaufzeichnungen, ohne deren Zustimmung sammelte.

Zu Googles zwielichtiger Vergangenheit kommen eine Reihe von Verstößen gegen EU-Wettbewerbsrecht und Datenschutzgesetze. Beispielsweise verhängte die französische Datenschutzbehörde am 21. Januar 2019 eine Rekordstrafe von 50 Millionen Euro gegen Google wegen Verstoßes gegen die EU Datenschutz-Grundverordnung (DSGVO). Zuletzt bestätigte der französische Oberste Gerichtshof die Geldbuße und wies die Berufung von Google ab.

Unabhängig davon, ob wir Fitbit-Nutzer sind oder nicht, müssen wir uns fragen, ob wir wollen, dass ein Unternehmen mit dieser Vergangenheit unsere intimsten Daten in die Hände bekommt. Wollen wir wirklich eine Zukunft, in der Google unsere Sozialleistungen verwaltet und die Art und Weise gestaltet, wie unsere Arbeitgeberin oder unsere Versicherungsgesellschaft uns kontrolliert?

Privacy International (PI) wird nun im Prüfverfahren der Europäischen Kommission intervenieren und fordern, die Übernahme zu blockieren. In der Zwischenzeit hat PI auch eine Online-Petition gestartet, in der es diejenigen, die die gleichen Bedenken haben, bittet, ihre Stimme hinzuzufügen. Wir hoffen, dass die EU diesmal das Verbraucher:innenwohl über den Unternehmensgewinn stellt.

Google weiß bereits zu viel über uns. Lasst uns verhindern, dass sie noch mehr herausfinden.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Video-App: TikTok liest aus, was Menschen auf dem iPhone in die Zwischenablage kopiert haben

netzpolitik.org - 27 Juni, 2020 - 14:12

TikTok liest bei iPhone-Nutzer:innen in sehr kurzen Abständen die Inhalte aus, die Nutzer:innen der App in ihre Zwischenablage kopiert haben. Das können private Nachrichten sein, Links oder auch Passwörter. Auf die Gefährlichkeit des Auslesens des Clipboards hatten Sicherheitsforscher schon im Februar dieses Jahres hingewiesen, im März berichteten sie, dass auch TikTok diese Daten auslese.

Das Unternehmen begründete die Praxis damals gegenüber Forbes mit einem veralteten Software Development Kit (SDK) von Google, das bald ausgetauscht werde.

Nun fiel Beta-Testern der neuen iPhone-Betriebssystem-Version iOS 14 auf, dass das Clipboard weiterhin von TikTok ausgelesen wird – und das in sehr kurzen Abständen, nämlich alle ein bis drei Tastaturanschläge. Über das Auslesen des Clipboards könnten sensible, private und sicherheitsrelevante Informationen wie Kommunikationen, Accountdaten und Passwörter abfließen.

Sensible Daten im Zwischenspeicher

Warum liest die App diese potentiell so sensiblen Informationen weiter aus? Von der veralteten Google-Software ist nun keine Rede mehr. Stattdessen begründet TikTok das Auslesen jetzt mit der Bekämpfung von Spamverhalten. Die App lese das Clipboard aus, um Spam und doppelte Kommentare zu reduzieren, sagt eine Sprecherin gegenüber netzpolitik.org. Dabei vergleiche TikTok den Text einer Benutzereingabe, wie etwa eines Kommentars, mit dem Inhalt der Zwischenablage, während der Benutzer seinen Kommentar verfasst. Bei dieser Methode seien laut TikTok niemals Inhalte aus der Zwischenablage gespeichert oder an die TikTok-Server gesendet worden.

TikTok ist nicht die einzige App, welche das Clipboard ausliest. Nach Informationen von The Telegraph lesen auch AccuWeather, Overstock, AliExpress, Call of Duty Mobile, Patreon und Google News die Zwischenablage aus. Sie tun dies jedes Mal, wenn eine Nutzerin in die App wechselt, nicht jedoch so häufig und aggressiv wie TikTok.

Mittlerweile hat TikTok angekündigt, es habe schon eine neue Version beim App-Store eingereicht, um dieses Verhalten aus der App zu entfernen.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs
Inhalt abgleichen