Blogs

Coronatest-Daten: Schon wieder Probleme in Österreich

netzpolitik.org - 14 Januar, 2022 - 16:35
Die Architektur der österreichischen Test-Plattform lud ein zum Datenmissbrauch. (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com Aaron Burden

Die zentrale Corona-Test-Plattform des österreichischen Gesundheitsministeriums hatte ein schwerwiegendes Sicherheitsproblem: Alle Apotheken, die bei der Plattform Oesterreich-testet.at mitmachen, konnten nicht nur die Daten der Menschen abrufen, die sie selbst getestet hatten, sondern auf alle Tests der vorangegangenen sieben Tage zugreifen. „Über diese Lücke ist es möglich, Name, Adresse, Sozialversicherungsnummer, Telefonnummer, E-Mail und Corona-Testergebnis von potenziell hunderttausenden Personen in ganz Österreich abzurufen“, berichtet die Digital-NGO Epicenter.Works.

Über die Änderung der Webadresse (URL) war ein Zugriff auf die anderen Testdaten möglich. Thomas Lohninger von Epicenter.Works vergleicht das Apotheken-Testsystem mit einem Bankautomaten, bei dem man zwar eine Karte und ein PIN brauche, aber dann Geld von beliebigen Konten abheben könnte. „Ich verstehe nicht, wie eine so triviale Sicherheitslücke so lange niemandem aufgefallen ist“, so Lohninger weiter.

Fragwürdiger Umgang mit Sicherheitsforscher

Aufgedeckt wurde der Fehler von einem Webentwickler, der für eine an das System angeschlossene Apotheke arbeitete. Als dieser die Sache dem Gesundheitsministerium meldete, reagierte dort zunächst niemand. Zusätzlich wandte er sich an den ORF. Als der österreichische Rundfunk ORF dann im Ministerium anfragte, sperrte das Ministerium die Apotheke und die entließ in der Folge den Entwickler. Epicenter.Works weist auf das etablierte System der „responsible disclosure“ hin – also Sicherheitslücken zuerst den Betroffenen zu melden und erst öffentlich zu machen, wenn diese Zeit hatten, sie zu beheben. Die Organisation betont, dass sich der Entwickler absolut richtig verhalten habe, indem er den Verantwortlichen sofort Bescheid gegeben hat. „Anstatt sich dafür zu bedanken, hat das Gesundheitsministerium dafür gesorgt, dass er seinen Job verliert“, so die Organisation weiter.

Gegenüber dem Standard bestand das Ministerium jedoch darauf, dass nicht die Software das Problem sei, sondern eine „widerrechtliche Verwendung interner Dokumentationssysteme durch eine einzelne Apotheke“. Gleichzeitig kündigte das Ministerium aber „Anpassungen“ an. Mittlerweile ist das Problem behoben. Die verantwortliche Firma sagt, dass sie anhand der Logfiles keine weiteren unberechtigten Datenabrufe habe feststellen können.

Nicht das erste Problem mit Corona-Daten

Schon vor einigen Wochen gab es Probleme, als Österreichs zentrales Meldesystem für Corona-Daten ein schwerwiegendes Problem hatte. Laut einer gemeinsamen Recherche der Zeitung Der Standard und der Bürgerrechtsorganisation Epicenter.Works war es damals für Unbefugte möglich gewesen, personenbezogene Daten abzufragen und falsche Laborergebnisse einzuspielen.

Der Zugriff auf die Schnittstelle zum Epidemiologischen Meldesystem (EMS) war durch ein nicht-personalisiertes Zertifikat möglich. Wer ein solches Zertifikat hatte, konnte auf das System zugreifen. Insgesamt waren laut der Recherche mehr als 225 solcher Zertifikate im Umlauf, mindestens eines davon lief auf eine Labor-Firma, die schon seit mehreren Monaten nicht mehr dazu berechtigt hätte sein sollen. Es gab keine Bindung auf IP-Adressen von Laboren, was den Zugriff begrenzt hätte. 

Offenlegung: 
Thomas Lohninger schreibt ab und zu für netzpolitik.org.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Telegram: Einfach abschalten ist nicht

netzpolitik.org - 14 Januar, 2022 - 14:49
Innenministerin Faeser (SPD) nimmt Telegram ins Visier (Symbolbild) – Alle Rechte vorbehalten IMAGO / photothek, Bearbeitung: netzpolitik.org

In einem Interview mit der Zeit sagt Bundesinnenministerin Nancy Faeser, dass man es nicht ausschließen könne, den Messengerdienst Telegram als „Ultima Ratio“ abzuschalten. Auf dem Dienst verbreiten Querdenker:innen Verschwörungsfantasien, Mordaufrufe gegen Politiker:innen finden Beifall. Doch genauso tauschen Familien Urlaubsfotos aus und Oppositionelle in autoritär regierten Ländern organisieren demokratischen Protest.

Deutsche Behörden gehen bereits gegen Telegram vor, besser gesagt: Sie versuchen es. Es gibt Bußgeldverfahren gegen den Betreiber, der strafbare Inhalte nicht löscht, obwohl die zuständigen Stellen davon ausgehen, der Dienst wäre nach dem Netzwerkdurchsetzungsgesetz dazu verpflichtet. Doch Telegram reagiert nicht, eine deutsche Kontaktstelle für die Behörden – Fehlanzeige. Ist es demnach überhaupt möglich, den Messenger in Deutschland oder in der EU abzuschalten? Und wie ginge das? Da die Entwickler:innen von Telegram offiziell in Dubai sitzen, werden wohl kaum deutsche Polizeibeamt:innen vorbeikommen können, um den Stecker zu ziehen.

Hilflose Netzsperren

Was die Innenministerin offenbar als letztes Mittel andeutet, ist eine Sperre des Messengers. Damit könnte der Dienst für Nutzer:innen bei deutschen Internetanbietern nicht mehr erreichbar sein. Auf ähnlichem Weg hatte Russland im Jahr 2018 versucht, Telegram einzuschränken und ist krachend gescheitert. Zum einen lassen sich die Sperren von den Nutzer:innen umgehen, in dem diese VPNs nutzen, mit denen man ganz einfach aus einem anderen Land auf den Dienst zugreift. Zum anderen wechselte Telegram während der Maßnahme selbst ständig die IP-Adressen und griff auf Datencenter von Google und Amazon zurück.

Russland blockierte daraufhin immer mehr. Die Folge: Insgesamt mehr als 16 Millionen IP-Adressen sollen letztlich nicht erreichbar gewesen sein. Doch auf diesen kommunizierte nicht nur der in Ungnade gefallene Messengerdienst. Auch das Kreml-Museum und Supermärkte nutzten die Adressen – und waren erstmal weg vom Browserfenster. Am Ende nahm Russland die Sperre blamiert zurück.

Warum eine Sperrung von Telegram auch juristisch schwierig wäre, hat Julia Reda ausführlich erklärt: „Der Europäische Gerichtshof für Menschenrechte hat derartige Sperrungen von Internetdiensten, die wahllos auch legale Inhalte treffen, mit dem Verbot einer Zeitung oder eines Fernsehsenders verglichen und als grundrechtswidrig ausgeschlossen.“ Die umstrittenen Netzsperren wurden in Deutschland bisher bei Seiten diskutiert, die vorwiegend illegale Inhalte zugänglich machten.

Rausschmiss aus den App-Stores?

Eine weitere Möglichkeit, die Nutzbarkeit von Telegram zu erschweren, haben Google und Apple als Betreiber der großen App-Stores in der Hand. Sie können Anwendungen aus ihren Stores werfen, wenn die sich nicht an die Regeln der Unternehmen halten. Dazu gehört: Die App-Betreiber müssen sich an die Gesetze der jeweiligen Länder halten. Fliegt die App aus den Angeboten der großen Konzerne, dürfte das ihre Reichweite empfindlich einschränken. Weg wäre sie damit jedoch lange nicht: Die App kann für Android auch von Telegram direkt heruntergeladen werden, daneben gibt es Versionen für den Desktop und eine Web-Oberfläche.

Die einzige mutmaßliche Reaktion auf den politischen Druck, der seit Monaten zunimmt, ist eine punktuelle Sperre von Verschwörungskanälen und -gruppen durch Telegram selbst. Recherchen von netzpolitik.org zeigen, dass Telegram derzeit gegen manche Inhalte aus der deutschen Verschwörungsszene vorgeht. Gruppen lassen sich nicht öffnen, Kommentare in Kanälen werden nicht angezeigt. Es handelt sich bisher offenbar um Einzelfälle. Betroffen sind mindestens sechs Kanäle und Gruppen aus der Verschwörungsszene. Die Einschränkungen gelten nur für Nutzer:innen, die Telegram aus dem Google Play Store oder dem App Store von Apple heruntergeladen haben. Wer Telegram aus anderen Quellen bezieht oder etwa auf dem Laptop nutzt, kann die eingeschränkten Inhalte weiterhin sehen.

Die Bundesregierung ist in der Telegram-Frage in einer Zwickmühle. Die Drohung Faesers von der Abschaltung bleibt damit vor allem eins: ein Druckmittel. Auf Telegram selbst, auf diejenigen, die Telegram in ihren App-Stores anbieten und Infrastruktur bereitstellen, und nicht zuletzt auf die Nutzer:innen. Denn wenn der Familien-Messenger mit den Urlaubsfotos täglich negativ als kriminelle Plattform in den Schlagzeilen ist, dann geht man vielleicht doch lieber woanders hin.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Studie zum Ausländerzentralregister: Zugriff zu weitreichend und unverhältnismäßig

netzpolitik.org - 14 Januar, 2022 - 13:18
Protest gegen Abschiebungen in Hamburg im Jahr 2016 – CC-BY-NC 2.0 Rasande Tyskar

16.000. Das ist die Zahl der Behörden, die auf das Ausländerzentralregister zugreifen können. Es ist eine der größten Datenbanken der deutschen Verwaltung überhaupt. Eine neue Studie im Auftrag der Gesellschaft für Freiheitsrechte (GFF) kommt nun zu dem Schluss: Die Menge der dort gespeicherten Daten ist unverhältnismäßig, die Zugriffsrechte auf das Register viel zu weitreichend.

Betroffen seien vor allem Geflüchtete, für die neben ihren Personalien auch biometrische Daten sowie Angaben zu Gesundheit, Bildung, Familienstatus oder Fluchtgründen gespeichert werden. Es sei nichts dagegen einzuwenden, Daten über Nicht-Deutsche zentral zu speichern, sofern das für die Migrationsverwaltung nötig ist, sagt die GFF-Juristin Sarah Lincoln. Doch der Umfang der Daten sei unverhältnismäßg. „Wofür soll es erforderlich sein, künftig sogar die Asylbescheide mitsamt hochsensiblen Angaben zu Flucht, psychischer Verfassung oder politischer Verfolgung zentral zu speichern und tausenden Behörden zugänglich zu machen?“

Ab November 2022 werden auch Asylbescheide im Volltext zentral im Register gespeichert. Auf diese Daten können dann unter anderem auch Sicherheitsbehörden zugreifen.

Hundertausende haben Zugriff

So gut wie alle öffentlichen Stellen haben Zugriff auf das Register, darunter der Zoll, Sozialbehörden, Jugend- oder Arbeitsämter. Für mehr als 3.000 geht das automatisiert. Das heißt, sie können online auf die Daten zugreifen, ohne dafür erst einen Antrag zu stellen. Einzige Voraussetzung ist, dass die Behörde die Daten „zur Aufgabenerfüllung“ braucht. Auch Polizeibehörden und Geheimdienste haben Zugriff.

„Wenn hunderttausende Mitarbeiter*innen von Ausländerbehörden, Polizei- und Strafverfolgungsbehörden, Nachrichtendiensten, Jobcenter, Jugendämtern und Gerichten auf so viele, teils hochsensible Daten zugreifen können, ist das Missbrauchspotenzial enorm“, sagt Lincoln. „Im schlimmsten Fall geraten Daten wie Adresse, sexuelle Orientierung oder politische Überzeugung in die Hände von rassistisch motivierten Straftäter*innen oder Verfolgerstaaten und bringen Betroffene so in Lebensgefahr.“

Die Studie nennt weitere mögliche Missbrauchsszenarien: So könne etwa ein Mitarbeiter des Sozialamtes künftig den Asylbescheid durchlesen, um Anhaltspunkte für Sozialbetrug zu suchen und Leistungen zu kürzen. Eine Mitarbeiterin der Ausländerbehörde könnte Angaben zur Familie nutzen, um an einer geplanten Eheschließung zu zweifeln.

Transparenz und Kontrollmöglichkeiten fehlen

Um die Kontrollmechanismen zu prüfen, hat die GFF zudem 13 Betroffene dabei unterstützt, Auskunft zu den über sie gespeicherten Daten zu bekommen. Dies ist auf Antrag laut Gesetz grundsätzlich möglich – , wenn auch umständlich, weil dafür eine vom Amt beglaubigte Unterschrift notwendig ist. Das Fazit: Die Anträge zu stellen sei mühsam, auf die Antworten warteten Betroffene oft monatelang, dann waren die Antworten teils unvollständig. 

Auf Basis des Gutachtens plant die GFF nun gemeinsam mit Betroffenen strategische Klagen gegen das zugrundeliegende Gesetz.

Das Ausländerzentralregister ist eines der größten Register der deutschen Verwaltung. Laut dem Statistischen Bundesamt sind darin rund 11,4 Millionen in Deutschland lebende Ausländer*innen registriert, darunter rund 1,8 Millionen Menschen, die in Deutschland Schutz vor Krieg und Verfolgung suchen. Hinzu kommen weitere, die in der separat geführten Visadatei gespeichert sind, die Daten von Visumsantragssteller*innen enthält.

Drei Verschärfungen in fünf Jahren

Unter Innenminister Horst Seehofer hat die Bundesregierung das Ausländerzentralregister binnen fünf Jahren drei Mal erweitert, zuletzt mit dem „Gesetz zur Weiterentwicklung des Ausländerzentralregisters“ im vergangenen Jahr. Mit den Stimmen der Großen Koalition (Grüne und Linke stimmten dagegen, die FDP hatte sich enthalten) hat der Bundestag damals beschlossen, auch Asylbescheide zukünftig im Volltext zu speichern und eine eindeutige Identifikationsnummer einzuführen, über die Daten mit Behörden in den Herkunftsländern ausgetauscht werden können. Pro Asyl kritisiert, das Risiko, dass Informationen aus dem Asylverfahren auf diesem Weg zurück in die Staaten gelangen, aus denen Asylsuchende geflohen sind, sei dadurch massiv erhöht.

Auch der Lesben- und Schwulenverband (LSVD) kritisierte die geplante Speicherung der Asylbescheide und forderte damals einen Stopp des Vorhabens. Gerade queere Geflüchtete müssten im Rahmen ihrer Asylverfahren sehr persönliche Angaben zu sexueller Orientierung oder Geschlechtsidentität machen. Diese Daten sollen laut Gesetz in den Bescheiden geschwärzt werden, um Rückschlüsse zu verhindern, doch der LSVD bezweifelt, dass das möglich ist.

Schon im Koalitionsvertrag hatte die Große Koalition damals angekündigt, worum es ihr geht: Sie will das Ausländerzentralregister weiter „ertüchtigen, um belastbarere Auskünfte erhalten zu können, allen relevanten Behörden unkomplizierten Zugriff zu ermöglichen und es auch zur besseren Steuerung der Rückführung und freiwilligen Ausreise einsetzen zu können“. Sprich: schnellere Asylverfahren und effizientere Abschiebungen.

 

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Desinformation auf YouTube: Faktencheck-Organisationen schlagen Alarm

netzpolitik.org - 14 Januar, 2022 - 12:18
Brasiliens Präsident Jair Bolsonaro verbreitete immer wieder Falschinformationen. Trotzdem darf er weiterhin auf Youtube veröffentlichen. – Alle Rechte vorbehalten IMAGO / Cris Faga

Diese Woche haben über 80 Faktencheck-Organisation aus der ganzen Welt YouTube-Chefin Susan Wojcicki einen offenen Brief geschickt, um gegen die angeblich mangelhaften Maßnahmen der Videoplattform gegen Desinformation zu protestieren. Seit Ausbruch der Corona-Pandemie habe YouTube nicht genug gegen die gezielte Verbreitung von Falschinformationen getan. In Konsequenz von YouTubes fehlendem Handeln seien Menschen gestorben und Existenzen ruiniert worden.

Neben den aktuell weitverbreiteten „Spaziergängen“ der Coronaleugner wird dieses Bild auch durch ein Blick auf die deutsche Impfstatistik bestätigt – rund 25 Prozent der Deutschen sind ungeimpft, darunter viele radikalisierte Impfgegner. Daher fordern die Faktenprüfer die Videoplattform auf, ihre Anstrengungen gegen Desinformation endlich zu erhöhen.

YouTube ist eine enorm erfolgreiche, stetig wachsende Videoplattform des Internetriesen Google. Schon 2017 wurden dort eine Milliarde Stunden Videos geschaut – pro Tag. Dank der Plattform ist es potenziell jedem möglich, innerhalb kürzester Zeit Millionen an Menschen zu erreichen. Allerdings wird diese Reichweite immer wieder zweckentfremdet: So werden dort Falschinformationen und Verschwörungstheorien öffentlichkeitswirksam verbreitet. Die Autoren des Briefes erklären, dass die Plattform auf diese Weise maßgeblich zur Entstehung der Querdenker-Gruppierung in Deutschland beigetragen hat. Heute ist die Bewegung international verbreitet.

Außerdem führen die Autoren mehrere destruktive Entwicklungen der vergangenen Jahre an, die aus ihrer Sicht maßgeblich durch die Videoplattform befeuert wurden. Häufig ging es dabei um die Untergrabung demokratischer Strukturen: So verbreiteten sich in den USA Narrative eines vermeintlichen Wahlbetruges. In den Monaten zum 6. Januar 2021 wurden Videos über die angeblich manipulierte US-Präsidentenwahl über 33 Millionen Mal angesehen. Anschließend folgte der Sturm auf das Kapitol – eine Krise, die bis heute Nachwirkungen hat.

Coronaleugner auf einer Demonstration am 18.12.2021 in Stuttgart - Alle Rechte vorbehalten IMAGO

Bisher hat YouTube Inhalte immer dann gelöscht, wenn sie gegen die eigenen Community-Richtlinien verstießen. Laut diesen dürfen auf der Plattform keine Falschinformationen hochgeladen werden. Des Weiteren sind keine irreführenden, sensiblen, gewaltverherrlichenden oder illegale Inhalte erlaubt. Um die aufzuspüren, verwendet YouTube einen Algorithmus, der fragwürdige Inhalte automatisch meldet. Anschließend werden die Videos von Menschen geprüft und bei Bedarf von der Plattform entfernt. Nur 0,4 Prozent aller erfolgreichen Meldungen kommen von echten Nutzern.

Dieses System ist aus Sicht von Expert:innen nicht gründlich genug. Wie Paweł Terpiłowski Chefredakteur der polnischen Faktencheck-Organisation Demagog Association gegenüber netzpolitik.org erklärt, übersieht Youtube immer wieder weitverbreitete Falschbehauptungen. Insbesondere polenspezifische Narrative würden seltener entfernt als solche, die auch im Ausland bekannt seien. Außerdem erfolgten Sperrungen von Kanälen sehr inkonsequent. In Deutschland hat YouTube beispielsweise den Kanal von Russia Today (RT) gesperrt – die amerikanische Version des russischen Propagandasenders ist allerdings weiterhin online. Die Videos des Kanals wurden bis heute circa 3,5 Milliarden Mal angesehen.

In einem Statement gegenüber netzpolitik.org entgegnet YouTube auf die Vorwürfe aus dem Brief, dass die Plattform viel zur Bekämpfung von Desinformation investiert habe. Der Konsum von „grenzwertiger Fehlinformation“, die auf Empfehlungsalgorithmen Youtubes zurückzuführen sei, liege bei deutlich weniger als einem Prozent aller Views auf der Plattform. Nur etwa 0,21 Prozent aller Klicks entfielen auf Inhalte, die später wegen Verletzung der Community-Regeln entfernt würden.

Um diese Angaben Youtubes in Perspektive zu setzen – ausgehend von etwa fünf Milliarden täglichen Klicks im Jahr 2022 wären das pro Tag rund 10,5 Millionen Aufrufe von Videos, die später wegen Verletzung der Richtlinien gelöscht werden.

Wieso Löschen nicht der einzige Weg sein darf

Aber für das einfache Entfernen der Inhalte sprechen sich die Faktenprüfer gar nicht aus. Vielmehr stützen sie sich auf neue Forschungsergebnisse: So erläutern sie, dass das Verknüpfen von Desinformation und faktengeprüften Inhalten effektiver sei als das reine Löschen der Inhalte. Bei konsequenter Sperrung der Videos könnten die Nutzer einfach auf andere, ihnen wohlgesonnene Plattformen ausweichen – auf diesen gäbe es dann oft keine Faktenchecks. Infolgedessen würden einige Betroffene noch weiter in die Welt der Verschwörungsmythen abdriften.

Daher empfehlen die Organisationen die Einblendung geprüfter Informationen bei Videos mit falschen Behauptungen. So könnten irreführende Inhalte in den richtigen Kontext gerückt und falsche Darstellungen korrigiert werden. Bei Wiederholungstätern solle Youtube außerdem deren Reichweite beschränken. Der Algorithmus solle ihre Inhalte nicht mehr automatisch anderen Nutzern weiterempfehlen.

Zudem fordern die Faktenprüfer mehr Transparenz: Über Desinformationskampagnen auf YouTube sollten öffentlich aufgeklärt werden. Auch dies stimmt mit wissenschaftlichen Erkenntnissen zur ethischen Vertretbarkeit von Anti-Desinformationsmaßnahmen überein. Diesen zufolge könnte die Aufklärung über Desinformationskampagnen betroffenen Akteuren helfen, sich gegen die einhergehenden Vorwürfe zu wehren.

Hinsichtlich der Vorschläge hoffen die Organisationen auf eine einheitliche Umsetzung der Maßnahmen für alle Regionen und Sprachen. Bisher ist dies kaum der Fall: Wie Eugene Kiely von FactCheck.org gegenüber netzpolitik.org erklärt, gibt es eine Initiative auf der Plattform Google News, um Faktenchecks mehr Reichweite zu verschaffen – diese existiert allerdings nur für wenige Sprachen. Sowohl im Falle des spanischen Pendants Google Noticias als auch im Falle der deutschen und vielen anderen Google-News Versionen würden keine Faktenchecks angezeigt.

Die Autoren des offenen Briefs hoffen, dass Youtube reagiert und die von ihnen geforderten Maßnahmen umsetzt. Bisher hat Susan Wojcicki nicht persönlich auf den Brief reagiert. Engere Zusammenarbeit mit Faktencheck-Organisationen sei YouTube zufolge allerdings geplant.

In einer vorherigen Version des Textes war angegeben, dass die Aussagen der Demagog Association von Marcel Kiełtyka getätigt wurden. Tatsächlich stammen sie von Paweł Terpiłowski.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Trans und nicht-binäre Personen in der Wikipedia: Die editierte Identität

netzpolitik.org - 14 Januar, 2022 - 08:53
Ein Outing kann auch in der Wikipedia Konsequenzen haben. – CC-BY-SA 3.0 Screenshot: Wikipedia, Foto: Mercedes Mehling, Logo: penubag

Nur wenige Minuten nachdem sich Elliot Page in Sozialen Medien als trans geoutet hatte, begannen Nutzer:innen der deutschsprachigen Wikipedia, die Informationen im Artikel über den kanadischen Schauspieler zu aktualisieren. Gleich mehrere Personen versuchten, den Eintrag auf den aktuellen Stand zu bringen, der zuvor mehr als 3 Monate lang keine Beachtung bekommen hatte. Andere setzten die Änderungen wieder zurück. Auf der Dikussionsseite zum Artikel stritten die Wikipedianer:innen um die richtigen Formulierungen.

Genügt der Instagram-Post einer Person als Quelle für die Online-Enzyklopädie? Ändert sich die Situation, wenn Medien darüber berichten? Welche Pronomen sollen genutzt werden? Wie werden Erwähnungen in anderen Artikeln aktualisiert?

Solche und ähnliche Diskussionen findet man bei mehreren Wikipedia-Artikeln zu trans und nicht-binären Personen. Sie zeigen, dass die Community hinter der Online-Enzyklopädie sich manchmal schwer tut: Regeln clashen mit der Realität, die Diskussionen können für die Betroffenen verletzend sein.

„Jascha. Pronomen er/ihn“

So berühmt wie Elliot Page ist Jascha Urbach nicht, doch auch er machte Erfahrungen damit, dass ein Coming-Out in der Wikipedia für Aufregung sorgen kann. Über Jascha gibt es seit 2014 einen Artikel in der Enzyklopädie. Er war bei den Netzaktivist:innen von Telecomix aktiv, die etwa während des arabischen Frühlings Infrastuktur bereitstellten, um Zensur zu umgehen. Heute setzt sich Jascha für HIV-Aufklärung und queeren Aktivismus ein.

Ende November gibt er auf Twitter und seinem Blog bekannt, dass man ihn nie wieder bei seinem vorherigen Namen nennen solle, sondern :“@herrurbach geht, tomate geht natürlich auch. Ansonsten: Jascha. Pronomen er/ihn, Geschlechtseintrag (wenn es denn machbar ist) keiner, Gender Demimale.“ Demimale ist eine nicht-binäre Geschlechtsidentiät. Ein Teil der Identität ist männlich, der andere wiederum unbestimmt. An den Wikipedia-Eintrag über ihn denkt er dabei erstmal nicht.

„Für mich war es am wichtigsten, erstmal den Menschen zu sagen, wie ich heiße, mit denen ich interagiere: meinen Freund*innen, Leuten aus meiner Stammkneipe“, sagt Jascha im Gespräch. „Das ist jedes Mal ein aufregendes, neues Outing.“

Namenskonventionen und Lemmata

Etwa einen halben Monat später will Schmittlauch den Wikipedia-Eintrag aktualisieren, persönlich kennen sich die beiden nicht. Schmittlauch, der unter diesem Namen seit 2011 im Netz unterwegs ist, studiert Informatik und sieht eine willkommene Möglichkeit, das Schreiben seiner Diplomarbeit zu prokrastinieren, erzählt er. „Ich habe das Lemma geändert, den Artikel verschoben, eine Weiterleitung eingerichtet und 1-2 Sätze zur Erklärung geschrieben.“

Lemma bezeichnet in der Wikipedia-Welt den Titel eines Artikels. Wie dieser aufgebaut sein soll, regeln die Namenskonventionen. Auf der Diskussionsseite hinterlässt Schmittlauch einen Hinweis, dass die Änderung auf der Ankündigung Jaschas beruht, aber noch keine rechtliche Änderung stattgefunden hat. Das heißt, in Jaschas Ausweis steht noch sein abgelegter Name, der sogenannte Deadname. „Ich finde es aber wichtig, selbstbestimmte Namensänderungen auch im Artikel abzubilden“, schreibt Schmittlauch auf der Seite.

Er sei von seinen bisherigen Erfahrungen in der OpenStreetMap-Community geprägt, sagt er: „Wenn ich irgendwo sehe, dass eine Bäckerei nicht mehr da ist, dann ändere ich das einfach auf der Karte. Und genau so bin ich mit dem Artikel zu Jaschas Namen umgegangen: Ich sah im Wikipedia-Artikel einen für mich klar falschen Fakt und habe ihn – inklusive Beleg – korrigiert.“

Doch später macht ein anderer Wikipedianer die Änderung rückgängig. Am angegebenen Beleg – Jaschas eigener Aussage – entzündet sich eine Diskussion. Ist die eigene Aussage einer Person eine Quelle für die Wikipedia? Entspricht der Titel den Namenskonventionen? Ist der Name relevant?

In der Regel soll „ein amtlich registrierter Name“ für den Titel verwendet werden, heißt es in den Namenskonventionen. Oder der Name, der „überwiegend in Gebrauch ist“. Jascha nutzt seinen Namen noch nicht lange, es gibt also noch nicht viele Quellen, in denen er genannt ist.

Wer bestimmt, wie ich heiße?

„Wikipedia schreibt Geschichte nur auf, nicht neu oder um, die muss erst in Quellen niedergeschrieben sein“, sagt die langjährige Wikipedianerin Grizma. „Wenn eine für das Lexikon relevante Person ihre neue Identität über Twitter öffentlich macht, wird es früher oder später von Medien und einschlägigen Publikationen aufgegriffen – auch wenn das ein paar Wochen dauern kann“, sagt sie.

Doch die Diskussion um den Titel des Artikels zu Jascha läuft da bereits. Grizma gehört zum Femnetz-Gründungsteam, einem feministischen Netzwerk in der Wikipedia, und setzt sich für mehr Diversität in der Online-Enzyklopädie ein. Sie weist auf der Diskussionsseite darauf hin, dass Jascha in einem Eintrag im Queer-Lexikon benannt ist und schreibt: „Über die Identität bestimmt nur die Person, die es betrifft, ganz selbst und ganz allein. Die Erklärung steht im Netz und ist damit gültig, zumal bei einem Netzaktivisten. Ob das behördlich eingetragen ist oder nicht.“

Dass die Person selbst die beste Quelle ist, findet auch Schmittlauch: „Auch Medien beziehen ihre Information direkt von der Person, oder sie verbreiten aktiv falsche, veraltete Informationen. Warum also auf eine Drittquelle warten, die entweder die Primärquelle abschreibt oder falsch ist?“, sagt er.

Besondere Regeln für den Umgang mit dem Namenswechsel im Zusammenhang mit Änderungen der Geschlechtsidentität gibt es in der deutschsprachigen Wikipedia noch nicht, es greifen die allgemeinen Namenskonventionen für Personen. Grizma sagt: „Die Vielfalt möglicher Geschlechtsidentitäten ist enorm. Das in eine Regel zu gießen, ist schwierig und könnte im Einzelfall sogar kontraproduktiv sein.“ Ihrer Meinung nach funktioniert das existierende Regelwerk grundsätzlich, strittige Fragen müssten basisdemokratisch diskutiert werden.

Doch diese Diskussion kann verletzend sein, gerade wenn die betroffene Person sie mitbekommt. Jascha weist in der Diskussion darauf hin, dass er mitliest. „Ich fand es verletzend, dass Menschen meine Aussage, wer ich bin, nicht akzeptieren wollen“, sagt er. Ihn erinnere das an die Verfahren nach dem Transsexuellengesetz, sagt er im Gespräch mit netzpolitik.org. Denn um ihren Vornamen und den Geschlechtseintrag amtlich ändern zu lassen, müssen Personen in Deutschland einen langwierigen Prozess durchlaufen – mit Gutachten und gerichtlichen Beurteilungen. Schon lange gibt es Kritik daran, dass dieses Verfahren für Betroffene entwürdigend ist, es soll durch ein Selbstbestimmungsgesetz abgelöst werden.

In Jaschas Fall gab es schließlich einen Aufruf zur „Dritten Meinung“, ein Werkzeug zur Konfliktlösung auf der Wikipedia. Die meisten Nutzer:innen sprachen sich für das Lemma „Jascha Urbach“ aus. Doch auch wenn der Artikel über Jaschas am Ende unter seinem richtigen, eigenen Namen steht, findet er ein das den falschen Weg. „Meine Identität ist keine Meinung, sondern ein Fakt“, sagt Jascha. „Die einzige Person, die wissen kann, wer ich bin, bin ich.“

„Wie unter einem Brennglas“

Ähnliche Erfahrungen hat die Bundestagsabgeordnete Tessa Ganserer von den Grünen gemacht. Sie outete sich 2018, damals war sie noch Abgeordnete im Bayerischen Landtag. „Ich habe mich nie sonderlich um den Wikipedia-Artikel über mich gekümmert“, sagt sie gegenüber netzpolitik.org. „Die Diskussion nach meinem Coming-Out habe ich am Rande mitbekommen und jedesmal schmerzlich den Laptop zugeklappt“, sagt Ganserer.

Auch hier diskutierten Wikipedianer:innen über Formulierungen, die Verschiebung des Artikels und Ganserers Deadname. Für sie zeigen solche Diskussionen „wie unter einem Brennglas, welchen schweren Stand trans* und nicht-binäre Personen in unserer Gesellschaft haben. Es zeigt, wie wir uns ständig rechtfertigen und um Akzeptanz kämpfen müssen“.

Im Jahr 1996 hatte das Bundesverfassungsgericht in einem Urteil festgestellt, dass die Frage, welchem Geschlecht sich ein Mensch zugehörig empfindet, seinen Sexualbereich und damit seine Privatsphäre betrifft. „Jedermann kann daher von den staatlichen Organen die Achtung dieses Bereichs verlangen. Das schließt die Pflicht ein, die individuelle Entscheidung eines Menschen über seine Geschlechtszugehörigkeit zu respektieren“, so das Urteil weiter.

„Nach diesem Urteil kann ich auch vor der amtlichen Personenstandsänderung von allen staatlichen Organen verlangen, dass Sie meine Geschlechtszugerhörigkeit inklusive korrekter Anrede respektieren“, sagt Ganserer. Für sie ist der Moment klar, ab wann ein Artikel angepasst werden können sollte: „Wenn eine Person ein öffentliches Coming-Out hatte, muss dass reichen, dass ein Artikel aktualisiert werden kann. Jede Person kann nur für sich selbst Auskunft geben.“

Kursiv, fett, gar nicht, versteckt

Neben Namen und Geschlechtsidentität ist auch der Umgang mit dem Deadname oft ein Streitpunkt. Der Begriff Deadname „bezeichnet bei einer Person, die einen neuen Vornamen angenommen hat, den alten, von der betreffenden Person nicht mehr verwendeten Vornamen“, heißt es im entsprechenden Wikipedia-Artikel. Personen, die einen neuen Namen haben, „ziehen es in der Regel vor, wenn nur noch der neue gewählte Name verwendet wird, und zwar auch in Bezug auf die Vergangenheit, in der die Person den Deadname noch nicht abgelegt hatte“, so der Artikel weiter.

In vielen Wikipedia-Artikeln über trans Personen findet sich der Deadname trotzdem. Bei anderen wiederum nicht. Bei manchen steht er nach dem Geburtsdatum, manchmal kursiv, manchmal ohne Hervorhebung. Bei manchen gefettet vor dem richtigen Namen, bei anderen mitten im Artikel, fast versteckt. Einen einheitlichen Umgang mit Deadnames gibt es offenbar nicht.

„Wenn es darum geht, ob der Deadname erwähnt werden sollte oder nicht, muss abgewägt werden“, sagt Grizma. „Ist der Deadname für die Historie irrelevant, weil es keine Quellen gibt, die ihn nennen oder die Person unter diesem Namen nichts öffentlich getan hat, ist die Sache klar: Er wird nicht genannt.“

Das ist etwa beim Buchhändler und Autoren Linus Giese der Fall. Doch nicht immer scheint das zu funktionieren. So etwa bei der „Germany’s next Topmodel“-Teilnehmerin Alex Mariah Peter. Vor ihrer Teilnahme bei der Casting-Show stand Peter nicht in der Öffentlichkeit, dennoch war ihr Deadname bis zu unserem Hinweis darauf im Artikel aufgeführt. Mehrmals versuchten Personen vorher, den Namen aus dem Artikel zu entfernen, die Änderung wurde stets zurückgesetzt. Ein Hinweis auf der Diskussionsseite blieb bis vor kurzem unbeantwortet.

Wird der Deadname ohne Einverständnis der Betroffenen erwähnt, kann das auch rechtliche Konsequenzen haben. § 5 des Transsexuellengesetzes besagt, dass die früheren Namen ohne Einverständnis „nicht offenbart oder ausgeforscht werden“ dürfen. Rechtliche Auseinandersetzungen zu Namen von trans Personen habe es zur deutschsprachigen Wikipedia noch nicht gegeben, sagt John Weitzmann, Justiziar bei Wikimedia Deutschland. Gerichtlich gestritten wurde hingegen mehrfach um Künstlernamen, etwa im Fall von Atze Schröder, der seinen bürgerlichen Namen nicht im Internet lesen wollte.

Ganserer kritisiert, dass andere bestimmen, ob der Deadname im Artikel auftaucht: „Die cis-geschlechtliche Mehrheit nimmt sich heraus, darüber zu urteilen, wann der Deadname verwendet werden kann“, so die Politikerin. „Es geht hier um Menschen und deren Gefühle. Was Deadnaming für Betroffene bedeutet und warum mensch es nicht machen soll, kann auf Wikipedia nachgelesen werden.“

Der neutrale Standpunkt

Im Fall von Jascha Urbach hat Jascha selbst auf der Diskussionsseite geäußert, dass er mit der Erwähnung des Deadnames einverstanden ist. „Dadurch kann weitere Verwirrung ausgeschlossen werden, wenn jemand über den Deadname auf den Artikel kommt“, schreibt er in der Diskussion. Doch dass sich Betroffene selbst äußern oder gar gefragt werden, ist nicht die Regel. „Die Person selbst zu fragen, wie sie dargestellt werden will, ist in der Wikipedia verpönt, das widerspricht dem Prinzip des Neutralen Standpunkts“, sagt Grizma.

Der neutrale Standpunkt ist eines der vier Grundprinzipien der Enzyklopädie. Daraus leitet sich auch ab, dass Personen mit Interessenskonflikten grundsätzlich nicht direkt in Artikel eingreifen sollten. Doch ist eine Änderung von Namen und Geschlechtsidentität damit vergleichbar, seine Biografie aufzupolieren?

„Es geht dabei nicht darum, meinen Lebenslauf zu schönen oder fälschlicherweise zu behaupten, ich wäre Professor an einer Universität, um daraus Vorteile zu ziehen“, sagt Jascha. „Es geht darum, dass da die Wahrheit steht. Und die bringt mir keinen persönlichen Vorteil, sondern das Outing setzt mich eher noch mehr Diskriminierung aus.“

Die Wikipedia bewegt sich

Die Diskussionen um seinen und andere Artikel vorher bewegen etwas in der Community. „Derzeit gibt es Bestrebungen, aus den bisherigen Diskussionen Kriterien zu destillieren, um daraus mögliche allgemeingültige Regeln für den Umgang mit Namensänderungen und Änderungen der Geschlechtsidentität abzuleiten“, sagt Grizma. Das basisdemokratische Prinzip des Projekts macht es grundsätzlich möglich, dass sich der Umgang in Zukunft ändert. „Doch der Weg zu einem in der Breite diskutierten Konsens ist dort bekanntermaßen lang“, sagt die erfahrene Wikipedianerin.

„Es ist die Stärke der Wikipedia, Dinge schnell abdecken zu können“, sagt Jascha. Er wünscht sich, dass die Community eine breite Diskussion darüber führt, wie sie mit lebenden Menschen und deren Identität umgeht. In vielen Ecken der Online-Enzyklopädie passiert das bereits. Im Februar 2021 gab es zum Beispiel ein Werkstattgespräch mit trans und queeren Aktivist:innen. Auf Diskussionsseiten versuchen Wikipedianer:innen immer wieder, Regeln zu formulieren und einen Konsens zu finden. Das Thema beschäftigt viele.

Und vielleicht werden dann Personen, die sich nach Jascha und Tessa Ganserer outen, in Zukunft nicht mehr mitlesen müssen, wie über ihre Identität gestritten wird. Zumindest nicht auf der Wikipedia.

Hinweis: Im Artikel stand zuerst, es habe zu dem Artikel über Jascha ein Meinungsbild gegeben. Tatsächlich handelte es sich aber um das Werkzeug „Dritte Meinung“. Wir haben das berichtigt.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Europäische Cyberübung: Digitale Attacken aus „Blauland“

netzpolitik.org - 14 Januar, 2022 - 07:24
Wie in Belarus wird die Bevölkerung in „Blauland“ von EU-Staaten zum Protest gegen die Regierung „ermutigt“. Anschließend taucht die erste Malware auf. – CC-BY-SA 3.0 Homoatrox

Beinahe wäre es im Sommer 2017 in Saudi-Arabien zur ersten größeren Katastrophe nach einem Cyberangriff gekommen. Unbekannte hatten das Steuerungssystem einer petrochemischen Fabrik mit einer Schadsoftware namens „Triton“ infiziert. Durch das offenbar geplante Abschalten der Anlage drohten Explosionen, die möglicherweise zum Entweichen von Schwefelwasserstoff und damit einer Umweltkatastrophe mit Hunderten Toten geführt hätten. Ein Sicherheitssystem entdeckte den Eindringling und stoppte die Sabotage.

Nun wollen sich die EU-Mitgliedstaaten mit einer „Cyber-Krisenverknüpfungsübung“ (EU CyCLES) auf eine derartige Hackerattacke vorbereiten. Als Ausgangspunkt werden Angriffe mit „erheblichen kinetischen Auswirkungen und Opfern“ angenommen. Anschließend aktiviert die EU ihre technischen, operativen und politischen Strukturen für die Cybersicherheit. Auch andere Mitgliedstaaten leisten gegenseitig Hilfe.

Auf Staaten wie Russland oder Belarus gemünzt

Die britische Bürgerrechtsorganisation Statewatch hat einen Überblick zu der Übung und eine Kurzinformation der französischen EU-Präsidentschaft veröffentlicht. Demnach basiert das Szenario auf Situationen, „die in der Realität bereits eingetreten sind oder von denen wir befürchten, dass sie in naher Zukunft eintreten könnten“. Die angenommene Bedrohung betrifft den Energie-, Industrie- und Transportsektor, das Gesundheitswesen sowie die Schifffahrt.

Die Übung startet mit einem Cyberangriff auf einen fiktiven Großkonzern mit einer „starken Position auf dem EU-Markt“. Als Urheber gilt ein „Blauland“, das auf Staaten wie Russland oder Belarus gemünzt scheint. Nach einer Revolution habe sich das dortige politische System zu einem autoritären Staat gewandelt. Dessen „Führer“ habe sein politisches Mandat „verlängert“ und regiere das Land nun ohne zeitliche Begrenzung.

Teile der Opposition und ehemalige Parlamentsabgeordnete aus „Blauland“ sind laut dem Übungsszenario nach Finnland und in die Tschechische Republik emigriert. Die Regierungen in Helsinki und Prag „ermutigen“ die verbliebene Bevölkerung, ihre Unzufriedenheit „friedlich zum Ausdruck zu bringen“ und bringen selbst grüne Bänder an ihren Fenstern an.

Ähnliche Angriffe im Iran und der Ukraine

Die Cyberangriffe werden von einer Gruppe ausgeführt, die in dem EU-Papier als „Blaue Morgendämmerung“ bezeichnet wird. Beteiligt ist auch eine fiktive kriminelle Vereinigung mit dem Namen „OT-Powner“, die Schwachstellen in der Steuerung von Industrieanlagen sucht und den Zugang zu diesen verkauft. Mit dem Eindringen in ein solches SCADA-System beginnt der erste Angriff aus „Blauland“.

Derartige Szenarien sind nicht aus der Luft gegriffen, erklärt Manuel Atug, der vor drei Jahren die unabhängige AG KRITIS mitgegründet hat. Als erster Angriff dieser Art gilt der Computer-Wurm „Stuxnet“, mit dem mutmaßlich Israel und die USA eine iranische Anreicherungsanlage für Uran zerstört haben. Dabei handelte es sich laut Atug um einen cyberphysischen Angriff; also einen Hackerangriff, der einen physischen Schaden erzeugen, kritische Infrastrukturen lahmlegen und in einer Kettenreaktion die Abschaltung weiterer wichtiger Systeme zur Folge haben kann.

Zwei weitere Beispiele sind aus der Ukraine bekannt. Am 23. Dezember 2015 fielen dort 27 Umspannwerke aus, ein kompletter Stromausfall in über 100 Städten war die Folge, fast 200 weitere Städte waren teilweise betroffen. Ein Jahr später waren Teile der Hauptstadt Kiew über eine Stunde ohne Strom. Beide Hacks zielten auf die Schutzeinrichtungen der Energieanlagen und sollen mit der Malware „Blackenergy“ beziehungsweise „Industroyer“ erfolgt sein. Mit „Havex“ gibt es seit spätestens 2014 eine weitere Malware, die auf Steuerungsanlagen im Energiesektor zielt; Angriffe in den USA und in Europa haben aber noch nicht zu größeren Schäden geführt.

Unterschiedliche Reaktion

In EU CyCLES soll die Ausbreitung einer Schadsoftware möglichst früh gestoppt werden. Dazu alarmiert die EU zunächst ihre eigenen Strukturen zur Cybersicherheit. Das Kooperationsnetz für Cyber-Krisenmanagement (CyCLONe) ermittelt dann die Auswirkungen einer solchen „Cyber-Krise“. Das 2020 eingerichtete Netzwerk unterstützt die Mitgliedstaaten bei „massiven Cybersicherheitsvorfällen“. Anschließend soll das geheimdienstliche Lagezentrum INTCEN die Urheberschaft des Cyberangriffs feststellen, hierzu haben die Mitgliedstaaten das Zentrum in Brüssel unlängst mit neuen Kompetenzen ausgestattet. Das INTCEN kann außerdem eine gemeinsame Reaktion der EU und ihrer Mitgliedstaaten vorschlagen.

Die „technische Reaktion“ auf den simulierten Angriff aus „Blauland“ würde durch das EU-Netzwerk der Computer Emergency Response Teams (CERTs) erfolgen. Welche Behörden ein Mitgliedstaat dorthin entsendet, ist laut AG KRITIS-Gründer Atug höchst unterschiedlich. Während aus Deutschland etwa das Bundesamt für Sicherheit in der Informationstechnik dort mit dem CERT-Bund vertreten ist, schicken andere Länder militärische oder geheimdienstliche Expert:innen.

Ebenso verschieden ist auch die Reaktion der nationalen Notfallteams auf Infektionen mit Malware; wie bei „Emotet“ könnten die Behörden auch selbst Schadsoftware einsetzen oder diese manipulieren. In EU CyCLES sollen die Notfallteams Warnungen und konkrete Informationen zu den Vorfällen verteilen oder digitale Spuren sichern. Hierzu könnte das CERT-Netzwerk sogenannte Response Teams zu den betroffenen Firmen oder Einrichtungen schicken.

Injektion mit Eskalation

Soweit bekannt ist in EU CyCLES nicht geplant, auch die Schadsoftware und ihre technische Bekämpfung zu simulieren (etwa mit sogenannten Red Teams und Blue Teams, die Angriff und Verteidigung übernehmen); es handelt sich vielmehr um eine Übung mit Fokus auf die politische Reaktion. Hierzu wird das Szenario immer mehr zugespitzt, solche „Injektionen“ erfolgen am Rande realer Treffen von politischen EU-Gremien. Zunächst wird der heute tagende Ausschuss der Ständigen Vertreter über den Vorfall benachrichtigt. Dort treffen sich hochrangige Beamt:innen der Mitgliedstaaten, um gemeinsame Entscheidungen des Rates vorzubereiten.

Weitere wichtige Akteure sind die Ratsarbeitsgruppe für Cyberfragen, die politische und legislative Maßnahmen koordinieren soll, sowie das Politische und Sicherheitspolitische Komitee. Das Gremium ist unter anderem für Polizei- und Militäreinsätze der Europäischen Union zuständig, deshalb wird auch die NATO in die Übung eingebunden.

In der letzten Phase von EU CyCLES eskaliert die fiktive Krise so weit, dass diese „als bewaffneter Angriff gewertet werden könnte“. Anschließend soll es den betroffenen Regierungen freistehen, den Artikel 42 Absatz 7 des EU-Vertrages zu aktivieren. Diese sogenannte Beistandsklausel bestimmt die außenpolitische und gegebenenfalls militärische Reaktion der gesamten EU im Falle eines Angriffs auf ein einzelnes Mitglied. Aus Deutschland könnte dann etwa das Kommando Cyber- und Informationsraum der Bundeswehr aktiv werden und den vermuteten Aggressor auch mit digitalen Mitteln offensiv angreifen.

Simulation von NATO-Bündnisfall

Die meisten EU-Mitgliedstaaten (außer Schweden, Finnland, Österreich, Irland und Malta) sind Vollmitglied der NATO. Wird mit einem Cyberangriff auf diese Länder das in Artikel 51 der Charta der Vereinten Nationen verankerte Recht auf Selbstverteidigung ausgelöst, dürften diese auch mit konventionellen Waffen militärisch antworten. Das hat die Organisation 2014 auf ihrem Gipfel in Wales beschlossen.

Wann ein Cyberangriff diese Schwelle überschreitet, will die NATO in jedem Einzelfall entscheiden. Dieser müsste „mit Blick auf Umfang bzw. Wirkung dem Einsatz konventioneller Waffen und kriegerischen Handlungen gleichkommen“, schreibt die Bundesregierung dazu.

Mit dem möglichen Bündnisfall geht EU CyCLES deutlich über frühere Übungen hinaus. Zuletzt hatten die EU-Mitgliedstaaten am 17. November mächtige Cyberangriffe aus einem „Whiteland“ auf ihre Einrichtungen simuliert. Damit sollte die Cyber Diplomacy Toolbox zur Reaktion der EU auf „böswillige Cyberaktivitäten“ erprobt werden. Das Szenario enthielt Terrorangriffe, auf die mit der Solidaritätsklausel reagiert werden konnte. Gemeint ist der Artikel 222 des Vertrags über die Arbeitsweise der Europäischen Union, der die gegenseitige Unterstützung im Falle eines Terroranschlags oder einer Katastrophe bestimmt.

Übungen schaffen Präzedenzfall

Die Übung EU CyCLES endet mit dem Treffen der EU-Außenminister am 21. Februar. Das probeweise Übertreten der Schwelle einer militärischen Eskalation könnte sich aber bald wiederholen; für den Herbst planen der Rat und die EU-Kommission bereits für EU Integrated Resolve 2022. Sie soll im Rahmen der sogenannten EU-PACE-Übungen zusammen mit der NATO stattfinden.

Helfen derartige Übungen tatsächlich, Kraftwerke, Fabriken oder Versorgungsketten gegen cyberphysische Angriffe zu schützen, oder dienen sie vielmehr der politischen Abschreckung? Zwar ist die Bedrohung unbestreitbar, meint Manuel Atug. Allerdings könne man die Schadsoftware mit möglichen „kinetischen Auswirkungen und Opfern“, wie sie auch in EU CyCLES eine Rolle spielt, immer noch an einer Hand abzählen.

Angriffe könnten aber zunehmen, weil industrielle Leitsysteme zusehends digitalisiert und dadurch immer anfälliger werden. Gleichzeitig schaffen die Übungen von EU und NATO auch einen Präzedenzfall, der den Weg für eine militärische Eskalation ebnen kann.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Zentrum für politische Schönheit: Mit dem Phishing-Paragrafen gegen Aktionskunst

netzpolitik.org - 14 Januar, 2022 - 06:30
Der Köder schmeckte dem Fisch: In diesem Fall der AfD, die bei einer vermeintlich kostengünstigen Verteilung ihrer Flyer anbiss. (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com Trophy Technology

Die Razzia bei der bekannten Aktionskünstlertruppe Zentrum für politische Schönheit (ZPS) hat für bundesweite Aufmerksamkeit gesorgt. In den Morgenstunden des Donnerstags hatten Beamte des Staatsschutzes vom Berliner Landeskriminalamt eine Privatwohnung und ein Atelier aus dem Umfeld des ZPS durchsucht und Datenträger, Computer und Smartphones beschlagnahmt.

Die Aktionskünstler hatten im Bundestagswahlkampf der rechtsradikalen AfD eine falsche Flyer-Verteilfirma mit dem Namen Flyerservice Hahn vorgetäuscht und waren so an Millionen Flyer der Partei gelangt, die sie dann nicht verteilten. Dafür richteten sie eine Website für das fingierten Unternehmen ein, dort hieß es nach Bekanntgabe der Aktion, man sei „Weltmarktführer im Nicht-Verteilen von Nazi-Flyern“

Wie aus dem Durchsuchungsbeschluss hervorgeht, ermittelt die Staatsanwaltschaft nun auf Basis einer Anzeige wegen dieser Aktion. Der Verdacht lautet: Fälschung beweiserheblicher Daten, § 269 des Strafgesetzbuchs. Der Paragraf ist quasi die elektronische Form der Urkundenfälschung und kommt beispielsweise bei Phishing-Straftaten zum Tragen.

Phishing ohne Betrugsabsicht?

Bei Phishing treten Straftäter unter falscher Identität auf und fälschen zum Beispiel die Mail einer Bank, um an Login- oder Kontodaten ihrer Opfer zu gelangen. Auch wer ein eBay-Konto unter falschem Namen eröffnet, kann sich nach § 269 StGB strafbar machen.

Normalerweise gehe es bei diesem Paragrafen in fast allen Fällen um Betrug mit Aneignungsabsicht, sagt ZPS-Sprecher Stefan Pelzer gegenüber dem Spiegel. „Wir sind keine Computerbetrüger, wir haben keinen Profit gemacht. Bei uns steht das Kunstprojekt im Mittelpunkt.“

Nach eigenen Aussagen gelangte der fingierte „Flyerservice Hahn“ an 72 Tonnen Flyer der AfD. - Alle Rechte vorbehalten IMAGO / A. Friedrichs

Dass es bei den Ermittlungen nicht um Betrug geht, sagt auch eine Sprecherin der Generalstaatsanwaltschaft dem Nachrichtenmagazin. Die Flyerfirma der Künstler nahm von der AfD kein Geld und bot der rechten Partei darüber hinaus sogar an, die Flyer kurz vor der Bundestagswahl zurückzugeben. Weil die Aneignungsabsicht fehlte, blieb der Staatsanwaltschaft offenbar nur der Phishing-Paragraf gegen die Kunstaktion.

„Angriff auf die Kunstfreiheit“

Die verteidigt die Hausdurchsuchung gegenüber dem Spiegel. Es sei eine Grundrechtsabwägung und für eine Durchsuchung reiche ihr schon ein Anfangsverdacht. Bei „klassischen Betrugshandlungen im Internet, die mit diesem Paragrafen einhergehen, sind Durchsuchungen nicht unüblich“, so die Sprecherin der Generalstaatsanwaltschaft gegenüber dem Nachrichtenmagazin. Nur, dass es in diesem Fall keinen Betrug gab, sondern nur die Vortäuschung einer nichtexistenten Firma.

Die Anwälte der Künstler sagen, dass die im Beschluss genannten Gründe vorgeschoben wirken: „Die Vorwürfe reichen vermutlich nicht einmal für eine Klagerhebung aus.“ Die Künstler selbst halten die Durchsuchung für einen politischen Skandal. „Wir rufen die gesamte Zivilgesellschaft dazu auf, diesen Angriff auf die Kunstfreiheit abzuwehren“, heißt es in einer Presseerklärung. Pelzer sagt gegenüber netzpolitik.org, dass die Ermittlungen auch ein Vorwand sein könnten: „Mit diesem Verfahren kann der Staatsschutz unsere Strukturen durchleuchten und gleichzeitig versuchen, uns einzuschüchtern.“

Mediale Brisanz der Durchsuchung

Staatsanwaltschaft und Polizei muss die Brisanz der Durchsuchung bewusst gewesen sein. Sie informierte die Polizeipräsidentin Barbara Slovik schon vorher über das Vorgehen, bestätigt die Pressestelle der Berliner Polizei gegenüber netzpolitik.org.

Ob die neue Berliner Innensenatorin Iris Spranger (SPD) über den Vorgang informiert war, wollte sie nicht beantworten. Die Pressestelle antwortete auf die Ja/Nein-Frage von netzpolitik.org mit einem Statement, dass die Senatorin sich nicht einmische und reagierte nicht mehr auf eine konkrete Rückfrage. Der Berliner Kultursenator Klaus Lederer (Linke) wollte sich auf eine Presseanfrage von netzpolitik.org nicht äußern, was er von Hausdurchsuchungen bekannter Künstlergruppen halte.

Das Zentrum für politische Schönheit hat unterdessen eine Beschwerde gegen die Razzia eingelegt, wie die Gruppe auf Twitter berichtet. Sie hält die Maßnahme für rechtswidrig und sagt: „Das Gericht scheint dem Durchsuchungsbeschluss schlichtweg die Strafanzeige der AfD ohne weitere Ermittlungstätigkeit oder rechtliche Abwägung / Prüfung zugrundegelegt zu haben.“

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Urheberrecht: Musikindustrie verklagt Hoster von youtube-dl

netzpolitik.org - 13 Januar, 2022 - 16:14
Die Musikindustrie will verhindern, dass Nutzer:innen Youtube-Videos herunterladen und verklagt nun den Hosting-Anbieter eines Open-Source-Tools. – CC-BY-SA 2.0 Esther Vargas

Die Musikindustrie schaltet einen Gang hoch und geht nun gegen einen deutschen Hosting-Anbieter vor. Drei große Labels verklagen den Anbieter Uberspace, weil er die Website des Open-Source-Projekts youtube-dl hostet. Mit der Software, die auf der Codesharing-Plattform Github verfügbar ist, lassen sich Youtube-Videos und Musikdateien ohne Web-Browser herunterladen. Den Klägern zufolge werde damit das Urheberrecht verletzt.

Die Auseinandersetzung zwischen der Musikindustrie, youtube-dl und seinem Umfeld schwelt seit über einem Jahr. Damals erwirkte die US-Lobbyorganisation Recording Industry Association of America (RIAA), dass der Quelltext von youtube-dl kurzzeitig von Github verschwand.

Zugleich flatterte Uberspace ein Rechtsanwaltsschreiben ins Haus. Der Anbieter habe sich der Mittäterschaft, Gehilfen- sowie Störerhaftung schuldig gemacht und solle unter anderem das Hosten der Website unterlassen, hieß es in der Abmahnung. Verschickt wurde sie im Namen der deutschen Ableger von Sony Entertainment, Warner Music Group und Universal Music. Die der Redaktion vorliegende Klageschrift gleicht weitgehend der Abmahnung.

Industrie will wohl Grundsatzurteil erreichen

Für Uberspace-Chef Jonas Pasche war weder die Abmahnung noch die Klage gerechtfertigt. Sein Anwalt vermutet, dass „mit der Klage eine Art Grundsatzurteil erreicht“ werden soll. Kommt die Industrie damit durch, könnte das Hostern auch dann eine Handlungspflicht auferlegen, wenn die behauptete Illegalität beanstandeter Inhalte juristisch umstritten ist.

Grundsätzlich sind Online-Dienste wie Uberspace durch das sogenannte Providerprivileg geschützt. Sie sind für mögliche Rechtsverletzungen ihrer Nutzer:innen nicht unmittelbar haftbar. Rechtlich relevant wird es für sie dann, wenn sie auf illegale Inhalte auf ihren Diensten aufmerksam gemacht werden, aber nichts dagegen unternehmen.

Ob eine Software wie youtube-dl illegal ist, bleibt jedoch stark umstritten. In der Antwort auf die Abmahnung wies Uberspace etwa darauf hin, dass der Download von Youtube-Inhalten in der Regel zulässig sei, sofern dafür kein Kopierschutz umgangen werden muss – schließlich werde das Recht auf eine Privatkopie der Verwertungsgesellschaft GEMA über entsprechende Gebühren abgegolten. Offenkundig wollten die Plattenlabels dieser Argumentation nicht folgen.

Ist schwacher Schutz wirksam?

Youtube schützt lediglich Bezahlinhalte mit effektiver DRM-Verschlüsselung (Digital Rights Management), der größte Teil des Youtube-Katalogs ist nur mit einer sogenannten „Rolling Cipher“ versehen. Um diesen rudimentären Schutz zu umgehen, sind weder Programmierkenntnisse noch spezielle Werkzeuge nötig. So setzt etwa jeder Browser beim Aufruf von Youtube die im Klartext übermittelten Informationen zusammen, um die Videos abzuspielen.

Das Landgericht Hamburg, bei dem auch die aktuelle Klage liegt, sah dies in der Vergangenheit jedoch anders. In einer einstweiligen Verfügung stellte das Gericht im Jahr 2017 fest, dass die Verschleierung des Speicherortes einer Videodatei, wie es etwa die „Rolling Cipher“-Technik macht, eine wirksame technische Maßnahme sei. Eine Umgehung solcher Schutzmaßnahmen sei daher nicht zulässig.

Von Youtube erhielten wir keine Antwort auf die Frage, ob Downloads von Videos erlaubt sind oder nicht. In seinen Nutzungsbedingungen verbietet der Anbieter zwar das Herunterladen, solange keine ausdrückliche Erlaubnis vorliegt. Allerdings macht der Anbieter in seinem Hilfebereich darauf aufmerksam, dass Downloads grundsätzlich möglich sind: „Indem du dein Originalvideo mit einer Creative-Commons-Lizenz versiehst, erlaubst du der gesamten YouTube-Community, es wiederzuverwenden und zu bearbeiten“, heißt es dort. Anders wäre ein guter Teil der Youtube-Kultur, etwa „Reaction-Videos“ oder eine sonstige Auseinandersetzung mit fremden Inhalten, rechtlich nicht möglich.

„Auch wenn Youtube die Funktionalität des Video-Downloads nicht von Haus aus anpreist, sind die Videos nicht mit einem Kopierschutz versehen“, sagt Julia Reda von der Gesellschaft für Freiheitsrechte (GFF). Das Verstecken der Download-URL im User-Interface sei nicht mit einem technischen Kopierschutz vergleichbar, dessen eigenhändige Umgehung durch das Urheberrechtsgesetz verboten ist. Das Landgericht Hamburg habe in seiner damaligen Entscheidung verkannt, dass „nur rudimentäre technische Kenntnisse notwendig sind, um den Download eines Youtube-Videos selbst vorzunehmen“, sagt die Urheberrechts-Expertin und ehemalige EU-Abgeordnete.

Industrie will mehrfach abkassieren

Das Vorgehen gegen youtube-dl zeigt laut Reda, dass die Rechte von Nutzer:innen urheberrechtlich geschützter Werke stets unter Beschuss durch die Unterhaltungsindustrie sind. „Nicht nur Youtube zahlt Lizenzgebühren für Musik, wir alle Zahlen Gebühren für das Recht auf Privatkopie in Form der Geräteabgabe, die bei jedem Kauf von Smartphones oder Speichermedien erhoben wird“, sagt Reda. „Trotz dieser doppelten Vergütung wollen Sony, Universal und Warner Music verhindern, dass wir von unserem Recht auf Privatkopie auch Gebrauch machen, indem wir Youtube-Videos lokal auf der Festplatte speichern.“

Traditionell geht die Branche aggressiv gegen potenzielle Urheberrechtsverletzungen vor. So zog sie etwa in einem wegweisenden Verfahren gegen den IT-Verlag Heise bis vor den Bundesgerichtshof. In einem Artikel hatte Heise Online einen Link auf die Software AnyDVD gesetzt, was die Industrie gern dauerhaft verhindert hätte. Mit dem Tool ließen sich Kopierschutzmechanismen von Video-DVDs umgehen, um beispielsweise eine Privatkopie anzulegen. Die Klage der Musikindustrie wurde erst nach einem jahrelangen Verfahren von höchster Instanz abgewiesen.

Für Privatkopien, die in Deutschland rechtlich zweifelsfrei erlaubt sind, gibt es viele gute Gründe. Sei es in diesem Fall, so Reda, weil die Bandbreite zuhause nicht reicht, um Videos ruckelfrei zu schauen, weil man vor einer langen Flugreise steht oder weil man sich in einem eigenen Video kritisch auf fremde Inhalte beziehen will. „Wenn Tools wie youtube-dl verboten werden, werden all diese legalen und gesellschaftlich erwünschten Aktivitäten unterbunden“, sagt Reda.

Im Zweifel erst mal löschen

Auch bei Youtube meldet die Industrie massenhaft vermutete Verstöße gegen das Urheberrecht und verlangt eine Entfernung der beanstandeten Inhalte. Die allermeisten Beschwerden wickelt das Content-ID-System ab und sperrt die Inhalte. Wie jedoch der erste Copyright Transparency Report des Unternehmens jüngst enthüllte, halten die automatisiert getroffenen Entscheidungen einer manuellen Überprüfung oft nicht stand. Das legt den Schluss nahe, dass sogenanntes „Overblocking“ ein verbreitetes Phänomen ist: Im Zweifel löschen Online-Dienste Inhalte eher als sich auf einen langwierigen Rechtsstreit einzulassen.

Zu einem weiteren Kollateralschaden könnten nun Hosting-Anbieter werden, wenn sie mit Abmahnungen überzogen werden, warnt Reda: „Es ist immer leichter, einer Abmahnung oder Takedown-Notice einfach nachzukommen, anstatt darauf zu beharren, dass die Rechtswidrigkeit des betroffenen Inhalts tatsächlich höchstrichterlich festgestellt wird. Insofern ist es zu begrüßen, dass Uberspace der Forderung nicht einfach nachgegeben hat.“

Der Hoster will die Sache nun durchfechten und bereitet seine Verteidigung vor. Sollte Uberspace das Verfahren verlieren, könnte es teuer für das Unternehmen werden. Der Gegenstandswert liegt bei 100.000 Euro. Dieser entscheidet letztlich über die Prozess- und Rechtsanwaltskosten – auch die der Gegenseite, für welche die unterlegene Partei aufkommen muss. Dies könnte rund zehn Prozent des Streitwerts ausmachen, so Pasche.

Unzählige Alternativen verfügbar

Um das Herunterladen von Youtube-Videos müssen sich Nutzer:innen hingegen keine Sorgen machen, zumindest nicht kurzfristig. Der Quelltext und die ausführbaren Dateien von youtube-dl liegen ohnehin nicht bei Uberspace, sondern beim zu Microsoft gehörenden Github. Der Anbieter hatte das Code-Repository des Projekts wieder hergestellt, nachdem er die DMCA-Anordnung der Industrie überprüft und als nicht gerechtfertigt eingestuft hatte. Zudem gibt es eine ganze Reihe von Forks, also abgespaltener und ebenfalls quelloffener Varianten von youtube-dl sowie unzählige andere Tools, die Youtube-Inhalte auf die eigene Festplatte schaufeln können.

Bizarr findet Uberspace-Chef Pasche jedenfalls, dass eine Google-Suche nach „youtube download“ als erstes eine von den Suchergebnissen separierte Infobox mit einem Anreißer des Wikipedia-Eintrags von youtube-dl anzeigt. „Wenn Youtube doch so sehr daran gelegen ist, Downloads zu unterbinden, könnte zumindest Google als Eigner ja schon mal dafür sorgen, nicht selbst prominent auf das vermutlich verbreitetste Download-Tool hinzuweisen“, sagt Pasche.

Update, 19. Januar: Passage zum Gegenstandswert überarbeitet.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Kartellverfahren: Google beschränkt Reichweite von News Showcase in Deutschland

netzpolitik.org - 13 Januar, 2022 - 15:49
Google spielt Verlagsinhalte aus dem Showcase-Lizenzprogramm über die Google-News-App aus – Alle Rechte vorbehalten IMAGO / ZUMA Wire

Auf Druck des Bundeskartellamtes hat Google angekündigt, sein Angebot News Showcase anzupassen. Die Behörde prüft derzeit Vorwürfe, dass die Kooperation des US-Konzerns mit deutschen Verlagen den Wettbewerb verzerre. Als Reaktion habe Google „Maßnahmen vorgeschlagen, um wettbewerbliche Bedenken des Amtes auszuräumen“, kündigte das Bundeskartellamt in einer Pressemitteilung an.

Mit Google News Showcase hat der Konzern weltweit Presseverlagen eine Milliarde US-Dollar an Lizenzzahlungen versprochen. Im Gegenzug liefern die Verlage an den Konzern händisch ausgesuchte Teaser für ihre Inhalte, die über die Google-News-App und Google Discover ausgespielt werden. In Deutschland nehmen laut Google 90 Medientitel teil, darunter der Spiegel, die Zeit und die Frankfurter Allgemeine Zeitung. Die Höhe der Zahlungen für Showcase wollen weder Google noch die Verlage verraten, sie sollen jedoch bei großen Medien im niedrigen sechsstelligen Bereich sein, für kleinere ein fünfstelliger. 

Doch in der Branche gibt es auch einigen Unmut gegen Showcase. Im Raum steht der Vorwurf, Google missbrauche seine Dominanz, um die Presseverlage zu überrollen. Die Verwertungsgesellschaft Corint Media, die dem Axel-Springer-Verlag nahesteht, hatte vor dem Bundeskartellamt Beschwerde gegen das Lizenzprogramm eingebracht. Im Kern geht es einerseits um die Frage, ob Google die Inhalte aus Showcase auch in seiner allgemeinen Suche anzeigen darf. Dadurch bevorzuge Google sein eigenes Angebot gegenüber anderen Nachrichtenaggregatoren, lautet das Argument. Google hat nun gegenüber der Behörde angekündigt, das zu unterlassen.

Leistungsschutzrecht im Fokus der Kartellbehörde

Zugleich prüft das Bundeskartellamt, ob Google mit den Verträgen für Showcase die Durchsetzung des Leistungsschutzrechtes erschwert. Dieses wurde durch das EU-Urheberrecht eingeführt und sieht vor, dass Google für Verweise auf Inhalte von Nachrichtenmedien über Google News Lizenzgebühren zahlen muss. Dagegen hat sich Google lange gewehrt, inzwischen hat das Unternehmen aber erste Verträge mit deutschen Verlagen abgeschlossen. In früheren Verträgen für Showcase legte Google fest, dass die Zahlungen aus Showcase versiegen, wenn „der Publisher einen Rechtsanspruch stellt“. Diese Bedingungen nahm Google allerdings wieder zurück.

Untersuchen möchte das Bundeskartellamt auch, ob der Zugang zu Showcase für alle Verlage diskriminierungsfrei gewährleistet wird. Ob die von Google vorgeschlagenen Maßnahmen wirksam sind, will die Behörde nun breit mit den Verlagen besprechen. Es würden dafür Stellungnahmen eingeholt. Das Verfahren gegen Google geht damit erstmal weiter. Erst wenige Tage zuvor hatte das Bundeskartellamt nach längerer Prüfung festgestellt, dass Google eine „überragende marktübergreifende Bedeutung“ hat. Das gibt der Marktaufsicht neue Eingriffsbefugnisse.

Corint Media zeigte sich in einer Reaktion erfreut über die Zugeständnisse Googles an die Kartellbehörde. „Wir begrüßen die Entschiedenheit, mit der die Beschlussabteilung die Missbräuchlichkeit des Google News Showcase aufgreift und Google Maßnahmen auferlegt“, sagten Christoph Schwennicke und Markus Runde, Geschäftsführer von Corint Media. Google selbst betonte, es kooperiere mit der Behörde. „Wir haben bereits einige Anpassungen vorgenommen sowie weitere Verbesserungen vorgeschlagen“, sagte ein Sprecher gegenüber netzpolitik.org. „Wir werden auch weitere Fragen entsprechend adressieren.“ Gleichzeitig wolle der Konzern Google News Showcase fortsetzen, „um Qualitätsjournalismus in Deutschland und anderswo zu unterstützen“.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Recht auf Reparatur: Die Ampel wartet auf Brüssel

netzpolitik.org - 13 Januar, 2022 - 13:00
Umweltministerin Steffi Lemke verspricht ein Recht auf Reparatur – Alle Rechte vorbehalten IMAGO / Future Image

Die Ampel-Regierung aus SPD, Grünen und FPD hat in ihrem Koalitionsvertrag ein „Recht auf Reparatur“ für Geräte wie Handys und Laptops angekündigt. Der Zugang zu Ersatzteilen und Reparaturanleitungen müsse sichergestellt werden, auch müssten Firmen eine bestimmte Zeit Softwareupdates garantieren. Doch bei dieser Ankündigung dürfte die Koalition sich größtenteils auf die EU-Kommission in Brüssel verlassen, wie sich nun herausstellt.

Das Recht auf Reparatur ist eine langjährige Forderung von Verbraucherschützer:innen und unabhängigen Reparaturwerkstätten. Denn bislang sind viele elektronische Geräte so gebaut, dass sie nur schwer repariert werden können – etwa, weil Akkus im Gerät verklebt sind oder sich kaputte Displays schwer tauschen lassen. Die durchschnittliche Nutzungsdauer von Handys in Deutschland beträgt derzeit nur rund zweieinhalb Jahre – Altgeräte sorgen für viele Tonnen an Elektromüll. NGOs fordern, durch rechtliche Maßnahmen die durchschnittliche Haltbarkeit von Handys auf bis zu zehn Jahre zu erhöhen.

In Interviews hatte die zuständige Bundesumweltministerin Steffi Lemke (Grüne) eine gesetzliche Vorschrift zu dem Thema versprochen, zuletzt etwa im Gespräch mit dem „Tagesspiegel“. Betreffen soll die Regelung elektronische Geräte, aber auch elektrische Zahnbürsten und andere Haushaltsgeräte. „Angesichts der abertausenden Konsumgüter lässt sich das Recht auf Reparatur aber nicht mit nur einem einzigen Gesetz umsetzen“, sagte Lemke der Zeitung. Aus ihren Äußerungen und Antworten eines Pressesprechers aus ihrem Haus an netzpolitik.org wird deutlich, dass das Umweltministerium jedoch keine von der EU unabhängige nationale Regelung plant.

Für das Recht auf Reparatur wesentliche Regelwerke seien „die Ökodesign-Richtlinie auf EU-Ebene und das Warenkaufrecht im BGB, das auf der EU-Warenkaufrichtlinie basiert“, betonte ein Sprecher des Bundesumweltministeriums. Die Ökodesign-Richtlinie schreibt Mindeststandards für die Nachhaltigkeit von Geräten vor, 2019 wurde sie auf Waschmaschinen, Geschirrspüler und Fernseher ausgeweitet.

Elektronische Geräte wie Handys sind bislang nicht erfasst, die EU-Kommission möchte das aber ändern. Sie wollte einen Gesetzesvorschlag ursprünglich schon vergangenes Jahr vorlegen, hat das aber auf die zweite Hälfte 2022 verschoben. Die Neuerungen sollen Handys und Tablets umfassen. „Derzeit wird die entsprechende Durchführungsmaßnahme für diese Produktgruppe in Brüssel verhandelt“, sagt der Ministeriumssprecher. „Wesentliche Inhalte der Maßnahme sind die Lebensdauer der Geräte und ihrer Akkus, Reparierbarkeit, Verfügbarkeit von Ersatzteilen.“

vzbv: „Regierung muss zügig Weichen stellen“

Als flankierende Maßnahme möchte das Bundesumweltministerium auch am Warenkaufrecht drehen. Dieses setzt eine EU-Richtlinie um, bereits vor der Wahl hat der Bundestag im Sommer einen Entwurf beschlossen. Die mit Jahresanfang gültige Neuregelung schuf etwa bereits Update-Pflichten für Hersteller digitaler Geräte. Das Bundesumweltministerium will aber darüber hinaus prüfen, ob es bei der nationalen Umsetzung noch Spielräume für weitere Verbesserungen bei der Reparierbarkeit gibt. „Das BMUV setzt sich im Rahmen des Warenkaufrechts dafür ein, die Gewährleistung für langlebige Geräte zu stärken und zu verlängern und die Beweislastumkehr für diese Produkte auf zwei Jahre auszuweiten“, sagte ein Sprecher. Hierzu sollten auch IT-Geräte zählen. Ob das bedeuten könnte, das gerade erst geänderte Warenkaufrecht neuerlich anzupassen, ließ er offen.

Verbraucherschützer:innen zeigen sich angesichts der Äußerungen der Umweltministerin skeptisch. Um beim Recht auf Reparatur schneller voranzukommen, könnte und sollte die neue Bundesregierung auch national handeln, sagte Elke Salzmann, Referentin Ressourcenschutz des Verbraucherzentrale Bundesverbands (vzbv), der Frankfurter Allgemeinen Zeitung. Bisherige Ankündigungen gingen nicht über das hinaus, was auch schon die vorherige Regierung versprochen habe. „Die Regierung muss zügig die Weichen für haltbare und reparierbare Produkte stellen“, so Salzmann.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Zentrum für politische Schönheit: Berliner Polizei durchsucht Künstler wegen Flyer-Aktion gegen AfD

netzpolitik.org - 13 Januar, 2022 - 10:54
Der „Flyerservice Hahn“ entsorgt AfD-Flyer. – Alle Rechte vorbehalten Zentrum für politische Schönheit

Die Berliner Polizei hat in den frühen Morgenstunden mehrere Privatwohnungen von Mitgliedern des Zentrums für politische Schönheit (ZPS) wegen angeblicher „Fälschung beweiserheblicher Daten“ durchsucht. Das berichten die Aktionskünstler auf Twitter und auf Rückfrage von netzpolitik.org. Die Berliner Polizei hat eine kurzfristige Presseanfrage zum Thema noch nicht beantwortet.

Nach Auskunft der Künstler:innen steht die Hausdurchsuchung im Zusammenhang mit der Aktion „Flyerservice Hahn“, bei der es dem ZPS gelang, unter Vortäuschung einer erfundenen Firma tonnenweise Werbematerial der rechtsradikalen AfD im Bundestagswahlkampf zu erlangen und dieses im Rahmen einer Kunstaktion zu entsorgen.

Stefan Pelzer vom Zentrum für politische Schönheit hält die Durchsuchungen für einen „skandalösen Vorgang“. Er sagt gegenüber netzpolitik.org: „Die Ermittlungen sind politisch motiviert und beruhen auf völlig fadenscheinigen Begründungen. Statt endlich gegen Rechtsextremisten durchzugreifen, bricht die Berliner Polizei offensichtlich mit Rückendeckung des neuen Senats in unsere Wohnungen ein. Wir werten die Durchsuchungen als Angriff auf das Grundrecht auf Kunstfreiheit.“

Aus dem Durchsuchungsbeschluss twitterte das ZPS einen Auszug.

 

Provokation bundesweiter Debatten

Das Zentrum für politische Schönheit provoziert mit seinen Aktionen seit Jahren bundesweite Debatten zum Thema Menschenrechte, Migration und Rechtsradikalismus. Dabei nutzten die Aktionskünstler auch immer wieder Techniken der Kopie und Fälschung, bauten Webseiten der Bundesregierung nach oder kündigten an, mit Presslufthämmern den Platz vor dem Bundeskanzleramt umzugestalten

Aktionen des ZPS stehen oftmals am Rande von Illegalität und Strafbarkeit oder spielen mit dieser. Zum Zwecke der öffentlichen Debatte sind diese Provokationen fest eingeplant und gehören zur künstlerischen Methode der Gruppe, sie befeuert den medialen Diskurs auf vielfältige Weise und weist so auf politische Missstände hin.

In der Vergangenheit hatten die Künstler unter anderem dem rechtsradikalen Politiker Björn Höcke einen Nachbau des Holocaustmahnmals in den Nachbargarten gestellt. Ein Staatsanwalt, der sich später als AfD-Spender herausstellte, leitete damals Ermittlungen wegen „Bildung einer kriminellen Vereinigung“ gegen die Künstler ein. Das Verfahren wurde nach einem  öffentlichen Aufschrei eingestellt.

Berliner Polizei gegen Aktionskunst

In Berlin ist es nicht die erste Razzia gegen Aktionskünstler. Im vergangenen Juli hatte die Berliner Polizei Privaträume und das Büro des Peng-Kollektivs durchsucht wegen eines angeblichen Aufruf zu Straftaten. Die Durchsuchung gegen Peng stand im Zusammenhang mit der Webseite TearThisDown.com, die Peng gemeinsam mit der Initiative Schwarze Menschen in Deutschland veröffentlicht hatte. Die Webseite zeigt eine Karte von Orten, an denen der Kolonialismus weiterlebt – und rief zu Aktionen gegen diese auf.

Auch gegen Adbuster und Streetart-Künstler fährt Berlin immer wieder harte Geschütze auf. Hierbei wurden Menschen, die Plakate in Werbekästen austauschen, auf unverhältnismäßige Weise kriminalisiert

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Studie: Seit dem NetzDG gibt es weniger Hass auf Twitter

netzpolitik.org - 13 Januar, 2022 - 07:00
Laut einer Studie wird auf dem Kurznachrichtendienst Twitter seit dem NetzDG weniger toxisch gezwitschert. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Vincent van Zalinge

Staatliche Regulierung habe geholfen, Hassrede auf Twitter signifikant zurückzudrängen. Das hat eine Studie des Leibniz-Zentrums für Europäische Wirtschaftsforschung (ZEW) ergeben. Demnach seien rund zehn Prozent weniger Hasskommentare auf dem sozialen Netzwerk erschienen als vor dem Netzwerkdurchsetzungsgesetz (NetzDG).

Um die gesetzliche Regulierung potenzieller Hassrede in sozialen Netzwerken tobt seit Jahren eine heftige Debatte. Deutschland war 2017 als weltweit erstes Land vorangeprescht und hatte mit dem NetzDG ein so umstrittenes wie wegweisendes Gesetz vorgelegt. Davon erfasste Online-Dienste müssen ihnen gemeldete Inhalte binnen 24 Stunden entfernen, wenn sie offensichtlich illegal sind, bei anderen rechtswidrigen Inhalten gilt eine Frist von sieben Tagen.

Über die Folgen des Gesetzes auf die Meinungsfreiheit im Netz wird weiterhin gestritten – auch vor dem Hintergrund kommender EU-Gesetze wie dem Digital Services Act, dem die deutsche Regelung teils als Vorbild dient. Eine Evaluierung des Bundesjustizministeriums stellte dem NetzDG noch vor dessen Novellierung insgesamt eine gute Note aus, eine unabhängig durchgeführte Untersuchung warnte hingegen vor Overblocking, also vor zu viel ungerechtfertigt gelöschten Inhalten. Zudem stellte sie die praktische Relevanz des NetzDG im Kampf gegen Hassrede in Frage.

Rechtes Hassbiotop

Zumindest letzteren Einwand könnte die ZEW-Studie nun entkräften. Die Forscherinnen Raphaela Andres und Olga Slivko zogen dazu rund 200.000 Accounts von Twitter-Followern der Rechtsaußen-Partei AfD heran. Aus dieser Ecke kommt messbar die meiste Hassrede, sie eignet sich deshalb besonders gut für solche Untersuchungen. Als Kontrollgruppe diente die österreichische FPÖ und deren Follower. Das Nachbarland taugt gut für einen Vergleich, weil es sprachliche und kulturelle Ähnlichkeiten gibt, dort aber dem NetzDG ähnliche Gesetze fehlten.

Die Forscherinnen luden über zwei Millionen Tweets aus 2016 bis 2019 herunter, um Zeiträume vor und nach dem In­kraft­tre­ten des NetzDG untersuchen zu können. Aus dem Material filterten sie Nachrichten heraus, die Begriffe wie „Islam“, „Migra[tion]“ oder „Flucht“ enthielten. Diese Tweets untersuchten sie automatisiert auf die Toxizität. Jeder der Tweets erhielt dann einen Score zwischen 0 und 1. Nachrichten mit einem Score von 0,5 oder höher galten als potenzielle Hassrede. Seit dem NetzDG ging der Studie zufolge die Anzahl solcher Tweets in Deutschland durch die Bank zurück, besonders bemerkbar habe sich dies bei Attacken auf die Identität gemacht.

Hassintensität auf Twitter vor und nach dem NetzDG in Deutschland und Österreich. Je weiter rechts ein Tweet auf der Verteilungskurve aufscheint, umso hasserfüllter ist er. Hassrede beginnt etwa ab der Mitte. - Alle Rechte vorbehalten Raphaela Andres, Olga Slivko

Auch die „Hassintensität“ sei zurückgegangen, im Unterschied zu Österreich. Trotz gewisser Spill-over-Effekte habe sich dort seit dem NetzDG die Verteilung hin zu mehr extremen Tweets verschoben, während in Deutschland insgesamt weniger stark hasserfüllte Inhalte als früher gepostet wurden. Dies spiegle sich auch in absoluten Zahlen wider. Seit der NetzDG-Einführung sei die Anzahl „massiv toxischer“ Tweets um acht Prozent gefallen, solche mit „Identitätsattacken“ um elf Prozent. Da sich polarisierende Inhalte zudem schneller verbreiten als langweilige, habe die bessere Moderation auch zu entsprechend weniger Retweets und damit geringerer Sichtbarkeit von Hasskommentaren geführt, heißt es in der Studie.

Schädliche Effekte abgeschwächt

Zahlreiche Untersuchungen belegen inzwischen, dass Hass im Netz ein ernstzunehmendes Problem ist. Insbesondere bei marginalisierten und deshalb oft angegriffenen Gruppen, etwa Migrant:innen, LGBTQ-Personen oder Frauen, kann es zum Rückzug aus dem digitalen Raum führen, wenn sie online ungebremst attackiert werden. Die Gewalt kann auch als sogenannter „stochastischer Terrorismus“ in den Offline-Bereich überschwappen oder, im Extremfall, gar Genozide befeuern.

Lange sperrten sich die Betreiber der Online-Plattformen gegen Forderungen nach besserer Moderation, Twitter etwa rechtfertigte seine Untätigkeit gegen Hassrede mit der Verteidigung der Meinungsfreiheit. Erst als sich der öffentliche Druck nicht mehr länger wegwischen ließ, gelobten sie Besserung. Doch statt staatlicher Eingriffe ziehen sie bis heute Selbstregulierung und private Gemeinschaftsregeln vor.

Das alleine reiche allerdings nicht aus, schreiben die Autorinnen: Die Anreize für die Betreiber seien schwach, selbst ein „optimales Niveau“ bei der Inhaltemoderation zu erreichen. „Tatsächlich könnte es für die Plattformen optimal sein, extreme Inhalte auf dem Dienst zu belassen, um ihre Nutzer:innenbasis und werbegetriebene Profite zu vergrößern“, heißt es in der Studie.

Umgekehrt würden die Ergebnisse der Untersuchung nahelegen, dass die schädlichen Effekte von Online-Hass abgeschwächt werden könnten, wenn die Online-Dienste stark angereizt werden, rasch auf Meldungen von Hassrede zu reagieren. Seit dem NetzDG drohen davon erfassten Anbietern Geldbußen, wenn sie gegen die Auflagen verstoßen. Verhängt wurden solche Strafen erst zwei Mal, allerdings nicht aufgrund nachlässiger Moderation: Facebook versteckte aus Sicht des Bundesamts für Justiz unrechtmäßig das Meldeformular und legte zudem unvollständige Transparenzberichte vor.

Bessere Meldewege gefordert

Hier sieht die ZEW-Studie noch Potenzial für Verbesserungen. Die Meldewege seien zu komplex, so müssten Nutzer:innen etwa den korrekten Gesetzesparagraphen angeben, wenn sie Hassrede melden möchten. Das könnte abschreckend wirken, schließlich ist der Prozess langwierig und nicht alle sind juristisch ausgebildet.

Auch müssten weitere Studien potenzielle Overblocking-Effekte genauer untersuchen, selbst wenn die Autorinnen keine Hinweise darauf gefunden haben wollen: Abseits der zurückgegangenen Anzahl von Hasspostings rund um Migration und Religion habe sich kein dämpfender Effekt des NetzDG oder eine Verhaltensänderung von Twitter-Nutzer:innen nachweisen lassen. Das NetzDG scheint also laut der Studie, trotz aller Kritik, wirksam gegen Hassrede zu sein.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Crowd-Recherche: Mozilla lädt zur Jagd auf Facebooks Tracking-Pixel

netzpolitik.org - 12 Januar, 2022 - 18:29
Facebooks Tracking-Praxis im Blick: Das Projekt „Pixel Hunt“ von Mozilla und The Markup – Gemeinfrei-ähnlich freigegeben durch unsplash.com Glen Carrie

Was weiß Facebook über uns? Trotz zahlreicher journalistischer Recherchen, Datenlecks und Kongressanhörungen kann diese Frage niemand außerhalb der Firma so richtig akkurat beantworten. Viel weiß der Datenkonzern, so viel ist klar. Auch über Menschen, die gar keinen Facebook-Account haben.

Mithilfe seines großen Werbenetzwerks und Tracking-Tools für die Anbieter:innen anderer Websites und Apps sammelt Facebook auch außerhalb der eigenen Plattformen fleißig Daten. In diese undurchsichtige Praxis wollen nun die gemeinnützige Mozilla Foundation und das US-Recherchemagazin The Markup Licht bringen. Mit einer Studie wollen sie aufdecken, wie und welche Daten über unser Online-Verhalten Facebook auf den Seiten von Drittanbietern sammelt.

Im Fokus der „Facebook Pixel Hunt“ stehen Tracking-Pixel. Dies sind kleine Code-Schnipsel, die Seitenbetreiber in ihre Websites integrieren und die beim Aufrufen der Seite Informationen an Facebook übermitteln.

Die Seitenanbieter:innen können ihre Besucher:innen dann mit zielgerichteter Werbung in den Diensten von Facebook oder auf anderen Websites erreichen. Den Effekt davon haben die meisten Internetnutzer:innen schon einmal erlebt, wenn sie sich Schuhe oder andere Produkte in einem Online-Shop angeschaut und dann genau für dieses Angebot später Werbung gezeigt bekommen haben. Im Gegenzug erhält Facebook umfangreiche Informationen darüber, wo sich einzelne Menschen im Netz so herumtreiben.

US-Nutzer:innen werden um Datenspenden gebeten

Die Studie von Mozilla und The Markup setzt auf einen Crowd-Ansatz. Freiwillige können sich eine Erweiterung für ihren Mozilla-Firefox-Browser installieren, die Informationen sammelt und diese als Datenspende an die Forscher:innen übermittelt. Wie uns mehrere Leser:innen mitteilen, ist die Teilnahme derzeit jedoch auf Nutzer:innen aus den Vereinigten Staaten begrenzt. Das Ende der Untersuchung ist für den 13. Juli 2022 angekündigt.

Wer mitmachen will, muss bereit sein, einige Daten über das eigene Surf-Verhalten bereitzustellen. Für die Studie sammle man neben den Daten der Facebook-Pixel und Facebook-Cookies auch Informationen über die besuchten Websites, heißt auf der Kampagnenseite. Das sind zum Beispiel die vollständigen URLs besuchter Websites, die Dauer des Besuchs auf einer Seite und auch, wie weit man auf dieser heruntergescrollt hat. Außerdem werden Teilnehmer:innen gebeten, einen Fragebogen mit Angaben zur eigenen Person auszufüllen.

Das Forschungsteam verspricht möglichen Teilnehmer:innen, sorgsam mit den Daten umzugehen. So sollen die Rohdaten nur in einer von Mozilla besonders geschützten Forschungsumgebung gesammelt und verarbeitet werden. Dritte würden im Rahmen der Studie keine granularen Daten erhalten, auch der Medienpartner The Markup werde in seiner Berichterstattung ausschließlich aggregierte und anonymisierte Daten verwenden.

Darüber hinaus habe sich Mozilla bei allen Studien dem Grundsatz der Datenminimierung verschrieben, nach dem nur solche Daten gesammelt werden sollen, die zur Erreichung der Studienziele nötig sind. Sobald die Analyse abgeschlossen ist, sollen deshalb alle Rohdaten gelöscht werden.

Update, 14. Januar 2022: Info über Beschränkung der Studie auf US-Nutzer:innen ergänzt. Danke allen Leser:innen für die Hinweise!

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Booster-Nachweis: CovPassCheck-App nutzlos bei einigen Corona-Regeln

netzpolitik.org - 12 Januar, 2022 - 17:15
Zur wievielten Impfung ein Zertifikat gehört, kann die CovPassCheck-App nicht anzeigen. – Alle Rechte vorbehalten IMAGO / Jochen Tack

Vor einigen Tagen einigten sich die Ministerpräsident:innen auf die Einführung der 2GPlus-Regelung für die Gastronomie. Damit sollen nur noch geimpfte Menschen mit tagesaktuellem Schnelltest Cafés, Bars und Restaurants besuchen können. Die einzige Ausnahme: Wer schon eine dritte Spritze bekommen hat, für den gilt die Testpflicht nicht.

Neue Maßnahmen bedeuten für die Gastronomie natürlich auch neue Herausforderungen, um zu kontrollieren, ob die Regeln eingehalten werden. Für die Kontrolle von Impfzertifikaten und auch von Corona-Tests gibt es die CovPassCheck-App des Robert-Koch-Instituts. Besucher:innen können ihre Impf- und Testnachweise in der CovPass-App oder in der Corona-Warn-App hinterlegen. Die QR-Codes werden dann mit der CovPassCheck-App von den Betreiber:innen gescannt und auf ihre Gültigkeit überprüft.

Doch die App zeigt neben der Gültigkeit des Zertifikats nur den Namen und das Geburtsdatum der geimpften oder getesteten Person an. Es ist nicht ersichtlich, wie viele Impfungen die Person schon erhalten hat. Es ist vollkommen unklar, wie die 2GPlus-Regeln und der Wegfall der Testpflicht für Geboosterte mit der CovPassCheck-App durchgesetzt werden sollen.

Anpassung nicht vorgesehen

Im Bundesgesundheitsministerium kann man auf Anfrage auch nicht weiterhelfen. Die Einsicht in die Daten der einzelnen Impfungen und die Gültigkeitsdauer einer Impfung sei „aus Gründen des Datenschutzes“ nicht vorgesehen, so ein Sprecher. „Die Daten sind lediglich lokal auf dem Gerät der Überprüften gespeichert und werden gegen das hinterlegte Regelwerk des RKI geprüft. Eine entsprechende Funktion zur Einsicht in detaillierte Impfdaten in der CovPass-Check-App ist nicht vorgesehen und vor allem datenschutzrechtlich kritisch zu betrachten.“ Eine Anpassung sei daher nicht vorgesehen.

Doch um zu kontrollieren, ob eine Person schon eine Booster-Impfung bekommen hat, wäre es ja gar nicht nötig, Datum oder Gültigkeitsdauer der Impfung einzusehen. Ein simples 1, 2 oder 3 würde genügen, um deutlich zu machen, zu welcher Impfung das Zertifikat gehört, das die App gerade kontrolliert. Das Datenschutzargument wirkt nicht wirklich stichhaltig, um die Probleme der App zu rechtfertigen.

Schlimmer noch: Wer sich über die CovPass-App ein PDF zum analogen Nachweis der Impfung generiert, kann das „2/2“ unter dem Punkt „Erstimpfung/Wiederimpfung“ mit einem einfachen Programm zur PDF-Bearbeitung ein „3/3“ machen. Die CovPassCheck-App könnte die Fälschung beim Scannen des QR-Codes nicht erkennen.

Problem ist in der Branche bekannt

Der Sprecher des Gesundheitsministeriums weist daraufhin, dass das Fälschen eines Impfnachweises eine Straftat sei. Man mache sich außerdem nicht nur strafbar, wenn man selbst Impfpässe fälscht, sondern auch, wenn man wissentlich einen gefälschten Impfpass benutze. Das scheint viele Menschen aber nicht davon abzuhalten, es trotzdem zu versuchen. Immer wieder fliegen Fälschungen auf.

Eine Sprecherin des Deutschen Hotel- und Gaststättenverbandes sagt auf Anfrage von netzpolitik.org, das Problem mit der Kontrolle der 2GPlus-Regeln sei in der Branche bekannt: „Im Interesse der Gäste und der Betriebe muss das dringend gelöst werden. Wir brauchen hier mehr Klarheit bei den Vorgaben.“

Im Ministerium ist man unterdessen damit beschäftigt, die neuen Vorgaben der EU-Kommission für Genesenenzertifikate und digitale Nachweise der Johnson&Johnson-Impfung umzusetzen. Laut Sprecher prüfe man derzeit, wie man den betroffenen Personen bis zum 1. Februar ein gültiges Zertifikat zur Verfügung stellen könne, das den EU-Anforderungen genügt.

Genesene und zweimal geimpfte Menschen haben noch mit anderen technischen Hürden zu kämpfen. Sie gelten ebenfalls als geboostert. Der CovPass-App gelingt es aber nicht, diesen Status klar anzuzeigen. In der App erscheint „Impfung 2 von 2“, obwohl die Person zusätzlich den Genesenenstatus hat. Auch für dieses schon seit Monaten bekannte Problem gibt es noch keine Lösung. Betroffene müssen bei der Kontrolle immer beide Nachweise vorzeigen.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Für Android und iOS: Telegram blockiert Inhalte der Verschwörungsszene

netzpolitik.org - 12 Januar, 2022 - 16:05
Eingeschränkte Inhalte auf Telegram. – Logo und Screenshots: Telegram, Bearbeitung: netzpolitik.org

Telegram ist derzeit eine der wichtigsten Plattformen für Verschwörungsgläubige. In den Gruppen und Kanälen der Chat-App vermischen sich unter anderem Querdenker:innen und Rechtsextreme. Einige teilen irreführende und falsche Informationen über die Pandemie und organisieren Proteste. Andere verbreiten auch Hass, Hetze und Todesdrohungen. Das kann dazu beitragen, Menschen zu radikalisieren, die sich auf Telegram einfach nur umschauen möchten.

Telegram lässt das in der Regel zu. Im Vergleich zu anderen Plattformen wie Facebook oder Twitter löscht Telegram Inhalte extrem selten. Telegram ist dafür bekannt, Meinungsfreiheit äußerst weit auszulegen und Behörden abblitzen zu lassen. Das hat die Plattform in autoritären Ländern wie Belarus und Iran zu einem wichtigen Werkzeug für demokratische Protestbewegungen gemacht, führt aber hierzulande auch zur Situation, dass Mordaufrufe einfach stehen bleiben.

Jetzt zeigen Recherchen von netzpolitik.org, dass Telegram derzeit gegen manche Inhalte aus der deutschen Verschwörungsszene vorgeht. Gruppen lassen sich nicht öffnen, Kommentare in Kanälen werden nicht angezeigt.

Punktuelle Maßnahmen

Es handelt sich bisher offenbar um Einzelfälle. Betroffen sind mindestens sechs Kanäle und Gruppen aus der Verschwörungsszene. Die Einschränkungen gelten nur für Nutzer:innen, die Telegram aus dem Google Play Store oder dem App Store von Apple heruntergeladen haben. Wer Telegram aus anderen Quellen bezieht oder etwa auf dem Laptop nutzt, kann die eingeschränkten Inhalte weiterhin sehen.

Die Namen der betroffenen Kanäle und Gruppen nennen wir nicht, um uns möglichst wenig an der Verbreitung von deren Falschinformationen zu beteiligen. Einen der Kanäle betreibt ein ehemaliger Russland-Korrespondent des Focus, er hat rund 300.000 Abonnent:innen, ein anderer Kanal wird von einem Anwalt aus der Querdenken-Szene betrieben. In den Kommentaren bezeichnen Nutzer:innen die Corona-Impfung als „Giftspritze“ und die Regierung als „Satanisten“. Sie verbreiten die falsche Erzählung, dass die Impfung Menschen töten solle.

Kanäle auf Telegram können unbegrenzt viele Abonnent:innen haben. Die Kanalbetreiber:innen posten etwa Texte, Links oder Bilder an ihr Publikum. Eine Kommentarfunktion lässt sich optional einschalten. Noch mehr Austausch gibt es in Telegram-Gruppen. Dort können bis zu 200.000 Mitglieder direkt miteinander chatten.

Offenbar Druck von Google und Apple Gesperrte Gruppe für Nutzer:innen von Telegram aus dem Google Play Store. - Screenshot: Telegram, Bearbeitung: netzpolitik.org

Anscheinend reagiert Telegram mit den Einschränkungen auf Druck von Google und Apple. Apple kontrolliert über den App Store, welche Apps für sein mobiles Betriebssystem iOS verfügbar sind. Ähnlich ist es beim Konzern Google, der den Google Play Store für Android kontrolliert. Beide Konzerne verlangen von App-Anbietern, dass sie sich an die Regeln der jeweiligen App-Stores halten, sonst könnten sie rausfliegen. Zuletzt hatte der sächsische Ministerpräsident Michael Kretschmer (CDU) Apple und Google aufgefordert, gegen Telegram aktiv zu werden.

Zu den Regeln von Apple gehört etwa, dass Anbieter von Apps mit nutzergenerierten Inhalten „einen Mechanismus zur Meldung unzulässiger Inhalte und zeitnahe Reaktionen auf Beschwerden“ bereithalten müssen. Ebenso muss es die Möglichkeit geben, dass solche unzulässigen Inhalte entfernt werden. Für Entwickler:innen von Apps, die im Play Store erscheinen, gelten ähnliche Richtlinien.

Ein Rauswurf aus dem Google Play Store oder dem App Store könnte die Reichweite von Telegram deutlich beschneiden. Offenbar um das zu verhindern, hat Telegram schon in der Vergangenheit Inhalte eingeschränkt, wie Kanäle des Islamischen Staates oder pornografische Inhalte für iOS-Nutzer:innen. Wir haben die Pressestellen von Google und Apple zu den Sperrungen von Verschwörungsinhalten kontaktiert, beide wollen sich nicht öffentlich zur Sache äußern.

Weiterer Druck auf Telegram kommt von der deutschen Regierung. Unter anderem das Justizministerium ist wohl der Ansicht, dass Telegram unter das Netzwerkdurchsetzungsgesetz (NetzDG) falle. Entsprechend müsste die Plattform unter anderem für Behörden erreichbar sein. Telegram müsste auch in Deutschland strafbare Inhalte löschen, wenn sie von Nutzer:innen gemeldet werden. Weil das nicht passiert, gibt es Bußgeldverfahren. Aber offenbar hat Telegram bislang nicht auf Anfragen deutscher Behörden reagiert. Eine aktuelle Presseanfrage von netzpolitik.org bei Telegram blieb auch unbeantwortet.

Telegram hat schon öfter gelöscht – aber sporadisch

Es ist unklar, ob die neuen Sperrungen ein Auftakt sind, um in Deutschland künftig vermehrt Inhalte zu moderieren. Möglich ist auch, dass Telegram seine Eingriffe auf ein Minimum beschränkt, um Kritiker:innen sowie Google und Apple zu besänftigen. Das würde zumindest zu der Strategie passen, die sich bislang von Telegram beobachten ließ.

Aufrufe zu Gewalt sind schon länger auf Telegram verboten. Das steht in den Nutzungsbedingungen. Demnach dürfen Nutzer:innen Gewalt nicht öffentlich „fördern“. Telegram setzt das offenbar nur in manchen Fällen durch. Die Plattform löscht beispielsweise bereits seit Jahren islamistische Terrorpropaganda. Nach dem Sturm auf das US-Kapitol im Januar 2021 habe Telegram „hunderte öffentliche Aufrufe zu Gewalt“ gelöscht, wie Telegram-Chef Pavel Durov auf seinem eigenen Telegram-Kanal erklärte.

Löschungen in Deutschland sind selten. Josef Holnburger vom Center für Monitoring, Analyse und Strategie (CeMAS) warf Telegram im Dezember vor, die Sperrungen seien „wenige und willkürlich“. Im September löschte Telegram etwa einen deutschen Kanal mit 40.000 Abonnnent:innen, der aktiv zu Gewalt gegen Ärzt:innen angestiftet haben soll. Durov schrieb: „Es ist OK, für die eigenen Rechte zu kämpfen. Es ist nicht OK, anderen Menschen zu schaden.“

In deutschsprachigen Telegramgruppen und -kanälen gibt es derzeit viele Gewaltaufrufe: Recherchen des öffentlich-rechtlichen Angebots Funk haben jüngst gezeigt, dass Morddrohungen gegen Personen des öffentlichen Lebens in Deutschland seit Mitte November täglich auf Telegram erscheinen. Beobachter:innen schätzen, dass solche Hetze Menschen zu physischer Gewalt bewegen kann.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Luca-App: Bund übernimmt Millionenkosten der Länder nicht

netzpolitik.org - 12 Januar, 2022 - 15:25
Auch weil die Corona-Warn-App als Alternative Funktionen von Luca kann, steht die Weiternutzung der App auf der Kippe. – Alle Rechte vorbehalten IMAGO / Lobeca

Der Bund übernimmt die Kosten für die Lizenzverträge mit der Luca-App nicht. Das schreibt der Journalist Tilo Jung auf Twitter mit Verweis auf die Bundespressekonferenz.

Ursprünglich hatte der Bund angekündigt, die Kosten für eine digitale Kontaktnachverfolgungslösung zu übernehmen, wenn sich die Länder auf eine einheitliche Lösung einigen. 13 Bundesländer hatten daraufhin für insgesamt 21 Millionen Euro Lizenzvereinbarungen mit Luca getroffen, um die App für ein Jahr zur digitalen Kontaktnachverfolgung einsetzen zu dürfen.

In diesem Fenster soll ein Twitter-Post wiedergeben werden. Hierbei fließen personenbezogene Daten von Dir an Twitter. Aus technischen Gründen muss zum Beispiel Deine IP-Adresse übermittelt werden. Twitter nutzt die Möglichkeit jedoch auch, um Dein Nutzungsverhalten mithilfe von Cookies oder anderen Tracking-Technologien zu Marktforschungs- und Marketingzwecken zu analysieren.

Wir verhindern mit dem WordPress-Plugin „Embed Privacy“ einen Abfluss deiner Daten an Twitter so lange, bis Du aktiv auf diesen Hinweis klickst. Technisch gesehen wird der Inhalt erst nach dem Klick eingebunden. Twitter betrachtet Deinen Klick als Einwilligung in die Nutzung deiner Daten. Weitere Informationen stellt Twitter hoffentlich in der Datenschutzerklärung bereit.

Zur Datenschutzerklärung von Twitter

Zur Datenschutzerklärung von netzpolitik.org



Inhalt von Twitter immer anzeigen

Inhalt direkt öffnen

var _oembed_c4cedec7265e21ea2375020bf2e7fed1 = '{\"embed\":\"<blockquote class="twitter-tweet" data-width="550" data-dnt="true"><p lang="de" dir="ltr">Sargnagel für die <a href="https:\\/\\/twitter.com\\/hashtag\\/LucaApp?src=hash&amp;ref_src=twsrc%5Etfw">#LucaApp<\\/a>? Die Bundesregierung stellte heute klar, dass die Kosten der Bundesländer für die Lizenz der App nicht übernommen werden: &quot;Wir finanzieren die Luca-App nicht für die Länder&quot;, sagte mir das <a href="https:\\/\\/twitter.com\\/BMG_Bund?ref_src=twsrc%5Etfw">@BMG_bund<\\/a> heute in der <a href="https:\\/\\/twitter.com\\/hashtag\\/BPK?src=hash&amp;ref_src=twsrc%5Etfw">#BPK<\\/a> <a href="https:\\/\\/t.co\\/b5ZyTjz7ut">pic.twitter.com\\/b5ZyTjz7ut<\\/a><\\/p>&mdash; Tilo Jung (@TiloJung) <a href="https:\\/\\/twitter.com\\/TiloJung\\/status\\/1481264200152457218?ref_src=twsrc%5Etfw">January 12, 2022<\\/a><\\/blockquote><script async src="https:\\/\\/platform.twitter.com\\/widgets.js" charset="utf-8"><\\/script>\"}'; .embed-twitter .embed-privacy-logo { background-image: url(https://cdn.netzpolitik.org/wp-content/plugins/embed-privacy/assets/images/embed-twitter.png?v=1642508579); }

Zusage aus dem Ministerium ließ auf sich warten

Die Zusage aus dem Gesundheitsministerium kam allerdings nie. Auf Anfrage wollte bislang niemand die Übernahme der Kosten bestätigen. Wiederholt hieß es, die Sache werde noch geprüft.

Nachdem ein Gericht in Mecklenburg-Vorpommern zudem im November entschied, die Vergabe an Luca sei nicht rechtmäßig und daher unwirksam, stand in Frage, ob die verbleibenden 12 Bundesländer, die Luca kauften, noch als „einheitliche Lösung“ gewertet werden können.

Auf eine Anfrage von Ende November antwortete ein Sprecher des Ministeriums: „Für eine potenzielle Kostenbeteiligung des Bundes kann grundsätzlich das sogenannte Einer-für-Alle-Prinzip (EfA-Prinzip) zur Anwendung kommen. Dieses besagt, dass eine zentrale Finanzierung von IT-Systemen erfolgen kann, sofern sich eine Mehrheit der Bundesländer (≥9 Länder) auf ein gemeinsames Vorgehen einigt.“

Einer-für-alle-Prinzip greift nicht

Diese grundsätzliche Einschätzung scheint nun nicht mehr zu gelten. Am Donnerstag sagte ein Sprecher des Ministeriums: „Nicht zuletzt auch aufgrund der heterogenen Beschaffungsvorgänge hat die Bundesregierung bislang keine Finanzierung vorgenommen.“

Für die Länder bedeutet dies, dass sie auf den Lizenzkosten für Luca sitzen bleiben werden. Voraussichtlich bis Ende Februar steht in den Bundesländern die Entscheidung an, ob sie die Lizenzvereinbarung mit Luca kündigen oder automatisch um ein weiteres Jahr verlängern. Wie viel das die Länder zusätzlich kosten würde, ist nicht bekannt.

Die Bundesländer wollen davor zusammen mit Gesundheitsämtern und anderen Gremien über den Nutzen der App beraten und sich dann entscheiden. Das geht aus den Antworten der neun Bundesländer hervor, die auf Anfragen von netzpolitik.org geantwortet haben. Über die genauen Kündigungsfristen und das Vertragsmodell wollten die Ministerien der Bundesländer keine Auskunft geben. Auch die Betreiber der Luca-App wollten sich zu Details nicht äußern. Antworten aus einigen Bundesländern weisen aber darauf hin, dass es sich bei der Verträgen um ein zweijähriges Abo-Modell handelt, das aktiv nach einem Jahr von den Bundesländern gekündigt werden kann.

Luca-App in der Kritik

Die Luca-App steht schon seit Längerem in der Kritik. In der Anfangsphase gab es zahlreiche Sicherheitslücken. Heute zeigt sich, dass viele Bundesländer die Daten aus der App kaum bis gar nicht mehr abfragen, wie Recherchen von netzpolitik.org ergeben haben. Der Nutzen der App für die Bekämpfung der Pandemie ist damit fraglich.

Wie eine weitere Recherche zeigt, lassen zudem Verträge und Aussagen der Luca-Betreiber darauf schließen, dass auch andere Geschäftsmodelle mit dem laut Unternehmensaussagen 40 Millionen Installationen umfassenden Nutzerstamm möglich wären. Die Betreiber schlossen andere Geschäftsmodelle wie eine Gastro- und Event-App auf Nachfrage nicht aus.

Am letzten Wochenende war Luca erneut in die Kritik geraten, weil die Polizei in Mainz mit Wissen des Gesundheitsamtes und ohne Rechtsgrundlage Luca-Daten von Kneipenbesuchern für ihre Ermittlungsarbeit genutzt hatte. Der Fall bestätigt die grundlegende Kritik von Sicherheitsexpert:innen an Luca, dass eine zentrale und personalisierte Datenhaltung solche Vorfälle begünstige.

Ergänzung 17.25 Uhr:

Der schleswig-holsteinische Landkreistag sagte gegenüber der Deutschen Presse-Agentur, man werde die Lizenz für die Luca-App nicht verlängern. Grund dafür sei die geänderte Corona-Verordnung des Landes, die keine personalisierte Kontaktverfolgung mehr vorschreibe. Somit kann bei Veranstaltungen und in der Gastronomie auch die Corona-Warn-App zur Pandemiebekämpfung zum Einsatz kommen. Die Entscheidung war schon im Herbst 2021 gefallen, wurde aber erst jetzt bekannt.

Update 13.01.: In der Passage zur möglichen Kostenübernahme des Bundes haben wir ergänzt, dass die Bundesregierung die Kosten für Luca „aufgrund der heterogenen Beschaffungsvorgänge“ nicht übernommen hat.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

EU-Umfrage: Mehrheit will anonyme Internetnutzung, Deutschland kein Vorreiter

netzpolitik.org - 12 Januar, 2022 - 14:44
„Im Internet weiß niemand, dass du ein Hund bist“ – viele Europäer:innen wollen, dass das so bleibt. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Pavel Herceg

Eine deutliche Mehrheit der Menschen in neun großen europäischen Ländern spricht sich für ein Recht auf anonyme Internetnutzung aus. Zu diesem Ergebnis kommt eine statistisch repräsentative Umfrage des Meinungsforschungsunternehmens YouGov [PDF].

Insgesamt antworteten 64 Prozent der mehr als 10.000 Befragten, dass Internetnutzer:innen digitale Dienste anonym nutzen können sollten. Anonym bedeutet in diesem Fall laut Frage „ohne Sammlung Ihrer personenbezogenen Daten“. 21 Prozent sprachen sich gegen dieses Recht auf anonyme Internetnutzung aus, 14 Prozent antworteten „weiß nicht“.

Patrick Breyer, Europa-Abgeordneter der Piratenpartei, hatte die Umfrage im Kontext der anstehenden Parlamentsabstimmung über den Digital Services Act in Auftrag gegeben. Mit der Verordnung will die EU ihre Internetregulierung modernisieren und insbesondere die Macht großer Plattformen besser demokratisch einhegen.

In der nächsten Woche soll das EU-Parlament über seine Position zu dem Mammutvorhaben abstimmen. Es ist unklar, ob sich dabei ein Recht auf anonyme Internetnutzung durchsetzt. Anders als der Ausschuss für Bürgerliche Freiheiten, in dem Breyer für das Thema zuständig ist, plant der federführende Binnenmarkt-Ausschuss kein Recht auf die anonyme Nutzung von Internetdiensten.

„EU-Parlament sollte Bürgerwunsch umsetzen“

YouGov hat die Befragung zwischen dem 24. und 28. Dezember 2021 durchgeführt. Das Unternehmen hat dafür 10.064 Menschen über 18 Jahren in Belgien, Deutschland, Frankreich, Italien, Niederlande, Österreich, Schweden, Spanien und Tschechien befragt.

Interessant sind die Unterschiede in den Zustimmungsraten der einzelnen Länder. Während Deutschland häufig als das Land in Europa beschrieben wird, in dem die Menschen besonders datenschutzaffin sind und überzogene Ängste vor Überwachung haben, landet die Bundesrepublik hier nur auf dem vorletzten Platz. Lediglich 59 Prozent der mehr als 2.600 Befragten Deutschen sind für das Recht auf anonyme Internetnutzung, 25 Prozent sind dagegen. Nur in Schweden sprechen sich mit 53 Prozent noch weniger Menschen dafür aus, 27 Prozent der Befragten Schwed:innen sind dagegen.

Privacy-Spitzenreiter ist bei dieser Umfrage Spanien: 73 Prozent der Befragten votierten für die anonyme Internetnutzung, nur 17 Prozent dagegen. Ähnlich ist das Bild in Tschechien, wo sich 69 Prozent dafür aussprachen und nur 15 Prozent explizit dagegen.

Unabhängig von regionalen Unterschieden wertet Breyer, der sich als einziger deutscher EU-Abgeordneter der Piratenpartei der Fraktion der Grünen angeschlossen hat, die Ergebnisse der Umfrage als Rückenwind für seine Forderung nach einem Recht auf Anonymität im Netz.

„Auf die ständigen Datenskandale und Datenkriminalität im Netz muss das Europäische Parlament eine Antwort geben und die Bürger:innen besser schützen“, so Breyer. „Nur gar nicht erst gesammelte Daten sind sichere Daten.“ Dies habe zuletzt das Leak unnötig gesammelter Handynummern von 500 Millionen Facebooknutzer:innen gezeigt. Ein Recht auf Anonymität schütze verletzliche Personengruppen vor Diskriminierung. Deshalb solle das EU-Parlament nächste Woche die Chance nutzen, „den Bürgerwunsch nach einem besseren Schutz ihrer digitalen Privatsphäre zu erfüllen.“

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Interview mit SUPERRR Lab: Gerecht und inklusiv statt funkelnagelneu

netzpolitik.org - 12 Januar, 2022 - 13:39
Bunt und vielfältig: SUPERR Lab zeichnet ein gerechtes und inklusives Bild von der digitalen Zukunft. – Alle Rechte vorbehalten Superrr Lab

Wie kann eine gerechtere digitale Zukunft aussehen? Diese Frage stellt sich SUPERRR Lab und entwirft zusammen mit Zivilgesellschaft, Tech-Industrie und politischen Entscheidungsträger:innen mögliche Antworten darauf. Gerade hat die Non-Profit-Organisation feministische Leitlinien veröffentlicht, die der Politik zeigen sollen, wie eine nachhaltigere und gleichberechtigtere Digital- und Technologiepolitik aussehen kann. Außerdem engagiert sich SUPERRR Lab für Grundrechte in der KI-Debatte und unterstützt Künstler:innen, Aktivist:innen und Technolog:innen mit einem Stipendienprogramm dabei, ihre eigenen Zukunftsentwürfe umzusetzen. netzpolitik.org hat mit der Geschäftsführerin und Mitgründerin von SUPERRR Lab, Julia Kloiber, darüber gesprochen, wie Digitalisierung in Zukunft aussehen sollte und warum wir dafür feministische Perspektiven brauchen.

netzpolitik.org: Mal ganz konkret: Wie würde eine gerechtere digitale Zukunft aussehen?

Julia Kloiber: In gerechteren digitalen Zukünften, wie wir sie uns vorstellen, verschiebt sich der Fokus von „Innovation um jeden Preis“ – sprich der Entwicklung von immer neuen digitalen Tools ohne Rücksicht auf die Umwelt und die Menschen – hin zu einer Kultur, die Acht darauf gibt, dass möglichst viele Menschen vom technologischen Fortschritt profitieren, ohne dabei ausgenutzt und in ihren Rechten eingeschränkt zu werden oder den Planeten auszubeuten. Die Prämisse ist nicht schneller, billiger und effizienter, sondern nachhaltig, achtsam und langfristig. Statt kommerzieller Interessen und Shareholder-Value stehen die Bedürfnisse von Menschen und Gesellschaften im Zentrum. Dazu muss sich grundlegend ändern, wie wir „Digitalisierung“ machen und wer sie gestaltet.

netzpolitik.org: Ein klarer Gegensatz zu aktuellen Innovationsnarrativen.

Julia Kloiber: Genau. In diesen Zukünften verstehen wir Digitalisierung nicht als rein technisches, sondern vor allem als gesellschaftliches und soziales Thema. Die Ergebnisse werden nicht „new und shiny“ sein, dafür aber mehr Menschen Teilhabe ermöglichen. Mit einer solchen Perspektive lautet die Antwort auf die meisten Fragen nicht „High-Tech“, sondern oft „No-Tech“ oder energieeffizientes „Low-Tech“ – weil klar wird, dass sich viele Herausforderungen wie die Klimakrise oder Armut nicht nur mit Technologie lösen lassen. Wie das konkret aussehen könnte, zeigen unsere 15 Zukunftsvisionen, die wir mit der Initiative Digitale Zivilgesellschaft und anderen zivilgesellschaftlichen Organisationen entwickelt haben.

netzpolitik.org: SUPERRR Lab soll das Potenzial neuer Technologien für eine gerechtere digitale Zukunft erforschen. Wie kann man sich das vorstellen?

Julia Kloiber: Wenn wir über Digitalisierung sprechen, dann neigen wir dazu, die Dinge entweder schwarz oder weiß zu sehen. Auf der einen Seite haben wir Erzählungen, die behaupten, dass sich alle Probleme lösen lassen, wenn wir nur die richtige Technologie dafür entwickeln. Demgegenüber stehen Narrative der zunehmenden Überwachung, Ausbeutung und Diskriminierung durch Technologie. Was die Dystopien und die Utopien gemein haben: Beide suggerieren, dass der technische Fortschritt unaufhaltsam ist und wir ihm ausgeliefert sind.

In unserer Arbeit interessieren wir uns für den Bereich zwischen diesen Extremen. Uns geht es darum, den binären Blick aufzubrechen und zu beleuchten, welche sozialen, wirtschaftlichen und gesellschaftlichen Kräfte im Spiel sind, wenn Technologie Gutes oder Schlechtes hervorbringt. Wir fragen zum Beispiel: Was sind die Ursachen dafür, dass algorithmische Systeme diskriminieren? Und wie können wir daraus lernen, um es beim nächsten Mal besser zu machen? Dabei wollen wir nicht nur analysieren, kritisch hinterfragen und Schadensbegrenzung betreiben, sondern vor allem neue Narrative von Digitalisierung entwerfen, bei denen die Interessen der Gesellschaft im Zentrum stehen.

netzpolitik.org: Wie schafft ihr das?

Julia Kloiber: In unseren Projekten erproben wir wünschenswerte digitale Zukünfte. Im Herbst 2021 haben wir zum Beispiel angefangen, gemeinsam mit dem Bundesministerium für Justiz und einer diversen Gruppe an Stakeholdern zu diskutieren, wie digitale öffentliche Räume der Zukunft gestaltet sein sollten. Dabei gibt es oft keine leichten Antworten. Deshalb versuchen wir es mit einem ganzheitlichen Ansatz: Was können wir von den öffentlichen Räumen in unseren Städten lernen, was wir im Digitalen auch wollen – und was nicht? Welche unabhängigen digitalen Infrastrukturen brauchen wir in Zukunft? Außerdem interessiert uns, welche Machtstrukturen aufgebrochen werden müssen, um Veränderung überhaupt erst möglich zu machen.

netzpolitik.org: Das klingt, als würde Technologie gar keine so große Rolle mehr spielen.

Julia Kloiber: Das kommt auf die Herausforderung an. Wir sollten es aber vermeiden, alles durch die Technologiebrille zu sehen. Wir sehen ja, was herauskommt, wenn die Technologie ins Zentrum gerückt wird: Dann werden technische Lösungen entwickelt, die auf der Suche nach einem Problem sind. Ein prominentes Beispiel ist Blockchain-Technologie, bei der die Entwickler:innen laufend auf der Suche nach guten Anwendungsfällen sind. Neuestes Buzzword: web3.

Um zu Lösungen zu kommen, müssen wir zuerst verstehen, welche Herausforderungen wir eigentlich lösen wollen. Dazu ist es wichtig, die Ursachen der Probleme im Detail zu verstehen. Was führt in unseren Gesellschaften zu Bildungsungerechtigkeit, zu Exklusion oder zu Rassismus? Wenn man so vorgeht, merkt man schnell, dass digitale Werkzeuge, wenn überhaupt, nur eine begrenzte Rolle bei der Lösung dieser Probleme spielen können.

Seit 2019 ist Julia Kloiber Geschäftsführerin von SUPERRR Lab. - Alle Rechte vorbehalten Marzena Skubatz „Technologie ist immer Produkt ihrer Gesellschaft“

netzpolitik.org: Ihr schreibt, dass digitale Technologien wie künstliche Intelligenz, Gesichtserkennung, Kreditwürdigkeitsprüfung und Social Scoring Randgruppen benachteiligen. Wie können Technologien diskriminieren?

Julia Kloiber: Technologie ist immer ein Produkt ihrer Gesellschaft. Wenn in einer Gesellschaft, wie in unserer, Rassismus, Misogynie und Hass auf queere Menschen existieren, dann verstärkt die Technologie oft nur das, was ohnehin schon da ist. Einen einfachen technologischen Ausweg aus dem Dilemma gibt es nicht.

netzpolitik.org: Warum nicht?

Julia Kloiber: Auch wenn wir diskriminierungsfreie KI und Technologien gestalten – also zum Beispiel die Gesichtserkennungssoftware, die auf alle Hautfarben gleichermaßen optimiert ist oder das Recruiting-Tool, das kein Geschlecht kennt – wird das immer nur bis zu einem gewissen Grad funktionieren. Denn wenn algorithmische Systeme anfangen auf Basis von sogenannten Proxies zu diskriminieren und die optimierte Gesichtserkennungssoftware dafür eingesetzt wird, in sozial benachteiligten Stadtteilen nach Straftäter:innen zu fahnden, dann ist man ganz schnell wieder da, wo man bestehende Diskriminierungsmuster verstärkt.

netzpolitik.org: Was kann man tun gegen solche Diskriminierung?

Julia Kloiber: Es gibt Menschenrechte und diese sollten bei der Regulierung von Technologie an erster Stelle stehen. Wenn eine neue Technologie ein Risiko für unsere Grundrechte darstellt, dann sollten sie gar nicht erst zum Einsatz kommen.

netzpolitik.org: Ist das Aufgabe der Politik?

Julia Kloiber: Regulierung ist natürlich nicht die einzige, aber eben eine sehr effiziente Antwort. Oft sind es zivilgesellschaftliche Akteure, die auf Grundrechtseinschränkungen aufmerksam machen und wichtige Aufklärungs- und Forschungsarbeit leisten. Ihnen gegenüber stehen Digitalkonzerne, die hunderte von Millionen für Lobbying von Regierungen ausgeben und versuchen die Politik zu beeinflussen.

netzpolitik.org: Die Gruppe der Menschen, die das Internet und technologische Anwendungen gestaltet, ist oft homogen und vorwiegend männlich. Brauchen wir mehr Gleichberechtigung, wenn es um die Gestaltung des Internets geht?

Julia Kloiber: Es ist interessant zu hinterfragen, woher die Vorstellung kommt, dass in der Regel weiße Männer in Garagen oder Laboren Technologie entwickeln. Diese Erzählung wurde damit aufrechterhalten, dass man die Beiträge von Frauen und nicht-binären, LGBTIQ+- und BPoC-Personen [Anmerkung der Redaktion: Black, Indigenious and People of Color] und -Gemeinschaften ignoriert hat. Dass sich dieses Narrativ erst langsam geraderückt, können wir daran sehen, dass jetzt auch Pionier:innen aus den Anfängen der Computerentwicklung wieder Einzug in die Geschichte finden.

Auch lesen wir heute oft, dass Teams mit diverser Besetzung bessere Ergebnisse liefern, weil sie unterschiedliche Erfahrungen, Lebensrealitäten und Bedürfnisse mit einbringen. Das mag in Ansätzen auch stimmen, trotzdem darf man nicht außer Acht lassen, dass die Machtstrukturen, in denen diese Teams arbeiten, eine entscheidende Rolle für den Erfolg spielen. Wenn sich daran nichts ändert, müssen wir noch lange auf die erhoffte Verbesserung warten. Im schlimmsten Fall kann das dazu führen, dass Menschen wieder aufgeben, bevor sie wirklich mitgestalten können.

Mit einer feministischen Technologiepolitik zu einer gerechteren Zukunft

netzpolitik.org: Für euer neues Projekt habt ihr einen Rahmen für eine feministische Technologiepolitik entwickelt. Damit wollt ihr Diskurse über Tech-Policy ganz gezielt beeinflussen. Wie kann man sich das vorstellen?

Julia Kloiber: Unser Framework soll dabei helfen, bestehende Strukturen zu analysieren, über sie hinauszudenken und die gesamtgesellschaftlichen Auswirkungen von neuen Technologien besser zu verstehen – vor allem in Hinblick auf intersektionale Diskriminierungsmuster. Dafür haben wir zusammen mit 25 internationalen Expert:innen Leitlinien für eine Digitalisierung entwickelt, die auf den Werten Gleichberechtigung, Offenheit und Chancengerechtigkeit beruhen. Die Leitlinien zeigen auf, was passieren muss, damit Menschen alle gesellschaftlichen Gruppen gleichberechtigt von der Digitalisierung profitieren.

netzpolitik.org: Hast du ein Beispiel?

Julia Kloiber: Informierter Consent. Aktuell haben wir zwar Vorschriften wie die Datenschutz-Grundverordnung. Das Resultat ist eine Masse an Cookie-Bannern und Pop-Ups, über die unsere Zustimmung als Gegenleistung für den Zugang zu wichtigen Produkten und Dienstleistungen verlangt wird. Sie sind nur selten klar und verständlich und nutzen ein Design, dass uns dazu verleitet, einfach auf „Okay“ zu klicken. Sinnvolle Einwilligungen sollten freiwillig (wir haben eine echte Wahl), informiert (wir verfügen über ausreichende Informationen, um zu entscheiden, ob wir einwilligen oder nicht) und reversibel (wir können unsere Einwilligung jederzeit zurückziehen) sein. Sie sind nach wie vor selten, sollten aber Standard sein.

Feminist Tech Policy entwirft Leitlinien, damit alle gleichberechtigt von der Digitalisierung profitieren können. - Alle Rechte vorbehalten SUPERR Lab

netzpolitik.org: Das Konzept der Intersektionalität spielt in vielen aktuellen feministische Ansätzen eine zentrale Rolle. Was versteht man darunter?

Julia Kloiber: Um diesem Thema in seiner ganzen Tiefe gerecht zu werden, braucht man mehr als drei schnelle Sätze in einem Interview. Ich empfehle die Texte und die Definitionen vom Center for Intersectional Justice von Emilia Roig. Intersektionalität beschreibt, wie sich Systeme der Ungerechtigkeit überschneiden. Eine Transfrau mit Migrationshintergrund kann in unserer Gesellschaft auf mehreren Ebenen diskriminiert werden – auch von technologischen Systemen. Es gilt die unterschiedlichen Dimensionen von Diskriminierung zu beleuchten und zu analysieren, um sie besser bekämpfen zu können.

netzpolitik.org: Warum brauchen wir überhaupt feministische Perspektiven, wenn wir über die Zukunft der Digitalisierung sprechen?

Julia Kloiber: Eine intersektional feministische Perspektive weitet den Blick, indem sie den Fokus von der Technologie hin zu systemischen Problemen und Herausforderungen unserer Gesellschaft lenkt. Feminismus hilft uns zu verstehen, wie Patriarchat, Kolonialismus und Kapitalismus unsere Welt prägen – und welche Ungerechtigkeiten sich daraus ergeben. Wenn wir die Digitalisierung gewinnbringend für die Gesellschaft gestalten wollen, dann ist es unumgänglich diese Perspektive einzunehmen.

netzpolitik.org: Vor zwei Jahren habt ihr mit einem Feminist Tech Fellowship euer Stipendiat:innen-Programm gestartet. Letztes Jahr gab es mit „The New New“ wieder ein Förderprogramm. Wen habt ihr mit dem Programm unterstützt und warum?

Julia Kloiber: Bei unserem Fellowship-Programm The New New, ging es darum, Initiativen und Individuen zu fördern, die alternative digitale Zukünfte entwerfen. Darunter war zum Beispiel Chayn aus Italien, ein Projekt, das Tools für Frauen entwickelt hat, die von sexualisierter Gewalt betroffen sind. Außerdem haben wir HammamRadio, ein Grassroot-Radio-Projekt gefördert, das sich mit Feminismus im arabischen Raum beschäftigt und gleichzeitig eine Austauschplattform für Frauen* ist. Auch spannend war das Projekt Syb aus Großbritannien. Dafür hat die Organisation Feminist Internet einen Chatbot entwickelt, der sich spezifisch an die Bedürfnisse der Trans-Community anpasst. Das erste Jahr des Fellowships war ein großer Erfolg. Wir hoffen, dass wir es auch 2022 weiterführen können.

netzpolitik.org: Was habt ihr euch sonst noch für 2022 vorgenommen?

Julia Kloiber: Wir wollen uns aus einer zivilgesellschaftlichen Perspektive heraus stärker mit strategischen Zukunftsfragen beschäftigen – SUPERRR Lab soll zu einer zivilgesellschaftlichen Foresight-Organisation werden. Neben Organisationen wie AlgorithmWatch.org oder der Digitalen Gesellschaft, die wichtige Aufklärungs- und Policy-Arbeit im Digitalbereich leisten, sehen wir einen Mangel an Organisationen, die an Zukunftsentwürfen für eine gerechte und nachhaltige Digitalisierung arbeiten. Die neue Erzählungen entwickeln, sich mit strategischen Zukunftsfragen beschäftigen und mit neuen Formaten und Methoden, politischen Entscheidungsträger:innen und zivilgesellschaftlichen Akteur:innen dabei helfen, bei Digitalthemen über den Tellerrand zu schauen und vorausschauende, zukunftsfähige Entscheidungen zu treffen.

Bisher bezieht sich die Abschätzung davon, welche Folgen die Technik haben wird, vor allem auf die Ebene von Individuen. Was fehlt, ist nicht nur eine gesamtgesellschaftliche, vorausschauende Betrachtung der Auswirkungen neuer Technologien, sondern auch Methoden, wie man diese messen und abschätzen kann. Da wollen wir ansetzen. Die von uns entwickelte Feminist Tech Policy wird eine wichtige Grundlage für diese Arbeit sein.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Shein: Fast-Fashion-App schadet Umwelt und Privatsphäre

netzpolitik.org - 11 Januar, 2022 - 18:27
Unter Influencer:innen steht der Konzern Shein ganz hoch im Kurs. – Alle Rechte vorbehalten IMAGO / Cavan Images

Bei der Generation TikTok ist sie der letzte Schrei: die chinesische Shopping-App Shein. Jeden Tag gehen tausende neue Designs und Outfits an den Start und sind auch für Kund:innen mit kleiner Geldbörse erschwinglich. Influencermarketing und Rabattcodes machen den Einkauf nochmal billiger. Shein ist mittlerweile eine der meistbesuchten Mode-Webseiten der Welt.

Doch der Konzern zieht immer wieder harte Kritik auf sich. Sowohl große Modeimperien wie Ralph Lauren als auch kleine, unabhängige Designer:innen beschuldigen den Konzern, Entwürfe und Designs zu kopieren und zu Spottpreisen zu verkaufen. Obwohl die Lieferketten des Konzerns intransparent sind, werden immer wieder Vorwürfe laut, die hautpsächlich chinesischen Näher:innen würden unter schlimmsten Bedingungen für Shein arbeiten, um die niedrigen Preise möglich zu machen.

Auch die Ökobilanz des Konzerns scheint katastrophal zu sein. Das Geschäftsmodell von „Fast Fashion“ ist auf immer neue Trends ausgelegt, die durch Influencing-Kampagnen immer schneller aufeinanderfolgen. Die Folge: Was heute angesagt ist, kann morgen schon wieder out sein und wandert in den Müll. Und das neue Outfit in den Warenkorb von Shein.

Hohes Risiko für die Privatsphäre

Das Team von Mobilsicher hat sich nun die Einkaufs-App von Shein vorgenommen. Das Ergebnis ist eher bescheiden. Die App gibt Suchbegriffe gemeinsam mit der Werbe-ID des Geräts an Facebook und Google weiter, wo sie mit bereits vorhandenen Daten verknüpft werden können. Die beiden Digitalkonzerne wissen also, nach welchen Begriffen Nutzer:innen in der Shein-App suchen und können die eigenen, auf die Person zugeschnittenen Werbeanzeigen damit verbessern und für sich selbst lukrativer machen.

Der Konzern übermittelt laut mobilsicher Daten an überdurchschnittlich viele Tracker, die Informationen über das Gerät, das Suchverhalten und den ungefähren Standort sammeln. Eine Möglichkeit, dem zu widersprechen, gebe die App nicht: Wer nicht möchte, dass seine Daten in einem anderen Land landen und dort gespeichert und verarbeitet werden, solle die Nutzung der App doch bitte einstellen, empfiehlt der Konzern. Nutzer:innen gingen demnach ein „hohes Risiko für ihre Privatsphäre“ ein.

Kritisiert wird auch, dass das Unternehmen für das tägliche Öffnen der App und die Teilnahme an Mini-Spielen Bonus-Punkte verteilt, die in Einkaufsgutscheine umgewandelt werden können. Mit diesen Dark Patterns könnten gerade Kinder und Jugendliche dazu verführt werden, mehr Geld in der App auszugeben. Obwohl viele der Spiele glücksspielartigen Charakter haben, ist die App im Google Play Store ab 12 Jahren freigegeben.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Hass auf Twitter: Warum Gegenrede nicht immer funktioniert

netzpolitik.org - 11 Januar, 2022 - 18:17
Hassrede gibt es auch auf Twitter (Symbolbild) – CC-BY 2.0 K-Screen Shots

Ein Forscher:innenteam der Technischen Hochschule Zürich hat mit einer Untersuchung auf Twitter nachgewiesen, dass Hassrede durch Gegenrede reduziert werden kann. Die Forscher:innen mussten dabei allerdings feststellen, dass nicht alle Formen der Gegenrede von Erfolg gekrönt waren. So ließ sich nur eine Wirkung nachweisen, wenn sie mit Empathie argumentierten und beispielsweise darauf hinwiesen, wie sich betroffene Personen durch den Hass fühlen würden.

Hassrede ist und bleibt ein grundlegendes Problem der sozialen Medien. Immer wieder befinden sich Minderheiten im Zielfeuer des Hasses. So sind vor allem LGBQT-Personen und ethnische Gruppierungen von dieser digitalen Gewalt betroffen. Dies hat weitreichende Folgen für die betroffenen Personen. Um dagegen anzukommen, wird immer häufiger auf die Methode der Gegenrede zurückgegriffen. Bei ihrer Anwendung wird auf Hassrede anhand verschiedener Strategien geantwortet. Ziel ist es, den Hass zu entkräften und zu zeigen, dass er nur geringen gesellschaftlichen Rückhalt hat.

Allerdings klaffte eine große Forschungslücke in der Frage zur tatsächlichen Wirkung von Gegenrede. So konnte bisher bloß ein Zusammenhang zwischen dem erhöhten Aufkommen von Gegenrede und dem Rückgang von Hassrede festgestellt werden. Nur blieb dabei unklar, ob Gegenrede tatsächlich auch als Ursache für den Rückgang ausgemacht werden kann. Die Schweizer Forscher:innen konnten die Kausalität nun in einem Experiment beweisen.

Empathie oder doch lieber Memes?

Im Rahmen der Studie hatten Schweizer Forscher:innen sechs „Bot-Accounts“ auf Twitter erstellt. Diese antworteten innerhalb von 24 Stunden auf die Hassrede ausgewählter Nutzer:innen. Dazu wurden insgesamt 1.350 Twitteraccounts anhand ihres Tweet-Verlaufes ausgewählt. 540 davon losten die Forscher:innen in die Kontrollgruppe. Die anderen Nutzer:innen erhielten unter ihren Hass-Posts innerhalb von 24 Stunden eine Antwort mit Gegenrede. Dabei wendeten die Forscher:innen jeweils eine der folgenden Methoden an:

Humorvolle Gegenrede aus der Studie - Imgflip

Die erste Herangehensweise umfasste, den Hass-Tweetern die Konsequenzen ihrer Aussagen zu erläutern. Beispielsweise entgegnete ein Bot: „Denk dran, dass der Post auch von Personen gesehen wird, die dir wichtig sind.“ Im Rahmen des zweiten Ansatzes probierten es die Bots mit Humor. So reagierte einer der Accounts beispielsweise mit Memes. In beiden Fällen konnte das Team allerdings keine messbaren Auswirkungen auf das zukünftige Verhalten der Nutzer:innen feststellen.

Die dritte Methode hingegen zeigte Erfolg. Diesmal wurde auf die Empathie der Hassredner:innen gesetzt. So schrieb ein Bot: „Deine Sprache ist schlicht unnötig verletzend gegenüber Einwanderern.“ Diese Herangehensweise zeigte offenbar Wirkung: In den nächsten vier Wochen verfassten Nutzer:innen dieser Gruppe circa 44 Prozent weniger Hass-Tweets als die der Kontrollgruppe. Außerdem löschten sie ihre vorherigen Hass-Tweets circa acht Prozent häufiger.

Aller Anfang ist schwer

Wie eine frühere Untersuchung auf Facebook zeigte, führt die alleinige Präsenz von Gegenrede zu mehr Gegenrede. Nachdem die Forscher:innen dieser Studie begannen, auf Hassrede gegen Roma mit Gegenrede zu reagieren, motivierten sich anschließend auch weitere „echte“ Nutzer:innen, gegen den Hass anzureden. War Hassrede hingegen vorherrschend und kaum Gegenrede vorhanden, waren die Nutzer:innen entmutigt und reagierten seltener – schließlich schien sonst niemand ihre Ablehnung gegen den Hass zu teilen. Daher zeigt sich: Das Eis zu brechen kann sich lohnen.

Eine weitere frühere Studie ergab, dass die Wirkung von Gegenrede stark von dem sozialen Status einer Person abhängt. So wurde nachgewiesen, dass eine größere Follower-Anzahl die Effektivität der Gegenrede erhöht. Sollte die gegenredende Person allerdings erkennbar Teil einer gesellschaftlichen Minderheit sein, wirkten ihre Aussagen deutlich schlechter – vor allem dann, wenn sie selbst von der Hassrede betroffen war.

Dennoch – die Studien zeigen, dass Gegenrede zu einer Reduktion von Hassrede beiträgt. Offen bleibt allerdings, ob Gegenrede auch zu einer tatsächlichen Meinungsänderung führen kann. So ist bekannt, wie faktenbasiertes Einreden auf gegenteilig Überzeugte wirkt: leider fast gar nicht. In dem Fall zieht der Backfire-Effekt: Falls mit einer Aussage grundlegende Bausteine der individuellen Persönlichkeit in Frage gestellt werden, bewirkt der Effekt, dass eine emotionale Abwehrreaktion ausgelöst wird – selbst wenn die Informationen auf anerkannten Fakten basieren. Aufgrund dieser Abwehrreaktion kann der Überzeugungsversuch letztlich fehlzünden: So kann es dazu kommen, dass die Person anschließend noch stärker auf der eigentlich falschen Meinung beharrt. Für einen erfolgreichen Diskurs sollte also sachte argumentiert werden – eben mit Empathie.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs
Inhalt abgleichen