Blogs

bits: Viel Papier zur Regulierung von Künstlicher Intelligenz

netzpolitik.org - 28 Oktober, 2020 - 18:00

Hallo,

in den vergangenen Jahren gab es eine Vielzahl an unterschiedlichen Arbeitsgruppen, die den Einfluss von algorithmischen Entscheidungssystemen (Im Volksmund gerne „Künstliche Intelligenz“ genannt) untersucht haben. Die Bundesregierung hat eine KI-Strategie vorgelegt, Innen- und Justizministerium hatten eine gemeinsame Datenethikkommission tagen lassen, Forschungs- und Arbeitsministerium pflegen eigene thematische Arbeitsgruppen und der Deutsche Bundestag untersuchte das Feld seit 2018 in der Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“.

Diese hat heute ihre Arbeit beendet und ihren Abschlussbericht dem Bundestagspräsidenten übergeben. Auf 800 Seiten gibt es einen großen Überblick zu verschiedenen Handlungsfeldern zu lesen. Was damit passiert, steht aber in den Sternen. Ich war von 2010-2013 Mitglied in der früheren Enquete-Kommission „Internet und digitale Gesellschaft“. Auch damals gab es einen großen Abschlussbericht mit sehr vielen Handlungsempfehlungen, die teilweise einstimmig über alle Fraktionen und Sachverständigen hinweg beschlossen wurden. Allerdings wurde davon fast nichts von der Bundesregierung umgesetzt.

Eine Enquete-Kommission klingt vom Werbeprospekt her gesehen immer schön nach einer ergebnisoffenen Untersuchung. In der Praxis ist das aber nicht so ergebnisoffen. Im Hintergrund liefern starke Lobby-Vertretungen Textbausteine rein, die ihre Interessen vertreten. Kleine Fraktionen und ehrenamtliche Sachverständige haben hingegen kaum Ressourcen, dem etwas entgegen zu setzen. Zudem vertreten die Mehrheitsfraktionen gerne Positionen, die im Sinne der aktuellen Regierungspolitik sind.

Kaum jemand ist in der Lage, sich einen 800-Seiten Abschlussbericht durchzulesen. Aber dafür gibt es eine Kurz-Zusammenfassung. Trotzdem ist die Arbeit nicht sinnlos, weil eine Enquete-Kommission auch als großes Weiterbildungsprogramm für alle beteiligten Politiker:innen gesehen werden kann, die sich in der Laufzeit mal mehr, mal weniger intensiv damit beschäftigen.

Auch die Datenethikkommission hat in ihrem lesenswerten Abschlussbericht zahlreiche sinnvolle Handlungsempfehlungen abgegeben. Der daran beteiligte Verbraucherzentrale Bundesverband kritisierte aber erst vergangene Woche, dass die Umsetzung nur schleppend vorangehen würde: Bundesregierung enttäuscht bei Regulierung von Algorithmen.

Wir lassen uns mal überraschen, was von den Ergebnissen dieser beiden Kommissionen in die kommende Datenstrategie der Bundesregierung einfließen wird.

Parallel hat übrigens die Nichtregierungsorganisation Algorithmwatch ihren 297-Seiten umfassenden „Automatic Society Report 2020“ (PDF) vorgelegt. Eine englischsprachige Zusammenfassung gibt es in ihrem Blog: Life in the automated society: How automated decision-making systems became mainstream, and what to do about it.

Patrick Beuth fasst die Ergebnisse auf Spiegel-Online zusammen: Wenn Instagram einen Steuerbetrüger verraten soll.

„Wenn wir den derzeitigen Stand von ADM-Systemen in Europa betrachten, sind Positivbeispiele mit echten Vorzügen selten.“ Die „große Mehrheit“ der Systeme „setzt Menschen eher einem Risiko aus, als ihnen zu helfen“.

Neues auf netzpolitik.org

In ihrem neuen Artikel aus der Reihe „Medienmäzen Google“ beleuchten Ingo Dachwitz und Alexander Fanta, wie genau eigentlich die 21,5 Millionen Euro verteilt wurden, die Google an Medien in Deutschland verschenkt hat. Inklusive Top-10-Liste der größten Profiteure, von der WirtschaftsWoche über den Spiegel und die FAZ bis zur dpa: Wer in Deutschland von den Geschenken des Datenkonzerns profitierte.

In einer Studie nehmen wir die Beziehungen zwischen Google und den Medien unter die Lupe, insbesondere die Millionenzahlungen im Rahmen der Digital News Initiative. Unsere Analyse für Deutschland zeigt: das Förderprogramm des Datenkonzerns ist ein Problem für die Medienvielfalt.

===

Jana Ballweber hat sich die aktuellen Pläne des Bundesgesundheitsministeriums zur Digitalisierung des Gesundheitssystems angeschaut: Jens Spahn hat es eilig.

Weil in den letzten fünfzehn Jahren wenig vorangegangen ist, will Gesundheitsminister Spahn jetzt bei der Digitalisierung des Gesundheitswesens Tempo vorlegen. Obwohl viel Vertrauen nötig ist, damit Patient:innen die Angebote auch nutzen, lässt Spahns Hast die nötigen Debatten nicht zu. Besonders deutlich wird das bei der elektronischen Patientenakte und dem Streit um den Datenschutz.

===

In einem Gastbeitrag thematisiert Alexander Hoffmann, wie mit rechtlichen Mitteln gegen Medien vorgegangen wird: Abmahnungen als Strategie im politischen Meinungskampf. Der Beitrag ist ein Auszug aus dem Band „Recht gegen rechts“.

Immer häufiger nutzen Akteure der äußeren Rechten Abmahnungen als Mittel, um Berichterstattung zu unterbinden. Das bedroht vor allem kleine Verlage, Medienkollektive und freie Journalist*innen, analysiert unser Gastautor.

Kurze Pausenmusik:

Dieser Newsletter wird, neben viel Herzblut, durch Spenden unserer Leser:innen ermöglicht. Hier kann man uns mit einem Dauerauftrag oder Spende unterstützen.

Wir freuen uns auch über etwas Werbung für den bits-Newsletter, um mehr Mitlesende zu bekommen. Hier geht es zur Anmeldung.

Feedback und sachdienliche Hinweise bitte an markus@netzpolitik.org schicken.

Die Erstellung dieser Ausgabe wurde freundlicherweise von Tomas Rudl unterstützt.

Was sonst noch passierte:

Während ich diese Ausgabe tippe, kommen die ersten Ergebnisse aus den Verhandlungen von Bund und Ländern zu den kommenden Corona-Maßnahmen rein. Ab kommenden Montag, den 2. November, soll es wieder massive Einschränkungen geben. Bis Ende November sollen Bars und Restaurants geschlossen werden, der Kulturbetrieb und Amateursport werden massiv eingeschränkt und noch einiges mehr. Ich lass mich mal überraschen, ob das was bringt und ob das Ziel damit erreicht wird, im Dezember wieder Weihnachtsfeiern veranstalten zu können, um dann im Januar die dritte Runde einzuleiten.

===

In einem lesenswerten Interview im Tagesspiegel kritisiert der Soziologe Wilhelm Heitmeyer den Umgang der Politik im Kampf gegen Rechtsextremismus: „Ich sehe partielle Blindheit bis hin zu Staatsversagen“.

„Ich fürchte, dass Teile der Politik immer noch nicht begriffen haben, wie gefährlich die Situation inzwischen ist. Es gibt eine Ausdifferenzierung und Dynamisierung von Gruppen bis zur erhöhten Terrorfähigkeit. Das gesamte rechte Spektrum ist in die Offensive gegangen.“

Das sehe ich leider genauso.

===

Die Bundesregierung setzt sich im Rahmen ihrer Ratspräsidentschaft dafür ein, dass Verschlüsselung auch entschlüsselt werden soll – von staatlichen Behörden, versteht sich. Heise-Online hat einen Entwurf für eine gemeinsame Erklärung vorliegen, die tatsächlich „Sicherheit durch Verschlüsselung und Sicherheit trotz Verschlüsselung“ schaffen möchte. Beides zusammen ist leider technisch nicht möglich. Sie müsste sich mal entscheiden, was sie denn tatsächlich will: Crypto Wars – Deutsche EU-Ratspräsidentschaft will Beihilfe zur Entschlüsselung.

===

Der Bayrische Rundfunk hat sich angeschaut, welche Daten über uns erhoben werden und wie wir verhindern können, dass sie gegen uns genutzt werden. Dazu wurde ich auch als Experte befragt: Daten im Netz – Was damit passiert, und ob Kontrolle möglich ist.

===

Eine neue Studie aus Japan hat die Wirksamkeit von Masken in der Corona-Pandemie untersucht, wie das RND berichtet: So effektiv schützen Masken vor Corona.

„Die jeweilige Effizienz der unterschiedlichen Masken bei der Virusabwehr betrug rund 17 Prozent bei Stoffmasken, bei einer chirurgischen Maske zirka 47 Prozent – und die perfekt angepasste N95-Maske erzielte 79 Prozent. Trug sie hingegen der Virusverteiler, lag der Grad des Virusschutzes bei allen drei Masken bei etwa 70 Prozent.“

===

Das neue Online-Magazin Branch beschäftigt sich in vielen Beiträgen mit Nachhaltigkeits-Strategien: „A Sustainable Internet for All“.

===

Schlechte Nachrichten von der Klimakrise: In Sibirien steigt massiv Methan-Gas in die Atmosphäre auf, berichtet der Guardian: ‚Sleeping giant‘ Arctic methane deposits starting to release, scientists find.

Audio des Tages: Digitale Unsterblichkeit

Moritz Riesewieck und Hans Block haben mit „Die Digitale Seele“ ein Buch über technische Strategien zur Unsterblichkeit vorgelegt. Die beiden Regisseure der sehenswerten Dokumentation „The Cleaners“ wurden dazu ausführlich von der WDR3-Sendung Mosaik interviewt und geben in dem Gespräch einen Einblick in ihre Recherchen: Digitale Unsterblichkeit.

===

Das war es für heute. Viele Grüße und bleibt gesund,
Markus Beckedahl

Ich freue mich immer über Feedback und gute Hinweise. Meine Mailadresse ist markus@netzpolitik.org. Ich bin zwar häufig von zu vielen eMails überfordert und bekomme nicht alle beantwortet. Aber ich lese alle Mails.

Diesen Newsletter kann man hier abonnieren.

Dieser Newsletter wird auch von vielen Spenden im Rahmen der freiwilligen Leser:innenfinanzierung von netzpolitik.org ermöglicht. Mit Deiner Unterstützung können wir noch viel mehr machen.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Medienmäzen Google: Wer in Deutschland von den Geschenken des Datenkonzerns profitierte

netzpolitik.org - 28 Oktober, 2020 - 14:03

Wenn Google das Portemonnaie zückt, halten auch deutsche Medien gern die Hand auf. Viele Größen der Branche haben sich in den letzten Jahren von Google Innovationsprojekte fördern lassen. Der Spiegel war dabei, die Frankfurter Allgemeine, Zeit Online, das Handelsblatt und auch die taz.

Insgesamt hat der Datenkonzern im Rahmen seiner Digital News Initiative (DNI) 21,5 Millionen Euro an Empfänger:innen in Deutschland verschenkt. Google hat hier die meisten Projekte gefördert (92), gefolgt von dem Vereinigten Königreich (76) und Frankreich (76). In ganz Europa schüttete der DNI-Fonds zwischen 2015 und 2019 gut 140 Millionen Euro aus.

In der am Montag erschienen Studie „Medienmäzen Google“ untersuchen wir, wohin das Geld geflossen ist und wie sich die Charme-Offensive auf die Medien in Deutschland auswirkt. Wir haben dafür unter anderem die Geldflüsse analysiert und mehr als zwei Dutzend Interviews mit Digitaljournalist:innen, Verlagsmanager:innen und Google-Vertretern geführt.

Unsere Datenanalyse zeigt unter anderem, dass Googles Millionen in Europa und Deutschland höchst ungleich verteilt wurden. Während ein Großteil der Mittel nach Westeuropa floss, hatten zentral- und osteuropäische Länder das Nachsehen. Mit schätzungsweise gut 100 Millionen Euro ging der Löwenanteil des Geldes (73 Prozent) zudem an kommerzielle Verlage. Nicht-kommerzielle und öffentlich finanzierte Medien erhielten zusammen etwa 12 Millionen Euro (9 Prozent). Die restlichen Mittel wurden an Universitäten, Einzelpersonen und nicht-publizistische Firmen ausgezahlt.

Die typischen Empfänger des Google Geldes waren also etablierte große Medienunternehmen aus Westeuropa. Auch Regionalverlage und journalistische Neugründungen sind unterrepräsentiert, sodass der DNI-Fonds den Wettbewerbsvorteil etablierter Großverlage weiter gestärkt hat.

WirtschaftsWoche, Handelsblatt und Deutsche Welle liegen vorne




Die Liste der deutschen Mittelempfänger:innen liest sich wie ein Who’s Who der hiesigen Verlagsbranche. 28 Großprojekte mit einem Volumen zwischen 300.000 und einer Millionen Euro hat Google hier gefördert. Die genauen Summen sind überwiegend unbekannt, weil weder der Datenkonzern noch die meisten Verlage die genauen Förderbeträge verraten wollen.

Zu den Empfänger:innen in dieser Förderkategorien zählte etwa Der Spiegel, der in Sachen Transparenz eine Ausnahme bildet und über beide geförderten Projekte informierte. Das Hamburger Medienhaus erhielt fast 700.000 Euro für das Projekt „Read the Game“, welches laut Eigenbeschreibung Datenanalyse und Künstliche Intelligenz nutzt, um Fußballberichterstattung zu verbessern; außerdem 850.000 Euro für die Entwicklung einer Voice-Infrastruktur, welche die Produktion, Publikation und Monetarisierung von Audioinhalten erleichtern soll.

Ein anderes Beispiel aus der Top-Kategorie ist die Funke Mediengruppe. Sie erhielt 500.000 Euro für ein Video-Distributionsnetzwerk namens „Unicorn“ und drei weitere Förderungen in unbekannter Höhe. Auch die WirtschaftsWoche wurde mehrfach gefördert und erhielt 650.000 Euro allein für die Entwicklung eines Virtual-Reality-Clubs für Abonnent:innen.

Unseren Schätzungen zufolge gehört die Wirtschaftswoche zu den Hauptprofiteur:innen in Deutschland. Gemeinsam mit der Schwesterzeitung Handelsblatt und der Deutschen Welle führt sie die Top 10 an. Alle drei Medien könnten jeweils mehr als zwei Millionen Euro aus Googles DNI-Fonds bekommen haben. Ebenfalls in der Liste der Top-Empfänger:innen mit mindestens zwei Projekten sind der schon genannte Spiegel, die DuMont Mediengruppe, die FAZ, der Tagesspiegel, Gruner + Jahr, Funke und die Deutsche Presseagentur dpa.

Zwischen „Entwicklungshilfe“ und Aufholjagd

Auffällig ist vor allem, wer nicht dabei ist: die Süddeutsche Zeitung etwa oder der Axel-Springer-Verlag. Dessen Vorstandsvorsitzender Chef Mathias Döpfner erklärte schon früh, Googles „Geschenke an die Verlage“ nicht annehmen zu wollen. Der US-Konzern solle lieber das auf Druck der deutschen Presse geschaffene Leistungsschutzrecht für Presseverlage achten und die Verlage auf diesem Weg kofinanzieren.

Unsere Interviews zeigen unterdessen, dass viele Innovationsprojekte bei deutschen Medien nicht oder nur in kleinerem Umfang stattgefunden hätten, wenn Google ihnen nicht unter die Arme gegriffen hätte. „Also wir hätten es sonst nicht gemacht. Weil wir es uns einfach nicht leisten können“, sagte etwa der Geschäftsführer eines kleineren Mediums. Die Digitalmanagerin eines großen Verlages berichtet von einem Projekt, das ohne die freundliche Unterstützung aus dem Silicon Valley nicht stattgefunden hätte: „Das war ein hochtechnologisches Projekt, für das wir die Ressourcen nicht in dem Maße zur Verfügung hätten stellen können.“

Für viele der befragten Medien waren die DNI-Mittel also essenziell, um Innovationsprojekte realisieren zu können. Selbst wenn die Projekte im Einzelfall nicht immer als Erfolge gewertet werden, hat die Initiative des Datenkonzerns ein Nachdenken über Innovationen und Mut zu Experimenten in vielen Medienhäusern scheinbar überhaupt erst möglich gemacht. Eine Journalistin beschreibt den DNI-Fonds deshalb als „Entwicklungshilfe“, ein anderer Verlagsmanager betont den „Aufholcharakter“:

Es gab auf der einen Seite schon wirklich interessante Innovationsprojekte. Und dann gab es zum anderen aber auch viele Varianten von dem, was ich „Zugprojekte“ nennen würde. Wo eigentlich etwas lief oder hätte passieren müssen, aber vielleicht nicht genug Geld da war oder die Eigentümer zu kurzfristig orientiert waren und es dann mit DNI-Hilfe passiert ist. Für mich hat das auch viel Aufholcharakter für die Branche gehabt. Angefangen bei Paywalls oder Revenue durch das Eventbusiness. Das sind Sachen, die ein gut geführtes Unternehmen eigentlich hätte machen sollen oder wollen. […] Das hat es dann für die Innovatoren in den Firmen auch leichter gemacht, Projekte aufzusetzen, glaube ich.

„Wir könnten auch den moralisch sauberen Tod sterben“

Auch in Deutschland entfiel der Großteil der Förderungen mit 45 von 92 Förderungen auf kommerzielle Medien. Sie erhielten besonders oft Förderungen in der größten Kategorie „Large“: 68 Prozent der Förderungen bis zu einer Millionen Euro gingen in Deutschland an kommerzielle Medien.

Nichtpublizistische Firmen wie die Agentur Eden Spiekermann oder die Monetarisierungsplattform Steady stellen mit 26 Projekten die zweitgrößte Gruppe der Empfänger:innen. Hier ist der Anteil der kleineren Förderungen der „Prototyp“-Kategorie bis 50.000 Euro mit mehr als 50 Prozent besonders hoch.

Einzelpersonen erhielten hierzulande acht Projektförderungen aus dem DNI-Fonds, ausschließlich in der Kategorie „Prototyp“. Not-for-Profit-Medien bekamen in Deutschland sechs Projekte gefördert: drei Prototypen, zwei mittelgroße Projekte bis 300.000 Euro und ein Großprojekt. Die Deutsche Welle erhielt als einziges öffentlich finanziertes Medium der Bundesrepublik Projektförderungen; und zwar gleich vier. Zudem wurden drei Universitäten gefördert, davon lediglich die Hamburg Media School mit mehr als 300.000 Euro.

Bedenken hatten die meisten Medienmanager:innen wegen der Zusammenarbeit mit Google nicht. Drei von ihnen berichten, dass die DNI-Förderung zwar Diskussionen in den Redaktionen ausgelöst hätten. Diese haben jedoch nicht dazu geführt, das Geld nicht zu nehmen. „Am Ende haben wir gesagt: ‚Ey, wir können jetzt hier den moralisch sauberen Tod sterben oder wir machen halt unser Projekt.‘ Und dass es dann auch noch geklappt hat, war natürlich umso besser“, beschreibt ein Medienmanager den Prozess.

Lediglich zwei Geschäftsführer:innen von Medien, die eine DNI-Förderung erhalten haben, zogen ein negatives Fazit. In einem Fall liegt dies aber nicht an moralischen Bedenken, sondern schlich daran, dass die Integration des Innovationsprojektes in das eigene Unternehmen nicht gut funktioniert hat. „Das ist doch ein stärkerer Integrations- und Managementaufwand, für den wir nicht so richtig ready sind“, lautet die Bilanz.

Nur in dem anderen Fall liegt es an Skepsis gegenüber einer weiteren Förderung durch Google. Die interviewte Person hat die Leitung des Verlages erst übernommen, als das DNI-Projekt bereits abgeschlossen war und schloss eine Förderung für die Zukunft aus, „weil damit sofort ein Interessenkonflikt einhergeht.“

Kaum Geld für journalistische Neugründungen

Unsere Studie zeigt jedoch, dass es nicht nur mögliche Interessenkonflikte sind, weshalb Verlage skeptisch gegenüber Googles Geld sein sollten. Die Datenanalyse des DNI-Fonds macht deutlich, dass Googles Millionen in Deutschland und Europa nicht gleichmäßig verteilt wurden, sondern ein Ungleichgewicht anhand vorherrschender ökonomischer Strukturen verstärken. So profitieren etwa regionale Medien in deutlich geringerem Ausmaß von Googles DNI-Fonds.

Nur vier der 28 Großförderungen bis zu einer Millionen Euro gingen in Deutschland an regionale Medien: Der Berliner Tagesspiegel ließ sich beispielsweise die Entwicklung des Stadtteil-Newsletters „Tagesspiegel Leute“ mit 550.000 Euro finanzieren. Die Rheinische Post erhielt 300.000 Euro um ein System zur Trenderkennung zu entwickeln, das Daten aus Millionen Online-Nachrichtenquellen analysieren und Themenkarrieren für die redaktionelle Arbeit auswerten soll. Das Mannheimer Regionalportal Headline24 erhielt 680.000 Euro für ein Projekt zu automatisiertem Journalismus, der Schwäbische Verlag bekam 371.000 Euro für ein automatisiertes Empfehlungssystem.

Von den 25 Förderungen für deutsche Projekte in der Kategorie „Medium“ gingen lediglich drei an regionale Verlage: an die Neue Osnabrücker Zeitung (294.000 Euro für das „Project North Star“), den Schleswig-Holsteinischen Zeitungsverlag (294.000 Euro für das Projekt „Ambient News“) und erneut an den Berliner Tagesspiegel (230.000 für das Debattenportal „Causa“).

Unter den ohnehin schon seltenen nicht-profitorientierten Medien hat in Deutschland lediglich Correctiv eine Förderung in der Kategorie „Large“ erhalten (500.000 Euro für ein Community­ Projekt). In der Kategorie „Medium“ kommen die Tageszeitung taz (110.000 Euro für das Monetarisierungsprogramm „taz zahl ich“), RiffReporter (unbekannte Summe zwischen 50.000 und 300.000 Euro für das Projekt „Poly­Publisher“) und Krautreporter (60.000 Euro für ein Projekt zur Leser*innenbindung) hinzu.

Auch journalistische Neugründungen sind in den Förderkategorien „Large“ und „Medium“ selten auszumachen: Dazu zählen nur die be­reits genannten Projekte von Correctiv, Krautreporter, RiffReporter und Headline24 sowie ein Projekt von Perspective Daily (105.000 Euro für das Projekt „Healthy News Diet Assistant“).

Wer hat, dem wird gegeben

Der Umfang der DNI­-Förderungen fällt jedoch auch unter den kommerziellen Medien und großen Verlagen höchst unterschiedlich aus. Während viele Mittelempfänger:innen nur einmalig eine För­derung erhielten, sind andere mit mehreren Projekten vertreten. Besonders heraus sticht dabei die DvH Medien GmbH des Großverlegers Dieter von Holtzbrinck. Die Verlagsgruppe könnte zusammengerechnet bis zu 5,75 Millionen Euro durch ihre Medien Handelsblatt, WirtschaftsWoche, Tagesspiegel und Zeit Online (zwei Prototype-Förderungen) erhalten haben.

Insgesamt kommen wir zu dem Schluss, dass sich Googles Förderung für die Medienbranche an bestehenden ökonomischen Strukturen orientiert und sogar verstärkt: Wer hat, dem wird gegeben. Eine Orientierung des DNI-Fonds an Gemeinwohlzielen ist derweil nicht zu erkennen. Es werden eben gerade keine finanzschwächeren Medien oder gemeinwohlorientierter Journalismus gefördert. Auch die Schließung journalistischer Versorgungslücken in Mittel- und Osteuropa mit dem Ziel einer ausgeglicheneren europäischen Öffentlichkeit wird nicht angestrebt. Im Gegenteil: Bestehende Ungleichheiten werden verstärkt.

Ohne Frage ist Google mit seiner Förderung in eine klaffende Finanzierungslücke für die Innovationsentwicklung von Medien gestoßen. Die Herausforderung für Nachrichtenmedien in einer demokratischen Gesellschaft besteht nun darin, Alternativen mit weniger großem Gefährdungspotential für ihre Unabhängigkeit zu finden. Deshalb ist es aus unserer Sicht besonders wichtig, dass die europäische und deutsche Debatte um öffentlich-rechtliche Innovationsförderung für Medien weitergeht.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Recht gegen rechts: Abmahnungen als Strategie im politischen Meinungskampf

netzpolitik.org - 28 Oktober, 2020 - 10:00

Dieser Beitrag ist mit freundlicher Genehmigung dem heute erschienen Band „Recht gegen rechts“ entnommen. Der Report verzeichnet die Entwicklungen im Recht, die aus dem Kontakt mit rechten Tendenzen in der Gesellschaft resultieren, und bewertet sie. Alexander Hoffmann ist Rechtsanwalt in Kiel, verteidigt in Strafverfahren wie dem Münchener Kommunistenprozess und vertritt Betroffene nazistischer und rassistischer Übergriffe als Nebenklagevertreter, zum Beispiel im NSU-Verfahren oder im Gruppe-Freital-Verfahren.

Der alltägliche politische Meinungskampf ist seit einigen Jahren um eine Variante reicher: Abmahnungen und Anträge auf den Erlass einstweiliger Verfügungen im Auftrag von Aktivist*innen, Politiker*innen und Landtagsfraktionen gehören heute zum politischen Alltag. Mit Abmahnungen wird versucht, im Vorfeld von Artikel- und Buchveröffentlichungen Einfluss zu nehmen und auch, Veröffentlichungen vollständig zu unterbinden.

Wie der ehemalige Sprecher der Werteunion, einem reaktionären Zusammenschluss von CDU/CSU-Mitgliedern mit inhaltlichen Übereinstimmungen zur AfD, Ralf Höcker, es formulierte: „Jeder hat das grundgesetzlich verbriefte Recht, Journalisten zu beeinflussen und ihnen zu drohen! … Es ist also das gute Recht eines jeden Bürgers, Unternehmens oder Politikers, präventiv und reaktiv Einfluss auf journalistische Berichterstattung zu nehmen.“

Da wird beispielsweise eine antifaschistische Website abgemahnt, weil sie über „Lebensschützer_innen“ und ihre Allianzen berichtet und dabei auch einen evangelischen Pfarrer erwähnt. Dieser will es bereits verbieten lassen, dass sein Name auf einer Website genannt wird, die in ihrem Header die Frage »Was machen Nazis hier?« stellt. Der Pfarrer fühlt sich hierdurch als Neonazi denunziert. Sein Anwalt droht mit einer Unterlassungsklage, erhebt diese auch. Ein paar Monate später trifft man sich beim Landgericht, hier herrscht „Anwaltszwang“, die Verantwortlichen der Website müssen also einen Rechtsanwalt beauftragen. Schließlich wird die Klage abgewiesen.

Das Risiko bleibt, dass der Kläger kein Geld hat und die Website, obwohl sie gewonnen hat, auf ihren Anwaltskosten sitzen bleibt. Beispielhaft sei hier auf die gezielte Abmahnwelle gegen das Buch „Völkische Landnahme“ von Andrea Röpke und Andreas Speit im Ch. Links Verlag über völkisch-nationalistische Siedler*innen in Ostdeutschland hingewiesen. Das deutsche PEN-Zentrum nannte diese Abmahnungen ein Beispiel für Versuche, „die Meinungsfreiheit in Deutschland einzuschränken und Autor*innen durch juristischen Druck zur Selbstzensur zu bewegen“.

Abmahnungen und einstweilige Verfügungen

Traditionell spielten Unterlassungsforderungen im Presserecht vor allem bei spektakulären Meldungen in der Tagespresse und bei Buchveröffentlichungen eine Rolle. Für alltägliche Pressemeldungen schien das Instrumentarium des Presserechts zu schwerfällig – eine alltägliche Pressemeldung geriet zu schnell in Vergessenheit, als dass sich ein Rechtsstreit darum gelohnt hätte. Gegen Falschmeldungen wurde eher die Staatsanwaltschaft bemüht, jedenfalls soweit diese geeignet waren, auch beleidigend oder verleumderisch zu wirken.

Mit der fortschreitenden Internetnutzung sind Websites, soziale Medien und Internetausgaben von Zeitungen und Medienanstalten aber für die öffentliche Willensbildung immer wichtiger geworden. Darüber hinaus hat sich das Internet durch Suchmaschinen wie Google mehr und mehr zu einem Archiv entwickelt, in dem mit ein paar Klicks alles zu finden ist, was über eine Person jemals veröffentlicht wurde.

Diese Entwicklung hatte zur Folge, dass neben dem klassischen Zeitungs- und Buchjournalismus auch freischaffende Journalist*innen und Medienkollektive immer größere Medienwirkung und Reichweiten entfalten konnten. Spätestens seit dem Einzug der Alternative für Deutschland (AfD) in die Parlamente gewannen sie durch die investigative Berichterstattung über die Partei und ihr politisches Umfeld an öffentlicher Bedeutung. Berichte und Meldungen, die zum Teil auf spezialisierten Internetseiten oder über Twitter verbreitet wurden, finden mehr und mehr ihren Weg in die Leitmedien und stellen damit offenbar eine unmittelbare Bedrohung für die Partei und ihre Anhänger*innen dar.

Im Falle einer rechtswidrigen Veröffentlichung – in der Regel, weil in einer Veröffentlichung unzutreffende Tatsachenbehauptungen enthalten sind – kann zunächst eine sogenannte Abmahnung erfolgen. Eine beauftragte Rechtsanwaltskanzlei teilt denjenigen, die die Veröffentlichung zu verantworten haben, mit, dass diese nicht zulässig sei, und fordert sie auf, dies zu unterlassen und eine entsprechende strafbewehrte Unterlassungserklärung zu unterzeichnen. Wird dieser Forderung nachgekommen, so hat die abmahnende Partei Anspruch auf Erstattung der ihr entstandenen Rechtsanwaltskosten. Kommt die abgemahnte Partei der Forderung nicht nach, so kann die Abmahnende sich entscheiden, die Angelegenheit einfach auf sich beruhen zu lassen oder sich an ein Gericht zu wenden. Entweder im Eilwege, dem Antrag auf Erlass einer einstweiligen Verfügung oder einer „normalen“ Klage, bei der der Weg bis zu einem Urteil oft Monate oder Jahre dauern kann.

Ein Eilantrag auf Erlass einer einstweiligen Verfügung wird von einer Pressekammer beim Landgericht in der Regel innerhalb von einer bis vier Wochen entschieden, manchmal ohne Anhörung der Gegenseite. Ist der Antrag erfolgreich, ergeht eine einstweilige Verfügung; die unterlegene Partei muss unmittelbar nach Zustellung der Verfügung die beanstandeten Textpassagen löschen (im Internet) oder schwärzen beziehungsweise den Vertrieb einstellen (in Printmedien). Sie kann gegen die einstweilige Verfügung Widerspruch erheben, dann muss das Gericht eine Verhandlung durchführen und ein Urteil fällen. Hiergegen kann Berufung beim nächsthöheren Gericht eingelegt werden. Alternativ oder zusätzlich können beide Parteien auch eine „normale“ Verhandlung, also ohne die Besonderheiten des Eilverfahrens, durchführen.

Es ist offensichtlich, dass hier aufgrund einer angegriffenen Äußerung bis zur endgültigen Klärung ihrer Rechtmäßigkeit eine Vielzahl von Prozessen geführt werden kann: nämlich mindestens eine erstinstanzliche Verhandlung sowie eine Berufungsverhandlung im Eil- sowie im Hauptsacheverfahren.

Insbesondere bei Printveröffentlichungen muss in dem Moment, in dem eine Abmahnung eingeht – weil ja der Erlass einer einstweiligen Verfügung droht –, überlegt werden, ob bereits zu diesem Zeitpunkt eine sogenannte Schutzschrift an alle in Frage kommenden Gerichte beziehungsweise an das zentrale Schutzschriftenregister geschickt wird, denn der Abmahnende kann sich bei überregionaler Verbreitung ein Gericht seiner Wahl aussuchen. Wenn nämlich eine einstweilige Verfügung von einem Gericht erlassen wird, muss beispielsweise der Vertrieb eines Buches eingestellt werden, auch wenn gegen diese vorgegangen wird. Eine sogenannte Schutzschrift soll einem Gericht, dem ein Antrag auf Erlass einer einstweiligen Verfügung vorliegt, Gegenargumente liefern. Entscheidet sich der Abmahnende allerdings, keinen solchen Antrag zu stellen, hat das abgemahnte Medium keinen Anspruch auf Ersatz der entstandenen Kosten. Dieser Anspruch würde erst mit der gerichtlichen Geltendmachung des Anspruchs auf Unterlassung entstehen.

Gerade (Internet-)Medien, die über keinerlei finanziellen Ressourcen verfügen, lassen sich auf diese Weise unter Druck setzen und zensieren nach Abmahnungen häufig ihre Meldungen, um das Risiko einer einstweiligen Verfügung und die damit verbundenen Kosten zu vermeiden.

Abmahnungen beeinflussen Berichterstattung

Im Zusammenhang mit den Massenabmahnungen wegen illegaler Downloads haben Rechtsanwaltskanzleien aus dem Bereich des unerlaubten Wettbewerbs und des Presserechts festgestellt, wie einfach es sein kann, die Berichterstattung von Journalist*innen und Medienplattformen ohne finanzielle Rücklagen zu beeinflussen. Dabei ist es wichtig zu erkennen, dass zu diesem Zweck jede erfolgreiche einstweilige Verfügung (seltener Klagen, weil sich das gerichtliche Verfahren lange hinzieht) die Grundlage für Dutzende erfolgreicher Abmahnungen darstellt.

Wenn es gelingt, gegen einzelne Journalist*innen oder Medienprojekte erfolgreich eine einstweilige Verfügung zu bewirken und dabei erhebliche Rechtsanwalts- und Gerichtskosten entstehen, wird dies leicht selbst zu einer Meldung. Die Streitwerte im Presserecht, auf deren Basis sich die Rechtsanwalts- und Gerichtskosten berechnen, sind naturgemäß hoch – immerhin handelt es sich immer um grundrechtsrelevante Fragen, entweder um das Persönlichkeitsrecht der Person, über die berichtet wird, oder um die Presse- und Meinungsfreiheit der Journalist*in, die berichtet.

Die Streitwerte beginnen daher in der Regel bei mindestens 5001 Euro, sehr häufig liegen sie bei 10000 Euro, oft bei dem Mehrfachen. Das bedeutet, dass bei einem Rechtsstreit in der Regel nicht weniger als 800 Euro pro Rechtsanwalt*in für die erste Tätigkeit anfallen, oftmals entstehen mehrere Tausend Euro Gesamtkosten. Damit fallen bereits im Rahmen einer einzigen einstweiligen Verfügung, soweit dagegen vorgegangen wird, Kosten an, die für ein nichtkommerzielles Medienprojekt oder freischaffende Journalist*innen existenzbedrohend sind.

Die Entwicklung der hier dargestellten juristischen Auseinandersetzung ist weiter davon geprägt, dass sowohl viele der Antragsteller*innen beziehungsweise Kläger*innen, als auch ein erheblicher Teil derjenigen Kanzleien, die in diesen Verfahren presserechtlich tätig sind, ihr juristisches Vorgehen als Teil beziehungsweise als Fortsetzung ihres politischen Kampfes verstehen. Dies bedeutet, dass die rechtlichen Gegner*innen in erster Linie als politische Gegner*innen verstanden werden, denen es möglichst großen Schaden zuzufügen gilt.

Vor allem in Fällen, in denen eine Meldung einzelner Journalist*innen oder eines Medienprojekts von Dritten übernommen wird, ist es beispielsweise möglich, mit Abmahnungen und Anträgen auf einstweilige Verfügung gegen jede weitere Verbreitung einzeln vorzugehen. Damit vervielfacht sich gegebenenfalls die öffentliche Wirkung des Geschehens.

Solche öffentlichkeitswirksamen Verfahren verbreiten Unsicherheit bei Medienprojekten und Journalist*innen. Das wird oftmals bei weiteren Abmahnungen genutzt. Die abmahnenden Kanzleien weisen in den oft sehr umfangreichen Abmahnschreiben mit regelmäßig viel zu hoch angesetzten Streitwerten und mitgeschickten Kostennoten für ihr Tätigwerden auf die finanziellen Risiken eines Rechtsstreits hin. In einem solchen Schreiben können vermeintlich für die Abmahnung entstandene Rechtsanwaltskosten nach eigener Einschätzung festgesetzt werden, oft doppelt so hoch, wie sie ein Gericht festsetzen würde. Dies erfüllt noch nicht den Tatbestand des Betruges, trägt aber natürlich ebenfalls zur Einschüchterung bei. Die Bereitschaft, eine bestimmte Behauptung nicht mehr zu verbreiten und eine entsprechende strafbewehrte Unterlassungserklärung zu unterschreiben, wird hierdurch natürlich drastisch erhöht, gleichgültig, ob tatsächlich eine rechtliche Verpflichtung hierzu besteht.

Besonders hart von solchen Abmahnungen getroffen sind Journalist*innen und Verlage, die Bücher veröffentlichen. Eine erfolgreiche einstweilige Verfügung kann dazu führen, dass eine gesamte Auflage nicht mehr vertrieben werden oder zumindest jedes einzelne Exemplar vor der Auslieferung geschwärzt werden muss. Natürlich sollte dementsprechend die rechtliche Überprüfung vor der Veröffentlichung besonders gründlich ausfallen, um dieses Risiko zu mindern.

Existentielle Bedrohung für Kleinverlage

In einem Rechtsstreit gegen eine Buchveröffentlichung ist es möglich und angemessen, zunächst mit einer Abmahnung oder einem Antrag auf einstweilige Verfügung gegen den Verlag vorzugehen. Nach Abschluss dieses Streits können anschließend die betroffenen Autor*innen und Herausgeber*innen einbezogen werden. Einen anderen Weg geht, wer entweder den Herausgeber*innen und Autor*innen unterstellt, sie würden sich ohnehin an eine gegen den Verlag ergangene einstweilige Verfügung oder einen zwischen Abmahnendem und dem Verlag getroffenen Vergleich nicht halten, oder der Gegenseite einfach nur maximalen Schaden zufügen will. Dann wendet sich die abmahnende Kanzlei gegen Verlag, Herausgeber*innen und Autor*innen, die jeweils einzeln abgemahnt werden. Die Kosten allein des außergerichtlichen Verfahrens vervielfachen sich dadurch.

Verlag, Herausgeber*innen und Autor*innen haben in einem solchen Fall die Möglichkeit, sich mit einer Schutzschrift an die Gerichte zu wenden, an die sich die antragstellende Partei wenden könnte, damit das Gericht keine einstweilige Verfügung erlässt, ohne die Argumente der Journalist*innen gehört zu haben, und mit der Verfügung beispielsweise die gesamte Auslieferung eines Buches gestoppt werden muss, was dann zu hohen Kosten führen kann.

Für den Fall, dass gar kein Antrag auf einstweilige Verfügung gestellt wird, bleiben die Kosten der Schutzschrift beim Verlag und den betroffenen Journalist*innen. Dies mag bei großen Verlagen und Magazinen Bestandteil ihrer Kostenkalkulation sein, kleine Verlage, Projekte und selbständige Journalist*innen kann dies aber existentiell bedrohen.
Man kann aber auch Abmahnungen schreiben, in denen teilweise falsch vorgetragen wird. Während in einem Antrag auf einstweilige Verfügung jede Behauptung unmittelbar bewiesen werden muss – entweder mit einem Dokument oder mit einer eidesstattlichen Versicherung –, kann in einem Abmahnschreiben erst mal alles behauptet werden.

So kann zum Beispiel in den Raum gestellt werden, man habe bereits eine erfolgreiche einstweilige Verfügung bezogen auf den zugrundeliegenden Sachverhalt bewirkt, oder es gebe bestimmte eidesstattliche Versicherungen. Man kann aber auch eine umfangreiche Abmahnung schreiben, aus der nicht einmal im Ansatz hervorgeht, welche konkrete Behauptung des streitgegenständlichen Textes eigentlich angegriffen werden soll. Beispielhaft sind auch umfangreiche Abmahnungen gegen Fotojournalist*innen wegen angeblicher Verstöße gegen die Datenschutzgrundverordnung durch Aufnahmen und Speicherung von Fotos.

Die adäquate Antwort auf die neuen Kampfformen im Presserecht muss seitens der Journalist*innen natürlich eine noch präzisere Recherche und vor allem Sicherung der Rechercheergebnisse sein. Auch muss die Schulung bezüglich der Zulässigkeit und der Grenzen journalistischer Veröffentlichung verbessert werden. Da dies Kleinstverlage und selbständige Journalist*innen alleine nicht leisten können, sind Journalist*innenverbände, Verlage und alle gefordert, die weiterhin einen unabhängigen, investigativen Journalismus bewahren wollen. Neben Schulungsangeboten muss der allgemeine Rechtsschutz verbessert werden. Wenn Großverlage Rechtsabteilungen haben, müssen Kleinstverlage, Projekte und selbständige Journalist*innen auf eine vergleichbare juristische Unterstützung zurückgreifen können.

„Recht gegen rechts“ wird herausgegeben von Nele Austermann et al. und ist erschienen im Fischer Taschenbuch Verlag. Alle Rechte vorbehalten © S. Fischer Verlag GmbH, Hedderichstraße 114, D-60596 Frankfurt am Main, 2020.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Digitalisierung des Gesundheitssystems: Jens Spahn hat es eilig

netzpolitik.org - 28 Oktober, 2020 - 09:21

Seit der Bundesrat das Patientendaten-Schutz-Gesetz (PDSG) vor einigen Wochen verabschiedet hat, steht fest, dass die elektronische Patientenakte (ePA) zum 1. Januar 2021 eingeführt wird. Mit der ePA will das Bundesgesundheitsministerium den nächsten und wichtigsten Schritt in der Digitalisierung des Gesundheitssystems gehen, um Behandlungen effizienter zu machen und die Versorgung zu verbessern.

Weiter ungeklärt sind allerdings die Datenschutz-Bedenken, die der Bundesdatenschutzbeauftragte Ulrich Kelber und drei seiner Kolleg:innen aus den Bundesländern im Vorfeld geäußert hatten. Ihrer Ansicht nach ist die ePA so, wie sie aktuell geplant ist, nicht mit dem europäischen Datenschutzrecht vereinbar. Bei einer Pressekonferenz im August kündigten die Datenschützer:innen Sanktionen an, falls die Krankenkassen die Akte wie im Gesetz vorgesehen einführen.

Sie hofften auf den Bundesrat, der das Gesetz in den Vermittlungsausschuss hätte überweisen können. Diese Hoffnung war vergeblich, der Rat winkte das Gesetz auf Empfehlung des Gesundheitsausschusses ohne Aussprache durch. Und so ist weiterhin unklar, wie die Einführung zu Beginn des nächsten Jahres funktionieren soll.

Datenschutz durch Freiwilligkeit?

Die Bedenken der Datenschützer:innen beziehen sich vor allem auf das feingranulare Zugriffsmanagement, das erst ein Jahr nach der Einführung der ePA vorgesehen ist. Patient:innen können zu Beginn also nicht einzeln entscheiden, welches Dokument sie welchen Ärzt:innen freigeben wollen. Außerdem zweifeln Kelber und Kolleg:innen an der Sicherheit des Authentifizierungsverfahrens bei den Nutzer:innen. Dieses sei nicht mit der Datenschutzgrundverordnung (DSGVO) vereinbar und erst ab den ebenfalls für 2022 vorgesehenen Änderungen rechtskonform.

Die Einwände der Datenschützer:innen beziehen sich also größtenteils auf Probleme, die mit den geänderten Regeln ein Jahr nach Einführung der ePA nicht mehr bestünden, da die in Frage stehenden Regelungen nur befristet für den Übergang vorgesehen sind. Es entsteht der Eindruck, das Gesundheitsministerium habe es mit der Einführung der elektronischen Patientenakte und der Digitalisierung des Gesundheitssystems eilig – möglicherweise auch mit Blick auf die 2021 anstehenden Bundestagswahlen.

Eine Kleine Anfrage der FDP-Fraktion an das Gesundheitsministerium verstärkt dieses Gefühl. Auf die Datenschutzmängel angesprochen, verweist die Bundesregierung in ihrer Antwort unter anderem auf die Freiwilligkeit der elektronischen Patientenakte. Niemand müsse das Angebot nutzen und dürfe wegen dieser Entscheidung auch bei der Behandlung nicht benachteiligt werden.

Der lange Weg der Digitalisierung im Gesundheitswesen

Diese Aussage steht mit dem angekündigten Nutzen der ePA im Widerspruch. Sie soll das Kernelement des digitalisierten Gesundheitswesens sein. Wenn man sich, um seine Daten zu schützen, gegen die ePA entscheiden muss, werden die erhofften Effizienzsteigerungen und Verbesserungen der Versorgung nicht eintreten. Wenn die ePA wirklich so hilfreich für die Patient:innen ist, wie die Bundesregierung behauptet, ist außerdem schwer vorstellbar, wie eine Gleichberechtigung zwischen den Patient:innen mit und ohne ePA garantiert werden soll.

Die Digitalisierung des deutschen Gesundheitswesens zieht sich schon sehr lange hin. Erste Pläne für eine elektronische Patientenakte gab es schon vor fünfzehn Jahren, damals noch unter Gesundheitsministerin Ulla Schmidt. Der aktuelle Minister Jens Spahn wird nicht müde, in Interviews zu betonen, dass nun endlich mal etwas vorangehen müsse bei der Digitalisierung. An Stelle der jahrelangen politischen Untätigkeit bei der Digitalisierung des Gesundheitssystems scheint nun ein stellenweise überhasteter Aktionismus zu treten, der der Tragweite der anstehenden Entscheidungen oft nicht gerecht werden kann.

Denn auch bei der für 2022 geplanten Einführung des E-Rezepts gibt es Datenschutzbedenken. Jüngst wurde bekannt, dass die Rezepte bei der Übermittlung nicht Ende-zu-Ende-verschlüsselt werden. Das Verschreibungsverhalten der Ärzt:innen wird so auswertbar. Bedenkt man die möglichen Folgen eines Verlusts von Gesundheitsdaten, wirkt Spahns Eile auf viele irritierend.

Gravierende Folgen bei Verlust von Gesundheitsdaten

Fabian Prasser, Professor für Medizininformatik an der Berliner Charité und am Berlin Institute of Health, forscht unter anderem zum Datenschutz in der medizinischen Forschung und hat regelmäßig mit Gesundheitsdaten zu tun. Er weist darauf hin, dass es wenig bekannte Beispiele für konkrete Schäden für Einzelne durch Datenverlust gibt. Die Gefahren seien deshalb abstrakt und teilweise schwer zu vermitteln.

„Man erfährt nicht, warum man plötzlich einen höheren Tarif für eine Versicherung bezahlen muss, warum man einen Job nicht bekommt“, so der Forscher. Die Folgen von verlorenen Daten können sich heimlich und schleichend einstellen, ohne dass man sich dessen bewusst sei.

Solche Datenverarbeitungen seien natürlich mit unserem Recht nicht vereinbar. „Das heißt aber nicht, dass sie nicht trotzdem passieren und die Betroffenen dadurch Nachteile erleiden könnten“, mahnt Prasser. Neben Nachteilen bei Versicherungen oder Bewerbungen seien auch Erpressung oder Identitätsdiebstahl mit den Daten denkbar.

Anders als beispielsweise bei verlorenen Kreditkartendaten habe der Schaden dann auch einen langfristigen Effekt. Gesundheitsdaten gelten lebenslang und sind nicht einfach austauschbar, falls sie mal in falsche Hände gelangen. Umso wichtiger sei also der Schutz dieser sensiblen Daten.

Sicherheitsprobleme bei der Telematikinfrastruktur

Und der scheint bei der Patientenakte, wie sie aktuell vorgesehen ist, nach Einschätzung des Bundesdatenschutzbeauftragten nun einmal nicht gegeben zu sein. Da hilft es auch wenig, wenn die Bundesregierung in ihrer Antwort auf die FDP-Anfrage ankündigt, die Bußgelder für Datenschutzverstöße im Gesundheitssystem zu erhöhen. Denn die Veröffentlichung sensibler Gesundheitsdaten ist nicht mit Geld wiedergutzumachen. Doch nicht nur die vorläufigen Regeln, die die Datenschützer:innen von Bund und Ländern anprangern, werfen Fragen auf. Auch langfristig könnte es mit der ePA Probleme geben.

Die elektronische Patientenakte ist wie die meisten Maßnahmen zur Digitalisierung des Gesundheitswesens in die Telematikinfrastruktur (TI) eingebettet. Diese Infrastruktur soll alle Akteure des Gesundheitssystems, also beispielsweise Arztpraxen, Krankenhäuser, Apotheken und Krankenkassen in einer sicheren Umgebung miteinander vernetzen.

Verantwortlich für die TI ist die gematik GmbH. Sie wurde 2005 gegründet und mit der Vernetzung des Gesundheitswesens beauftragt. Darunter fallen die Infrastruktur selbst, die elektronische Gesundheitskarte und eben auch die geplante elektronische Patientenakte, die innerhalb der TI angesiedelt sein soll.

Eben diese Telematikinfrastruktur mit allen ihren Anwendungen ist seit Jahren wiederholt für mangelnde Sicherheit kritisiert worden. Sowohl die elektronische Gesundheitskarte und der Heilberufsausweis als auch die Konnektoren, die Arztpraxen für den Zugang zur TI benötigen, haben sich in der Vergangenheit als anfällig für Angriffe erwiesen.

Die Gesundheitskarten und die Konnektoren sollen einem Eckpunktepapier aus dem Gesundheitsministerium zufolge bald wegfallen. Ab 2023 soll der Zugang zur TI mittels digitaler Identitäten geregelt werden. Die genaue Ausgestaltung des angekündigten „Digitalisierungsgesetzes“ ist hier noch unklar. Harald Kelter, BSI-Referatsleiter für Cybersicherheit im Gesundheitswesen, sagte dem Handelsblatt, dass man nicht ganz auf Hardware verzichten könne, um die Datensicherheit zu gewährleisten.

Zentrale Speicherung der Daten vorgeschrieben

Obwohl also in absehbarer Zeit die TI nochmal komplett umgekrempelt werden soll, bleibt den Anbietern für die elektronische Patientenakte aber schon heute nichts anderes übrig, als sich mit ihrem Angebot innerhalb dieser Infrastruktur zu bewegen, um von der gematik zugelassen zu werden. Darüber hinaus legt die gematik die Anforderungen an die Angebote der ePA sehr genau fest. Die Daten, die Patient:innen und Ärzt:innen in der ePA ablegen, sind verschlüsselt in einer zentralen Datenbank beim jeweiligen Anbieter zu speichern. Das Schlüsselmanagement ist hingegen dezentral organisiert, den Zugang zu den Schlüsseln bewahren die Nutzer:innen jeweils individuell auf.

Eine dezentrale Speicherung der Daten selbst ist hingegen nicht vorgesehen. Die Diskussion zwischen zentraler und dezentraler Datenspeicherung ist noch von der Diskussion um die Corona-Warn-App im Gedächtnis geblieben. Viele Beobachter:innen hielten die Entscheidung für das dezentrale Konzept für richtig. Die Gefahr eines großflächigen Datenverlusts ist geringer, wenn sie nicht an einem einzigen Ort versammelt gespeichert sind.

Das deutsche Unternehmen Turbine Kreuzberg hat ein alternatives Konzept für eine dezentrale elektronische Patientenakte entwickelt. Daniel Nill, CEO der Firma, hält die TI nicht für zukunftsfähig und setzt deshalb auf die dezentrale Speicherung. Bei seiner Lösung sollen Patient:innen auswählen können, wo Daten gespeichert sind, welchem Server sie also am meisten vertrauen. Die anfällige TI soll mit der dezentralen Speicherung obsolet werden.

Keine kurzfristige Lösung in Sicht

Das heißt aber auch, dass das System die Probleme der ePA nicht kurzfristig bis Beginn des nächsten Jahres lösen kann. Nill merkt zwar an, in Gesprächen sei man bei der gematik nach seiner Wahrnehmung durchaus offen für neue Technologien und das Denken in großen Dimensionen. Wie viel davon dann aber in die konkrete Umsetzung mit einfließt, steht auf einem anderen Blatt.

Außerdem ist die elektronische Patientenakte bei der Datenspeicherung nicht wirklich mit der Corona-Warn-App vergleichbar. Eine komplett dezentrale Speicherung muss nicht bei allen Anwendungen automatisch die bessere Alternative sein; besonders, wenn es um die langfristige Verfügbarkeit von Daten geht. Johannes Braun, der an der TU Darmstadt zu Kryptographie und Komplexitätstheorie forscht, merkt an:

Ein klarer Unterschied ist […] die Langlebigkeit der Kontaktdaten. Diese können bei der Warn-App nach zwei Wochen bedenkenlos gelöscht werden – dann ist die Inkubationszeit nach aktuellem Kenntnisstand vorbei, und weiter zurückliegende Kontakte sind (abgesehen von etwaigen Forschungsinteressen) für den Einzelnen völlig unerheblich. Die Daten in der ePA haben dagegen zumindest teilweise lebenslange Relevanz, oder sogar darüber hinaus.

Bei der elektronischen Patientenakte sei die dezentrale Speicherung also nicht unbedingt die bessere Lösung, da die Daten nicht lebenslang vorgehalten werden müssen. Das derzeitige Konzept der ePA lobt Braun:

Grundsätzlich ist hier […] ein Ansatz gewählt worden, der stark auf die Kontrolle über die eigenen Daten ausgelegt ist. Das ist sehr zu begrüßen. Natürlich gibt es eine Vielzahl von Aspekten, die bei einer abschließenden Bewertung berücksichtigt werden müssten – welche kryptographischen Verfahren tatsächlich zum Einsatz kommen, wie das Schlüsselmanagement beim Nutzer und den jeweiligen Berechtigten realisiert und abgesichert ist, ob und wie etwaige Backups von Schlüsseln gemacht werden, wie die verschiedenen Ansätze tatsächlich in der Applikation umgesetzt sind und vieles mehr.

Wenig Hoffnung auf Datensicherheit aus dem Hause Spahn

Es kommt also auf die genaue Umsetzung und Überprüfung der Vorgaben durch die einzelnen Anbieter an. Auch wenn vieles bei der elektronischen Patientenakte gut durchdacht ist und Lob von Expert:innen einheimst, scheint es doch noch Luft nach oben zu geben – sowohl grundsätzlich beim Konzept als auch bei der Umsetzung.

In der Vergangenheit fielen sogenannte elektronische Gesundheitsakten, im Prinzip Vorläufer der ePA, leider nicht durch besonders durchdachte Sicherheitskonzepte auf. Sicherheitsexperten vom Chaos Computer Club war es wiederholt gelungen, das Schlüsselmanagement und andere Sicherheitsmechanismen der Anwendungen mit einfachsten Mitteln zu umgehen.

Die Gesundheitsapp Vivy, die vor allem wegen Sicherheitsproblemen in der Kritik stand, arbeitet mit zahlreichen gesetzlichen und privaten Krankenkassen zusammen und erhielt in einer Ausschreibung des IT-Dienstleisters der Krankenkassen, BITMARCK, den Zuschlag, als Gesundheitsakte eingesetzt zu werden. BITMARCK will ab 2021 eine eigene Anwendung für die elektronische Patientenakte anbieten und ist hierfür auch schon von der gematik zugelassen worden.

Vertrauen entscheidet über Erfolg

Auch andere Digitalisierungsmaßnahmen aus dem Hause Spahn genügen nicht den Sicherheitsanforderungen. In dieser Woche wurde bekannt, dass eine Anwendung, die Ärzt:innen verschreiben und Krankenkassen nach dem Digitale-Versorgungsgesetz erstatten sollen, gravierende Sicherheitsmängel aufweist und das zuständige Bundesinstitut für Arzneimittel und Medizinprodukte gesetzlich nur angehalten ist, die Plausibilität der Herstellerangaben zu prüfen. Eine eigene Prüfung der Datensicherheit und des Datenschutzes sah das Gesundheitsministerium bislang nicht vor.

Auch hier will Spahn wohl mit dem angekündigten Digitalisierungsgesetz nachbessern. Die Apps sollen in Zukunft vom Bundesamt für Sicherheit in der Informationstechnik zertifiziert werden. Gleichzeitig geht der Gesundheitsminister aber auch hier wieder einen Schritt weiter und will die Erstattung von Apps auf Digitale Pflegeanwendungen ausweiten.

Dabei ist das Vertrauen der Patient:innen in die politischen Maßnahmen für den Erfolg der elektronischen Patientenakte entscheidend, da die Nutzung nicht verpflichtend ist. Die Vorteile sind unbestritten, effizientere Behandlungen und schnellere Kommunikation sind wünschenswerte Ziele. Doch wenn sich die Versicherten nicht darauf verlassen können, dass ihre sensiblen Gesundheitsdaten langfristig sicher und in guten Händen sind, könnte die Maßnahme im Sande verlaufen.

Langfristige Datensicherheit mit „Secret Sharing“

Eben diese langfristige Sicherheit soll ein System gewährleisten, das IT-Sicherheitsexperte Braun gemeisam mit einem Forschungsteam um Prof. Johannes Buchmann im Rahmen des Sonderforschungsbereichs CROSSING an der TU Darmstadt entwickelt hat.

Mittels „Secret Sharing“ sollen heute eingesetzte Verschlüsselungsverfahren ersetzt werden, die Braun unter Umständen für nicht sicher genug hält, um ihnen lebenslang gültige Gesundheitsdaten anzuvertrauen. Beim Secret Sharing werden die Daten in mehrere Teile (Shares) aufgeteilt, die für sich allein keine Informationen enthalten.

Gelingt es also Angreifer:innen, eines dieser Datenpakete zu erbeuten, gibt es allein keinerlei Informationen preis, abgesehen von der Dateigröße. Den Angreifer:innen müsste es gelingen, alle Shares gleichzeitig in die Hände zu bekommen, um verwertbare Informationen zu erhalten. Dem wollen die Forscher:innen mit möglichst vielen verschiedenen Schutzmechanismen der einzelnen Server, auf denen die Shares gespeichert sind, entgegentreten, sodass es sehr unwahrscheinlich ist, dass der Angriff vollständig gelingt. Zusätzlich soll das System die Shares regelmäßig erneuern, sodass die Angreifer:innen sie nicht nach und nach erbeuten können.

In einem Pilotprojekt setzten mehrere Krankenhäuser in Japan die Technologie bereits ein, um sie zu testen. Doch auch dieses System kann keine Abhilfe schaffen, um die ePA zum 1. Januar 2021 datensicherer zu machen. Braun verweist darauf, dass seine Kolleg:innen und er in Darmstadt Grundlagenforschung betreiben würden. „Die Entwicklung einer Anwendung müsste aus der Wirtschaft kommen“, fordert er.

Politik für Sicherheit der Systeme verantwortlich

Auch gibt es bei dem System noch einige Herausforderungen. „Um die Sicherheit des Verfahrens zu garantieren, ist es nötig, dass jedes Share für sich genommen genau die Dateigröße hat, die das zu speichernde Datenpaket insgesamt aufweist. Es sind also große Speicherkapazitäten notwendig, um auch beispielsweise hochauflösende medizinische Bilddateien ablegen zu können.“ Je nach Ausgestaltung des Systems würde das die fünf- bis zehnfache Datenmenge bedeuten.

Außerdem müssten, um nicht nur die Datenspeicherung, sondern auch die Datenübertragung vollkommen sicher zu gestalten, Verfahren wie der Einsatz von Quantenschlüsseln praktikabler werden. Hier sei neben weiterer Forschung auch noch der Ausbau der Infrastruktur nötig, wie zum Beispiel ein flächendeckendes Glasfasernetz, was wir in Deutschland bisher nicht haben, bemerkt Braun.

Die Einführung der ePA 2021 hält Braun für sinnvoll. Die Designer hätten sich viele Gedanken gemacht und sehr viel Wert auf Sicherheit gelegt, zumindest mit den heute verfügbaren Mitteln. Dennoch würde er sich wünschen, wenn Anbieter von der gematik aufgefordert würden, die langfristige Sicherheit in ihre Systeme zu implementieren. Hier sieht Braun auch die Politik in der Verantwortung. Diese müsse den Einsatz innovativer Sicherheitsverfahren vorantreiben, um dafür zu sorgen, dass die Systeme die bestmögliche Sicherheit bereitstellen, wenn sie der Bevölkerung angeboten werden, so der Wissenschaftler.

Eile bei der Gesetzgebung

Die Bedenkenlosigkeit, mit der das Gesundheitsministerium Warnungen der Datenschützer:innen, zum Beispiel bei der ePA, einfach beiseite wischt, scheint nicht so recht zu diesem Appell des Wissenschaftlers zu passen. Denn sie schafft weder das nötige Vertrauen in die langfristige Datensicherheit noch zeigt sie, dass sich Minister Spahn der Brisanz des Themas bewusst ist. Die Verantwortlichen müssten Kosten und Risiko genau abwägen, um das Vertrauen der Patient:innen zu gewinnen. Das erfordert Zeit, Aufklärung und demokratische Kontrolle. Diesen Punkten gibt Spahn mit seiner überhasteten Gesetzgebung zu wenig Raum.

Natürlich darf das Projekt nicht auf die lange Bank geschoben werden. Doch nur weil Gesundheitspolitiker:innen sich seit fünfzehn Jahren erfolglos bemüht haben, die elektronische Patientenakte einzuführen, darf der Datenschutz und die langfristige Datensicherheit der Gesundheitsdaten nicht auf der Strecke bleiben. Denn die Digitalisierung im Gesundheitssystem kann den Versicherten sehr zugute kommen. Sie durch unbedachte, unfertige Konzepte zu gefährden, ist nicht im Interesse der Patient:innen.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

bits: Endlich alle Labore an Corona-Warn-App anschließen

netzpolitik.org - 27 Oktober, 2020 - 18:00

Hallo,

seitdem die Corona-Zahlen wieder massiv ansteigen, werden wieder Sündenböcke gebraucht. Einer davon scheint die Corona-Warn-App zu sein. Momentan schwirren viele eher wenig qualifizierte Aussagen herum wie „Zuviel Datenschutz!“ und „Funktioniert nicht!“, gerne auch miteinander kombiniert.

Am liebsten wird dann das Argument gebracht, dass eine zentrale Speicherung sinnvoller wäre und der Datenschutz stören würde. Aber ist so eine Datenhalde wirklich klug? Ich hab da große Zweifel. Denn die Betriebssysteme bieten mittlerweile Schnittstellen für dezentrale und datenschutzfreundliche Lösungen an. Das kann man nicht weg ignorieren. Frankreich hatte sich im Gegensatz zu Deutschland für eine zentrale Lösung entschieden. Das Ergebnis kann man gerade sehen: Dort gibt es aktuell dreifache Infektionszahlen und vor allem funktioniert die App dort überhaupt nicht.

Zuvorderst führt die dezentrale Speicherung zu mehr Vertrauen. Dieses Vertrauen kann bei zentralen Speicherungen sofort zerstört werden, sobald der erste Politiker den Zugriff von Sicherheitsbehörden auf die Daten fordert. Und das kommt in der Regel sofort nach der ersten Speicherung.

Da aktuell viele Gesundheitsämter schon mit der analogen Kontaktnachverfolgung mit Stift, Papier, Telefon, Fax und manchmal Excel mit vielen „Mickey-Mouse-Listen“ überlastet sind, bin ich froh, dass es bei uns noch eine digitale Alternative gibt. Mir sind auch Fälle bekannt, in denen Menschen erst durch die Warn-App mitbekommen haben, dass sie Kontakte zu positiv Getesteten hatten und ein anschließender Test ebenfalls positive Ergebnisse lieferte. Es ist schwierig zu sagen, welcher der beiden Wege besser funktioniert. Aber viele Möglichkeiten zur Kontaktnachverfolgung haben wir in der zweiten Welle gerade nicht.

Warum sind noch nicht alle Labore ans System angeschlossen?

Einige Geburtsschwierigkeiten wie schlechte Nutzer:innenführung und schlechte Erklärungen wurden mittlerweile verbessert. Andere sind geblieben. Dazu gehört vor allem die Anbindung von mehr Laboren an die App-Infrastruktur. Zum Start hatte die Bundesregierung versprochen, dass innerhalb weniger Wochen alle Labore angeschlossen wären. Vier Monate später ist das immer noch nicht der Fall. Das ist ein kleiner Skandal. Gerade die Labore von Krankenhäusern sind meist nicht angeschlossen. Die spielen natürlich eine wichtige Rolle, weil dort erst viele akut Kranke positiv getestet werden.

Für Tagesschau.de hat Kristin Becker mal die Gründe recherchiert: Klinik-Labore mit Anschlussproblemen. Ein Grund sind die erhöhten technischen Sicherheitsanforderungen an Krankenhaus-Infrastrukturen und vor allem die Übernahme der Kosten. Krankenhäuser argumentieren, dass sie das aus laufenden Etats zahlen müssten und keine zusätzliche Förderung erhielten.

Die bisherigen Kosten für die Corona-Warn-App belaufen sich bisher auf ca. 60 Millionen Euro. Die gingen mehrheitlich an die Deutsche Telekom für das Betreiben von Telefon-Hotlines, der Rest ging an SAP für die Entwicklung. Warum gibt es noch keinen Fortschritt beim Anschluss aller Labore und warum wurden die bei den Investitionen übersehen?

Neues auf netzpolitik.org

Chris Köver und Leonard Kamps schreiben über neue Recherchen zu Content-Moderations-Praktiken auf einer der größten Porno-Plattformen der Welt, die zu Missbrauch einladen: xHamster lässt Freiwillige mutmaßlich illegale Fotos moderieren.

Die populärste Pornowebseite Deutschlands verlässt sich bei der Überprüfung von möglicherweise illegalen Fotos auf ein Team von unbezahlten Freiwilligen. Sie sollen per Bauchgefühl darüber entscheiden, ob die gezeigten Frauen minderjährig sind oder missbraucht wurden.

===

Julia Reda kommentiert in ihrer aktuellen edit:policy-Kolumne die drohende EU-Verordnung gegen Terrorpropaganda: Bundesregierung will Pflicht von Uploadfiltern in Terrorverordnung.

Die Bundesregierung treibt in der EU den verpflichtenden Einsatz von Uploadfiltern in der Terrorverordnung voran, mit Vorsitz im Rat der Europäischen Union.

===

Ingo Dachwitz und Alexander Fanta beschreiben in ihrem zweiten Artikel zu ihren „Medienmäzen Google“-Recherchen, wie Tech-Unternehmer:innen sich bei Medien einkaufen: Milliarden von den neuen Medici.

Wenn wir über eine problematische Nähe von Tech-Unternehmen zum Journalismus sprechen, geht es nicht nur um Google. Die Technologiebranche hat sich in den letzten Jahren zu einem Gönner in Renaissancemanier für Nachrichtenmedien verwandelt. Doch die Millionen von Zuckerberg, Bezos und Co. bringen Probleme mit sich.

===

Tomas Rudl zeigt, wie weit nach rechts Facebook in den USA inzwischen abgerutscht ist und welche Ursachen und Folgen das hat: Die rechte Empörungsmaschine.

Facebook ist inzwischen tief im Ökosystem des US-Konservatismus verankert. In der Führungsriege finden sich immer mehr Republikaner, im News Feed der Nutzer:innen landen mehr konservative als liberale Nachrichten. Dahinter steckt System.

Kurze Pausenmusik:

Dieser Newsletter wird, neben viel Herzblut, durch Spenden unserer Leser:innen ermöglicht. Hier kann man uns mit einem Dauerauftrag oder Spende unterstützen.

Wir freuen uns auch über etwas Werbung für den bits-Newsletter, um mehr Mitlesende zu bekommen. Hier geht es zur Anmeldung.

Feedback und sachdienliche Hinweise bitte an markus@netzpolitik.org schicken.

Die Erstellung dieser Ausgabe wurde freundlicherweise von Tomas Rudl unterstützt.

Was sonst noch passierte:

Alptraum Daten-Hack: In Finnland wurde womöglich Zehntausende Datensätze eines Psychotherapie-Zentrums abgegriffen. Jetzt werden Patient:innen und Betreiber erpresst und es wird damit gedroht, die Daten zu veröffentlichen. Dazu gehören auch Transkripte von psychotherapeutischen Sitzungen und andere sehr sensible medizinische Daten: Psychotherapeuten gehackt: Finnische Patienten und Praxen werden erpresst.

===

Die Wikipedia-Community bereitet sich auf den US-Wahltag und den Ausgang vor. Bei Wired gibt es einen Einblick in die Vorbereitungen: Wikipedia’s Plan to Resist Election Day Misinformation.

===

In den USA tobt eine Debatte um Zensurpraktiken auf der Zoom-Plattform. Aufhänger ist ein Fall der San Francisco University, wo ein Vortrag der palästinensichen Aktivistin Leila Khaled durch Zoom gecancelt wurde: Zoom Deleted Events Discussing Zoom “Censorship”. Das zeigt wieder die Notwendigkeit freier und offener Alternativen zu Zoom.

===

Facebook geht wieder gegen Plugins vor, die helfen, Microtargeting-Ads im Wahlkampf zu sammeln. Damit erschwert der Konzern mal wieder zivilgesellschaftliche und wissenschaftliche Anstrengungen, das Ausmaß und die Praktiken von zielgerichteter Werbung zu dokumentieren: Facebook tries to block tool aimed at promoting transparency around political ads.

===

Bei den Riff-Reportern gibt es einen Überblick über mögliche sinnvolle Maßnahmen, um die Wellen der Corona-Pandemie zu brechen: Coronakrise – Simulationen zeigen, welche Lockdown-​Maßnahmen wirken.

===

Der Arzt Bodo Schiffmann ist eine zentrale Figur der Corona-Leugner:innen und wirbt immer mit seiner Autorität als HNO-Arzt. Damit hat er weitgehend Narrenfreiheit, wie T-Online berichtet: Ärztekammer kann Schwindel-Doktor Schiffmann nur zuschauen.

Audio des Tages: Macht uns Lesen gesünder mit rechtsextremem Heilsversprechen?

SWR2 Wissen ging der Frage nach: „Macht uns Lesen gesünder? Studien auf dem Prüfstand“ und kommt zu dem Ergebnis: Es ist kompliziert. Aber das ist interessant.

===

WDR5 hat ein Interview mit dem Soziologen Klaus Dörre geführt. Der hat untersucht, warum Teile des Arbeiter-Milieus sich von der aktuellen Politik abgewertet fühlen und anfällig für rechtsextremes Gedankengut sind: Rechtsextreme Heilsversprechen.

Video des Tages: Langzeitbeobachtung in den USA mit Friedrich Merz

In der ARD-Mediathek gibt es eine Langzeitbeobachtung über den Zustand der USA im Vorfeld der Präsidentschaftswahlen als Dokumentation vom Ex-„Spiegel“-Chefredakteur Klaus Brinkbäumer und dem Dokumentarfilmer Stephan Lamby: Im Wahn – Trump und die Amerikanische Katastrophe.

===

Friedrich Merz spielt gerade die Trump-Strategie und versucht sich gegen ein vermeintliches CDU-Establishment mit einer Medienoffensive zu positionieren. Gestern Abend war er hintereinander in den Tagesthemen und im Heute-Journal. Eine Best-of-Version gibt es von Ubermedien auf Youtube: Der doppelte Merz – „Es geht nicht um meine Person“.

===

Das war es für heute. Viele Grüße und bleibt gesund,
Markus Beckedahl

Ich freue mich immer über Feedback und gute Hinweise. Meine Mailadresse ist markus@netzpolitik.org. Ich bin zwar häufig von zu vielen eMails überfordert und bekomme nicht alle beantwortet. Aber ich lese alle Mails.

Diesen Newsletter kann man hier abonnieren.

Dieser Newsletter wird auch von vielen Spenden im Rahmen der freiwilligen Leser:innenfinanzierung von netzpolitik.org ermöglicht. Mit Deiner Unterstützung können wir noch viel mehr machen.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Facebook in den USA: Die rechte Empörungsmaschine

netzpolitik.org - 27 Oktober, 2020 - 16:23

Es liest sich wie ein Who is Who rechtskonservativer US-Medien und Kommentatoren. Fox News, Daily Wire oder Breitbart belegen häufig die Spitzenplätze der beliebtesten Nachrichtenseiten im englischsprachigen Facebook-Universum, zeigen regelmäßig durchgeführte Untersuchungen.

Das ist kein Zufall. Facebook-Chef Mark Zuckerberg verstehe sich zunehmend als politischer Akteur, berichtete kürzlich das Wall Street Journal. In der politischen Situation der jüngeren Vergangenheit bedeutet das in den USA vor allem, nach rechts zu rücken.

Inzwischen soll sich Zuckerberg laut WSJ regelmäßig mit rechten Kommentatoren wie Ben Shapiro austauschen, konservative Aktivisten zum Abendessen einladen und einen direkten WhatsApp-Draht zum Trump-Berater und Schwiegersohn Jared Kushner pflegen.

Wachsende konservative Nutzerschaft

Dahinter steckt die Furcht vor Regulierung. Spätestens seit 2016 werden die Rufe danach immer lauter – ein Gräuel in den Augen vieler Unternehmen aus dem Silicon Valley, die möglichst ungestört ihrem Geschäft nachgehen wollen. Stellt es sich Facebook mit einflussreichen Politikern und deren Umfeld gut, so die Überlegung, könne das Schlimmste schon im Vorfeld unterbunden werden.

Zudem will Zuckerberg die vorgeschobenen Vorwürfe entkräften, allzu „liberal“ zu sein und konservative Stimmen zu unterdrücken, wie es unter anderem Donald Trump behauptet. Dieses Spiel beherrschen die Republikaner meisterhaft und setzen es seit Jahrzehnten gegen Medien ein, ob TV, Radio oder nun soziale Netzwerke.

Geschuldet ist das alles auch der sich wandelnden Nutzerschaft der Plattform. Zwar liegt Facebook weiterhin unangefochten an der Spitze, was Marktanteile und aktive Nutzer:innen in den USA betrifft. Statistiken zufolge nutzen über 200 Millionen Nutzer:innen die Plattform, über zwei Drittel davon besuchen den Dienst täglich.

Doch sie werden zunehmend älter und konservativer. Darauf müsse man Rücksicht nehmen, soll Zuckerberg laut WSJ seinen Mitarbeiter:innen aufgetragen haben, die gegen hetzerische, aber stehen gelassene Postings von Donald Trump protestiert hatten.

Alte Bekannte

Mittlerweile besteht ein guter Teil der Facebook-Führungsriege aus langjährigen Republikanern. Neben dem rechtslibertären Vorstandsmitglied Peter Thiel zählt Joel Kaplan zu den einflussreichsten Managern im Unternehmen. Er leitet das Lobby-Büro in Washington und ist zudem Vizepräsident für Global Public Policy bei Facebook.

Der Jurist ist gut in konservative Netzwerke eingebunden: Zuvor arbeitete er für den Ex-Präsidenten George W. Bush, dem er, gemeinsam mit illustren Gestalten wie den Trump-Vertrauten Roger Stone oder Matt Schlapp, mit fragwürdigen Methoden zum Wahlsieg verholfen hat. Als er sich bei einer Kongress-Anhörung demonstrativ hinter seinen guten Freund stellte, den nunmehrigen US-Höchstrichter Brett Kavanaugh, hat das nicht nur Facebook-intern Tumulte verursacht.

Über die Jahre ist der Einfluss Kaplans dennoch stetig gewachsen. Ihm ist es etwa zu verdanken, dass das reaktionäre Online-Medium The Daily Caller, das es mit der Wahrheit regelmäßig nicht so genau nimmt, zu Faktenchecks auf Facebook herangezogen wird.

Kaplan spielte auch eine entscheidende Rolle dabei, Projekte einzustampfen, mit denen Facebook die Qualität der Plattform verbessern wollte. „Common Ground“ etwa sollte nach den US-Wahlen 2016 den Hass auf Facebook eindämmen, das „Projekt P“ – P für Propaganda – die Flut an Desinformation. Beide Projekte soll Kaplan persönlich abgewürgt haben, weil sie „überproportional Konservative“ getroffen hätten.

Konservative Medien bevorzugt

Nun wurde ein weiterer Eingriff Kaplans bekannt, der in dieses Bild passt und erklärt, warum Facebook inzwischen als Tummelplatz für gefährliche Hetzer gilt. Auch hier sollte die Überarbeitung des News Feeds eigentlich die gesellschaftliche Polarisierung abschwächen – nur, um sie letztlich weiter zu verstärken.

Persönlicher sollte die Auswahl an Beiträgen werden, die Nutzer:innen zu Gesicht bekommen und „Menschen näher zueinander bringen“, verkündete Facebook damals. Postings von Freunden und Familien sollten Priorität haben, Nachrichtenseiten wurden herabgestuft. Schlimm genug: Für Medien, die ihr Geschäftsmodell auf Facebook-Klicks ausgerichtet hatten, war das eine überraschende wie desaströse Entscheidung.

Wie das WSJ jüngst enthüllte, ging Facebook dabei aber vor allem gegen progressive Medien vor, während rechte Postillen vergleichsweise verschont blieben. Zunächst soll in einer ersten Version der veränderte Algorithmus Websites wie das von Ben Shapiro gegründete Daily Wire am stärksten getroffen haben, ein für das Verbreiten von hetzerischer Desinformation bekanntes Medium.

Nach einer Intervention des Policy Teams von Facebook folgte ein neu gewichteter Algorithmus. Wie bestellt traf er linksgerichtete, aber seriöse Medien wie Mother Jones stärker als konservative – und das mehr als ursprünglich geplant, sagten anonyme Quellen dem WSJ. Zuckerberg soll den Plan persönlich abgesegnet haben. Rund eine halbe Million US-Dollar Umsatzverlust habe die Änderung verursacht, sagt die Chefredakteurin von Mother Jones, Clara Jeffery.

Konservatives Nachrichtenökosystem

Eine aktuelle Studie US-amerikanischer Forscher bestätigt den Eindruck, Facebook habe eine rechte, sich selbst verstärkende Empörungsmaschine erschaffen. Im Unterschied zu anderen sozialen Medien wie Reddit sorge die Struktur der Plattform dafür, dass konservative Nutzer:innen im rechten Ökosystem bleiben, selbst wenn sie bei externen Quellen landen – die oft genug Fox News, Daily Caller oder Breitbart heißen.

„In Monaten, in denen typische Konservative Facebook öfter besucht haben als sonst, haben sie Nachrichten konsumiert, die rund 30 Prozent konservativer waren als jene, die sie sonst gelesen haben“, fasst die Washington Post die Studie zusammen.

Jüngere Bemühungen Facebooks, dem sichtbaren Rechtsruck etwas entgegenzusetzen, wirken bloß halbherzig. Ein interner Audit stellte zwar die richtigen Fragen, hinterließ Bürgerrechtler jedoch ratlos zurück. Inzwischen gelöschte QAnon-Gruppen formieren sich unter neuen Namen neu – und erfreuen sich Zustimmung von höchster Stelle im US-Politsystem, die kaum abreißen wird.

Facebook muss sich endlich der Frage stellen, warum es sich auf womöglich gewalttätige Auseinandersetzung nach der US-Wahl vorbereiten muss, wie jüngst durchgesickert ist. Und welche Rolle das Unternehmen dabei gespielt hat, dass es so weit gekommen ist.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Missbrauch auf Porno-Plattformen: xHamster lässt Freiwillige mutmaßlich illegale Fotos moderieren

netzpolitik.org - 27 Oktober, 2020 - 10:12

Die Porno-Webseite xHamster, eine der meistbesuchten Seiten im Internet, verlässt sich bei der Moderation von mutmaßlich illegalen Bildern auf ein Team von freiwilligen Nutzer:innen. Das zeigen verdeckte Recherchen von Vice, für die sich Journalist:innen in das Moderationsteam der Plattform eingeschleust haben.

Die freiwilligen Löscharbeiter:innen sollen etwa überprüfen, ob die auf Fotos gezeigten Frauen unter 18 Jahre alt sind. Dabei sollen sie sich laut Anweisungen der Plattform allein auf den Augenschein verlassen. Solche Bilder von Minderjährigen könnten in Deutschland dem Gesetz zur Verbreitung von Jugendpornografie zufolge strafbar sein. Die Fotos sollen jedoch nur dann zur Löschung markiert werden, wenn sich die Freiwilligen in ihrem Urteil absolut sicher sind. Strittige Fälle bleiben online.

Auch Aufnahmen, die von Voyeuren mutmaßlich gegen den Willen der gezeigten Personen verbreitet wurden, sollen von Moderator:innen nicht gelöscht werden.

Anonym und unqualifiziert

Die Arbeit erledigen die Freiwilligen anonym mit ihren privaten Accounts. Sie müssen dazu keinerlei Qualifikation vorweisen und werden auch nicht geschult. xHamster überprüft nicht ihre Identität. Die eingeschleusten Journalist:innen wurden lediglich aufgefordert, selbst mehr pornografisches Material auf die Plattform hochzuladen, bevor sie in das Moderationsteam befördert wurden.

Inhaltlich wird die Gruppe von einer xHamster-Mitarbeiterin betreut, die jedoch teils tagelang nicht auf Nachfragen reagierte. Die Bilder, die die Freiwilligen überprüfen, sind bereits auf der Plattform veröffentlicht. Gelöscht werden Bilder erst, wenn mehrere Löscharbeiter:innen ein Urteil abgegeben haben.

Einige der Freiwilligen sagten, ihre Motivation sei ihre eigene Porno-Sucht und sie erhofften sich von der Arbeit mehr Privilegien auf der Plattform. Andere gaben in ihren Profilen an, selbst mit voyeuristischem Material zu handeln.

Was ist echtes, was gespieltes Weinen?

xHamster tauchte in der Vergangenheit wiederholt in Skandalen um digitale sexualisierte Gewalt und Voyeurismus auf. Im Sommer 2019 zirkulierten Aufnahmen auf der Plattform, die mit versteckten Kameras auf einem Musikfestival gemacht wurden und Frauen beim Duschen und auf der Toilette zeigten. Solche Aufnahmen sind in Deutschland strafbar, doch die Moderator:innen werden von xHamster nicht angewiesen, sie zu löschen. Im Handbuch wird das Thema gar nicht erwähnt.

Im Fall von möglichen Vergewaltigungen werden die Moderator:innen dazu aufgefordert, „echtes“ und gespieltes Weinen voneinander zu unterscheiden, wenn sie die Fotos überprüfen.

Pornoplattformen wie xHamster werden auch häufig für so genannte Rache-Pornografie missbraucht, bei der Fotos von Frauen, häufig Ex-Partnerinnen, ohne deren Einverständnis veröffentlicht werden.

Notice and Takedown kommt zu spät

xHamster verweist darauf, dass sich in solchen Fällen nicht feststellen lasse, ob die Aufnahmen fiktional oder echt seien. Uploader könnten die Szenarien schließlich mit der Einwilligung der Gezeigten nachstellen. Nur in Fällen von Urheberrechtsverletzungen könne man die Nutzer kontaktieren und um einen Nachweis bitten, sagt eine Administratorin auf Nachfrage der verdeckten Journalistin.

Für Moderator:innen bleibt in solchen Fällen somit nur die Möglichkeit, ein Foto in der Kategorie „Sonstiges“ zu markieren und die Bedenken zu nennen. Eine Löschung kann laut xHamster nur die abgebildete Person selbst erwirken.

An sich sollte dieses „Notice and Takedown“ genannte Prinzip Nutzer:innen wie Online-Dienste schützen: Eine Plattform muss nicht alles prüfen, aber handeln, sobald sie von einem Rechtsverstoß erfährt. Auf so genannten Sozialen Medien sichert dieses Prinzip die Meinungsfreiheit. Im Fall von Porno-Plattformen offenbart es aber eine Schwachstelle, denn hier können Nutzer:innen anonym Nacktbilder verbreiten ohne nachweisen zu müssen, dass die gezeigten Personen einverstanden sind. Wenn Bilder von Vergewaltigungen oder intime Fotos der Ex-Partnerin verbreitet werden, dann ist der Schaden für die Betroffenen ungleich höher als im Fall etwa einer Urheberrechtsverletzung.

Betroffene fordern schärfere Regeln

Eine Initiative von Betroffenen von digitaler Gewalt setzt sich derzeit mit einer Petition an das Bundesjustizministerium dafür ein, die Gesetzeslage in Deutschland zu verschärfen: Für Porno-Plattformen sollen ähnliche Regeln gelten wie heute schon für die Netzgiganten mit mehr als 2 Millionen Nutzer:innen, die unter das Netzwerkdurchsetzungsgesetz fallen. Unter anderem sollen sie als missbräuchlich gemeldete Inhalte binnen von 24 Stunden prüfen und löschen müssen. Auch sollen Plattformen wie xHamster dazu verpflichtet werden, Fotos und Videos vor der Veröffentlichung zu prüfen und so zu verhindern, dass gelöschtes Material immer wieder neu hochgeladen wird.

Ob Uploadfilter und schnelle Löschfristen, die grob einer Kombination aus NetzDG und der derzeit verhandelten EU-Verordnung gegen Terrorinhalte entsprechen, der richtige Ansatz sind, muss sich noch in der weiteren Debatte ergeben. Jedoch steigt der Druck auf die Politik, die weitgehende Schutzlosigkeit von Betroffenen zumindest einzudämmen.

Das Justizministerium spricht sich gegenüber Vice für „effektive Sorgfaltsanforderungen“ im Umgang mit strafbaren Inhalten aus, damit sich Plattformbetreiber nicht durch ein „bewusstes Wegschauen“ der Verantwortung für illegale Inhalte entziehen können. Die bestehende und geplante Regulierung geht aber nicht konkret auf die Probleme mit Porno-Plattformen ein.

Der Europaabgeordnete und SPD-Politiker Tiemo Wölken verweist auf den „Digital Services Act“. Das geplante Gesetzespaket der EU soll Plattformen beim Umgang mit nutzergenerierten Inhalten klare Regeln geben, unter anderem sollen sie sich besser mit Behörden und Gerichten austauschen, so Wölken. Dass dies mit einer Meldepflicht umgesetzt wird, sei laut Wölken denkbar, liege aber letztlich im Ermessen der EU-Kommission.

Strengere Regeln fordert auch der Missbrauchsbeauftragte der Bundesregierung, Johannes-Wilhelm Rörig. Auf Anfrage von Vice sagte er, bisher stünden die Chancen, mit Missbrauchsabbildungen ungestraft davon zu kommen, viel zu gut. „Wir brauchen in Deutschland eine gesetzliche Verpflichtung für Internet-Provider, Missbrauchsabbildungen im Netz melden zu müssen“. Rörig fordert auch „die Pflicht der Anbieter zur (möglichst automatisierten) Suche nach Missbrauchsinhalten“ auf ihren Plattformen.

Allerdings ist es auch Algorithmen kaum möglich, in Grenzfällen das Gesicht einer minderjährigen Person von einer volljährigen zu unterscheiden. Wölken meint daher, dass Löschanordnungen nicht durch Algorithmen alleine durchgeführt werden dürfen, sondern „die finale Entscheidung in jedem Fall von einem Menschen getroffen werden“ soll.

Die Netzpolitikerin Anke Domscheit-Berg von der Linken im Bundestag macht den Vorschlag, in Grenzfällen von einem illegalen Inhalt auszugehen und das Material erst mal zu sperren bis der Altersnachweis der abgebildeten Person erbracht wird. Bis die Umsetzung eines solchen Verfahrens unter Wahrung des Datenschutzes und der Anonymität durchdacht ist, solle die Bundesregierung das „Ausmaß dieser missbräuchlichen und strafrechtlich relevanten Nutzung“ wissenschaftlich untersuchen lassen, sagte sie Vice. Diese habe bislang keine Zahlen, die das Ausmaß des Problems digitaler Gewalt erfassen.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Medienmäzen Google: Milliarden von den neuen Medici

netzpolitik.org - 27 Oktober, 2020 - 08:00

Vor gut 20 Jahren, als Google noch ein Startup war, sprachen einige im Silicon Valley vom Tod der klassischen Nachrichtenorganisationen. „Werden Blogs die alten Medien umbringen?“, fragte das Magazin Newsweek. Das Internet werde bald die Zeitungen auf dem Gewissen haben, unkten auch manche Journalist:innen.

Der angesagte Tod der klassischen Medien ist nicht ganz eingetreten. Im Gegenteil, es ist ausgerechnet die Technologiebranche, die sich heute um traditionsreiche Medienmarken reißt. Milliarden an Dollar aus dem Silicon Valley fließen in Zeitungsübernahmen, Medienstiftungen und direktes Sponsoring.

Die folgende Analyse dieser Geldflüsse ist Teil einer Studie, die die Autoren diese Woche bei der Otto-Brenner-Stiftung veröffentlicht haben. In „Medienmäzen Google. Wie der Datenkonzern den Journalismus umgarnt“ wird das komplexe Beziehungsgeflecht zwischen Google und den Medien entworren. Dieser Text zeigt, dass das längst nicht das einzige Beispiel für ein gesteigertes Interesse der Tech-Branche an den alten Medien ist.

Gedruckte Prestigeobjekte

Das prominentestes Beispiel für die erste Kategorie, also klassische Übernahmen aus der Tech-Branche, liefert Jeff Bezos. Der Amazon-Gründer und reichste Mensch der Welt kaufte 2013 mit 250 Millionen Dollar aus seinem Privatvermögen die Washington Post. Bezos sanierte das finanziell angeschlagene Blatt, allerdings gibt es seither immer wieder Fragen über die Unabhängigkeit des Blattes, über den eigenen Eigentümer und sein Imperium kritisch zu berichten.

Auf Bezos‘ Spuren folgte Jack Ma. Der Gründer des chinesischen Amazon-Rivalen Alibaba verleibte sich die renommierteste Zeitung Hongkongs ein, die englischsprachige South China Morning Post. In einem Interview mit seinem eigenen Blatt kritisierte Ma, der enge Kontakte mit der chinesischen Führung unterhält, die „einseitige“ Berichterstattung über China in der westlichen Presse.

Die South China Morning Post berichtet inzwischen freundlicher über die chinesische Regierung, bemerken Kritiker:innen. Diese Tendenz dürfte sich durch das neue Sicherheitsgesetz der chinesischen Regierung für Hongkong weiter verstärken.

Die Liste lässt sich fortsetzen. Der Biotechnologie-Milliardär Patrick Soon-Shiong erwarb für 500 Millionen Dollar das Verlagshaus der L. A. Times. Salesforce-Gründer Marc Benioff und seine Frau Lynne sind seit 2018 Eigentümer von Time. In Deutschland erwarben Silke und Holger Friedrich im Vorjahr aus Erlösen ihrer Softwarefirmen den Berliner Verlag, der die Berliner Zeitung herausgibt.

Zuweilen gehen solche Prestigekäufe auch in die Hose. 2012 erwarb Facebook-Mitgründer Chris Hughes das altehrwürdige Magazin The New Republic, nach eher glücklosen Bemühungen verkaufte er es aber einige Jahre später wieder. Tesla-Gründer Elon Musk investierte Millionen in ein neugegründetes Satireprojekt namens Thud, dem er nach einem Jahr schlagartig die Unterstützung strich.

Unter Stiftern

Prominente Figuren der Technologieszene kaufen aber nicht bloß einzelne Zeitungen, über ihre Stiftungen lassen die dem Journalismus auch hunderte Millionen Dollar an Förderung zukommen. Ein Beispiel liefert Pierre Omidyar. Der Mitgründer von eBay kündigte 2013 eine 250-Millionen-Spende für den Non-Profit-Journalismus an. Mit dem Geld von Omidyar gründeten die NSA-Aufdecker:innen Laura Poitras und Glenn Greenwald The Intercept, ein Online-Medium, dass sich Themen wie staatlicher Überwachung widmet.

Doch bei The Intercept häuften sich bald Beschwerden über Missmanagement und Geldverschwendung, spätere Gründungen scheiterten nach kurzer Zeit oder schafften es nicht mal an die Startlinie. Heftige Kritik an The Intercept setzte es auch, als die Seite bei der Enthüllung geheimer NSA-Dokumente Fehler machte und darum die Whistleblowerin Reality Winner im Gefängnis landete. Ein großer Teil des Geldes, das Omidyar versprochen hat, lässt überdies weiterhin auf sich warten, berichtete zuletzt die Columbia Journalism Review.

Ebenfalls von Problemen geplagt war das Flaggschiff-Projekt von Craig Newmark, dem Gründer der US-Kleinanzeigenbörse Craigslist. Mit seiner Stiftung sponserte Newmark die Gründung von The Markup. Das neue Non-Profit-Medium ist datenjournalistischen Untersuchungen über die Auswirkungen von Technologie auf unsere Gesellschaft gewidmet. (Ironischerweise nehmen sich die 20 Millionen Dollar, die Newmark dafür ausgab, vergleichsweise gering aus gegenüber den geschätzten fünf Milliarden Dollar, die Craigslist den US-Lokalzeitungen im Verlauf weniger Jahre an entgangenen Einnahmen kostete.)

The Markup gründete sich im Sommer 2018, konnte allerdings erst mit erheblicher Verspätung zu Beginn diesen Jahres starten. Grund für die Verzögerung war ein sehr öffentlich ausgetragener Streit zwischen Chefredakteurin Julia Angwin und Geschäftsführerin Sue Gardner. Der Konflikt konnte erst beigelegt werden, als Newmark Gardner die Unterstützung entzog und sie aus dem Projekt ausstieg.

Als Pionier der Medienförderung durch die Tech-Branche kann die Bill-und-Melinda-Gates-Stiftung gelten, die sich vor allem Gesundheits- und Entwicklungsthemen widmet. Aus der durch Microsofts Profiten gespeisten Stiftung flossen seit 2002 rund 63,5 Millionen Dollar aus 75 Förderprojekten für journalistische Zwecke, das Geld finanzierte etwa über ein Jahrzehnt lang die Berichterstattung des Guardian über globale Entwicklung.

So verdienstvoll vieles der journalistischen Arbeit mit Gates-Geld auch sei, so sei doch auffällig, wie sehr sich die geförderten journalistischen Beiträge mit den Prioritäten der Stiftung deckten, kritisierte Robert Fortner in der Columbia Journalism Review. Mehr noch, die nicht unumstrittene Arbeit der Stiftung selbst werde für die Medien, die daraus finanziert werden, wohl vielfach zum blinden Fleck.

Geldsegen von Google und Facebook

Einen gänzlich eigenen Weg eingeschlagen haben die Datenkonzerne Google und Facebook. Ihre Marktmacht bei digitaler Werbung erschwert es traditionellen Nachrichtenmedien, sich wie bei gedruckten Medien vor allem aus Anzeigen zu finanzieren. Angesichts wachsenden politischen Drucks haben die beiden Konzerne die letzten Jahre viele Millionen in Direktzahlungen an journalistische Medien gepumpt.

Google richtete zuerst 2013 in Frankreich einen 60-Millionen-Euro-Fonds für Innovationsprojekte von Presseverlagen ein, zwei Jahre später folgte ein ähnlicher Fonds mit 150 Millionen Euro für ganz Europa. Seit 2019 finanziert die Google News Initiative weltweit Innovationsprojekte, aber auch Fellowships und Trainings für Journalisten sowie Kongresse und Konferenzen. Dieses mal mit einem Budget von 300 Millionen Dollar. (Mehr dazu hier und im Volltext der Studie.)

Facebook folgte dem Beispiel Googles. Im Januar 2019 versprach der Konzern 300 Million Dollar an Unterstützung vor allem für den Lokaljournalismus. Erste Großspenden gingen an Non-Profit-Organisationen wie das Pulitzer Center und in Deutschland an die Hamburg Media School. Der Konzern antwortet damit auf erhebliche Kritik aus Journalismuskreisen.

Die Initiative von Facebook gliedert sich in finanzielle Zuwendungen an Medienunternehmen, Schulungen für Redaktionen und Partnerschaften für Fact-Checking. Die auf der Webseite des Facebook Journalism Project aufgelisteten „Erfolgsgeschichten“ zeigen Anhand von Beispielen, wie Nachrichtenseiten etwa auf der Facebook-Plattform Instagram ein jüngeres Publikum erreichen können.

Stärker als bei der Nachrichteninitiative Googles zielt Facebooks Journalismusprojekt offenkundig darauf ab, Nachrichteninhalte in die eigenen Produkte zu integrieren. Einen weiteren Schritt in diese Richtung machte der Konzern im Herbst 2019 mit der Ankündigung eines neuen „News“-Tabs bei Facebook, der Nutzer:innen ausgewählte Nachrichten präsentiert. Einzelne Verlage sollen für ihre Inhalte entlohnt werden, auch in Deutschland.

Das erinnert an frühere Vorstöße Facebooks. Bereits vor einigen Jahren bezahlte der Konzern ausgewählte Nachrichtenmedien für Live-Videos, die über das soziale Netzwerk veröffentlicht wurden. Das war zu einer Zeit, als Facebook Medien mit fragwürdigen Zugriffszahlen zur Produktion von Videoinhalten drängte. Facebook stellte sein Programm, für Live-Videos zu zahlen, allerdings bald wieder ein. Die Verlage schäumten.

Mäzene und ihre Mätzchen

Die Beispiele zeigen, dass die Milliarden aus der Technologiebranche im Journalismus einiges bewegt haben. Einen stabilen Partner haben die Nachrichtenmedien allerdings nicht gefunden, denn ob es sich um Prestigekäufe, Stiftungsförderung oder direkte Zuwendung aus dem Konzernbudget handelt, wird das Geld oft allzu willkürlich verteilt und der Geldhahn auch wieder zugedreht.

Sorgen machen sollten sich die Medienmanager:innen und Journalist:innen, die sich über den Geldsegen aus der Technologiebranche freuen, auch wegen voraussehbaren Unvereinbarkeiten in dieser Allianz. Ob es nun um Wahlmanipulation und Überwachung unter Beihilfe der Datenkonzerne geht, um Cambridge Analytica oder den NSA-Skandal, oder ob wir vom monopolistischen Verhalten der Konzerne sprechen, über Kartellverfahren, oder gar die Arbeitsbedingungen in den Klickfarmen von Facebook und den Warenlagern von Amazon – die Technologiebranche ist heute Gegenstand der Berichterstattung von Nachrichtenmedien. Und wer beißt schon gerne die Hand die einen füttert?

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Edit Policy: Bundesregierung will Pflicht von Uploadfiltern in Terrorverordnung

netzpolitik.org - 27 Oktober, 2020 - 07:00

Julia Reda saß von 2014 bis 2019 für die Piraten im Europäischen Parlament und verantwortet heute bei der Gesellschaft für Freiheitsrechte das Projekt „control c“ zu Urheberrecht und Kommunikationsfreiheit. Dieser Beitrag erschien zuerst in ihrer Kolumne auf heise.de und wurde dort unter der Lizenz CC BY 4.0 veröffentlicht.

In Deutschland arbeitet die Bundesregierung derzeit an der Umsetzung der Urheberrechtsreform, mit dem erklärten Ziel, Uploadfilter „so weit wie möglich zu vermeiden“. An der Ernsthaftigkeit dieses Ziels lässt bereits der jüngste Referentenentwurf Zweifel aufkommen, in dem die Pflichten zum Einsatz von Uploadfiltern deutlich verschärft werden. Vollständig unglaubwürdig wird die offizielle Positionierung gegen Uploadfilter aber beim Blick nach Brüssel.

Denn auch in der EU treibt die Bundesregierung den verpflichtenden Einsatz von Uploadfiltern voran. Deutschland hat bis Ende des Jahres die EU-Ratspräsidentschaft inne und vertritt in dieser Funktion die nationalen Regierungen in Verhandlungen mit dem Europaparlament zu aktuellen Gesetzgebungsverfahren. Am kommenden Donnerstag findet die nächste Verhandlungsrunde zur Terrorismus-Verordnung statt, einer Gesetzesinitiative, mit der die Europäische Kommission Behörden in die Lage versetzen will, auch kleine Plattformen zum Einsatz von Uploadfiltern zu zwingen.

Streit um Terrorfilter zwischen Parlament und Rat

Das Parlament ist in dieser Sache bislang hart geblieben: Durch die massiven Proteste gegen die Verabschiedung der Urheberrechtsreform sind vielen Abgeordneten die Gefahren von Uploadfiltern wohl bekannt. Immer wieder kommt es auch bei der freiwilligen Sperrung mutmaßlich terroristischer Inhalte zu Kollateralschäden. Besonders journalistische Berichte über Terrorismus oder Dokumentationen von Menschenrechtsverletzungen durch zivilgesellschaftliche Organisationen wie das Syrian Archive sind regelmäßig von falschen Sperrungen betroffen. Die Parlamentsposition zur Terrorverordnung, die kurz nach der Urheberrechtsreform verabschiedet wurde, schließt verpflichtende Uploadfilter deshalb explizit aus.

Ausgerechnet aus Deutschland, dem Land, wo die Proteste gegen Uploadfilter am größten waren, kommt nun der Vorstoß, Filterpflichten in der Terrorverordnung zu verankern. Für die Verhandlung am 29. Oktober hat die deutsche Ratspräsidentschaft einen „Kompromissvorschlag“ erarbeitet, der diesen Namen nicht verdient.

Nach diesem Vorschlag sollen Plattformen, die von Behörden zu Maßnahmen gegen terroristische Inhalte aufgefordert werden, verpflichtet sein, gegen diese vorzugehen. Diese Pflicht gilt anders als bei der Urheberrechtsreform nicht nur für profitorientierte Unternehmen, sondern auch für nichtkommerzielle Plattformen. In einem ersten Schritt sollen die Plattformen selbst entscheiden können, welche Maßnahmen sie gegen terroristische Inhalte ergreifen. Wenn der Behörde diese Maßnahmen aber als nicht ausreichend erscheinen, kann diese den Einsatz von Uploadfiltern vorschreiben.

Bundesregierung auf Law and Order-Kurs

Sollte das Europaparlament dem Vorschlag der deutschen Ratspräsidentschaft am Donnerstag zustimmen, käme das einer Kapitulation gleich. Anders als im Europaparlament waren die Terrorfilter im Ministerrat von Anfang an mehrheitsfähig. Doch auch die Bundesregierung könnte in Erklärungsnot geraten, wenn ihre aktive Rolle bei der Verhandlung der Terrorverordnung mehr öffentliche Aufmerksamkeit bekommt.

Bereits bei der Urheberrechtsreform lautete die offizielle Linie der Bundesregierung [PDF], man lehne Uploadfilter eigentlich ab, werde sie aber ausnahmsweise mittragen, um das Verhandlungsergebnis insgesamt nicht zu gefährden. Bei der Terrorverordnung führt Deutschland nun aber selbst die Verhandlungen und hat deshalb alle Mittel zur Verfügung, die Filterpflicht abzuwenden.

Wenn das nicht passiert, ist klar, dass genau diese grundrechtsfeindliche Politik gewollt ist. Die Angriffe der Bundesregierung auf digitale Freiheitsrechte häufen sich dieser Tage. Die Hoffnungen waren groß, dass mit der Wahl der Netzpolitikerin Saskia Esken zum SPD-Vorsitz die Sicherheits-Hardliner in der SPD in ihre Schranken gewiesen würden. Doch auch Esken hat ihren Widerstand gegen Staatstrojaner für die Verfassungsschutzämter inzwischen aufgegeben, mit Verweis auf den Koalitionsvertrag. Das ist derselbe Koalitionsvertrag, in dem sich SPD und Union auch darauf geeinigt hatten, Uploadfilter als unverhältnismäßig abzulehnen. Offensichtlich fühlt sich die Bundesregierung nur dann an diese Vereinbarungen gebunden, wenn es zulasten der Freiheit geht.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

bits: Google-Förderung ist eine Frage der Unabhängigkeit

netzpolitik.org - 26 Oktober, 2020 - 18:01

Hallo,

seit Jahren verteilt Google im Rahmen seiner Google News Initiative Millionen Euro an Förderung an journalistische Medien. Wir hatten uns das schon vor zwei Jahren umfangreich in einer ersten Recherche angeschaut. Unsere Redakteure Ingo Dachwitz und Alexander Fanta haben sich die Initiative die letzten Monate für eine Studie im Auftrag der gewerkschaftsnahen Otto Brenner Stiftung und des DGBs nochmal genauer angeschaut.

Heute ist die Studie „Medienmäzen Google“ offiziell erschienen und steht kostenlos zum Download bereit. In einem ersten Beitrag auf netzpolitik.org gibt es einen Überblick: Wie der Datenkonzern den Journalismus umgarnt. Weitere Beiträge werden im Laufe der nächsten Tage erscheinen.

Die Google News Initiative wirft Fragen nach einer unabhängigen Berichterstattung auf. Wie neutral können noch Redaktionen über Google berichten, wenn das eigene Medium über diese medial-politische Landschaftspflege mit dem Konzern verbunden ist?

Die gute Nachricht ist, dass es keine Belege für Interventionen von Google in die direkte Berichterstattung gibt. Allerdings, und hier kommen wir zu der schlechten Nachricht, äußerten mehrere befragte Journalist:innen die Sorge, dass diese Förderungen zu „Beißhemmungen“ und „Selbstzensur“ führen könnten.

Und vor allem fehlt eine genaue Transparenz darüber, wer wie viel Geld erhalten hat. Google selbst nennt nur finanzielle Korridore. Genaue Zahlen könnten die Verlage nennen, wollen sie aber nicht. Das führt leider zu einer intransparenten Transparenz.

Wir haben uns als Medium bewusst dagegen entschieden, dort ebenfalls Gelder zu beantragen, weil wir in unserer Meinung und Berichterstattung unabhängig bleiben wollen. Das ist natürlich für uns ein Nachteil, wenn eine Vielzahl an Medien sich den Vorteil holen, wichtige Infrastruktur-Investitionen eben über diese Förderung zu finanzieren. Und wir uns diese Investitionen nicht leisten können.

Aber dafür verfügen wir über zahlreiche Leser:innen, die uns freiwillig mit einer Spende oder einem Dauerauftrag finanzieren. Was uns sehr freut und eben diese Unabhängigkeit von großen Konzernen ermöglicht.

Neues auf netzpolitik.org

Andre Meister hat einen Gesetzentwurf des Bundesjustizministeriums analysiert, der automatisierte Kennzeichenlesesysteme regeln soll: Justizministerin Lambrecht will Auto-Rasterfahndung ausweiten.

Polizei und Ermittlungsbehörden sollen künftig in ganz Deutschland Kfz-Kennzeichen scannen und mit Fahndungslisten abgleichen dürfen. Das geht aus einem Gesetzentwurf des Bundesjustizministeriums hervor. Dafür könnten auch bereits existierende Anlagen, die ursprünglich für Tempolimits oder Diesel-Fahrverbote aufgestellt wurden, genutzt werden.

===

Leonhard Dobusch berichtet über Pläne des größten Wissenschaftsverlag der Welt, Elsevier, mit Spyware gegen sogenannte Schattenbibliotheken vorgehen zu wollen: Kein Open-Access-Deal, dafür mit Spyware gegen Schattenbibliotheken?

Knapp 200 Hochschulen und Forschungsinstitute in Deutschland haben derzeit keinen Zugang zu Zeitschriften des größten Wissenschaftsverlags Elsevier. Statt über einen Umstieg auf Open Access zu verhandeln, bekämpft Elsevier jedoch lieber Schattenbibliotheken, die Forschenden den vertragslosen Zustand erträglicher machen.

===

In einem Gastbeitrag erklären Klemens Witte und Nils Hungerland, warum „Künstliche Intelligenz“ nicht per se die Klimakrise lösen kann: Künstliche Intelligenz allein reicht nicht.

Künstliche Intelligenz bietet neue Möglichkeiten, dem Klimawandel zu begegnen, doch Technologie ist kein Selbstzweck. Was wir damit erreichen, haben wir selbst in der Hand.

===

In einem anderen Gastbeitrag beschreiben Elisabeth Giesemann und Nikolas Becker, was uns nach einem Präsidentenwechsel in den USA erwarten könnte: Biden-Harris – Worauf darf die Netzpolitik hoffen?

Wie in Europa hat sich in den USA die netzpolitische Debatte in den letzten Jahren deutlich verändert. Doch was würde ein möglicher US-Präsident Joe Biden für die Meinungsfreiheit im Internet, für Datenschutz und Netzneutralität bedeuten? Eine Analyse.

===

Die vergangene Woche gab es keinen bits-Newsletter. Das waren die relevantesten Texte auf netzpolitik.org:

Tomas Rudl ordnete das US-Kartellverfahren gegen Google ein: Warum das Google-Problem nicht leicht zu lösen ist.

Die Kartellklage des US-Justizministeriums gegen Google erregt weltweites Aufsehen. Erfahrungen aus Europa zeigen jedoch, dass es mehr braucht als Geldstrafen, um die Dominanz großer Tech-Unternehmen einzuschränken.

===

Alle Geheimdienste sollen Staatstrojaner erhalten. Diese Nachricht kam parallel zu einer Pressekonferenz, auf der Innenminister Horst Seehofer den aktuellen Stand zur IT-Sicherheit in Deutschland vorstellte. Staatstrojaner funktionieren nur mit Sicherheitslücken – wenn diese ausgenutzt werden, bleiben alle Systeme unsicher. Ein Bärendienst für die IT-Sicherheit. Andre Meister hat Details: Bundesregierung beschließt Staatstrojaner für alle Geheimdienste.

Alle 19 Geheimdienste von Bund und Ländern dürfen demnächst heimlich Geräte hacken. Die Bundesregierung hat einen entsprechenden Gesetzentwurf beschlossen. Lange hatte die SPD Bauchschmerzen, jetzt ist sie umgekippt. Auch die Vorsitzende Saskia Esken war dagegen, jetzt trägt sie den Kompromiss mit.

===

Einige Landesmedienanstalten wollen mit Netzsperren gegen unkooperative Pornoseiten-Betreiber vorgehen. Marie Bröckling hat sich die Pläne und grundrechtsfreundlichere Alternativen angeschaut: Was besser wäre, als Pornoseiten zu sperren.

Drei der beliebtesten Porno-Portale in Deutschland stehen kurz vor einer Netzsperre. Wer in Zukunft noch Pornos im Internet gucken will, muss sich wohl erst mit dem Ausweis registrieren. Doch Medienpädagoginnen zweifeln am Sinn solcher staatlicher Kontrollen und schlagen Alternativen vor.

===

Vor drei Jahren erschütterte der Cambridge Analytica-Skandal Facebook und die digitale Welt. Jetzt gibt es einen Abschlussbericht der UK-Datenschutzbehörde, der von vielen Medien genutzt wird, den Skandal runterzuspielen. Ingo Dachwitz hat ihn zusammengefasst und kommt zu einem anderen Urteil: Nein, der Cambridge-Analytica-Skandal fällt nicht in sich zusammen.

Die britische Datenschutzbehörde ICO hat ihre Ermittlungen im Fall Cambridge Analytica abgeschlossen. Einige Medien erklären den Skandal nun für aufgeblasen und beendet. Auch wenn die Kritik einen wahren Kern hat: Der Fall bleibt eine der wichtigsten Enthüllungsgeschichten des Jahrzehnts. Eine Bilanz.

Kurze Pausenmusik:

Dieser Newsletter wird, neben viel Herzblut, durch Spenden unserer Leser:innen ermöglicht. Hier kann man uns mit einem Dauerauftrag oder Spende unterstützen.

Wir freuen uns auch über etwas Werbung für den bits-Newsletter, um mehr Mitlesende zu bekommen. Hier geht es zur Anmeldung.

Feedback und sachdienliche Hinweise bitte an markus@netzpolitik.org schicken.

Die Erstellung dieser Ausgabe wurde freundlicherweise von Thomas Rudl unterstützt.

Was sonst noch passierte:

Die Diskussion um eine EU-Verordnung gegen Terrorpropaganda geht in die entscheidenen letzten Verhandlungen. Anna Mazgal von Wikimedia Deutschland beschreibt die damit verbundenen gefährlichen Auswirkungen auf die digitale Welt: Terrorist clicks? EU officials continue to push for drastic measures to moderate online communications under the anti-terrorist banner.

===

Unsere Ex-Praktikantin Julia Barthel engagiert sich im Rahmen der Code for Germany Initiative der Open Knowledge Foundation Deutschland (OKF). Die Plattform „Jung, digital, engagiert“ hat sie zu ihrem Engagement interviewt: Engagiert für Code for Germany – Im Gespräch mit Julia.

===

Unter Corona-Skeptiker:innen wird derzeit gerne auf die “Great Barrington declaration” verwiesen, die sich einen wissenschaftlichen Anstrich zu geben versucht – und sich für Herden-Immunität ausspricht. In zahlreichen Kommentaren und Leserbriefen wurden wir darauf aufmerksam gemacht, dass „die Medien“ darüber nicht berichten würden. Ein kurzer Blick in die Suchmaschine der Wahl zeigt, das das nicht stimmt, aber das passt dann nicht in das jeweilige kleine Weltbild. Der Guardian hat sich die Initiative, die Macher:innen und die Finanziers mal genauer angeschaut: The pursuit of herd immunity is a folly – so who’s funding this bad science? Die Antwort kann man neben den üblichen Klimakrisen-Leugner:innen einsortieren.

===

In der FAZ gab es ein lesenswertes Interview mit der ehemaligen CTO von Barcelona, Francesca Bria, über kommunale Strategien der digitalen Souveränität: Holt Euch Eure Daten zurück!

===

Das WDR-Politikmagazin Monitor berichtete über die Pläne der Bundesregierung, mit der Reform des BND-Gesetzes die Massenüberwachung weiter auszubauen und mit der am wenigsten sinnvollen demokratischen Kontrolle auszustatten: Neues BND-Gesetz: Freibrief zur Überwachung?

===

Für Vice-Motherboard hat Joseph Cox über einen langen Zeitraum der kanadischen Firma Phantom Secure hinterher recherchiert, die mit verschlüsselten Smartphones zahlreiche Kriminelle ausgestattet hat: The Network: How a Secretive Phone Company Helped the Crime World Go Dark.

===

Wer sind die Top-Spender der digitalen Tech-Konzerne im US-Wahlkampf und welchen Kandidaten unterstützen sie? Protocol hat das recherchiert und fand heraus, dass fast alle Joe Biden unter die Arme greifen. Das ist keine Überraschung, aber jetzt dokumentiert: Here are the top political donors from Amazon, Apple, Facebook, Google and Microsoft. Only one is backing Trump.

===

Wir stehen in Deutschland wegen der massiv steigenden Corona-Infektionszahlen vor den nächsten Ausgangsbeschränkungen. Viele Eltern haben panisch noch die letzten langen Schulausfälle vor Augen. Seitdem ist leider wenig passiert, unsere Schulen und die Eltern auf die zweite Welle vorzubereiten, die eben schon durch die Tür getreten ist. Bei den Riff-Reportern schreibt Jan-Martin Wiarda über „Sechs Dinge, die die Kultusminister jetzt für Schulen beschließen müssten“.

Audio des Tages: „Pink Resistance“

Der Zündfunk Generator auf Bayern2 blickt auf die Ära von Donald Trump zurück und wie dieser den Mainstream Pop politisierte.

Video des Tages: Gemeinnütziger Journalismus

Im Rahmen des kürzlich stattgefundenen #rpcampus habe ich mit Stefanie Reuter von der Augstein-Stiftung und Christian Schwägerl von den Riffreportern über „Gemeinnützigkeit als Chance – Perspektiven für den Journalismus in Deutschland“ diskutiert und Einblicke in die Arbeit von Non-Profits gegeben. Davon gibt es eine Aufzeichnung auf Youtube.

===

Ein Kurzvideo von Tactical Tech beschreibt das System von Microtargeting im politischen Campaigning und die damit verbundenen Gefahren: Your Data, Our Democracy.

Netzpolitik-Jobs

Ich bekomme regelmäßig Job-Angebote im netzpolitischen Bereich zugeschickt und dachte mir, dass eine zusätzliche Rubrik ein guter Service sein könnte. Zweimal die Woche werde ich zukünftig auf aktuelle Job-Angebote hinweisen.

===

Die Landesmedienanstalt Berlin-Brandenburg sucht eine/n Referent (m/w/d) Medienregulierung. Das ist eine spannende Stelle, weil diese zukünftig dafür zuständig ist, den kommenden Medienstaatsvertrag umzusetzen, wozu auch Plattformregulierung gehört.

===

Das Wissenschaftszentrum Berlin sucht für den Schwerpunktbereich „Digitalisierung und gesellschaftlicher Wandel“ eine/n Wissenschaftliche*r Mitarbeiter*in (m/w/d) (Postdoc).

===

Die von Max Schrems gegründete Organisation Noyb sucht in Wien eine/n Full Stack Web Developer/in mit einem Fokus auf Legal-Tech.

===

Die Bundestagsabgeordnete Anke Domscheit-Berg (Fraktion Die Linke) sucht eine:n wissenschaftliche:n Mitarbeiter:in für den Bereich Netzpolitik.

===

Investigate Europe ist eine transnationale Medienplattform für investigativen Journalismus mit Sitz in Berlin. Aktuell wird ein/e Community Engagement Coordinator/in gesucht. Das ist wohl zwischen Social Media-, Community-Management und Audience Development angesiedelt.

===

Das war es für heute. Viele Grüße und bleibt gesund,
Markus Beckedahl

Ich freue mich immer über Feedback und gute Hinweise. Meine Mailadresse ist markus@netzpolitik.org. Ich bin zwar häufig von zu vielen eMails überfordert und bekomme nicht alle beantwortet. Aber ich lese alle Mails.

Diesen Newsletter kann man hier abonnieren.

Dieser Newsletter wird auch von vielen Spenden im Rahmen der freiwilligen Leser:innenfinanzierung von netzpolitik.org ermöglicht. Mit Deiner Unterstützung können wir noch viel mehr machen.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Aufträge an Rüstungskonzerne: Italien und Frontex überwachen das Mittelmeer jetzt mit Drohnen

netzpolitik.org - 26 Oktober, 2020 - 17:56

Das italienische Innenministerium stellt 7,2 Millionen Euro für den Betrieb von Drohnen im zentralen Mittelmeer zur Verfügung. Für die Polizei und die ebenfalls für die Grenzsicherung zuständige Finanzpolizei sollen die unbemannten Luftfahrzeuge bei Tag und Nacht irreguläre Migration aus Ländern wie Libyen und Tunesien überwachen. Die EU-Kommission übernimmt die Hälfte der Kosten über den Fonds für innere Sicherheit.

Den Auftrag hat offenbar der italienische Rüstungskonzern Leonardo erhalten. Für zunächst ein Jahr soll die Firma bis zu 1.800 Flugstunden bereitstellen. Die Stationierung der Drohnen erfolgt auf den sizilianischen Flughäfen Trapani, Lampedusa oder Ragusa, als Einsatzradius fordert das Innenministerium rund 550 Kilometer. Der Vertrag hat eine Laufzeit von zunächst einem Jahr und kann zweimal verlängert werden.

Echtzeit-Daten an Eurosur

Das Abfluggewicht der Drohnen soll zwischen 500 und 1.000 Kilogramm, die Nutzlast bei mindestens 100 Kilogramm liegen und ihre maximale Flughöhe mindestens 1.800 Meter betragen. Die Eckdaten treffen auf die Drohne „Falco Evo“ zu, mit der Leonardo bereits umfangreiche Erfahrung im Mittelmeer gesammelt hat. Die Drohne hat vom Flughafen in Lampedusa mehrere Hundert Flugstunden für die EU-Grenzagentur Frontex durchgeführt.

Die „Falco Evo“ kann per Satellit außerhalb der Sichtweite gesteuert werden, hierfür werden nach Angaben von Leonardo allerdings Relaisstationen zur Weiterleitung des Signals zur Steuerung und Missionsführung benötigt. Zum Vertrag gehört auch die Installation von Bodenstationen zum Empfang des Videostreams, der in Echtzeit über das italienische nationale Kontaktzentrum in das von Frontex betriebene Überwachungsnetzwerk Eurosur eingespeist werden soll.

An Bord befinden sich elektrooptische sowie Infrarotsensoren, ein von Leonardo entwickeltes Radargerät sowie ein Empfänger für Schiffspositionsdaten. Entdeckt eine Drohne ein Boot mit Geflüchteten, wird dieses mit einem Laserzielbeleuchter markiert. Befindet sich das Boot in der libyschen Seenotrettungszone, informiert die italienische Leitstelle zur Seenotrettung die libysche Küstenwache.

Einsatzradius von 500 Kilometern Die „Heron 1“ im Frontex-Einsatz. Sie wird auch von der Bundeswehr geflogen. Alle Rechte vorbehalten Airbus

Nach mehreren Pilotprojekten hat auch Frontex vergangene Woche über den langfristigen Einsatz von Drohnen im Mittelmeer entschieden. Einen ausgeschriebenen Auftrag über 50 Millionen Euro erhält nach eigener Auskunft der Rüstungskonzern Airbus in Bremen, der hierfür eine israelische „Heron 1“ von Israel Aerospace Industries (IAI) anmietet. Beide Firmen hatten parallel zu den Frontex-Tests mit der „Falco Evo“ eine „Heron 1“ auf Kreta für die EU-Grenzüberwachung erprobt.

Noch ist unklar, wo die Stationierung der nun beschlossenen Frontex-Drohnen erfolgt, in der Ausschreibung ist die Rede von Griechenland, Italien oder Malta. Den Einsatzradius gibt Frontex wie das italienische Innenministerium mit 500 Kilometern an, die Drohne kann dabei mehr als 24 Stunden in der Luft bleiben. Die bei den Missionen anfallenden Informationen will Frontex ebenfalls an die libysche Küstenwache übermitteln.

Laut „Tenders Electronic Daily“, dem Anzeiger für das öffentliche Auftragswesen in Europa, hat auch die israelische Firma Elbit den Zuschlag von über 50 Millionen Euro für eine Frontex-Drohne erhalten. Dabei dürfte es sich um das Modell „Hermes 900“ handeln, deren Dienste Frontex bei der EU-Agentur für Meeressicherheit angefragt hatte.

Flug im zivilen Luftraum

Die „Heron 1“ wird seit über zehn Jahren von Militärs geflogen und hat dabei angeblich bereits über 450.000 Flugstunden absolviert. Die Bundeswehr setzt die Drohne in Afghanistan und Mali zur Überwachung ein. Auch dieser Vertrag wird über Airbus als Hauptauftragnehmer abgewickelt. Airbus sieht das Geschäft mit Frontex nun als Möglichkeit, seine Drohnendienste von „militärischen Kunden auf zivile Interessengruppen“ auszuweiten. Auch laut IAI wird der Vertrag „die Tür zu weiteren zivilen Märkten öffnen“.

Beim Militär operieren die „Heron 1“ in militärischen Sperrgebieten, für Frontex soll die Drohne im zivilen Luftraum fliegen. Es ist unklar, ob dort wie bisher Korridore für Starts und Landungen gesperrt werden. Leonardo wirbt damit, dass die „Falco Evo“ auch in nicht segregierten Lufträumen verkehren kann. Die Drohnen würden dann von zivilen Fluglotsen wie Flugzeuge behandelt.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

US-Wahlen: Biden-Harris: Worauf darf die Netzpolitik hoffen?

netzpolitik.org - 26 Oktober, 2020 - 17:39

Elisabeth Giesemann ist Amerikanistin und arbeitet als Pressereferentin für Softwareentwicklung bei Wikimedia Deutschland e.V. Nikolas Becker arbeitet als Referent Politik und Gesellschaft bei der Gesellschaft für Informatik e.V. und leitet ein Forschungsprojekt zu Möglichkeiten von Testing & Auditing für KI-Systeme.

Unser Morgenkaffee am 4. November könnte uns besonders gut schmecken. Wenn alles gut läuft, wachen wir in einer Woche in einer Welt auf, in der Joe Biden und Kamala Harris das fanatisch-debile Duo Trump-Pence im Weißen Haus ablösen werden. Doch was würde ein US-Präsident Joe Biden eigentlich für die europäischen Netz- und Digitalpolitik bedeuten?

Fest steht, die Jahre der „tech friendliness“ der Obama-Ära sind vorbei. Während Präsident Obama sich noch felsenfest hinter die amerikanische Tech-Industrie stellte, kritisieren nun sowohl Amtsträger Trump als auch sein Herausforderer Biden wiederholt die Tech-Giganten – nur aus gänzlich unterschiedlichen Richtungen. Während Trump ihnen einen „liberal bias“ und die Zensur konservativer Ansichten vorwirft, kritisiert Biden, sie würden nicht genug gegen Falschinformationen und Verschwörungstheorien vorgehen. Dabei greift Biden insbesondere Facebook deutlich an: „Ich war nie ein Fan von Facebook, wie Sie vermutlich wissen. Ich war nie ein großer Zuckerberg-Fan. Ich glaube, er ist ein echtes Problem“, sagte Biden der New York Times.

Section 230: Der Kampf um Haftung der Digitalkonzerne

Wenn es nach Biden geht, sollen die Digitalkonzerne Google, Apple, Facebook, Amazon und Microsoft (GAFAM) für Inhalte auf ihren Plattformen gleichsam traditionellen Medien Verantwortung übernehmen. Es dürfe für sie keine Ausnahmen geben. Eine solche Ausnahme ist nämlich bisher in Section 230 des Communications Decency Acts formuliert. Der Paragraf regelt, dass Online-Plattformen grundsätzlich nicht unmittelbar für die Posts und Beiträge ihrer Nutzer*innen haften.

Biden nennt dieses amerikanische Providerprivileg verantwortungslos und findet, Facebook müsse Aufsicht über seine Inhalte führen und redaktionelle Verantwortung übernehmen. Nachdem er als Vizepräsident noch die konzernfreundliche Linie Obamas mitgetragen hatte, möchte er nun die Regelung lieber früher als später aufheben: „Die Section 230 sollte sofort abgeschafft werden. Für Zuckerberg und andere Plattformen“. Harris‘ Unterstützung dürfte ihm dabei sicher sein. Als kalifornische Staatsanwältin hatte sie sich mit den Plattformen bereits hinsichtlich deren Verantwortung für von Nutzern eingestellte Rachepornos angelegt und eine Aufweichung von Section 230 in Kauf genommen.

Seitdem Twitter im Mai 2020 begann, die Tweets des Präsidenten zu fakt-checken, fordert Trump übrigens das Gleiche wie Biden und erließ eine Executive Order mit dem Ziel, Section 230 abzuschwächen. Vor wenigen Tagen verkündete Ajit Pai, Chef der Federal Communications Commission (FCC), er werde Trumps Willen umsetzen und Section 230 beschränken. Ob die exekutive Macht der Administration ausreicht, um ein vom US-Kongress beschlossenes Gesetz per Verfügung außer Kraft zu setzen, bleibt jedoch zweifelhaft.

Eine Abschaffung oder Abschwächung der Section 230 dürfte sich zwar einerseits auf die deutsche Diskussionen um die Fortentwicklung der Providerhaftung in Telemediengesetz und Netzwerkdurchsetzungsgesetz sowie auf die europäische Debatte auswirken. So könnten schärfere US-Regeln dazu führen, dass die geäußerten Bedenken, etwa die mögliche Gefahr von Overblocking, weniger Beachtung finden. Andererseits scheint hierfür unerheblich, ob Trump oder Biden die Wahl gewinnen.

Neue Hoffnung für das Prinzip Netzneutralität?

Die Regulierungsbehörde FCC spielt nicht nur im Zusammenhang mit der Anbieterhaftung eine Rolle, sondern auch im Streit um die Durchsetzung des Prinzips Netzneutralität. Die Entscheidung Präsident Trumps, den Chefposten der FCC mit dem ehemaligen Verizon-Anwalt Ajit Pai zu besetzen, hatte daher große netzpolitische Tragweite.

Noch im Jahr 2015 verabschiedete eine von den Demokraten geführte FCC eine Verordnung, die Breitband als Telekommunikationsdienst nach dem sogenannten „Titel II“ klassifizierte und es somit Providern verbot, Internetverkehr zu drosseln oder bestimmten Verkehr gegen Bezahlung zu priorisieren. Unter Pai klassifizierte die FCC 2018 Breitband als Informationsdienst nach „Titel I“ und hob die Befugnis auf, die Regeln zur Netzneutralität durchzusetzen.

Falls gewählt, wird das Duo Biden-Harris die Entscheidung rückgängig machen und die Open Internet Order wieder in Kraft setzen. Als Senatorin von Kalifornien sprach sich Harris 2017 für das Prinzip der Netzneutralität und für ein „Open Internet“ aus: „Vor 50 Jahren erfanden kalifornische Forscher das Internet. […] Dieser fehlgeleitete Vorschlag ist ein direkter Angriff auf das, was wir vollbracht haben und auf die künftige Prosperität unseres Bundesstaates“. Da der Vorsitz der FCC traditionell mit dem US-Präsidenten das Amt verlässt, wird bereits über die Nachfolge spekuliert. In Frage kommen etwa die Demokratinnen Mignon Clyborn und Jessica Rosenworcel, die sich beide als ehemalige Kommissionsmitglieder der FCC für Netzneutralität ausgesprochen haben.

Ein stärkerer Schutz der Netzneutralität in den USA würde in Deutschland zumindest als Stärkung der Position und Anregung für die Diskussion des status-quo der hiesigen Netzneutralität führen. Denn auch wenn Internetprovidern die Drosselung der Geschwindigkeit oder Priorisierung von Diensten untersagt ist, bleibt die Implementierung in Europa uneinheitlich und das sogenannte Zero-Rating, also das Nicht-Anrechnen von Datenmengen auf einen Tarif unter Begünstigung bestimmter Dienste, bleibt gängige Praxis der Provider.

Nichts Neues beim Thema staatliche Überwachung

Spricht in Nordamerika eigentlich noch jemand über staatliche Überwachung? Das Thema scheint in den letzten Jahren aufgrund der Skandale um die Einmischung Russlands in die vergangene und bevorstehende Wahl wieder einmal in den Hintergrund geraten zu sein – und dem Trumpschen Poltern, seine Präsidentschaftskampagne sei illegal überwacht worden, schenkt aus guten Gründen kaum jemand Gehör.

Hatte Trump den Whistleblower Edward Snowden in der Vergangenheit noch als „Verräter“ bezeichnet, den man „exekutieren“ müsste, so deutete er nun an, er könne seine Meinung ändern. Mit Snowden sei nicht fair umgegangen worden. Snowden selbst hatte daraufhin gesagt, dass er gerne in die USA zurückkehren würde, jedoch nur unter der Bedingung, dort ein faires Verfahren zu erhalten. Joe Biden hat hingegen kaum ein gutes Wort für Edward Snowden übrig. In einem Interview hat der ehemalige Whistleblower erklärt, dass Biden noch als Vizepräsident mehrfach seine Asylgesuche in anderen Ländern wie Ecuador verhindert hat, indem er diesen mit Konsequenzen drohte.

Knapp 500 Mitarbeiter*innen der nationalen Sicherheit haben in einem überparteilichen offenen Brief ihre Unterstützung für Joe Biden ausgesprochen: Unter dem Banner „National Security Leaders for Biden“ teilen sie die Ansicht, dass Trump eine Gefahr für die Sicherheit des Landes ist: „Der aktuelle Präsident [Trump] hat demonstriert, dass er die enorme Verantwortung des Amtes nicht erfüllen kann; er kann weder große noch kleine Herausforderungen bewältigen. Dank seiner verächtlichen Attitüde und seines Scheiterns vertrauen und respektieren uns unsere Alliierten nicht mehr, und unsere Feinde fürchten uns nicht mehr“.

Der Fokus der öffentlichen Wahrnehmung liegt also nun auf der Allmacht und Kontrolle von privaten Konzernen statt auf der Überwachung durch den Staatsapparat. Hier haben sich Biden und die Demokraten während der Anhörung des Kongressausschusses mit den CEOs der Konzerne erfolgreich als Unterstützer der Nutzer*innen im Kampf gegen die Tech-Giganten positioniert.

Bidens Haltung zu Snowden, seine Unterstützung durch die Intelligence-Community und die fehlende öffentliche Aufmerksamkeit auf dem Thema lassen es wahrscheinlich erscheinen, dass von Biden weder Schritte zur Stärkung von digitalen Bürger*innenrechten und Privatsphäre noch ein besserer Schutz für Whistleblower zu erwarten wären. Schlimmer als unter Trump kann es jedoch kaum werden, denn Snowden sitzt weiterhin in Russland, die NSA-Whistleblowerin Reality Winner weiterhin im Gefängnis, und unabhängigen Aufsehern hat die gegenwärtige Regierung den offenen Krieg erklärt.

Verschwinden wird das Thema dennoch nicht. Schließlich sitzen viele Tech-Unternehmen wie Google oder Facebook in den USA, wo sie die Daten ihrer Nutzer*innen speichern. Bereits zwei Mal musste der Europäische Gerichtshof EU-Regelungen zum transatlantischen Datentransfer kippen, da das dortige Datenschutzniveau nicht dem europäischen entspricht und womöglich US-Geheimdienste Zugriff auf die Daten haben. Von der kommenden US-Regierung wird maßgeblich abhängen, wie der notwendig gewordene Nachfolger von „Privacy Shield“ aussehen wird.

Ein bundesweiter US-Datenschutz

Es gibt in den USA kein bundesweit gültiges Datenschutzgesetz. Neben einigen branchenspezifischen Regelungen, z. B. HIPPA für den Gesundheitsbereich, haben mittlerweile jedoch sechs Bundesstaaten eigene Datenschutzgesetze erlassen, von denen der California Consumer Privacy Act (CCPA), der weitestgehende ist. Gegenüber der europäischen DSGVO fehlen dem CCPA jedoch das Erfordernis expliziter Zustimmung wie in Artikel 7 DSGVO und das Recht, inkorrekte Daten korrigieren zu lassen.

Es ist davon auszugehen, dass Biden-Harris hier die amerikanische Debatte stärker forcieren werden, als Trump dies beabsichtigt. Die Auswirkungen auf die europäischen Datenschutzgesetze dürften mittelfristig jedoch eher gering sein.

Fazit: Auswirkungen auf Providerhaftung und Netzneutralität

Sollte Biden die kommende Präsidentschaftswahl gewinnen, könnte seine Absicht, GAFAM stärker in die Haftung für nutzergenerierte Inhalte zu nehmen, die deutsche bzw. europäische Diskussion um die Privilegien und Verantwortung der Plattformen beschleunigen. Ironischerweise könnte darunter gerade die sonst von amerikanischer Seite stets hochgehaltene Meinungsfreiheit leiden. Auswirkungen auf die europäischen Datenschutzregeln dürften hingegen mittelfristig eher gering sein; hier setzt die DSGVO weiterhin die globalen Maßstäbe. Auch hinsichtlich der staatlichen Überwachung des Internets ist es wohl illusorisch, auf Besserung durch einen künftigen US-Präsidenten zu hoffen, gleich welchen Namens. Eindeutig positiv dürfte jedoch eine Neubesetzung der FCC durch Biden für die Revitalisierung der europäischen Netzneutralitäts-Debatte sein. Ein hierdurch ermöglichter Rückzug vom Rückzug der amerikanischen Position setzt starke Zeichen für die Netzneutralität im gesamten transatlantischen Raum.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

News from Elsevier: No open access deal, but spyware against shadow libraries?

netzpolitik.org - 26 Oktober, 2020 - 16:34

Five years have passed since universities, universities of applied sciences and research institutions in Germany initiated terminating their contracts with the world’s largest scientific publisher, Elsevier. There are now almost 200 institutions that no longer have a contract and thus no direct access to Elsevier journals. The reason for this wave of cancellations was a combination of exorbitant price (increases) and the publisher’s refusal to switch to new open access publishing models.

However, it is precisely such new, quasi Germany-wide Open Access agreements that have been signed with the two next largest scientific publishing houses, Wiley (2019) and Springer Nature (2020), as part of „Project DEAL“. These agreements provide for all participating universities and research institutions to be granted access to the publishers‘ journals (archives) and for all articles written by their researchers to be freely and permanently accessible on the Internet worldwide. In turn, Publish & Read fees are charged for each published article. The contracts have been published in full on the web, including conditions (see contract with SpringerNature and contract with Wiley).

Elsevier no longer negotiates…

With Elsevier, such an agreement has not yet been possible. In July 2018 the negotiations were broken off and, according to the DEAL project, „formal negotiations have not yet resumed“. One of the reasons for the hard line stance in negotiations between the scientific institutions and Elsevier is the, at least tacit, approval of the scientists primarily affected by the cancellations. Noticeable protests against the restrictions on access have so far been absent. On the contrary, many prominent scientists support the negotiating goals of Project DEAL, for example by stopping their editorial activities for Elsevier (a similar boycott initiative at international level is running under the title „The Cost of Knowledge“).

Geographic distribution of Sci-Hub usage in Germany, based upon an Analysis of log files (data predominantly from 2017; Sources: Strecker 2019)

What makes it easier to do without Elsevier access in everyday research is the existence of digital shadow libraries. In a recent book contribution to „Light and Shadow in the Academic Media Industry“, the sociologist and copyright researcher Georg Fischer distinguishes between three types of academic shadow libraries:

  1. #IcanhazPDF refers to the „academic shadow practice“ of asking on Twitter for scientific papers to which researchers at their institutions do not have access. However, these ad hoc requests do not create a permanent archive, and sometimes requests are even asked to be deleted after the article has been received.
  2. Thematically specialised shadow libraries such as UbuWeb or AAARG („Artists, Architects and Activists Reading Group“) archive content in the fields of art, film, architecture and literature.
  3. Comprehensive shadow libraries such as LibGen (primarily for books) and Sci-Hub (primarily for articles in scientific journals) function like search engines and allow very fast and uncomplicated access, but are not always easily accessible (e.g. due to DNS blocking). However, the coverage of Sci-Hub in particular is impressive. According to an analysis by Himmelstein and others from 2018, Sci-Hub provides access to from 80 to 99 percent of the articles of the eight largest publishers, including Elsevier, with a coverage of 96.9 percent.

No wonder that Sci-Hub has high access rates (see also illustration of visits in Germany based on logfile analyses) and is of great importance as a substitute for conventional access beyond contracts or inter-library loan.

…but relies on spyware in the fight against „cybercrime“

Of Course, Sci-Hub and other shadow libraries are a thorn in Elsevier’s side. Since they have existed, libraries at universities and research institutions have been much less susceptible to blackmail. Their staff can continue their research even without a contract with Elsevier.

Instead of offering transparent open access contracts with fair conditions, however, Elsevier has adopted a different strategy in the fight against shadow libraries. These are to be fought as „cybercrime“, if necessary also with technological means. Within the framework of the „Scholarly Networks Security Initiative (SNSI)“, which was founded together with other large publishers, Elsevier is campaigning for libraries to be upgraded with security technology. In a SNSI webinar entitled „Cybersecurity Landscape – Protecting the Scholarly Infrastructure“*, hosted by two high-ranking Elsevier managers, one speaker recommended that publishers develop their own proxy or a proxy plug-in for libraries to access more (usage) data („develop or subsidize a low cost proxy or a plug-in to existing proxies“).

With the help of an „analysis engine“, not only could the location of access be better narrowed down, but biometric data (e.g. typing speed) or conspicuous usage patterns (e.g. a pharmacy student suddenly interested in astrophysics) could also be recorded. Any doubts that this software could also be used—if not primarily—against shadow libraries were dispelled by the next speaker. An ex-FBI analyst and IT security consultant spoke about the security risks associated with the use of Sci-Hub.

Should universities worry about Sci-Hub?

The FAQs of the SNSI initiative also explain why scientific institutions should worry about Sci-Hub („Why should I worry about Sci-Hub?“):

Sci-Hub may fall into the category of state-sponsored actors. It hosts stolen research papers which have been harvested from publisher platforms often using stolen user credentials. According to the Washington Post, the US Justice Department is currently investigating the founder of Sci-Hub, Alexandra Elbakayan, for links between her and Russian Intelligence. If there is substance to this investigation, then using Sci-Hub to access research papers could have much wider ramifications than just getting access to content that sits behind a paywall.

More subjunctive would hardly have been possible. This is how Elbakyan, who had already been portrayed in a list of „Nature’s 10: Ten people who mattered this year“ in 2016, introduces herself on Sci-Hub, by the way:

Presentation of Alexandra Elbakyan on Sci-Hub

In any case, hardly any Sci-Hub user has a guilty conscience. In a survey published in Sciencemag, almost 90 percent of more than 10,000 respondents admitted that they did not think it was wrong to download illegally copied articles. And: more than a third of them use Sci-Hub even if access via the library would have been possible. The Piratebay for Research also scores points from a usability point of view.

Historical opportunity for comprehensive Open Access transformation

The idea of Open Access, i.e. completely free digital access to scientific research results, is about as old as the Internet. Whether the vision of comprehensive Open Access science becomes reality could also depend on the existence of and access to shadow libraries. They provide universities and research institutions with the negotiating leeway needed to make the transition to Open Access. After all, research institutions were and are quite prepared to pay reasonable prices for publishing services. The inappropriate conditions of Elsevier & Co, while at the same time blocking sustainable and comprehensive Open Access, are the problem.

* There is an automatically generated transcript of the webinar as well as a PDF of the set of slides to document the context of the quoted statements.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Neues vom Großverlag Elsevier: Kein Open-Access-Deal, dafür mit Spyware gegen Schattenbibliotheken?

netzpolitik.org - 26 Oktober, 2020 - 10:21

Fünf Jahre ist es bereits her, dass Universitäten, Fachhochschulen und Forschungseinrichtungen in Deutschland begannen, ihre Verträge mit dem weltgrößten Wissenschaftsverlag Elsevier zu kündigen. Inzwischen sind es knapp 200 Institutionen, die über keinen Vertrag und damit keinen unmittelbaren Zugriff auf Elsevier-Zeitschriften mehr verfügen. Grund für diese Kündigungswelle war die Kombination aus exorbitanten Preis(steigerung)en und der Weigerung des Verlags auf neue Open-Access-Publikationsmodelle umzusteigen.

Genau solche neuen, quasi deutschlandweiten Open-Access-Verträge konnten jedoch inzwischen mit den zwei nächstgrößeren Wissenschaftsverlagshäusern Wiley (2019) und SpringerNature (2020) im Rahmen von „Projekt DEAL“ unterzeichnet werden. Sie sehen vor, dass sämtliche beteiligten Hochschulen und Forschungseinrichtungen Zugang zu den Zeitschriften(archiven) der Verlage bekommen und sämtliche Artikel von deren Forscher:innen weltweit und dauerhaft frei im Netz zugänglich sind. Dafür fallen pro veröffentlichtem Aufsatz sogenannte Publish&Read-Gebühren an. Die Verträge wurden inklusive Konditionen vollständig im Netz veröffentlicht (vgl. Vertrag mit SpringerNature bzw. Vertrag mit Wiley).

Elsevier verhandelt nicht mehr…

Mit Elsevier war eine solche Einigung bislang nicht möglich. Im Juli 2018 wurden die Verhandlungen abgebrochen und, laut Projekt DEAL, „förmliche Verhandlungen bislang nicht wieder aufgenommen“. Mit ein Grund für die harte Verhandlungslinie der Wissenschaftseinrichtungen gegenüber Elsevier dürfte die zumindest schweigende Zustimmung der von den Kündigungen primär betroffenen Wissenschaftler:innen sein. Merkbare Proteste gegen die Zugangseinschränkungen blieben bislang aus. Im Gegenteil, viele prominente Wissenschaftler:innen unterstützen die Verhandlungsziele von Projekt DEAL, zum Beispiel indem sie ihre herausgeberischen Tätigkeiten für Elsevier eingestellt haben (eine ähnliche Boykott-Initiative auf internationaler Ebene läuft unter dem Titel „The Cost of Knowledge“).

Geographische Verteilung der Sci-Hub-Nutzung in Deutschland auf Basis von Logfiles (größtenteils aus dem Jahr 2017; aus: Strecker 2019) CC-BY 4.0

Was den Verzicht auf Elsevier-Zugang im Forschungsalltag erleichtert, ist die Existenz von digitalen Schattenbibliotheken. Der Soziologe und Urheberrechtsforscher Georg Fischer unterscheidet in einem aktuellen Buchbeitrag zu „Licht und Schatten in der akademischen Medienindustrie“ drei Typen von akademischen Schattenbibliotheken:

  1. #IcanhazPDF bezeichnet die „akademische Schattenpraxis“, auf Twitter um Übersendung von wissenschaftlichen Aufsätzen zu bitten, auf die Forscher:innen an ihren Institutionen keinen Zugriff haben. Allerdings entsteht durch diese adhoc-Anfragen kein dauerhaftes Archiv, bisweilen wird sogar darum gebeten, Anfragen nach Erhalt des Artikels wieder zu löschen.
  2. Thematisch spezialisierte Schattenbibliotheken wie UbuWeb oder AAARG (steht für „Artists, Architects und Activists Reading Group“) archivieren Inhalte in den Bereichen Bereichen Kunst, Film, Architektur und Literatur.
  3. Umfassende Schattenbibliotheken wie LibGen (primär für Bücher) und Sci-Hub (primär für Artikel in wissenschaftlichen Fachzeitschriften) funktionieren wie Suchmaschinen und erlauben sehr raschen und unkomplizierten Zugriff, sind allerdings (z.B. auf Grund von Netzsperren) nicht immer gut erreichbar. Die Abdeckung vor allem von Sci-Hub ist jedoch beeindruckend. Nach einer Analyse von Himmelstein und anderen aus dem Jahr 2018 liefert Sci-Hub Zugang zu 80 bis 99 Prozent der Artikel der acht größten Verlage, darunter Elsevier mit einer Abdeckung von 96,9 Prozent.

Kein Wunder, dass Sci-Hub hohe Zugriffszahlen aufweist (siehe auch Abbildung von Zugriffen in Deutschland auf Basis von Logfile-Analysen) und als Substitut für herkömmliche Zugangswege jenseits von Verträgen oder Fernleihe von großer Bedeutung ist.

…sondern setzt auf Spyware im Kampf gegen „Cybercrime“

Ebenso wenig erstaunlich ist, dass Sci-Hub und andere Schattenbibliotheken Elsevier ein Dorn im Auge sind. Seit es sie gibt, sind Bibliotheken an Hochschulen und Forschungseinrichtungen viel weniger erpressbar. Ihre Mitarbeiter:innen können auch ohne Vertrag mit Elsevier weiterforschen.

Statt auf transparente Open-Access-Verträge mit fairen Konditionen setzt Elsevier jedoch auf eine andere Strategie im Kampf gegen Schattenbibliotheken. Diese sollen als „Cybercrime“ bekämpft werden, wenn es sein muss auch mit technologischen Mitteln. Im Rahmen einer gemeinsam mit anderen Großverlagen gegründeten „Scholarly Networks Security Initiative (SNSI)“ wirbt Elsevier dafür, Bibliotheken sicherheitstechnisch aufzurüsten. In einem SNSI-Webinar mit dem Titel „Cybersecurity Landscape – Protecting the Scholarly Infrastructure“*, gehostet von zwei hochrangigen Elsevier-Managern, empfahl ein Vortragender den Verlagen, einen eigenen Proxy oder ein Proxy-Plugin für Bibliotheken zu entwickeln, um so an mehr (Nutzungs-)Daten zu kommen („develop or subsidize a low cost proxy or a plug-in to existing proxies“).

Mit Hilfe einer „Analysis Engine“ könnten dann nicht nur der Ort des Zugriffs besser eingegrenzt werden, auch biometrische Daten (z.B. Tippgeschwindigkeit) oder auffällige Nutzungsmuster (z.B. ein Pharmazie-Student der sich plötzlich für Astrophysik interessiert) ließen sich so erfassen. Etwaige Zweifel daran, dass diese Software auch – wenn nicht primär – gegen Schattenbibliotheken zum Einsatz kommen könnte, wurden vom nächsten Vortragenden ausgeräumt. Ein Ex-FBI-Analyst und IT-Sicherheitsberater sprach über die Sicherheitsrisiken in Verbindung mit der Nutzung von Sci-Hub.

Sollten sich Hochschulen Sorgen wegen Sci-Hub machen?

In den FAQs der SNSI-Initiative wird auch erklärt, warum sich Wissenschaftseinrichtungen wegen Sci-Hub Sorgen machen sollten („Why should I worry about Sci-Hub?“, im folgenden meine Übersetzung):

Sci-Hub könnte in die Kategorie staatlich finanzierter Akteure fallen. Es hosted gestohlene Forschungspapiere, die von Verlagsplattformen mit Hilfe gestohlener Nutzerdaten abgerufen wurden. Einem Bericht der Washington Post zu Folge ermittelt das US Justizministerium derzeit gegen die Sci-Hub-Gründerin Alexandra Elbakayan (sic!) bezüglich Verbindungen zwischen ihr und russischen Geheimdiensten. Falls sich diese Untersuchung als stichhaltig erweisen sollte, dann könnte die Nutzung von Sci-Hub, um Zugang zu Forschungspapieren zu bekommen, noch viel weitreichendere Konsequenzen haben, als bloß Zugang zu Inhalten zu erlangen, die hinter einer Paywall sind.

Mehr Konjunktiv wäre kaum möglich gewesen. So stellt sich Elbakyan, die bereits 2016 in einer Liste von „Nature’s 10: Ten people who mattered this year“ porträtiert worden war, auf Sci-Hub übrigens selbst vor:

Vorstellung von Alexandra Elbakyan auf Sci-Hub

Unter den Sci-Hub-Nutzenden plagt jedenfalls kaum jemand ein schlechtes Gewissen. In einer in Sciencemag veröffentlichten Umfrage bekannten knapp 90 Prozent von über 10.000 Befragten, dass sie es nicht falsch fänden, illegal kopierte Artikel herunterzuladen. Und: über ein Drittel nutzt Sci-Hub bisweilen auch dann, wenn Zugang über die Bibliothek vorhanden gewesen wäre. Die Piratebay für Forschung punktet nämlich auch unter Usability-Gesichtspunkten.

Historische Chance für umfassende Open-Access-Transformation

Die Idee von Open Access, also völlig freiem digitalen Zugang zu wissenschaftlichen Forschungsergebnissen, ist ungefähr so alt wie das Internet. Ob die Vision von flächendeckender Open-Access-Wissenschaft Wirklichkeit wird, könnte auch von Existenz von und Zugang zu Schattenbibliotheken abhängen. Sie verschaffen Hochschulen und Forschungseinrichtungen den Verhandlungsspielraum, der für einen Umstieg auf Open Access notwendig ist. Denn Forschungseinrichtungen waren und sind ja durchaus bereit, für verlegerische Leistungen angemessene Preise zu bezahlen. Die unangemessenen Konditionen von Elsevier & Co bei gleichzeitiger Blockade einer nachhaltigen und flächendeckenden Open-Access-Transition sind hingegen das Problem.

* Es gibt ein automatisch erstelltes Transkript des Webinars sowie ein PDF des Foliensatzes, um den Kontext der zitierten Äußerungen zu dokumentieren.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Automatisierte Kennzeichenlesesysteme: Justizministerin Lambrecht will Auto-Rasterfahndung ausweiten

netzpolitik.org - 26 Oktober, 2020 - 08:11

Das Bundesjustizministerium hat einen Gesetzentwurf zur Fortentwicklung der Strafprozessordnung verfasst und veröffentlicht. In der Pressemitteilung betont Justizministerin Christine Lambrecht besseren Schutz vor Gewalt sowie stärkeren Schutz von Opfern und Zeugen. In diesem Gesetz findet sich aber auch der Einsatz von „Automatischen Kennzeichenlesesystemen“ (AKLS) – also die Auto-Rasterfahndung mittels Nummernschild-Abgleich.

Seit vielen Jahren berichten wir über Kennzeichen-Scanner. Mittlerweile existieren die Systeme für viele Zwecke: Tempolimits, Mautgebühren, Diesel-Fahrverbote und natürlich Strafverfolgung. Die Technik fotografiert sämtliche Kennzeichen und gleicht sie entweder mit einer Liste ab oder speichert sie in einer Datenbank. Die Polizei in Brandenburg speichert jeden Tag 55.000 Kennzeichen, eine Auto-Vorratsdatenspeicherung.

Kennzeichen abgleichen

Die rechtlichen Grundlagen für Kennzeichen-Scanner sind in den Bundesländern uneinheitlich und juristisch umstritten. Justizministerin Lambrecht will mit dem Gesetz jetzt den Einsatz von Kennzeichen-Scannern in der ganzen Bundesrepublik erlauben. Wir haben die relevanten Teile aus dem Gesetzentwurf befreit und hängen sie in Volltext an diesen Artikel.

Demnach erhält die Strafprozessordnung einen neuen Paragrafen, der es erlaubt, zu Fahndungszwecken „über einen bestimmten Zeitraum hinweg an überwachten Kontrollpunkten vor allem von Fernstraßen sämtliche passierende Fahrzeuge abzulichten, deren amtliche Kennzeichen durch eine Software auszulesen und sie mit Halterdaten von Kraftfahrzeugen abzugleichen“.

Kennzeichen speichern?

Eine Auto-Voratsdatenspeicherung wie in Brandenburg soll damit nicht möglich sein. Ein Sprecher des Bundesjustizministeriums erklärt: „Eine weitergehende Speicherung dieser ‚ausgefilterten‘ Daten – sei es in einem Aufzeichnungsmodus der eingesetzten Geräte oder auf andere technische Weise – ist damit nicht vereinbar und soll daher nach dem Referentenentwurf im Rahmen des strafrechtlichen Ermittlungsverfahrens auch nicht erlaubt sein.“

Die Zahl der Geräte und Maßnahmen dürfte damit aber dennoch zunehmen. Der Entwurf geht von einem „derzeit nicht genau bezifferbaren Mehraufwand für die zu erwartende Anschaffung entsprechender AKLS-Geräte und der geeigneten IT-Systeme“ aus. Kosten und Aufwand könnten sinken, wenn „bereits vorhandene technische Ausstattung zum Einsatz gebracht wird“.

Laut Mautgesetz dürfen die Daten der Maut-Stationen eigentlich nur für die Maut verwendet werden. Doch der Ministeriums-Sprecher erklärt: „Ob bereits vorhandene AKLS-Geräte, die derzeit zu anderen Kontrollzwecken eingesetzt werden, künftig auch für [Fahndungszwecke] zum Einsatz kommen können, wäre jeweils durch die einzelnen Bundesländer zu entscheiden.“ Damit droht eine massive Ausweitung der Auto-Rasterfahndung.

Der Gesetzentwurf wird jetzt mit Verbänden und Bundesländern diskutiert und soll danach von der Bundesregierung auf den Weg gebracht werden.

Datum: 25. September 2020

Referentenentwurf des Bundesministeriums der Justiz und für Verbraucherschutz Entwurf eines Gesetzes zur Fortentwicklung der Strafprozessordnung und zur Änderung weiterer Vorschriften A. Problem und Ziel

Das übergeordnete Anliegen dieses Entwurfes ist es, das Strafverfahren weiter an die sich ständig wandelnden gesellschaftlichen und technischen Rahmenbedingungen anzupassen und so dafür Sorge zu tragen, dass die Strafrechtspflege ihre wesentlichen verfassungsrechtlichen Aufgaben – die Aufklärung von Straftaten, die Ermittlung des Täters, die Feststellung seiner Schuld und seine Bestrafung wie auch den Freispruch des Unschuldigen – zum Schutz der Bürger in einem justizförmigen und auf die Ermittlung der Wahrheit ausgerichteten Verfahren zu erfüllen vermag.

Zur Erfüllung dieses Anliegens besteht in erster Linie das Bedürfnis, das Recht des Ermittlungsverfahrens an verschiedenen Stellen zu modernisieren. So sollen einerseits Regelungslücken im Bereich der strafprozessualen Ermittlungsbefugnisse behoben werden. Dies betrifft den Einsatz von sogenannten automatisierten Kennzeichenlesesystemen (AKLS) im öffentlichen Verkehrsraum zu Fahndungszwecken, aber auch das im Kern seit Schaffung der Strafprozessordnung (StPO) unveränderte Recht der Postbeschlagnahme. An anderer Stelle erlauben die geänderten Rahmenbedingungen hingegen Einschränkungen des Anwendungsbereichs von Verfahrensregelungen, so etwa der Rechtsinstitute der Sicherheitsleistung und des Zustellungsbevollmächtigten.

[…]

B. Lösung

Der ausgeführte Reformbedarf gibt im Wesentlichen Anlass zu folgenden Änderungen:

  1. Fortentwicklung des Rechts des Ermittlungsverfahrens
    • Schaffung einer Befugnis zur automatischen Kennzeichenerfassung im öffentlichen Verkehrsraum zu Fahndungszwecken (§§ 163g StPO-E)

[…]

C. Alternativen

Zur Erweiterung der strafprozessualen Postbeschlagnahme liegen ein Gesetzentwurf des Bundesrates vom 17. April 2019 (Bundestagsdrucksache 19/9508) und ein Gesetzesantrag des Freistaates Bayern vom 15. Juli 2020 (Bundesratsdrucksache 401/20) vor.

D. Haushaltsausgaben ohne Erfüllungsaufwand

Keine.

E. Erfüllungsaufwand E.1 Erfüllungsaufwand für Bürgerinnen und Bürger

Keiner.

[…]

E.3 Erfüllungsaufwand der Verwaltung

Der Einsatz von automatisierten Kennzeichenlesesystemen im öffentlichen Verkehrsraum wird zu einem derzeit nicht genau bezifferbaren Mehraufwand für die zu erwartende Anschaffung entsprechender AKLS-Geräte und der geeigneten IT-Systeme führen. Dieser Aufwand könnte dadurch gemindert werden, dass bereits vorhandene technische Ausstattung zum Einsatz gebracht wird, die schon heute im öffentlichen Verkehrsraum zur Gefahrenabwehr und zu sonstigen bereits bereichsspezifisch geregelten Zwecken der Verkehrsüberwachung eingesetzt wird.

[…]

Artikel 1 – Änderung der Strafprozessordnung

[…]

Die Strafprozessordnung in der Fassung der Bekanntmachung vom 7. April 1987 (BGBl. I S. 1074, 1319), die zuletzt durch Artikel 3 des Gesetzes vom 10. Juli 2020 (BGBl. I S. 1648) geändert worden ist, wird wie folgt geändert:

[…]

9. § 101 wird wie folgt geändert:

  1. Absatz 1 wird wie folgt gefasst:

    (1) Für Maßnahmen nach den §§ 98a, 99, 100 bis 100f, 100h, 100i, 110a, 163d bis 163g gelten, soweit nichts anderes bestimmt ist, die nachstehenden Regelungen.

  2. Absatz 4 Satz 1 wird wie folgt geändert:
    1. aa) Der Nummer 12 wird ein Komma angefügt.
    2. bb) Nach Nummer 12 wird die folgende Nummer 13 eingefügt:

      13. des § 163g die Zielperson.

[…]

21. Nach § 163f wird der folgende § 163g eingefügt:

§ 163g – Automatische Kennzeichenerfassung zu Fahndungszwecken

(1) An bestimmten Stellen im öffentlichen Verkehrsraum dürfen ohne das Wissen der betroffenen Personen amtliche Kennzeichen von Kraftfahrzeugen sowie Ort, Datum, Uhrzeit und Fahrtrichtung durch den Einsatz technischer Mittel automatisch erhoben werden, wenn zureichende tatsächliche Anhaltspunkte dafür vorliegen, dass eine Straftat von erheblicher Bedeutung begangen worden ist und die Annahme gerechtfertigt ist, dass diese Maßnahme zur Ermittlung des Aufenthaltsorts des Beschuldigten führen kann. Die automatische Datenerhebung darf nur vorübergehend und nicht flächendeckend erfolgen.

(2) Die nach Maßgabe von Absatz 1 erhobenen amtlichen Kennzeichen von Kraftfahrzeugen dürfen automatisch abgeglichen werden mit Halterdaten von Kraftfahrzeugen,

  1. die auf den Beschuldigten zugelassen sind oder von ihm genutzt werden, oder
  2. die auf andere Personen als den Beschuldigten zugelassen sind oder von ihnen genutzt werden, wenn aufgrund bestimmter Tatsachen anzunehmen ist, dass sie mit dem Beschuldigten in Verbindung stehen oder eine solche Verbindung hergestellt wird, und die Ermittlung des Aufenthaltsortes des Beschuldigten auf andere Weise erheblich weniger erfolgsversprechend oder wesentlich erschwert wäre.

Der automatische Abgleich hat unverzüglich nach der Erhebung nach Absatz 1 zu erfolgen. Im Trefferfall ist unverzüglich die Übereinstimmung zwischen den erhobenen amtlichen Kennzeichen und den in Satz 1 bezeichneten Halterdaten manuell zu überprüfen. Wenn kein Treffer vorliegt oder die manuelle Überprüfung den Treffer nicht bestätigt, sind die erhobenen Daten sofort und spurenlos zu löschen.

(3) Die Anordnung der Maßnahmen nach den Absätzen 1 und 2 ergeht schriftlich. Sie muss das Vorliegen der Voraussetzungen der Maßnahmen darlegen und diejenigen Halterdaten, mit denen die automatisch zu erhebenden Daten nach Absatz 2 Satz 1 abgeglichen werden sollen, genau bezeichnen. Die bestimmten Stellen im öffentlichen Verkehrsraum (Absatz 1 Satz 1) sind zu benennen und die Anordnung ist zu befristen.

(4) Liegen die Voraussetzungen der Anordnung nicht mehr vor oder ist der Zweck der Maßnahmen erreicht, sind diese unverzüglich zu beenden.

[…]

Begründung A. Allgemeiner Teil

[…]

II. Wesentlicher Inhalt des Entwurfs 1. Fortentwicklung des Rechts des Ermittlungsverfahrens a) Schaffung von Ermittlungsbefugnissen zur automatischen Kennzeichenerfassung im öffentlichen Verkehrsraum (§ 163g StPO-E)

Mit dem neuen § 163gStPO-E soll eine spezialgesetzliche Befugnis der Strafverfolgungsbehörden zur automatischen Kennzeichenerfassung im öffentlichen Verkehrsraum zu Fahndungszwecken eingeführt werden. Ausdrücklich geregelt werden soll damit der Fahndungseinsatz von sogenannten automatisierten Kennzeichenlesesystemen (AKLS), die es erlauben, über einen bestimmten Zeitraum hinweg an überwachten Kontrollpunkten vor allem von Fernstraßen sämtliche passierende Fahrzeuge abzulichten, deren amtliche Kennzeichen durch eine Software auszulesen und sie mit Halterdaten von Kraftfahrzeugen abzugleichen, die auf den Beschuldigten oder seine Kontaktpersonen zugelassen sind beziehungsweise von diesen Personen genutzt werden.

So soll die Möglichkeiten der Fahndung nach Beschuldigten von Straftaten von erheblicher Bedeutung erweitert und verbessert werden. Zugleich sollen die Rechte der Personen, die von derartigen Maßnahmen betroffen sind, durch die Kodifizierung klarer Anordnungs- und Verfahrensvoraussetzungen geschützt werden. Dabei sollen die verfassungsrechtlichen Vorgaben, die das Bundesverfassungsgericht in jüngerer Zeit zum Einsatz von AKLS zu präventiv-polizeilichen Zwecken formuliert hat (BVerfG, Beschlüsse vom 18. Dezember 2018 – 1 BvR 142/15, 1 BvR 2795/09, 1 BvR 3187/10), im Bereich des Strafverfahrensrechts umgesetzt werden. Die Neuregelung greift auch einen Beschluss der Konferenz der Justizministerinnen und Justizminister aus Juni 2019 auf.

Neben der Neuregelung in § 163g StPO wird eine Folgeänderung in § 101 StPO erforderlich.

[…]

VI. Gesetzesfolgen

[…]

4. Erfüllungsaufwand

[…]

c) Erfüllungsaufwand der Verwaltung

Der Einsatz von automatisierten Kennzeichenlesesystemen im öffentlichen Verkehrsraum nach dem neuen § 163g StPO-E wird zu einem Mehraufwand für die zu erwartende Anschaffung entsprechender AKLS-Geräte und der geeigneten IT-Systeme führen. Dieser Aufwand könnte dadurch gemindert werden, dass im Rahmen der neuen Fahndungsmaßnahme solche technische Ausstattung zum Einsatz gebracht wird, die bereits heute im öffentlichen Verkehrsraum zur Gefahrenabwehr und zu sonstigen bereits bereichsspezifisch geregelten Zwecken der Verkehrsüberwachung eingesetzt wird. Da nicht bekannt ist, in welchem Umfang in den Bundesländern bereits entsprechende – fest installierte oder mobile – Ausstattung vorhanden ist, inwieweit eine Umwidmung zu Fahndungszwecken technisch möglich ist und wie rege von der neuen Befugnis Gebrauch gemacht werden wird, kann eine genaue Bezifferung derzeit nicht vorgenommen werden. In die nötige Gesamtbetrachtung wird auch einzustellen sein, dass durch die zu erwartenden Fahndungserfolge infolge des Einsatzes von AKLS eine – ebenfalls der Höhe nach nicht genau zu bestimmende – Kostenersparnis eintreten wird.

[…]

VII. Befristung; Evaluierung

Eine Befristung der vorgeschlagenen Gesetzesänderungen kommt nicht in Betracht. Zum Teil stellen sie Folgeänderungen von Reformgesetzgebung dar, die ihrerseits nicht befristet ist. Im Übrigen betreffen sie den Kernbereich des Strafverfahrensrechts und sind auf Dauer angelegt. Auch die Verbesserung des Opferschutzes bei sexueller Gewalt beansprucht gesamtgesellschaftlich langfristig Geltung. Eine Evaluierung der Regelungen soll nicht erfolgen.

B. Besonderer Teil Zu Artikel 1 (Änderung der Strafprozessordnung)

[…]

Zu Nummer 9 (§ 101)

Es handelt sich um eine Folgeänderung, die durch die Einführung der spezialgesetzlichen Befugnis zur automatischen Kennzeichenerfassung zu Fahndungszwecken im öffentlichen Verkehrsraum notwendig wird, vergleiche § 163g StPO-E. Zur Begründung wird auf die Ausführungen zu Nummer 21 – insbesondere auf die dortige Vorbemerkung – Bezug genommen. Die neu geschaffene verdeckte Maßnahme des § 163gStPO-E soll in die Verfahrensvorschrift des § 101 StPO dergestalt integriert werden, dass in einem angemessenen Umfang Benachrichtigungspflichten und Rechtsschutzmöglichkeiten von betroffenen Personen geschaffen werden.

Bei Maßnahmen der automatischen Kennzeichenerfassung sind allerdings typischerweise Personen in sehr großer Anzahl betroffen, nämlich im Ausgangspunkt alle Halter, deren Kraftfahrzeuge die Kontrollstellen im öffentlichen Verkehrsraum passieren und erfasst werden. Eine Benachrichtigung sämtlicher Personen erscheint praktisch undurchführbar. Sie wäre zudem aufgrund der in § 163g StPO-E vorgesehenen sofortigen Löschungsverpflichtung für alle Daten, die nicht zu einem Treffer führen, nicht umsetzbar. Sie ist aber auch nach Maßgabe der Rechtsprechung des Bundesverfassungsgerichts zur automatischen Kennzeichenerfassung im Gefahrenabwehrrecht aus Verhältnismäßigkeitsgesichtspunkten nicht erforderlich; das Bundesverfassungsgericht hat insoweit ausdrücklich festgestellt, dass es anders als für heimliche Überwachungsmaßnahmen von höherer Eingriffsintensität insoweit grundsätzlich keiner Benachrichtigungspflicht bedarf, auch nicht im sogenannten „Trefferfall“, solange eine hinreichende aufsichtliche Kontrolle greift (BVerfG Beschluss vom 18. Dezember 2018 – 1 BvR 142/15, Rn.154, zitiert nach juris). Diese ist im Bereich der Strafverfolgung gewährleistet. Für das anzuwendende Datenschutzrecht gilt gemäß § 500 Absatz 1 StPO Teil 3 des Bundesdatenschutzgesetzes (BDSG). Die Kontrolle der Datenverarbeitung wird gemäß § 500 Absatz 2 StPO durch den jeweiligen Datenschutzbeauftragten des zuständigen Bundeslandes oder des Bundes wahrgenommen.

In die Liste der zu benachrichtigenden Personen des § 101 Absatz 4 StPO sollen vor diesem Hintergrund nur die Personen aufgenommen werden, die in erheblichem Ausmaß von der neuen Maßnahme der automatischen Kennzeichenerfassung betroffen sein werden. Dabei handelt es sich um die Zielperson (neue Nummer 13 von Absatz 4 Satz 1), das heißt um den Beschuldigten oder um Kontaktpersonen nach § 163g Absatz 2 Satz 1 Nummer 1 und 2 StPO-E.

[…]

Zu Nummer 21 (§ 163g) Vorbemerkung

Mit dem neuen § 163g soll eine spezialgesetzliche Befugnis der Strafverfolgungsbehörden zur automatischen Kennzeichenerfassung im öffentlichen Verkehrsraum zu Fahndungszwecken eingeführt werden. Ausdrücklich geregelt werden soll damit der Fahndungseinsatz von Automatischen Kennzeichenlesesystemen (AKLS), die es erlauben, über einen bestimmten Zeitraum hinweg an überwachten Kontrollpunkten vor allem von Fernstraßen sämtliche passierende Fahrzeuge abzulichten, deren amtliche Kennzeichen durch eine Software auszulesen und sie mit Halterdaten von Kraftfahrzeugen abzugleichen, die auf den Beschuldigten oder seine Kontaktpersonen zugelassen sind beziehungsweise von diesen Personen genutzt werden. So soll die Möglichkeit der Fahndung nach Beschuldigten von Straftaten von erheblicher Bedeutung erweitert und verbessert werden. Zugleich sollen die Rechte der Personen, die von derartigen Maßnahmen betroffen sind, durch die Kodifizierung klarer Anordnungs- und Verfahrensvoraussetzungen geschützt werden. Dabei sollen die verfassungsrechtlichen Vorgaben, die das Bundesverfassungsgericht in jüngerer Zeit zum Einsatz von AKLS zu präventiv-polizeilichen Zwecken formuliert hat (BVerfG, Beschlüsse vom 18. Dezember 2018 – 1 BvR 142/15, 1 BvR 2795/09, 1 BvR 3187/10), im Bereich des Strafverfahrensrechts umgesetzt werden.

Geschlossen werden soll damit eine Regelungslücke in den Fahndungsbefugnissen der StPO. Dort hat der Einsatz von AKLS als Fahndungsinstrument bislang keine ausdrückliche Regelung gefunden, obwohl dieses Instrument in anderen Bereichen staatlicher Kontrolltätigkeit bereits seit Längerem erfolgreich eingesetzt wird und dort auch bereichsspezifisch gesetzlich geregelt ist. So dienen AKLS im Straßenverkehrsrecht schon seit 2005 zur Durchsetzung der Mautpflicht (vergleiche §§ 7 und 9 des Gesetzes über die Erhebung von streckenbezogenen Gebühren für die Benutzung von Bundesautobahnen und Bundesstraßen [BFStrMG]) und seit 2019 auch zur Überprüfung der Einhaltung von Verkehrsbeschränkungen/-verboten zum Schutz vor Immissionen beziehungsweise Abgasen („Dieselfahrverbotszonen“, vergleiche § 63c des Straßenverkehrsgesetzes [StVG]). Auch zu Zwecken der Gefahrenabwehr findet die automatische Kennzeichenerfassung schon seit vielen Jahren anlassbezogen – teils als offene, teils als verdeckte Maßnahme – polizeilich Verwendung (vergleiche auf Bundesebene §§ 27b, 34 BPolG sowie auf Landesebene Artikel 39 des Bayerischen Polizeiaufgabengesetzes [BayPAG], § 36a des Brandenburgischen Polizeigesetzes [BbgPolG], § 8a des Hamburgischen Gesetzes über die Datenverarbeitung der Polizei [HmbPolDVG], § 14a des Hessischen Gesetzes über die öffentliche Sicherheit und Ordnung [HSOG], § 43a des Gesetzes über die öffentliche Sicherheit und Ordnung in Mecklenburg-Vorpommern [SOG M-V], § 27b des Polizei- und Ordnungsbehördengesetzes Rheinland-Pfalz [RPflPOG], § 184 Absatz 5 des Landesverwaltungsgesetzes SchleswigHolstein [LVwGSH], § 32a Niedersächsisches Polizei und Ordnungsbehördengesetz [NPOG], § 24c Allgemeines Sicherheits- und Ordnungsgesetz Berlin [ASOG Bln], § 33 Absatz 7 Polizeiaufgabengesetz Thüringen [ThPAG], § 19a Polizeigesetz Sachsen [SächsPolG], § 22a Polizeigesetz Baden-Württemberg [PolG BW]).

Die Einführung einer spezialgesetzlichen Fahndungsregelung ist nunmehr auch in der StPO veranlasst, weil deren geltende Befugnisnormen in diesem Bereich den Einsatz von AKLS nur unzureichend zu rechtfertigen vermögen und eine ausdrückliche, rechtssichere Regelung nach den jüngsten Vorgaben des Bundesverfassungsgerichts geboten erscheint.

So ist der Einsatz von AKLS zu Zwecken der Personenfahndung auf Grundlage des geltenden Rechts mit erheblichen Unsicherheiten behaftet. Er kann derzeit allenfalls auf die Befugnisnorm des § 100h Absatz 1 Satz 1 Nummer 1 StPO gestützt werden. Diese bestimmt jedoch nur in allgemein gehaltener Weise, dass „auch ohne Wissen der betroffenen Personen außerhalb von Wohnungen Bildaufnahmen hergestellt werden dürfen, wenn die Erforschung des Sachverhalts oder die Ermittlung des Aufenthaltsortes eines Beschuldigten auf andere Weise weniger erfolgversprechend oder erschwert wäre.“

Es bestehen erhebliche Zweifel, ob sich diese Norm als Ermächtigungsgrundlage für den Einsatz von AKLS als ausreichend darstellt: Schon nach dem Wortlaut erlaubt sie lediglich das „Herstellen“ von Bildaufnahmen, nicht aber den – beim Einsatz von AKLS in erster Linie angestrebten und zugleich besonders grundrechtssensiblen – beständigen Abgleich von aufgenommenen Bildelementen mit mehr oder weniger umfangreichen (Fahndungs-)Dateibeständen. Dieser Abgleich dürfte auch nicht (ergänzend) auf die bereits bestehende Regelung des § 98c StPO gestützt werden können. Dieser bestimmt pauschal, dass „zur Aufklärung einer Straftat oder zur Ermittlung des Aufenthaltsortes einer Person, nach der für Zwecke eines Strafverfahrens gefahndet wird, personenbezogene Daten aus einem Strafverfahren mit anderen zur Strafverfolgung (…) gespeicherten Daten maschinell abgeglichen werden dürfen.“ Ungeachtet systematischer Bedenken, diese Norm neben § 100h Absatz 1 Satz 1 Nummer 1 StPO heranzuziehen und damit den einheitlichen automatisierten Datenerhebungs- und Abgleichvorgang von AKLS künstlich auf unterschiedliche Rechtsgrundlagen zu stützen, dürfte auch diese allgemein gehaltene Regelung, die weder Anlass und Verwendungszweck, noch Grenzen der Datenverarbeitung bereichsspezifisch und präzise regelt, der grundrechtlichen Eingriffstiefe von AKLS nicht gerecht werden. Daher wird in Fachkreisen schon seit Längerem unter den Gesichtspunkten des Vorbehalts des Gesetzes und des Bestimmtheitsgebots eine „klare gesetzliche Aussage des demokratisch legitimierten Gesetzgebers“ für den strafprozessualen Einsatz von AKLS gefordert, „die der Exekutive ihre Befugnisse vorgibt und betroffenen Personen das Ausmaß der Datenerhebung und –verarbeitung erkennen lässt“ (vergleiche Hornung/Schindler ZD 2017, 203, 208 m.w.N.).

Es kommt hinzu, dass § 100h Absatz 1 Satz 1 Nummer 1 StPO sich für den Einsatz von AKLS dort, wo über § 101 StPO bestimmte grundrechtssichernde Regelungen zur Anwendung kommen, als wenig passgenau darstellt. Dies gilt insbesondere, soweit § 101 Absatz 1, Absatz 4 Satz 1 Nummer 7, Absatz 5 bis 7 StPO sehr weitgehende Benachrichtigungspflichten und nachträgliche Rechtsschutzmöglichkeiten vorsehen, nämlich neben der Zielperson auch für sämtliche „erheblich mitbetroffene Personen“. Dies würde aufwendige Benachrichtigungen eines großen Anteils der typischerweise massenhaft von AKLS Mitbetroffenen – wenn nicht gar sämtlicher betroffener Personen – auslösen. Dies dürfte in der Verwaltungspraxis schwerlich zu leisten sein und ist zum Schutz der Grundrechte – wie es das Bundesverfassungsgericht ausdrücklich festgestellt hat (BVerfG, Beschluss vom 18. Dezember 2018, 1 BvR 142/15, Rn. 154, zitiert nach juris) – auch nicht zwingend erforderlich.

Als Kernaussage der vorzitierten Leitentscheidung bleibt für den Gesetzgeber festzuhalten, dass künftig in allen Rechtsbereichen, das heißt auch im Strafverfahrensrecht, aus verfassungsrechtlicher Sicht eine rechtssichere ausdrückliche Regelung des AKLS-Einsatzes erforderlich sein wird. Das Bundesverfassungsgericht hat anlässlich der Prüfung der Verfassungsmäßigkeit der einschlägigen Regelungen im bayerischen Polizeiaufgabengesetz (BayPAG) festgestellt, dass jede automatisierte Kennzeichenkontrolle (im Wege der Erfassung, des Abgleichs und gegebenenfalls der weiteren Verwendung von Daten) in den Schutzbereich des Grundrechts auf informationelle Selbstbestimmung der betroffenen Personen eingreift. Dies gilt für alle Personen, welche die Kontrollstelle passieren und von AKLS erfasst werden, unabhängig davon, ob der automatisierte Abgleich mit (Fahndungs)Dateibeständen einen Treffer ergibt, der nach anschließender manueller Überprüfung bestätigt wird (sogenannter „echter Trefferfall“) oder nicht („unechter Trefferfall“), oder kein Treffer erfolgt (sogenannter „Nichttrefferfall“). Gerechtfertigt ist dieser Eingriff nur, so das Bundesverfassungsgericht weiter, wenn spezialgesetzliche Ermächtigungsgrundlagen den Einsatz von AKLS unter Beachtung des Grundsatzes der Verhältnismäßigkeit in den erforderlichen Einzelheiten regeln.

Im Wesentlichen hat das Bundesverfassungsgericht die folgenden Anforderungen an eine verhältnismäßige Ermächtigungsgrundlage – in erster Linie bezogen auf das Recht der Gefahrenabwehr – aufgestellt (vergleiche zum folgenden BVerfG a.a.O. Rn. 90 ff.):

In tatsächlicher Hinsicht müssen die Kontrollen durch einen hinreichend konkreten Grund veranlasst sein, das heißt durch einen objektiv bestimmten und begrenzten Anlass. Dies schließt flächendeckende und unbefristete Kontrollen ins Blaue hinein aus. Auch sollen die Kontrollen nur zum Schutz von Rechtsgütern mit zumindest erheblichem Gewicht oder sonst einem vergleichbar gewichtigen öffentlichen Interesse zulässig sein. In repressiver Hinsicht fordert das Bundesverfassungsgericht die „Verfolgung von Straftaten von zumindest erheblicher Bedeutung“ (BVerfG, a.a.O. Rn. 165). Darunter sollen neben den Straftaten, welche die besonders schutzwürdigen Rechtsgüter wie Leib, Leben und Freiheit der Person sowie den Bestand und die Sicherheit des Bundes und der Länder betreffen, auch solche Straftaten fallen können, die unterhalb dieser Schwelle liegen, wie etwa solche zum Schutz von nicht unerheblichen Sachwerten; dem Gesetzgeber obliege es, diese Gruppe der Anlassdelikte im Einzelnen näher zu konkretisieren (BVerfG, a.a.O., Rn.99).

Als weitere Anforderung an Transparenz, Verfahren und Kontrolle muss nach dieser Rechtsprechung eine tragfähige gesetzliche Regelung zur Nutzung der erhobenen Daten getroffen werden, vor allem eine eindeutige Regelung des Nutzungszwecks (BVerfG, a.a.O. Rn. 159). Dementsprechend einschränkende Anforderungen gelten für die (Fahndungs-)Dateibestände, mit denen die erhobenen Daten im konkreten Einzelfall von den Behörden abgeglichen werden dürfen. Diese müssen anlassbezogen ausgewählt werden, das heißt auf solche Personen und Sachen beschränkt sein, die für den jeweiligen Zweck der Kontrolle Bedeutung haben können. Hinzukommen muss eine tragfähige Regelung zur Datenlöschung. Insbesondere hat das Bundesverfassungsgericht jedenfalls für das Gefahrenabwehrrecht die Pflicht statuiert, die erhobenen Daten im „Nichttrefferfall“ und „unechten Trefferfall“ unverzüglich zu löschen (BVerfG, a.a.O., Rn. 160). Schließlich muss eine verpflichtende Regelung zur Dokumentation der Entscheidungsgrundlagen für die Einsatzanordnung getroffen werden (BVerfG, a.a.O., Rn. 156 f.).

Als verfassungsrechtlich zulässig hat es das Bundesverfassungsgericht hingegen ausdrücklich befunden, dass die Kennzeichenkontrollen verdeckt durchgeführt werden. Anders als für heimliche Überwachungsmaßnahmen von höherer Eingriffsintensität bedarf es insoweit – wie bereits vorzitiert – keiner Benachrichtigungspflicht, und zwar auch nicht im „Trefferfall“ (BVerfG, a.a.O. Rn. 154), solange zum Ausgleich eine hinreichende aufsichtliche Kontrolle greift (BVerfG, a.a.O. Rn. 155). Dies umfasst neben der Fachaufsicht auch eine datenschutzrechtliche Kontrolle durch den zuständigen Datenschutzbeauftragten. Das Bundesverfassungsgericht hat schließlich auch kein Erfordernis dahingehend aufgestellt, dass die Anordnung von AKLS-Maßnahmen zum unverzüglichen Abgleich erfasster Daten im „hit/no hit“-Verfahren unter einem Richtervorbehalt zu stehen habe.

Vor dem Hintergrund der vorskizzierten Rechtslage hat die 90. Konferenz der Justizministerinnen und Justizminister im Juni 2019 einstimmig beschlossen, dass im Licht der Entscheidung des Bundesverfassungsgerichts eine ausdrückliche gesetzliche Regelung geschaffen werden soll, die Voraussetzungen, Umfang und Grenzen des Einsatzes von AKLS im Strafverfahren festlegen und sowohl dem Grundrecht auf informationelle Selbstbestimmung als auch den Bedürfnissen einer wirksamen Strafverfolgung Rechnung tragen soll.

Zur Umsetzung dieser Vorgaben soll in § 163g StPO-E die automatische Kennzeichenerfassung zu Fahndungszwecken geregelt werden, das heißt zur Ermittlung des Aufenthaltsortes eines Beschuldigten, der den Strafverfolgungsbehörden bereits namentlich bekannt ist. Damit wird der Einsatz von AKLS im Strafverfahrensrecht in relativ engen Grenzen erlaubt sein. Nach Maßgabe der vorzitierten Vorgaben des Bundesverfassungsgerichts erscheint es geboten, aber auch ausreichend, dieses neue Fahndungsinstrument bei einem begründeten (Anfangs-)Verdacht der Begehung einer Straftat von erheblicher Bedeutung sowie einer tatsächlichen Erfolgsaussicht der Fahndungsmaßnahme zu erlauben. Ein Abgleich der erhobenen Kennzeichendaten soll zudem – dem Fahndungszweck entsprechend – nur mit solchen Halterdaten von Kraftfahrzeugen erfolgen dürfen, die dem Beschuldigten oder mutmaßlichen Kontaktpersonen im Zeitpunkt der Anordnung der Maßnahme eindeutig zugeordnet werden können. Dementsprechend soll im Zuge dieser Maßnahme der automatisierte Abgleich, wie es das Bundesverfassungsgericht auch für polizeiliche AKLS-Maßnahmen im Gefahrenabwehrrecht fordert, unverzüglich nach der Datenerhebung erfolgen, und zwar im „hit/ no hit-Verfahren“ mit einer Pflicht zur sofortigen und spurenlosen Löschung von „Nichttreffern“ und „unechten Treffern“. Die Anordnungskompetenz soll bei der Staatsanwaltschaft und ihren Ermittlungspersonen liegen; ein Richtervorbehalt ist aus verfassungsrechtlicher Sicht nicht erforderlich. Der derart ausgestaltete Einsatz von AKLS als Fahndungsinstrument soll die Fahndungsbefugnisse der StPO, namentlich die §§ 131 ff. (Ausschreibung zur Festnahme, zur Aufenthaltsermittlung, Öffentlichkeitsfahndung), §§ 98a, b (Rasterfahndung), § 100h (Herstellung von Bildaufnahmen und Einsatz bestimmter technischer Mittel), § 163e (Ausschreibung zur Beobachtung bei polizeilichen Kontrollen) und § 163f (längerfristige Observation, vergleiche dazu die Nummern 39 bis 43 sowie Anlage B der RiStBV), ergänzen und verbessern.

Als Regelungsstandort des AKLS-Einsatzes zu Fahndungszwecken bietet sich die Einfügung der neuen Befugnisnorm im Anschluss an § 163f StPO an. Dafür spricht, dass die §§ 163 ff. StPO bereits anderweitige, ebenfalls verdeckte Fahndungsbefugnisse (§§ 163e, 163f StPO) enthalten, die durch § 163g StPO-E in gesetzessystematisch stimmiger Weise ergänzt werden. An dieser Stelle dürfte daher für den Rechtsanwender in der Gesamtschau der nachvollziehbarste Platz für die neue Fahndungsbefugnis liegen, wohingegen sich die – freilich ebenfalls denkbare – Verortung im Umfeld der §§ 131 ff. StPO bei vergleichender Betrachtung weniger anbietet.

Zu § 163g StPO-E

Zu Absatz 1

In Absatz 1 soll die Befugnis zur Datenerhebung geregelt werden. Der Einsatz von AKLS soll dabei zugelassen werden, wenn zwei zentrale Voraussetzungen vorliegen (Satz 1):

Zum einen muss ein auf Tatsachen gestützter Anfangsverdacht der Begehung einer Anlasstat, nämlich einer Straftat von erheblicher Bedeutung, bestehen. Umgesetzt wird damit die zentrale Verhältnismäßigkeitsanforderung aus der vorgenannten Rechtsprechung des Bundesverfassungsgerichts zum Einsatz von AKLS im Gefahrenabwehrrecht, welche auf die mit § 163g StPO-E geregelte Fahndungskonstellation im Strafverfahrensrecht übertragbar ist. Die Auslegung der im Einzelnen erfassten „Straftaten von erheblicher Bedeutung“ wird sich dabei an den herkömmlichen, bereits u.a. zu § 81g Absatz 1 Satz 1, § 98a Absatz 1, § 100h Absatz 1 Satz 2, § 100i Absatz 1, §§ 131 ff., § 163e Absatz 1 Satz 1, § 163f Absatz 1 Satz 1 StPO entwickelten Maßstäben der Praxis und der Rechtsprechung orientieren. Danach scheiden Bagatelldelikte jedenfalls aus und die Anlasstat muss mindestens dem mittleren Kriminalitätsbereich zuzurechnen sein, den Rechtsfrieden empfindlich stören und geeignet sein, das Gefühl der Rechtssicherheit der Bevölkerung erheblich zu beeinträchtigen, was bei Verbrechen regelhaft der Fall sein dürfte, bei Vergehen aber erst ab einer bestimmten erhöhten Strafrahmenobergrenze (vergleiche zusammenfassend Köhler, in: Meyer-Goßner/Schmitt, StPO, 62. Auflage 2019, § 98a, Rn.5 m.w.N.). Weitere Beschränkungen in tatsächlicher Hinsicht – etwa auf einen bestimmten Straftatenkatalog oder auf Taten, die auch im Einzelfall schwer wiegen oder auf Subsidiaritätskonstellationen (Erschwerens- beziehungsweise Aussichtslosigkeitsklausel) – erscheinen demgegenüber nicht veranlasst. Dergleichen fordert das Bundesverfassungsgericht, wenn die erhobenen AKLS-Daten wie hier unverzüglich im „hit/no hit“-Verfahren ausgewertet werden, nicht.

Zum anderen müssen tatsächliche Ermittlungserkenntnisse die Annahme rechtfertigen, dass der Abgleich der AKLS-Daten nach Absatz 2 zur Ermittlung des Aufenthaltsortes des Beschuldigten führen kann (sogenannte Erfolgsaussicht, Satz 1 a.E.). Damit soll zugleich, den Anforderungen des Bundesverfassungsgerichts folgend, eine klare Zweckbindung der Maßnahme kodifiziert werden, wie sie im Übrigen auch in der amtlichen Überschrift zum Ausdruck kommt. Das Kriterium dient darüber hinaus dazu, sicherzustellen, dass die vom Bundesverfassungsgericht vorgegebene räumliche und zeitliche Begrenzung der Maßnahme eingehalten wird, denn eine derartige Erfolgsaussicht wird nur für solche Kontrollpunkte im öffentlichen Verkehrsraum anzunehmen sein, an denen sich ein Passieren der Zielperson im Sinne des Absatzes 2 Satz 1 Nummer 1 und 2 in absehbarer Zeit aus exante-Sicht als hinreichend wahrscheinlich darstellt. Ein unzulässiger flächendeckender Einsatz der automatischen Kennzeichenerfassung „ins Blaue hinein“ wird damit ausgeschlossen. Dies kommt auch in der ausdrücklichen Beschränkung des AKLS-Einsatzes auf „bestimmte Stellen im öffentlichen Verkehrsraum“ (Satz 1) zum Ausdruck. Dementsprechend soll Satz 2 noch einmal dezidiert bekräftigen, dass die Datenerhebung „nur vorübergehend und nicht flächendeckend“ erfolgen darf (vergleiche die insoweit gleichlautende Formulierung in § 27b Absatz 1 BPolG).

Liegen diese Voraussetzungen vor, besteht die Befugnis zur verdeckten automatisierten Erhebung der amtlichen Kennzeichen von Kraftfahrzeugen und bestimmter abschließend genannter Daten nach Maßgabe von Absatz 1 Satz 1. Aus dessen Wortlaut ergibt sich, dass die Ablichtungen der passierenden Kraftfahrzeuge ausschließlich dafür genutzt werden dürfen, mithilfe einer Software die Ziffernfolge des amtlichen Kennzeichens auszulesen. Eine Speicherung oder Auswertung von weiteren Elementen der Ablichtungen, etwa die Feststellung, mit wie vielen Personen ein Fahrzeug besetzt ist, oder gar ein gegebenenfalls technisch möglicher Gesichtsabgleich zur Identifizierung von Zielpersonen, ist hingegen nicht zulässig. Auch ist die Erhebung weiterer Daten beschränkt auf die in Absatz 1 Satz 1 enumerativ genannten Angaben – Ort, Datum, Uhrzeit und Fahrtrichtung –, welche dazu dienen, die zeitliche und räumliche Zuordnung des ausgelesenen Kennzeichens zur konkreten Kontrollstelle zu erlauben. Begrenzt werden soll der Einsatz von AKLS schließlich auf bestimmte Stellen „im öffentlichen Verkehrsraum“. Dies soll den Bereich der dem öffentlichen Verkehr gewidmeten öffentlichen Straßen und Plätzen umfassen, nicht aber private Orte, und zwar auch nicht solche, die ohne Rücksicht auf die privatrechtlichen Verhältnisse einem unbestimmten Personenkreis zur Benutzung freigegeben sind. Der § 163g soll in dieser Hinsicht enger gefasst sein als die Befugnis zur Errichtung von Kontrollstellen an öffentlich zugänglichen Orten nach § 111 StPO (vergleiche Köhler in: Meyer-Goßner/Schmitt, StPO, 62. Auflage 2019, § 111, Rn. 8). In der Praxis wird es absehbar vor allem um den Einsatz von AKLS auf Fernstraßen gehen.

Zu Absatz 2

In Absatz 2 soll die Befugnis zum Abgleich der erhobenen amtlichen Kennzeichen geregelt werden, der sich computergestützt unmittelbar an die Erhebung anschließt.

Dieser Abgleich ist, dem Fahndungszweck der Maßnahme entsprechend, eng gefasst: Die ausgelesene Ziffernfolge des amtlichen Kennzeichens darf nur mit Halterdaten von solchen Kraftfahrzeugen abgeglichen werden, die einer der in Satz 1 Nummer 1 und 2 abschließend genannten Zielpersonen zuzuordnen sind. Hier geht es in erster Linie um Kraftfahrzeuge, die auf den Beschuldigten als Halter zugelassen sind oder – wofür tatsächliche Anhaltspunkte bestehen müssen – im Fahndungszeitraum mutmaßlich von ihm genutzt werden, ohne dass er deren Halter ist. Zielpersonen können aber statt oder neben dem Beschuldigten auch sogenannte Kontaktpersonen sein, wobei der gegen sie gerichtete Einsatz von AKLS nach dem Vorbild von bereits bestehenden Regelungen (vergleiche § 100f Absatz 2 Satz 2, § 100h Absatz 2 Satz 2 Nummer 2, § 163e Absatz 1 Satz 3, § 163f Absatz 1 Satz 3 StPO) nur unter den weiter einschränkenden, ausdrücklich kodifizierten Voraussetzungen der Nummer 2 zulässig sein soll: So müssen tatsächliche Anhaltspunkte für einen bereits bestehenden oder angebahnten Kontakt zum Beschuldigten vorliegen. Zudem muss, wie sich aus Absatz 1 Satz 1 ergibt, die Aussicht auf die Ermittlung des Aufenthaltsortes des Beschuldigten bestehen und dies nach Maßgabe des Ermittlungsstandes im Anordnungszeitpunkt auf andere Weise erheblich weniger erfolgsversprechend oder wesentlich erschwert sein.

Der Datenabgleich hat unverzüglich nach der Erhebung im sogenannten „hit/no hit“-Verfahren zu erfolgen (Satz 2 bis 4). Gemeint ist der Prüfungsablauf, wie er vom Bundesverfassungsgericht auch für den Einsatz von AKLS im Gefahrenabwehrrecht für zulässig erachtet wurde: Danach ist zunächst unverzüglich nach der Erhebung nach Absatz 1 ein automatisierter, computergestützter Abgleich vorzunehmen, welcher das Ergebnis „Treffer“ oder „Nichttreffer“ ergibt (Satz 2). Im Trefferfall hat sich – ebenfalls unverzüglich – ein zweiter, manueller Abgleich durch einen Mitarbeiter der Strafverfolgungsbehörden zwischen den erhobenen amtlichen Kennzeichen und den in Satz 1 bezeichneten Halterdaten anzuschließen, der die aufgrund technischer Unzulänglichkeiten nicht vermeidbaren „unechten Trefferfälle“ herauszufiltern hat, bei denen eine Übereinstimmung der Kennzeichen durch den persönlichen optischen Abgleich nicht bestätigt wird (Satz 3). Für derartige unechte Treffer besteht ebenso wie für Nichttreffer die Pflicht zur sofortigen und spurenlosen Löschung, um das Gewicht des Eingriffs in das Grundrecht auf informationelle Selbstbestimmung für die Masse der betroffenen Personen so gering wie möglich zu halten (Satz 4).

Zu Absatz 3 und 4

In den Absätzen 3 und 4 sollen Anforderungen an die Dokumentation der Maßnahme sowie Beendigungspflichten geregelt werden.

So soll aufgrund der Grundrechtsrelevanz ein Schriftformerfordernis gelten (Satz 1). In der Anordnung ist zudem von der Staatsanwaltschaft oder ihrer Ermittlungsperson nach Maßgabe von Satz 2 das Vorliegen der Voraussetzungen der Maßnahme verpflichtend darzulegen. Dies meint in erster Linie Ausführungen zu den Anordnungsvoraussetzungen des Absatzes 1 (Verdacht einer Straftat von erheblicher Bedeutung, Erfolgsaussicht der Maßnahme) sowie gegebenenfalls zu den Voraussetzungen des Absatzes 2, insbesondere im Falle der Überwachung von Kontaktpersonen sowie der Nutzung von nicht auf den Beschuldigten zugelassenen Fahrzeugen. Auch sind die Halterdaten, mit denen die automatisch zu erhebenden Daten abgeglichen werden soll, von vorneherein genau zu bezeichnen.

Satz 3 bestimmt, dass die konkrete(n) Kontrollstelle(n) im öffentlichen Verkehrsraum ausdrücklich bezeichnet werden muss/müssen. Auch ist die Anordnung zu befristen. Sie darf nur bis zu einem konkret zu benennenden, den jeweiligen Umständen nach verhältnismäßigen Enddatum angeordnet werden. Diese Regelungen entsprechen den Anforderungen des Bundesverfassungsgerichts an die verfassungsrechtlich gebotene Dokumentation von AKLS-Maßnahmen. Von der Einführung einer ausdrücklichen und pauschal geltenden Höchstfrist der (gegebenenfalls auch mit erneuter Anordnung verlängerten) AKLS-Maßnahmen kann indes abgesehen werden. Dass die Maßnahmen nur vorübergehend und nicht unbefristet aufrechterhalten werden dürfen, ergibt sich schon hinlänglich aus Absatz 1 der Vorschrift. Aus der klaren Zweckbindung der Maßnahmen folgt ohne Weiteres, dass im Falle einer längeren Erfolglosigkeit des AKLS-Einsatzes die Voraussetzungen für eine Verlängerung nicht vorliegen werden und sie daher auch nicht angeordnet werden wird. Auch das Bundesverfassungsgericht fordert keine pauschalen zeitlichen Höchstfristen für vergleichbare Anordnungen von AKLS im Gefahrenabwehrrecht.

Absatz 4 statuiert schließlich eine Pflicht zur unverzüglichen Beendigung der AKLS-Maßnahmen, wenn deren Voraussetzungen nicht mehr vorliegen, insbesondere der Anfangsverdacht einer Straftat von erheblicher Bedeutung nach Absatz 1 aufgrund weiterer Ermittlungen entfällt oder die konkrete Erfolgsaussicht der Maßnahmen aufgrund neuer Erkenntnisse zum mutmaßlichen Aufenthaltsort des Beschuldigten nicht mehr anzunehmen ist. Das Gleiche hat zu gelten, sobald der Zweck der Maßnahmen erreicht ist, also ein Fahndungserfolg eingetreten ist. Im Übrigen werden für die personenbezogenen Daten aus beendeten Maßnahmen nach § 163g StPO-E, das heißt die erlangten Daten zu den „echten Trefferfällen“, die strengen Löschungs-, Dokumentations- und Zweckbindungsregeln des § 101 Absatz 8 StPO gelten. Ein Erfordernis, unabhängig vom Stand der Ermittlungen eine pauschale Speicherungs-Höchstdauer einzuführen, besteht demgegenüber nicht.

[…]

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Medienmäzen Google: Wie der Datenkonzern den Journalismus umgarnt

netzpolitik.org - 26 Oktober, 2020 - 08:00

Wer heute Journalismus im Internet Netz betreibt, der bewegt sich im Universum von Google. Das beginnt schon beim Schreiben von Texten. Keine Headline darf zu kurz, keine Zwischenüberschrift zu spröde, kein Schlüsselbegriff falsch geschrieben sein, sonst rutscht der Text in den Suchergebnissen nach unten. Viele Artikel würden heute nicht mehr für das Publikum geschrieben, sondern für den Google-Algorithmus, klagt ein Chefredakteur.

Google verwandelt Überschriften in Klicks, und Klicks in Werbegeld. Nimmt man das Unternehmen mit anderen Digitalkonzernen wie Facebook und Amazon zusammen, kassieren sie nach Branchenschätzungen inzwischen beinahe jeden zweiten Euro ein, der weltweit für Werbung ausgegeben wird – online und offline.

Zeitungsverlage klagen seit Jahren, dass die Digitalkonzerne sie vom Futtertrog vertreiben. Über Jahrzehnte war Werbung neben dem Abo-Geschäft eines der beiden Standbeine der Journalismus-Finanzierung. Doch das klappt im Netz nicht richtig, denn zentrale Drehscheibe für Werbung sind dort nicht die Anzeigenabteilungen des Axel-Springer-Verlages und von Bertelsmann, sondern die Server der Plattformkonzerne.

Viele Medien fordern von dem Online-Riesen deshalb eine Beteiligung an den Werbeeinnahmen: wenn eine Suchmaschine ihre Inhalte wiedergibt, und sei es auch nur in Form eines Links mit kurzem Textausschnitt, soll sie dafür zahlen. Dagegen wehrt Google sich vehement.

Der Digitalkonzern als Medienmäzen

Doch Google ist für die Verlage nicht nur Konkurrent und Klickbringer, sondern auch Gönner. Inmitten der Coronapandemie, die den Verlagen empfindliche Verluste bescherte, war der Konzern mit Millionenhilfen zur Stelle. Erst vor wenigen Tagen verkündete er einen großzügigen Lizenzdeal mit Verlagen auf der ganzen Welt an, der diesen insgesamt eine Milliarde in die Kassen spülen soll. Teil des Deals ist aber auch, dass die Verlage Google nicht verklagen dürfen.

Dass Google gegenüber den Medien großzügig ist, ist nicht neu – in den letzten sieben Jahren verschenkte der Konzern mehr als 200 Millionen Euro an europäische Medien. Inzwischen ist die News Initiative sogar ein weltweites Unterfangen, ausgestattet mit weiteren 300 Millionen Dollar. Über die Details des ungewöhnlichen Geldgeschenkes von Google schweigen sich die meisten Verlage aus.

Dazu haben wir 2018 erstmals ausführlicher in einer Artikelreihe auf netzpolitik.org berichtet. Jetzt legen wir mit einer Studie nach. Monatelang haben wir untersucht, wie genau die vielschichtigen Beziehungen zwischen dem Konzern und der Medienbranche aussehen. Heute erscheint „Medienmäzen Google“, finanziert vom DGB und der Otto-Brenner-Stiftung.

Für die Studie führten wir mehr als zwei Dutzend Gespräche mit Digitaljournalist:innen und Top-Manager:innen deutscher Nachrichtenmedien wie Der Spiegel, Zeit Online oder der Frankfurter Allgemeinen Zeitung. Wie heikel die Kooperation ist, zeigt sich daran, das fast alle Gesprächspartner:innen auf Anonymität bestanden. „Sie achten schon sehr genau darauf, was man über die Kooperation sagt“, erklärte ein Geschäftsführer, sobald wir das Mikro abschalteten.

Eine Frage der Unabhängigkeit

„Schon der Anschein, die Entscheidungsfreiheit von Verlag und Redaktion könne beeinträchtigt werden, ist zu vermeiden“, heißt es im deutschen Pressekodex und steht die Frage nach der Unabhängigkeit im Fokus unserer Untersuchung.

Die gute Nachricht lautet: Die befragten Medienvertreter*innen betonten, dass ihnen kein Fall bekannt ist, in dem Google versucht hat, über die Initiative direkten Einfluss auf die Berichterstattung zu nehmen. Google selbst hebt hervor, dass die Mittelvergabe strikt von anderen Bereichen des Konzerns getrennt sei und eine überwiegend mit externen Mitgliedern besetzte Jury über die Förderungen entschied.

Die schlechte Nachricht: Mehrere der befragten Journalist:innen äußerten Sorge, dass die Förderungen durch Google und die Nähe zum Konzern zu „Beißhemmungen“ und „Selbstzensur“ bei Journalist:innen führen könne.

Als besondere Herausforderung identifiziert die Studie, dass die klassische Trennung zwischen Redaktion und Verlag im Kontext von Technologie-Entwicklungsprojekten durchlässiger wird: Wer Innovationen für den Journalismus entwickeln will, muss Redaktionen beteiligen. In einem Fall waren Journalist:innen, die über Google berichten, sogar federführend für ein von Google finanziertes Projekt zuständig.

Sorge vor korrumpierender Nähe

Die Sorge vor korrumpierender Nähe gilt besonders bei hohen oder wiederholten Förderungen, so-dass insbesondere eine weitere Normalisierung von Google als Sponsor kritisch gesehen wird. Denn Googles Großzügigkeit endet nicht mit Geldgeschenken für Innovationsprojekte.

Das Unternehmen finanziert ausgewählten Medien auch Fellowships für aufstrebende Nachwuchsjournalist:innen und kostenlose Trainings mit digitalen Tools. Darüber hinaus ist der Konzern allgegenwärtiger Sponsor auf Branchenevents. Die Förderung von Google ermöglicht einige der größten Kongresse der Medienbranche, etwa das Internationale Journalismusfestival in Perugia oder die Global Investigative Journalism Conference.

Google schreibt sich damit nicht nur in den Lebenslauf vieler Nachwuchsjournalist:innen ein, sondern erhält auch einen Platz am Tisch der vertrauten Runden auf Konferenzen und Kongressen. Der Konzern macht hier, was er am besten kann: Google wird wieder mal zur Plattform, dieses Mal für die Debatten der Branche um die Zukunft des Journalismus. Die Medien büßen damit ein Stück weit die Fähigkeit zur Selbstreflexion ein.

Geschenke für große Verlage

Eine Datenanalyse von Googles Medienförderung in Europa zeigt zudem, dass Google mit seinem Geldsegen ein Ungleichgewicht in der Branche schafft. Der typische Empfänger des Geldes ist ein etablierter, kommerzieller und westeuropäischer Verlag.

Von den 140 Millionen, die der Konzern im Rahmen seiner Digital News Initiative zwischen 2015 und 2019 vergab, gingen drei Viertel an kommerzielle Verlage, hingegen aber nur fünf Prozent an nichtprofitorientierte Medien. Der Rest ging an Projekte von Einzelpersonen, Forschungsinstitute, öffentlich finanzierte Medien und nicht-publizistische Organisationen.




Ungleich verteilte Google Nachrichteninitiative das Geld auch geographisch: Der überwältigende Großteil der Empfänger liegt in Westeuropa, mit etwa 21,5 Millionen Euro auf Platz eins liegt Deutschland. Dem Innovationsnarrativ zum Trotz ist die News Initiative zudem kein Konjunkturprogramm für journalistische Startups. Der Großteil des Geldes ging an Unternehmen, die über 20 Jahre alt sind.

Die Detailanalyse für Deutschland zeigt zudem, dass nicht nur publizistische Neugründungen und Not-for-Profit-Medien, sondern auch Regionalverlage unterrepräsentiert sind. Nur vier der 28 hierzulande geförderten Großprojekte mit einem Volumen von bis zu einer Million Euro gehören zu Regionalverlagen. Die Liste der Top-Empfänger-Medien wird angeführt von der WirtschaftsWoche, der Deutschen Welle und dem Handelsblatt, die jeweils bis zu zwei Millionen Euro von Google erhalten haben könnten.

Keine Missverständnisse

Bleibt die Frage: Warum macht Google das alles? Dass es auch um die Vermarktung von Produkten geht, zeigen die Bestrebungen, eigene Dienste wie Youtube und Subscribe with Google stärker mit der News Initiative zu verknüpfen. Schon heute ist erkennbar, dass Google zu einer Art Betriebssystem für den digitalen Journalismus werden will.

Wichtiger aber ist die politische Dimension. Fragt man den Konzern selbst, worum es geht, dann klingt das so: Man habe ein „Missverständnis“ zwischen sich und den Verlagen ausräumen wollen, sagt Google-Manager Madhav Chinnappa im Interview.

Das Missverständnis? Die Verlage bekämpften über Jahre Google mit allen Mitteln. „Wir profitieren nicht von dem Traffic, den Google uns verschafft – wir sind komplett davon abhängig“, klagte einst Axel-Springer-Vorstandschef Matthias Döpfner.

Die Zeitungsverlage unter Regie von Döpfner setzten in Deutschland ein Leistungsschutzrecht durch, das Google zu Zahlungen selbst für kurze Textschnipsel der Verlage zwingen sollte, in Italien und Frankreich drängten die Medienhäuser zu einer Steuer auf digitale Werbung. Das umstrittene Leistungsschutzrecht schaffte es schließlich als Artikel 15 in die EU-Reform des Urheberrechts, die meisten EU-Länder arbeiten derzeit an der Umsetzung. Kurzum: Google hat ein politisches Problem.

Durch eine Rekonstruktion der Entstehungsgeschichte von Googles Förderprogrammen können wir zeigen, dass sie als Reaktion auf den immer stärker werden medienpolitischen Druck der Verlage in den 2010er Jahren entstanden sind. Noch vor der Digital News Initiative entstand Googles erster Medien-Fonds nämlich in Frankreich. Er sollte dort eine Debatte um die Beteiligung der Verlage an Googles Werbeeinnahmen beenden und wurde mit Staatspräsident François Hollande ausgehandelt.

Unter Journalist:innen der beliebteste Digitalkonzern

Die von uns befragten Medienvertreter:innen beschreiben Googles Initiativen fast einhellig als PR-Maßnahme, die das Ziel hat, das zerrütte Verhältnis mit den Medien zu kitten und eine Regulierung abzuwenden.

Und tatsächlich: Heute ist Google in der Medienbranche der beliebteste unter den Digitalkonzernen, das ergab im Vorjahr eine Untersuchung des Reuters-Instituts an der Universität Oxford.

Ein kausaler Zusammenhang lässt sich durch eine Studie wie unsere natürlich nicht beweisen. Doch zu dem guten Image dürften nicht nur Geldgeschenke an die Verlage, sondern auch das großzügige Sponsoring für Journalismuskongresse und Nachwuchsförderung beigetragen haben

Auch Googles Förderung für die akademische Forschung könnte geholfen haben, selbst wenn sie nicht im Fokus der aktuellen Studie steht. Die eben erwähnte Umfrage der Universität Oxford finanzierte just der größte Gönner der Medienbranche: Google selbst.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Nachhaltigkeit: Künstliche Intelligenz allein reicht nicht

netzpolitik.org - 23 Oktober, 2020 - 16:49

Klemens Witte ist wissenschaftlicher Mitarbeiter und KI-Trainer in der Forschungsgruppe „Innovation, Entrepreneurship & Gesellschaft“ am Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG). Nils Hungerland studiert Internationale Beziehungen und arbeitet am HIIG als studentischer Mitarbeiter. Gemeinsam forschen Sie zu dem Themenbereich KI-Kompetenz im Mittelstand.

Künstliche Intelligenz kann helfen, genauere Klimaprognosen zu erstellen und erneuerbare Energien effizienter zu nutzen. Gleichzeitig verbrauchen die Berechnungen jedoch Unmengen an Energie. Längst wird dieser enorme Energieverbrauch sogar schon mit den Auswüchsen von Bitcoin-Miningfarmen verglichen. Ein wachsender KI-Fußabdruck wird somit zunehmend problematisch.

Begleitet wird diese Entwicklung von ethischen Bedenken: Immer größeren Mengen – auch persönlicher Daten – sollen Streamingdienste verbessern oder Sprachverarbeitungstechnologie trainieren. Prozesse werden „in die Cloud“ ausgelagert, was das Wachstum von Rechenzentren weiter antreibt.

In der mit drei Milliarden dotierten KI-Strategie der Bundesregierung heißt es: „Wir werden dabei den Nutzen für Mensch und Umwelt in den Mittelpunkt stellen […].“ Konkret möchte die Bundesregierung KI einsetzen, um die 17 Ziele für die globale nachhaltige Entwicklung der Vereinten Nationen zu erreichen. Diese umfassen unter anderem die Beseitigung von Armut und Hunger sowie die Förderung von Gesundheit, sauberem Wasser, bezahlbarer und sauberer Energie. Doch nur wenn Technologie und Nachhaltigkeit zusammengedacht werden, kann KI zum Treiber einer nachhaltigen Entwicklung werden und das immense Potential genutzt werden, um dem Klimawandel zu begegnen.

Bisherige Auswirkungen des Klimawandels

Die globalen Ökosysteme kippen, besonders betroffen sind natürliche Habitate und die Landwirtschaft. Der zwischenstaatliche Bericht über den Klimawandel von 2018 schätzt, dass die Welt mit katastrophalen Folgen konfrontiert sein wird, wenn die globalen Treibhausgasemissionen nicht innerhalb von dreißig Jahren beseitigt werden.

2019 haben Bilder des brennenden Amazonas-Regenwaldes weltweit Erschrecken ausgelöst. Auf den Amazonas Regenwald entfallen rund 17 Prozent des weltweit in der Vegetation an Land gebundenen Kohlenstoffs. Aufgrund des Klimawandels und menschlicher Eingriffe haben Waldbrände nicht nur in Lateinamerika, am Polarkreis oder in Afrika, sondern auch in Nordamerika und Europa stetig zugenommen. So hat sich beispielsweise die Zahl der Waldbrände in den Amazonas-Regenwäldern im Jahr 2019 im Vergleich zu 2013 verdoppelt. Auch die Waldbrände in Teilen Brandenburgs sind Teil dieser Entwicklung.

Eine Bewältigung des Klimawandels umfasst Minderung und Anpassung Das bedeutet zum einen, Emissionen zu reduzieren und sich an nicht vermeidbare Folgen anzupassen. Um Treibhausgasemissionen (GHG-Emissionen) oder Kohlenstoffdioxid-Äquivalente einzudämmen, müssen wir in zahlreichen Lebensbereichen umdenken: bei der Energieerzeugung, Gebäuden, Industrie, der Landnutzung oder dem Verkehr.

Obwohl global das Interesses an der Eindämmung des Klimawandels und an der digitalen Transformation zunehmen, fehlt es häufig noch an Umsetzungskompetenz, wie diese “Instrumente” am besten zur Bekämpfung des Klimawandels eingesetzt werden können.

Ein Treiber des digitalen Wandels liegt in der Möglichkeit, mit Hilfe steigender Rechenleistung zahlreiche Daten zu analysieren und auszuwerten. Dies ermöglicht Berechnungen, die vor Jahrzehnten technisch unmöglich oder finanziell sehr aufwändig waren.

Vorhersage von Waldbränden

Maschinelles Lernen als Teilgebiet Künstlicher Intelligenz hat im letzten Jahrzehnt große Fortschritte gemacht. Ein wichtiger Anwendungsbereich sind genaue Vorhersagen auf Basis einer großen Anzahl von Indikatoren. Damit lassen sich etwa Schwankungen von Wind und Solarenergie besser voraussagen.

Es können auch Topographie-, Vegetations-, Bewegungs- und Wetterdaten so kombiniert werden, dass sich Waldbrände oder illegale Fischerei frühzeitig erkennen lassen. Um einem Waldbrand zuvorzukommen gibt es also bestimmte Vektoren, die einen besonders starken Ausbruch andeuten können, wie Baumarten, die Bedeckungsdichte oder das Niederschlagsrisiko.

Die Brandherde 2019 im Amazonas-Regenwald sind auch auf Satellitenbildern deutlich zu erkennen. Gemeinfrei NASA

Dennoch, manchmal bleiben Waldbrände mehrere Tage unbemerkt. Mehrere Forschungseinrichtungen arbeiten daher mittlerweile mit Maschinellem Lernen und eigenen Satelliten an Systemen zur Krisenfrüherkennung. Die Universität von Kalifornien in Berkeley zum Beispiel hat das Fuego-Projekt initiiert, das unter anderem eine Kombination von geosynchronen Satelliten und Flugdrohnen zur Brandortung einsetzt. Auch die NASA arbeitet mit FIRMS (Fire Information for Resource Management System) an einem eigenem Programm, das täglich nach thermischen Veränderungen durch Brände sucht. Die Königliche Technische Hochschule Schwedens (KTH) setzt Maschinelles Lernen zur Überwachung von Waldbränden auf Satellitenaufnahmen ein.

Fernab von Waldbränden gibt es auch Vorzüge für urbane Regionen. So können Unternehmen die Umweltdaten für Städte mit viel Verkehr sammeln, auswerten und zu besserer Luftqualität beitragen.

Viele dieser Dienste sind noch mit hohen Kosten verbunden. Verbesserten Zugang zu freien Daten können dabei Organisationen wie The International Charter Space and Major Disasters (ICSD) oder die Open-Source-Plattform Artificial Intelligence for Disaster Response (AIDR), bieten. Während die ICSD hilft, qualitativ hochwertige Daten zu liefern, bietet AIDR eine offene Plattform zur Kennzeichnung von Social-Media-Inhalten, in denen Katastrophen oder humanitäre Krisen diskutiert werden. Sie analysiert die Hashtags, Tweets und Beiträge der Benutzer, um einen aufkommenden Waldbrand etwa 30 Minuten nach Beginn der Diskussion in den sozialen Medien genau zu verfolgen. Sofortmaßnahmen zur Eindämmung können somit besser ergriffen werden.

Maschinelle Wettervorhersage für erneuerbare Energien

Auch die Energiegewinnung mit Windturbinen und Solaranlagen profitiert von einer genauen Vorhersage von Wetterereignissen: Im Gegensatz zur konventionellen Energiegewinnung mit Kohleverstromung, Kernkraft oder Gas unterliegt sie großen Schwankungen. So entsteht ein Nachteil beim Verkauf der Energie in das Netz, da das Netz höhere Preise für stabile und langfristig planbare Energiezufuhr zahlt.

Genau hier setzt Maschinelles Lernen an, das mit höherer Genauigkeit als bisherige Verfahren die Energieproduktion von Wind- und Solarkraftanlagen für die nächsten Stunden zu prognostizieren versucht. Das resultiert in höheren Energiepreisen für Anlagenbetreiber von Stromanbietern. Erste Unternehmen konnten mithilfe Maschinellen Lernens den zu erzielenden Strompreis von Windkraftanlagen nachweislich um 20 Prozent erhöhen.

Das birgt enormes Potential, um die Wettbewerbsfähigkeit gegenüber der konventionellen Energiegewinnung zu steigern. Zusätzlich lässt sich die genaue Wettervorhersage ebenso für die Positionierung von Windkraftanlagen oder Solarparks einsetzen. Im Vergleich zu konventionellen statistischen Modellen lieferten ML-basierte Modelle eine bis zu dreimal größere Genauigkeit, etwa bei der Vorhersage von Windgeschwindigkeiten.

Maschinelles Lernen ist somit eine Querschnittstechnologie, die nicht auf bestimmte Branchen begrenzt, sondern in vielen verschiedenen Bereichen einsetzbar ist. Einen sehr guten Überblick über konkrete Anwendungsbeispiele für Maschinelles Lernen im Bereich Klima hat die NGO Climate Change AI zusammengestellt.

Rebound-Effekte

Die große Krux bei der Nutzung von Technologie ist der meist einhergehende gesteigerte Ressourcenverbrauch, der sogenannte Rebound-Effekt: “Effizienzsteigerungen senken oft die Kosten für Produkte oder Dienstleistungen. Dies kann dazu führen, dass sich das Verhalten der Nutzer*innen ändert: Sie verbrauchen mehr – die ursprünglichen Einsparungen werden teilweise wieder aufgehoben”, stellt das Umweltbundesamt fest.

Ein sprechendes Beispiel ist der Kohlendioxid-Ausstoß im Musikkonsum. Während in den USA die Bevölkerung im Jahr 1977 140 Millionen Kilogramm Treibhausgasäquivalente für ihren Musikkonsum produzierte, waren es 2016 zwischen 200 und 350 Millionen – trotz des Rückgangs physischer Datenträger und ihrer Produktion eine deutliche Zunahme. Größtenteils resultiert diese aus dem immensen Energieverbrauch von Datenzentren der großen Cloud-Musikanbieter.

Das bedeutet, dass selbst bei gesteigerter Effizienz kein Weg am ökonomischen Umgang mit begrenzten Ressourcen vorbeiführt und Technologie daher kein Selbstzweck ist. Technologie-getriebene Ressourceneinsparung ist nur zielführend, wenn sie eine absolute Senkung des Ressourcenverbrauchs nach sich zieht. Der Einsatz von Maschinellem Lernen bei gleichbleibendem oder sogar steigendem absoluten Ressourcenverbrauch aufgrund von Rebound-Effekten lässt das Potenzial dieser Technologien ungenutzt, die voranschreitende Erderwärmung zu verlangsamen.

Richtig genutzt eröffnet Maschinelles Lernen neue Möglichkeiten, den Klimawandel zu verlangsamen oder auch die Anpassung an Klimawandel voranzutreiben. Mittelständische Unternehmen sowie auch große Konzerne werden neben Privatpersonen, Nutzer*innen und Konsument*innen eine Schlüsselrolle in der Umsetzung ML-getriebener Klimaprojekte spielen. Daher ist der Einsatz von ML-Technologien zur Ressourceneinsparung in Unternehmen von großer Bedeutung. Die erste Hürde – besonders in kleinen Unternehmen – ist es, relevante Anwendungsfälle für das eigene Geschäftsmodell zu identifizieren, um so den eigenen ökologischen Fußabdruck zu minimieren.

Die absolute Senkung des Ressourcenverbrauchs ist wie bei anderen Technologien allerdings unabdingbar, um einen nachhaltigen Effekt zu erzielen. Zu welchem Zweck der Mensch Technologien nutzt und was mit den eingesparten Ressourcen geschieht, bestimmen die Menschen zum großen Teil selbst. Letztlich steht und fällt der Erhalt unseres Lebensraums mit dem nachhaltigen Umgang mit natürlichen Ressourcen – unabhängig von der angewandten Technologie.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Wochenrückblick KW 43: Staatstrojaner für alle

netzpolitik.org - 23 Oktober, 2020 - 16:05

Wir starten ins Ende einer Woche, in der das Bundeskabinett wieder ein krasses Überwachungsgesetz auf den Weg gebracht hat. Allen 19 Geheimdiensten in Deutschland soll der Einsatz von Staatstrojanern erlaubt werden. Noch im März, als wir den ersten Referentenentwurf aus dem Bundesinnenministerium veröffentlichten, sprach sich die SPD-Spitze dagegen aus.

Jetzt hat sie sich offenbar mitsamt Deutschlands mächtigster Netzpolitikerin Saskia Esken auf einen Kompromiss eingelassen, bei dem sich Bundesinnenminister Horst Seehofer von der CSU durchgesetzt hat. Ob nun Quellen-TKÜ oder Online-Durchsuchung, die Geheimdienste des Landes dürfen zukünftig unsere Geräte hacken, um Kommunikation auszuleiten. Als nächstes geht das Gesetz in den Bundestag.

Reform des BND-Gesetz

Die Reform des BND-Gesetz wird von einer regen Debatte bei uns in Form von Gastbeiträgen begleitet. Im Mai erklärte das Bundesverfassungsgericht das bisherige Gesetz für verfassungswidrig. Lisa Dittmer von Reporter ohne Grenzen warnt davor, dass der von uns geleakte aktuelle Vorschlag des Kanzleramts zur Reform des BND-Gesetzes ausländische Medienschaffende gefährdet. Er gesteht dem BND Definitionsmacht darüber zu, wer in den Genuss von Schutzrechten als „echte“ Journalist:in kommt. Die BND-Überwachung mit einem solchen Ermessensspielraum auszustatten, hat zahlreiche Gefahren, so ihre Analyse.

Der Journalist Daniel Moßbrucker sieht darüber hinaus im Referentenentwurf des BND-Gesetz ein neues Paradigma in der Überwachung ausländischer Medien. Sobald diese über Informationen verfügen, die für die Bundesregierung nützlich sind, können sie einer „politischen Überwachung“ unterworfen werden. Die Schutzrechte seien zu verwässert, um zu verhindern, dass die massenhafte Überwachung von Journalist:innen durch den BND beendet würde.

Rechtsextremismus in der Polizei

Für die Aufarbeitung des NSU-Komplexes gab es zahlreiche Untersuchungsausschüsse in Parlamenten. Diese reichen aber nicht aus, um aufzuarbeiten, wie die Polizeien und Geheimdienste „auf dem rechten Auge blind“ waren. Warum die Aufklärung des NSU in Ausschüssen scheiterte und was für die Ermittlungen aktueller rechtsterroristischer Netzwerke gefordert werden sollte, erläutert Caro Keller von NSU-Watch in einem Gastbeitrag.

Die Zustimmung der SPD zum Staatstrojaner-Dammbruch hat Seehofer offenbar mit seiner unsäglich lang zurückgehaltenen Zustimmung zu einer Rassismusstudie in der Polizei erkauft. Unser Kommentar zu der „Wischi-Waschi-Studie“ fällt allerdings enttäuscht aus. Statt das Problem des strukturellen Rassismus und Rechtsextremismus in den Polizeiorganisationen zu beleuchtet, soll nun das Verhältnis der Polizei und Gesellschaft untersucht werden. Die verbale Blendgranate Seehofer hat gezündet und längst dafür gesorgt, dass Polizeikritik soweit tabuisiert wird, dass sie nun die Opferrolle spielen darf.

Die Pläne der deutschen EU-Ratspräsidentschaft für Europol

Die Bundesregierung nutzt ihren Vorsitz im EU-Rat dafür, das Abhören von Telekommunikation durch Polizeien und Geheimdienste europaweit auszuweiten und die EU stärker einzubinden. Dafür will sie eine Arbeitsgruppe bei Europol einrichten, die auf eine Gruppe beim BKA zurück geht. Diese „Ständige Gruppe der Leiter der Abhörabteilungen“ soll nun in allen Mitgliedsstaaten der EU die operativen Fähigkeiten verbessern und grenzüberschreitende Überwachung koordinieren.

Außerdem setzt sich das Bundesinnenministerium für ein neues informelles einheitliches gesamteuropäisches Überwachungsnetzwerk ein. Bisher organisieren sich Polizeibehörden in drei regionalen Netzwerken zum Austausch über Technik und Methoden der heimlichen Beobachtung, unabhängig von der Europäischen Union. Die existierenden Netzwerke versucht Deutschland jetzt in der „European Surveillance Group“ mit Anbindung an EU-Mittel und Europol zusammenzuführen, um auf veränderte Kriminalitätsphänomene zu reagieren.

Darüber hinaus hat Deutschland im EU-Rat einen Vorschlag für ein „koordiniertes Verfahren“ für die heimliche Personenfahndung gemacht. Außereuropäische Geheimdienste sollen von Europol eine Hintertür eingerichtet bekommen, um Personen in Europa zur Fahndung ausschreiben zu lassen. Das äußerst fragwürdige Verfahren könnte die strenge Trennung von Geheimdiensten und Polizeien unterlaufen.

EU-Digitalpolitik

Mit großen Schritten geht es auf das Digitale-Dienste-Gesetz zu, das die Karten im Netz neu mischt. Den ersten Aufschlag für die Regeln für Online-Dienste wie Google, Facebook und Amazon für die nächsten Jahre will das europäische Parlament aber nicht alleine der Kommission überlassen. Mit Berichten macht das Parlament jetzt Druck auf den Gesetzentwurf der Kommission, um mit dem neuen Gesetz die Macht der dominanten Big-Tech-Konzerne über die Online-Öffentlichkeit und ihren Überwachungskapitalismus zu brechen. Kommissarin Margrethe Vestager zeigte sich offen.

Einfluss auf die Netzpolitik der Kommission hat offenbar auch die Drehtür zwischen EU-Kommission und Lobbyverbänden, wie der Fall eines Vodafone-Lobbyisten zeigt. Dieser hatte lange für die Kommission gearbeitet, dann für Vodafone die politische Arbeit übernommen, mit Rückkehrrecht auf die Regulierungsseite. Unsere Beschwerde bei der zuständigen Ombudsfrau fördert zu Tage: die Kommission verweigert zu unrecht Auskunft gegenüber uns über die Beziehungen zu ehemaliger Beamt:innen, die die Seiten gewechselt haben.

Die EU-Kommission hat sich auf eine neue Open-Source-Software-Strategie für 2020 bis 2023 festgelegt. Damit will sie in den eigenen Reihen die Kultur verändern, ob dies aber gelingt, wird von der Open-Source Community in Frage gestellt. Die Vorgaben seien zu schwach und die Wirkung nach außen nicht der erhoffte große Wurf. Allerdings erkennt die Kommission die Vorteile von freier und offener Software für die Verwaltung vollumfänglich an.

Plattformregulierung: Kartellklage, Skandal, Netzsperren

Google konnte so groß und dominant werden, weil es sein Monopol auf dem Suchmaschinenmarkt und mit dem Smartphone-Betriebsystem Android ausgenutzt hat. So lautet der Vorwurf der US-Regierung und einiger Bundesstaaten in einer Kartellklage gegen Google. Das Geschäftsmodell kommt jetzt gerichtlich auf den Prüfstand. Wir berichten ausführlich, welche Praktiken Google vorgeworfen werden und wie es weitergehen könnte.

Die britische Datenschutzbehörde legt ihren Abschlussbericht zum Cambridge-Analytica Skandal vor. Anlass für andere Medien, die Bedeutung einer der wichtigsten Enthüllungsgeschichten des Jahrzehnts herunterzuspielen. In unserer Bilanz wird allerdings die wirkliche Bedeutung der Enthüllungen deutlich, von der Brexit-Kampagne bis zur Wahl Trumps.

Netzsperren im Namen des Jugendschutzes, das plant die Medienaufsichtsbehörde NRW seit längerem. Die Offensive will zunächst gegen die freie Zugänglichkeit von Porno-Portalen vorgehen, indem sie die Portale zwingt, die Ausweise ihrer Nutzer:innen kontrollieren. Als nächste Eskalationsstufe könnten Netzsperren verhängt werden, die von Politiker:innen und Medienpädagog:innen als ineffektiv und unnötig kritisiert werden.

Und sonst so?

Corona-Verschwörungsmythen kursieren bei bestimmten Influencer:innen auf Instagram. Was sie verbindet: ein Modeunternehmer aus Hamburg. Der nutzt seine Kenntnisse des Influencer-Marketings, um die ganze Palette der Verschwörungserzählungen zu verbreiten – von QAnon bis zur Reichsbürgerbewegung – verpackt in eine Peace-and-Love-Rahmung. Andere Influencer:innen mit hunderttausenden Follower:innen machen es ihm mehr und mehr nach.

Bis Ende November sollen mehr als ein Dutzend Corona-Warn-Apps in Europa interoperabel sein. Den Anfang gemacht haben die deutsche, irische und italienische App, die seit dieser Woche die verschlüsselten Tracing-Daten über eine europäische Serverfarm in Luxemburg austauschen können. Frankreich stellt sich bislang quer, kündigte aber eine Neuauflage ihrer Corona-App an, die eventuell kompatibel werden könnte.

Unser Kolumnist Leonhard Dobusch, der im ZDF-Fernsehrat den Bereich „Internet“ vertritt, kritisierte diese Woche die Reaktion der öffentlich-rechtlichen Sender ARD und ZDF auf den Entwurf der Urheberrechtsreform. Die Sender machten diese Erklärung nämlich nicht alleine, sondern mit dem Verband der Privatsender zusammen. In dieser unheiligen Allianz könnten die Rechte professioneller Kreativen unter die Räder kommen, warnt Leonhard.

In unserem Netzpolitik Podcast NPP unterhält sich diese Woche Chris mit dem Blogger und Buchhändler Linus Giese. Er hat in seiner Autobiografie unter anderem verarbeitet, was sein öffentliches Outing als trans Mann im gegenwärtigen Klima in Sozialen Medien ausgelöst hat. Die beiden sprechen über seine persönliche Geschichte, aber auch über die Folgen und seine Motivation für die öffentliche Sichtbarkeit im Internet, von Empowerment bis zum Umgang mit Hassbotschaften.

Wir wünschen euch ein schönes Wochenende!

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Abschlussbericht der Datenschutzbehörde: Nein, der Cambridge-Analytica-Skandal fällt nicht in sich zusammen

netzpolitik.org - 23 Oktober, 2020 - 06:30

Als der Datenskandal um Facebook und Cambridge Analytica im Frühjahr 2018 die Öffentlichkeit erschütterte, sorgte die britische Datenschutzbehörde für ikonische Bilder: In ihren groß mit „Enforcement“ beschrieben Jacken erinnerten die Mitarbeiter des Information Commissioners Office (ICO) mehr an FBI-Agenten als an Datenschützer. Sie beschlagnahmten 42 Laptops und Computer, 31 Server, 700 Terabyte Daten und über 300.000 Dokumente. Nun hat ICO-Chefin Elisabeth Denham ihre Ermittlungen mit einem öffentlichen Schreiben an das Parlament [PDF] offiziell abgeschlossen.

Das Ringen um die Deutungshoheit über den Skandal ist aber auch zweieinhalb Jahre, hunderte Artikel und eine Netflix-Doku nach der großen Enthüllungsgeschichte im britischen Observer nicht vorbei.

Weil Denham in ihrem Bericht die bereits bekannte Information wiederholt, dass sie weder eine Einmischung Russlands noch eine direkte Zusammenarbeit von Cambridge Analytica mit dem Pro-Brexit-Lager nachweisen kann, nehmen gleich mehrere Medien die Veröffentlichung zum Anlass, sich nachträglich von der kollektiven Empörung des Frühjahrs 2018 zu distanzieren. Von den damals erhobenen Vorwürfen gegen Cambridge Analytica bleibe nicht viel übrig, findet etwa die Financial Times. Die NZZ degradiert den Skandal gar zum „Hype“ und titelt, dieser falle „in sich zusammen“.

Entzauberung der Datenmagier?

Zur Erinnerung: Cambridge Analytica, das war eine Ausgründung der auf Verhaltensforschung und strategische Kommunikation spezialisierten britischen Firma SCL. Die zwielichtige Marketingfirma hatte die Daten von 87 Millionen Facebook-Nutzer:innen abgegriffen, für psychologisches Profiling eingesetzt und damit unter anderem den US-Präsidentschaftskandidaten Donald Trump unterstützt. Beide Firmen meldeten kurz nach den Enthüllungen Insolvenz an – um sich der weiteren Aufklärung zu entziehen, wie viele vermuten.

Während das Interesse an dem Thema in Deutschland schnell nachließ, als Facebook bekannt gab, dass nur wenige Deutsche betroffen seien, war der Aufklärungswille im Vereinigten Königreich höher. Gleich mehrere staatliche Stellen haben das Geschehen ausgiebig aufgearbeitet.

ICO-Chefin Denham wiederholt in dem Brief an das Parlament ihre Mahnung vor den „systemischen Verwundbarkeiten“ für demokratische Systeme, die sich durch den Einsatz personenbezogener Daten im politischen Kontext ergeben. Durch das beherzte Vorgehen ihrer Behörde im Frühjahr 2018 kann sie unter anderem nachweisen, wie eng die Datenkooperation zwischen der britischen Firma und der Trump-Kampagne war und wie die Verantwortlichen bei Cambridge Analytica hektisch versuchten, Daten von britischen Servern zu löschen und im Ausland zu speichern, als der Skandal hochkochte.

NZZ und Co. verleihen anlässlich des Abschlussberichtes aber lieber einer Skepsis Ausdruck, die die Aufarbeitung von Anfang an begleitete: Am Ende war es doch halb so wild, finden nicht wenige. Einfach nur datenbasiertes Marketing. Cambridge Analytica, das seien doch bloß aufdringliche Verkäufer von Schlangenöl gewesen, also von einem vermeintlichen Wundermittel ohne Wirkung. Und tatsächlich zeigt Denham erneut, dass die durch die Cambridge Analytica selbst geprägte Erzählung der großen Datenzauberer, die praktisch im Alleingang die US-Wahl drehten, überzogen ist. Entwarnung gibt die Datenschützerin deshalb jedoch nicht.

Daten über das Wahlverhalten von 160 Millionen Menschen

Also zu den Fakten: Denham berichtet unter anderem, dass Cambridge Analytica die eigenen Datenbestände und Analysefähigkeiten erheblich über Wert verkauft hat. Die Marketingfirma hatte damit geworben, dass sie je über 5.000 Datenpunkte zu 230 Millionen erwachsenen US-Amerikaner:innen verfüge. In Wahrheit konnte die Datenschutzbehörde nur Datenbanken mit 50 bis 500 Datenpunkten über jeweils 160 Millionen Individuen aufspüren, inklusive Daten über Konsum- und Wahlverhalten. Außerdem eine Datenbank mit jeweils 3.000 Datenpunkten über 100 Millionen Menschen.

Auch was die eigenen Analysewerkzeuge angeht, hat Cambridge Analytica offenbar übertrieben: Jenseits des psychographischen Profilings, das nicht von der Firma selbst, sondern von dem Uni-Forscher Alexandr Kogan durchgeführt wurde, hatte die Marketingfirma keine besonders elaborierten oder gar selbst entwickelten Methoden im Repertoire. Stattdessen berichtet Denham von Standardalgorithmen der Datenwissenschaft, die zur Visualisierung und Analyse von Daten sowie für Prognosemodelle genutzt worden seien.

So weit, so erwartbar. Dass eine Marketingfirma ihre eigenen Fähigkeiten über Wert verkauft, ist keine Seltenheit. Tatsächlich ging es bei einem zentralen Element des Skandals aber auch gar nicht um die Frage, was Cambridge Analytica mit den Daten gemacht hat, sondern woher diese stammten. Denn auch wenn Denham auf den Servern, Rechnern und Mailkonten der Marketingleute überwiegend auf handelsübliche Datenbestände von Data Brokern wie Acxiom oder Experian gestoßen ist: die Daten der Millionen Facebook-Nutzer:innen sind alles andere als Standardware.

Es war immer auch ein Facebook-Skandal

Der zu dem Zeitpunkt noch bei der Universität Cambridge angestellte Forscher Alexandr Kogan ergaunerte den Datenschatz für Cambridge Analytica, indem er Facebook vorspielte, sie für wissenschaftliche Zwecke zu sammeln. Er hatte eine App für die Drittanbieterplattform in dem Sozialen Netzwerk entwickelt. Über das Persönlichkeitsquiz „thisisyourdigitalife“ konnte er nicht nur die Daten der Nutzer:innen, sondern auch all ihrer Facebook-Kontakte sammeln, ohne das diese es auch nur mitbekommen hätten.

Die Existenz dieser Daten, von denen für Cambridge Analytica offenbar vor allem die von 30 Millionen US-Amerikaner:innen relevant waren, bestätigt Denham nun nochmal. Nicht nur die von Kogan berechneten psychographischen Profile der Facebook-Nutzerinnen gehörten dazu, sondern auch sämtliche Likes und die Social Graphs der Betroffenen, also die Abbildung all ihrer sozialen Beziehungen in dem Netzwerk.

Dass Facebook dieses Tor zu den Daten seiner Nutzer:innen für App-Entwickler:innen überhaupt so weit aufgelassen hatte, ist ein zentrales Element des Skandals. Schließlich hatte der Konzern etliche interne Warnungen über einen florierenden Schwarzmarkt mit den Nutzer:innendaten viel zu lange ignoriert und Drittanbieter auf seiner Plattform überhaupt nicht kontrolliert. Bis heute hat Mark Zuckerberg sein Versprechen an den US-Senat nicht eingelöst, weitere Datenabflüsse an andere App-Entwickler:innen transparent aufzuarbeitenn. Und bis heute weigert sich Facebook, anders als Twitter und Google, Microtargeting im politischen Kontext einzuschränken.

Der Cambridge-Analytica-Skandal war und ist deshalb immer auch ein Facebook-Skandal. Der Datenkonzern zahlte dafür eine Rekordstrafe von fünf Milliarden US-Dollar an die amerikanische Handelsaufsicht FTC. Auch die britische Datenschutzbehörde verhängte eine Rekordsanktion, aufgrund des geringen Bußgeldrahmens vor Einführung der Datenschutzgrundverordnung betrug sie jedoch nur 500.000 Pfund.

Bis heute im Team Trump

Dass Russland bei all dem mitgemischt hat, war von vornherein keine besonders plausible Annahme. Der Cambridge-Analytica-Skandal drehte sich nie um die Einmischung einer dunklen, fremden Macht – es ging von Beginn an darum, wozu die politischen Akteure innerhalb der demokratischen Systeme fähig sind. Denn ohne Zweifel ist heute belegt, dass Cambridge Analytica direkt mit der Kernkampagne von Donald Trump zusammengearbeitet hat. Dessen Mitarbeiter:innen sind zwar darum bemüht, die Kooperation kleinzureden, doch die Fakten sprechen gegen sie.

Als die britische Firma SCL ihre Tochterfirma Cambridge Analytica gründen wollte, war es Trump-Freund und Milliardär Robert Mercer, der sie finanziell unterstützte. Der Breitbart-Chef und damalige Trump-Stratege Steve Bannon fungierte zwischenzeitlich gar als ein Vize-Chef der Firma. Und es war Kellyane „Alternative Facts“ Conway, die wenig später berühmt gewordene Kommunikationsberaterin des Präsidentin, die als eine Art Verbindungsoffizierin zwischen beiden Organisationen fungierte.

Es ist deshalb keine Überraschung, dass die Datenschutzbehörde bei Cambridge Analytica auch Daten aus dem Bestand des Trump-Lagers gefunden hat, unter anderem Informationen über 30 Millionen Menschen in der Pro-Trump-Facebook-Gruppe „Pro America“ sowie Informationen über Millionen Menschen aus dem „Data Trust“ genannten Datenwarenhaus der republikanischen Partei.

Erst vor wenigen Wochen zeigte der britische Fernsehsender Channel 4 auf der Basis eines Leaks, dass sich anders herum auch die von Cambridge Analytica genutzten psychographischen Profile Trumps eigener Wahlkampf-Datenbank mit Informationen über 200 Millionen wiederfanden. An der engen Kooperation besteht deshalb kein Zweifel. Dem Medium zufolge arbeiten bis heute zwei ehemalige Mitarbeiter von Cambridge Analytica in Trumps 2020er Wahlkampf-Team.

Offene Fragen beim Brexit

Deutlich dünner ist die Evidenz jedoch, wenn es um Cambridge Analyticas Mitwirkung am Brexit-Votum geht. In Kogans Facebook-Datensatz finden sich die Daten von höchstens einer Millionen Briten. Elisabeth Denham stellt zudem erneut klar, dass sie für eine direkte Zusammenarbeit mit Vote-Leave-Gruppierungen keine Belege finden konnte. Diese sei zwar angedacht gewesen, wurde aber offenbar nie in die Tat umgesetzt.

Allerdings bleibt hier bis auf weiteres vieles unklar: So bestätigt die Datenschutzbehörde, dass das Pro-Brexit-Lager eng mit einer kanadischen Firma namens Aggregate IQ zusammengearbeitet hat. SCL hatte dieses Unternehmen in der Vergangenheit als kanadische Tochterfirma beschrieben und Rechnungen für sie gezahlt. Aggregate IQ aber streitet engere Verbindungen zu SCL und Cambridge Analytica ab.

Bleibt am Ende also die Frage nach der Wirkung. Seit Jahren gibt es eine Debatte darum, wie genau Microtargeting wirkt und ob psychographisches Profiling wirklich einen Effekt hat.

Zur Erinnerung: Die Nutzer:innen von Kogans Datensammel-App haben einen Fragebogen zur Analyse von Persönlichkeitseigenschaften ausgefüllt, der nach dem in der Psychologie weit verbreiteten OCEAN-Model funktionierte. Dabei werden Menschen anhand ihrer Aussagen in Kategorien wie „Offenheit“ und „Neurotizismus“ eingeteilt. Schließlich wurden auch die zig Millionen Nutzer:innen, die den Fragebogen gar nicht ausgefüllt hatten, in dessen Kategorien eingeteilt: Auf Basis ihrer Facebook-Daten wurden sie genauso kategorisiert wie die Menschen, denen sie statistisch ähneln.

Hochstapler und zwielichtige Figuren

Denham berichtet davon, dass es intern bei Cambridge Analytica Skepsis gab, ob diese Übertragung funktioniert. Die Kritik hat hier einen wahren Kern. Noch immer wissen wir viel zu wenig darüber, wie Microtargeting wirkt. Dass die Geschichte um Cambridge Analytics so voller zwielichtiger Figuren und Hochstapler ist, die die Macht des Microtargeting rhetorisch ins Unermessliche steigern, macht es nicht besser.

Das fängt bei Alexander Nix an, dem Co-Direktor von SCL und Gründer vom Cambridge Analytica, der stets weniger wie Geschäftsmann und mehr wie ein Bösewicht aus einem Bond-Film wirkte. Er selbst war der fleißigste Verkäufer der Erzählung vom großen Daten-Vodoo, mit dem sich politische Meinungen um 180 Grad drehen lassen und vermeintlich aussichtslose Wahlen gewinnen lassen. Mit der geschickten Eigenvermarktung war er auf Kongressen (auch der deutschen) Marketing-Branche zu Gast.

Dann gibt es da die schillernden Whistleblower:innen. Christopher Wylie ist die Hauptquelle für die Enthüllungsgeschichte im britischen Observer, wandte sich jedoch erst an die Öffentlichkeit, nachdem sein Versuch scheiterte, einen eigenen Cambridge-Analytica-Klon aufzubauen. Brittany Kaiser ist die Hauptfigur einer Netflix-Doku über den Skandal und Autorin eines eigenen Buches, sprang aber erst auf den Zug auf, als ihr Arbeitgeber kurz vor der öffentlichen Implosion stand. Beide sind bis heute um Superlative in Bezug auf ihre alte Firma nie verlegen – auch weil es hilft, ihre eigenen Geschichten, zu verkaufen.

Und nicht zuletzt ist da der selbsternannte Erfinder des psychographischen Profilings mit Facebook-Daten: Der Psychologe Michal Kosinski, der das Verfahren an der Universität Cambridge entwickelte. Er wurde noch vor der Aufdeckung der Machenschaften von Cambridge Analytica durch den „Bombe“-Artikel im Schweizer Magazin [PDF] berühmt, in dem er unwidersprochen von der Qualität seines Prognosemodells schwärmen konnte. Bis heute profitiert Kosinski von dieser Erzählung, hält überall auf der Welt gut bezahlte Vorträge zu einem angeblich unvermeidbaren Privacy-Tsunami und ist damit zum prominentesten Vertreter der längst vergessen Post-Privacy-Ideologie geworden.

Ein paar zehntausend Wahlstimmen machten den Unterschied

Die überzogenen Versprechen der Selbstvermarkter:innen ändern jedoch nichts daran, dass der Fall Cambridge Analytica eine der wichtigsten Enthüllungsgeschichten des letzten Jahrzehnts ist.

Wie kein zweiter hat der Skandal den Einsatz persönlicher Daten im politischen Marketing ins öffentliche Bewusstsein gerückt. Er hat belegt, wie fahrlässig Facebook mit den Daten seiner Nutzer:innen umgeht und war ein Wendepunkt für das öffentliche Image des blauen Datenkonzerns. Er hat gezeigt, wie skrupellos Firmen und Forscher mit den persönlichen Informationen von Bürger:innen umgehen können, wenn man sie lässt. Er hat illustriert, dass der Datenschutz bislang das einzige effektive Mittel ist, um die Grauzonen des politischen Microtargetings auszuleuchten und zu kontrollieren.

Und der Skandal hat bewiesen, dass Donald Trump keine Scheu hatte, sich die Hände schmutzig zu machen, um ins Amt zu gelangen. Hierfür musste er die Sympathisant:innen des demokratischen Lagers gar nicht mit Microtargeting politisch umpolen. Es reichte, sie davon abzuhalten, überhaupt zur Wahl zugehen. Denn am Ende gewann er die Wahl mit ein paar zehntausend Stimmen in einigen Swing States. Gemeinsam mit Cambridge Analytica hat sein Team die Strategie entwickelt, insbesondere Schwarze Menschen mit gezielter Negativwerbung zu demobilisieren. Die Social Graphs, Likes und psychologischen Einschätzungen von 30 Millionen Amerikaner:inen werden daran ihren Anteil gehabt haben.

Intransparenz auch in Deutschland

Die Enthüllungen aus dem Umfeld von Cambridge Analytica gehen derweil weiter. Erst Mitte Oktober hat eine US-amerikanische Nichtregierungsorganisation Beschwerde bei der Federal Election Commission eingelegt. Der Vorwurf: illegale Koordination zwischen Trumps Team und dem von Robert Mercer finanzierten super PAC „Make America Number 1“, bei der Cambridge Analytica als Mittlerin fungiert hat.

Wer die Warnung von ICO-Chefin Denham vor der Verletzlichkeit demokratischer Systeme durch den Missbrauch persönlicher Daten im politischen Kontext ernst nehmen will, muss allerdings nicht erst über den Atlantik schauen. Auch in Europa werden datengetriebene Kampagnen mehr und mehr zum Standard. Das muss an sich noch kein Problem sein und die Datenschutzgrundverordnung schränkt die Missbrauchswahrscheinlichkeit ein. Doch das Beispiel der österreichischen Post, die Kontaktdaten und Informationen zu politischen Affinitäten von Millionen Menschen an Parteien verkaufte, zeugt davon, dass auch hierzulande Grenzen überschritten werden.

In Deutschland sind Politiker:innen beim Microtargeting vergleichweise zurückhaltend, verweigern sich jedoch bis heute echter Transparenz. Die aber wäre das Mindeste, um Missbrauch zu verhindern. Noch besser wären demokratisch legitimierte Regeln für die Nutzung persönlicher Daten in der politischen Kommunikation.

Elisbaeth Denham hat ihre Untersuchungen im Fall Cambridge Analytica nun beendet. Das Thema ist für sie allerdings lange nicht vorbei. In ihrem Brief an das Parlament kündigte sie für nahe Zukunft weitere Untersuchungen an. Neben der Branche der Datenhändler und um dem Psychologie-Departement der Universität Cambridge will sie auch die Datennutzung der britischen Parteien in den Blick nehmen.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs

Open-Source-Software-Strategie 2020-2023: Wie die EU-Kommission an der eigenen digitalen Transformation arbeitet

netzpolitik.org - 22 Oktober, 2020 - 17:02

Die EU-Kommission hat gestern eine neue Open-Source-Software-Strategie 2020-2023 unter dem Motto „Think Open“ verabschiedet, mit der sie ihre eigene digitale Transformation weiter in Richtung freier und offener Software ausrichten will. Die Strategie ist die dritte seit dem Jahr 2000 und soll die Kommission zu einer aktiven Teilnehmerin der Open-Source-Community machen.

Die Kommission bezeichnet sich in der Mitteilung bereits als „begeisterte Nutzerin“ von Open-Source-Software. Die interne Praxis sei oft auf kollaborative Prozesse ausgerichtet, man müsse aber „nur noch mehr tun und besser werden“.

Walk the talk

Der Kommissar für Haushalt und Verwaltung, der Österreicher Johannes Hahn, betonte, dass sich die Strategie auf das Handeln innerhalb der Kommission bezieht. Trotzdem soll sie auch einen Wandel nach außen bewirken, in der Open-Source-Welt, aber vor allem in den öffentlichen Verwaltungen der EU-Mitgliedsstaaten: „We want to be a dynamic contributor of innovative, secure digital solutions that can be shared and reused so we can help promote digital government and public services across the EU.“ (Wir wollen einen tatkräftigen Beitrag zu innovativen sicheren Digital-Lösungen leisten, an denen man sich beteiligen und die man wiederverwenden kann, um digitales Regieren und Verwalten in der EU voranzutreiben.)

Das Papier nennt viele Argumente, die für Open Source in der öffentlichen Verwaltung sprechen.

„Open Source“ ist öffentlichen Diensten im Wesen sehr ähnlich:

  • Es handelt sich um öffentlichen Programmcode, weshalb das darin investierte öffentliche Geld gut angelegt ist, denn Quelloffenheit fördert Wahlfreiheit und verhindert die unfreiwillige Bindung an bestimmte Anbieter.
  • Quelloffenheit erleichtert die Nutzung und Weiterverwendung von Softwarelösungen, sodass wir unsere Bemühungen zum Aufbau wertvoller grenzüberschreitender und interoperabler Dienste bündeln und dabei die Effizienz steigern können.
  • Und es ist einfach und effizient, neue Funktionen zu quelloffener Software hinzuzufügen, die dann zu beliebigen Zwecken frei und unbeschränkt weitergegeben werden darf. Das ist für alle von Vorteil.

— Open-Source-Software-Strategie 2020-2023

Quelloffenheit stelle mehr Vertrauen in öffentliche Dienste her und erhöhe die IT-Sicherheit. Daher stellt die Kommission mit ‚walk the talk‘ den Anspruch an sich selbst, will also mit gutem Beispiel vorangehen. Dafür soll es zukünftig ein neues „kleines“ Open-Source-Programmbüro geben, das die bestehenden Ressourcen bündelt.

Mit Grundsätzen „nudgen“

Die Kommission will sich mit neu gesetzten Grundsätzen intern zu mehr Open-Source-Kultur nudgen, also ohne direkten Zwang dazu anstoßen. Quelloffene Software soll nun bei gleichen Leistungen bevorzugt werden und die Arbeitsmethoden der Community in der gesamten Kommission zum Einsatz kommen, nicht nur in der IT. Die Worte „Public Money, Public Code“ benutzt nun auch die Kommission, bezieht sich allerdings nur auf ausgewählte Fälle, in denen sie es sinnvoll findet, eigene Software offen und frei benutzbar zu machen. Aber die eigenen Entwickler:innen sollen ab und zu Code zu externen Projekten beitragen und eigenen Code mit weniger Bürokratie freigeben dürfen.

Die Kommission sieht sich zukünftig als aktives Mitglied der Community, die die „Lebensfähigkeit des Ökosystems“ fördert. Allerdings nicht mit einer Förderung freier Software aus dem EU-Haushalt, sondern durch mögliche Mitarbeit in Gremien und Projektmanagement von Softwareprojekten.

Als einen Dienst an der Gemeinschaft nennt das Papier, dass alle quelloffenen Programme, die in der Kommissionsarbeit genutzt oder veröffentlicht werden, auf ihre IT-Sicherheit getestet werden. Etwa wurden schon in der Vergangenheit Softwarefehler im Mediaplayer VLC und dem Content-Management-System Drupal beseitigt.

Darüber hinaus schreibt sich die Kommission auch bei ihrer Open-Source-Strategie Interoperabilität auf die Fahne. Sie will offene Standards fördern und damit digitale Souveränität in Europa herstellen, also die Abhängigkeit von proprietären Lösungen außereuropäischer Unternehmen verringern.

Reaktionen

Die Free Software Foundation Europe (FSFE) begrüßte per Twitter, dass die Kommission die Vorteile freier Software anerkenne. Insgesamt kritisiert sie allerdings, dass konkrete Ziele fehlen und daher nicht von einer Strategie die Rede sein könne. „Statt des erhofften großen Wurfs, der den aktuellen Entwicklungen rund um die Debatten um Digitale Souveränität und moderne Verwaltung gerecht wird, hat die Kommission nur ein Feigenblatt vorgelegt“, sagt Alexander Sander von der FSFE zu uns.

Es mangelt an klaren Aufgabenbeschreibungen und Prozessen, an konkreten Leitlinien für die Umsetzung und an Indikatoren zur Erfolgskontrolle. Hinzu kommen schwammige Aussagen und Schlupflöcher, die es der Kommission auch weiterhin ermöglichen, den Ist-Zustand als Erfolg zu verkaufen.
— Alexander Sander, EU Policy Manager FSFE

Der industrienahe Think Tank OpenForum Europe begrüßte hingegen die neue Strategie. Sie zeige, dass der Gedanke von Open Source über die Entwicklung von Software hinausgehe und Grenzen in Organisationen abbauen könne. Dass sich die gesamte Kommission den Prinzipien verschreibt, zeige „that the thinking around open source has matured beyond cost-saving in IT, to understand it as a strategic enabler“ – man sehe Open Source nicht mehr nur als Kostenersparnis in der Softwareentwicklung, sondern längst als strategischen Wegbereiter.

Die Unterstützung des Gedankens freier und offener Software hat die Community hoffen lassen, allerdings ist ihr dieser Schritt in die richtige Richtung nicht groß genug. Es bleibt zu hoffen, dass die Spitzenpolitiker:innen und ihre Berater:innen Erfahrungen aus erster Hand mit Open-Source-Software machen – und sich dann zukünftig für eine gute Förderkultur für freie und offene Software starkmachen.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Kategorien: Blogs
Inhalt abgleichen