Der Besitz und das Weitergeben von Kinderpornografie ist berechtigterweise strafbar, über die schweren Straftaten, die beim Erstellen begangen werden, brauchen wir gar nicht erst zu sprechen. Es besteht über den strafrechtlichen Aspekt hinaus noch gesellschaftliche Ächtung. Vor Gericht ist etwa in diesem Jahr ein ehemaliger Fußballnationalspieler recht glimpflich davon gekommen, beruflich wird er aber nie wieder Fuß fassen können. Ebenso wie jener Abgeordnete, dessen Vergehen im Jahr 2013 sogar noch niederschwelliger waren.

Wir wollen hier nicht darüber diskutieren, wie weit die gesellschaftliche Ächtung über die Gerichtsbarkeit hinaus angebracht ist, hier geht es um etwas anders. Nämlich darum, ob Apple mit seinen jüngsten Maßnahmen zum Schutz von Kindern auf dem richtigen Weg ist oder die Bildanalyse übertreibt. Hierzu gehen die Meinungen ein wenig auseinander.

Pro: Apple ist auf dem richtigen Weg (Peter Müller)

Apple stellt seinen Schutz von Kindern und Jugendlichen vor sexuellem Missbrauch auf drei Säulen . Dabei nutzt das Unternehmen vor allem seine fortschrittlichen Techniken, um die Weiterverbreitung von strafrechtlich relevantem oder auch nur anstößigem Material zu verhindern.

Über zwei der Säulen wird es wenig Kontroversen geben, da letztendlich die jungen Nutzer oder deren Eltern entscheiden, wo die Grenze verläuft. In der Kommunikationsapp Nachrichten (oder iMessages) ab iOS 15, iPadOS 15 und macOS 12 Monterey werden Algorithmen sexuell anzügliche Bilder erkennen und ausblenden und die Nutzer vor dem Betrachten warnen. Die Analyse der Bilder geschieht auf dem Gerät selbst und nicht auf einem entfernten Server. Die Kommunikation ist Ende-zu-Ende verschlüsselt, nur die Gesprächsteilnehmer können die Bilder sehen – oder besser nicht. Ebenso warnt das iPhone, will man selbst ein Bild verschicken, das Grenzen überschreitet – leider lassen sich viele Minderjährige allzu leicht von nur scheinbar vertrauenswürdigen Personen zum Sexting und zu Nudes überreden. Und was einmal das Gerät verlassen hat, über das hat man keine Kontrolle mehr. Siri und die Internetsuche auf dem iPhone, iPad und Mac sollen ebenso durch maschinell lernenden Algorithmen auf dem Gerät selbst dazu gebracht werden, potenziell strafrechtlich relevante Inhalte eben nicht anzuzeigen – wie zuvor erwähnt, schon der Besitz kann strafbar sein.

Bei der dritten Säule sind die Meinungen aber nun geteilt: Apples Algorithmen analysieren alle Bilder auf dem iPhone und schlagen Alarm, wird Kinderpornografie auf die iCloud geladen. Das soll unbemerkt geschehen: Aus den Fotos erzeugt das iPhone Hashwerte, diese gleicht es wiederum mit denen in einer Datenbank der Strafverfolger gesammelten kinderpornografischen Inhalte ab. Sollte ein gewisser Schwellenwert der Übereinstimmung überschritten werden, dann kann Apple die in der iCloud gespeicherten Fotos entschlüsseln und manuell überprüfen. Im Falle des strafrechtlichen Falles ist das für den Prüfer kein Vergnügen, der Account wird gesperrt und die Daten an die Behörden weiter gereicht. Zumindest läuft das in den USA so, in Europa dürfte sich die Rechtslage unterscheiden. Aber auch für die auf Servern in der EU gespeicherte Bilder hat Apple die Schlüssel – sonst könnte man gar nicht seine eigenen iCloud-Bilder im Browser ansehen.

Nun verspricht Apple, für das Datenschutz und Privatsphäre von großer Bedeutung sind, eine Falsch-Positiv-Rate von eins zu einer Billion. Man schnüffele nicht in allen auf der iCloud gespeicherten Fotos, sondern nur anlassbezogen, wenn die KI des iPhones einen Verdacht meldet. Bis zum Beweis eines Gegenteils kann man Apple vertrauen. Da nur bekanntes strafrechtliches Material abgeglichen wird, muss auch niemand befürchten, wegen Fotos seiner am Urlaubsstrand plantschender Kinder bei der Einreise in die USA verhaftet zu werden. Aus gutem Grund sollte man derartige Bilder aber besser nicht auf dem iPhone belassen oder im Netz speichern, was man selbst aus gutem Grund für harmlos hält, könnten andere missbrauchen – oder völlig falsch interpretieren.

So bleibt aber das Restmisstrauen, dass Apple darüber entscheidet, was strafrechtliche Inhalte von einvernehmlicher erotischer Kommunikation unterscheidet. Das muss nach wie vor das Strafgesetz entscheiden und das ist in dem Punkt eindeutig, dass bei Kindern von "einvernehmlich" nie die Rede sein kann. Alles in allem halte ich Apples Maßnahmen zum Schutz von Kindern aber für richtig.

Contra: Apple soll kein Richter werden (Halyna Kubiv)

Die Zahlen und Fakten zum Kindermissbrauch im Corona-Jahr 2020 sind alarmierend: Durch Lockdown und folglich weniger Unternehmungen im Freien "boomt" die Kinderpornografie, es steigen die damit verbundenen Zahlen. Laut Polizeilicher Kriminalstatistik sind im Jahr 2020 die angezeigten Fälle von Kinderpornografie um 53 Prozent von 12.262 im Jahr 2019 auf 18.761 Fälle im vergangenen Jahr gestiegen. Auch international steigen die Zahlen – laut International Watch Foundation stieg im vergangenen Jahr die Anzahl der einschlägigen Websites um 33 Prozent, die selbsterzeugten Videos und Bilder durch Überredung oder Erpressung spielen ebenfalls eine größere Rolle: IWF hat im Jahr 2020 rund 68.000 solcher Fälle registriert, ein Anstieg von 77 Prozent gegen 38.400 angezeigten Fällen im Jahr 2019.

Vielleicht angesichts dieser Zahlen hat sich Apple dazu bewogen, die aktuellen Maßnahmen in iMessages und iCloud-Fotos zu ergreifen. Es wird auch schwierig sein, dagegen zu argumentieren, es geht ja schließlich um Bekämpfung der Kinderpornografie und kaum jemand wird sich auf die Position stellen, man müsse eher weniger als mehr gegen Missbrauch von Kindern tun. Doch einige Aspekte der aktuellen Maßnahmen stimmen mich persönlich eher dagegen als für die Analyse von Bilddateien.

Unverhältnismäßigkeit: Apple stellt mit dieser neuen Maßnahme alle seine Kunden, zumindest diejenigen, die iCloud-Fotos aktiviert haben, unter einen Generalverdacht. Man kann die Analyse nicht abschalten, sobald ein Foto per iCloud synchronisiert wird. Laut Apples Aussagen hat das Unternehmen rund eine Milliarde aktive iPhones , knapp 1,65 Milliarden aktive Apple-Geräte . Selbst wenn man sich nur auf die iPhones beschränkt, ist das knapp ein Siebtel der Erdbevölkerung, das iPhones nutzt. Dieses Siebtel muss jetzt mit dem Gedanken leben, dass seine Fotos von Zeit zu Zeit mit den Datenbanken der bekannten Fällen von Kinderpornografie abgeglichen werden. Dazu ist es nie absehbar, ob der Hersteller und die kooperierenden Organisationen jemals die Zahlen zur Effizienz von solchen Maßnahmen veröffentlicht werden.

Unfreiwilligkeit : Apples Hash-Abgleich mit den Datenbanken läuft im Hintergrund, nach ersten Berichten wird es wohl keine Option geben, der Analyse der Daten zu widersprechen. Für ein Unternehmen, das sich dem Schutz der Privatsphäre fast schon verschrieben hat, ist das recht verwunderlich, kann man doch beim Einrichten des iPhones vieles sperren, was mit Analyse und Auswertung zu tun hat. Ja noch mehr, seit Frühling kann der Nutzer das Cross-Site-Tracking der großen Unternehmen abschalten, was Unmut von Facebook & Co. verursacht hat. Mit der jüngsten Maßnahme macht Apple eine Kehrtwende um 180 Grad und wirft eigene Datenschutzbemühung über den Haufen.

Gerichtsbarkeit : Vorerst hat Apple angekündigt, solche Features in iOS 15, watchOS 8 und macOS Monterey nur in den USA zu aktivieren. Dort arbeitet der Hersteller auch mit dem National Center for Missing and Exploited Children (NCMEC) zusammen. Theoretisch aber ist der Scan auf alle aktuellen Geräte und Fotos anwendbar. Da es sich hier um Strafverfolgung handelt, müssen auch lokale Institutionen wie die EU oder ein Gericht in Deutschland entscheiden, was rechtens ist, wenn es um EU-Bürger geht. 

Der falsche Einsatz: Mit der aktuellen Maßnahme Apples mit dem NCMEC entsteht der Eindruck, dass die Behörden zumindest in den USA den Kampf gegen Kriminelle insbesondere beim Kindesmissbrauch bereits aufgegeben haben. Statt nach Servern zu fahnden, die dem Austausch dienen, die Finanztransaktionen abzugreifen, die ebenfalls beim Austausch solcher Daten entstehen, setzt man auf ein Massenscreening und macht erst mal alle zu Verdächtigen. Klar, Cyber-Kriminalität entwickelt sich nicht nur quantitativ, sondern auch qualitativ, doch das müssen auch die Strafverfolgungsbehörden tun. Die große Foto-Datenbank eines kooperierenden Herstellers anzuzapfen, nur weil es möglich ist, soll nicht als Ersatz oder Erweiterung für herkömmliche Ermittlungen dienen, die auch von Gesetzgebung reguliert werden. Apples iCloud-Analyse ist das nicht.