Durchsucht Apple bald alle meine iPhone-Fotos?

Jabawuki

Ya talkin' to me?

Was könnte schiefgehen?​

Auf zwei Ebenen könnten sich die Neuerungen als problematisch bis katastrophal erweisen. Auf der individuellen Ebene wäre das der Fall, wenn sich die Technik als fehleranfällig erweist. Wer plötzlich harmlose Fotos nicht mehr ohne Weiteres in iMessage sehen oder versenden kann, weil Apples Software sie fälschlicherweise als pornografisch einstuft, wird das als übergriffig wahrnehmen – zumal von einem Unternehmen, das mit dem Schutz der Privatsphäre offensiv wirbt. Auch eine korrekte Identifizierung sexuellen Materials kann als übergriffig empfunden werden. Nach Medienberichten will Apple deshalb bei Kindern über 13 Jahren keine Benachrichtigung an die Eltern verschicken.

Noch deutlich kritischer wäre es, wenn ein Nutzer oder eine Nutzerin fälschlicherweise verdächtigt wird, Missbrauchsbilder in die iCloud hochladen zu wollen. Im ersten Schritt würden Apple-Mitarbeiter die verdächtigen Fotos zu sehen bekommen, im Extremfall werden NCMEC und in der Folge Ermittlungsbehörden eingeschaltet.

Falsch-positive Treffer sind denkbar, wenn es zu sogenannten Hash-Kollisionen kommt: Manche Bilder könnten gleiche Hash-Werte haben, aber völlig andere Dinge zeigen. Apples Sicherheitsvorkehrungen bestehen darin, dass es mehrere Treffer geben muss, bevor Apple die Bilder sehen kann, und dass menschliche Mitarbeiter die Fälle dann überprüfen.

Auf politisch-gesellschaftlicher Ebene wäre ein erzwungener Aus- oder Umbau der einmal eingeführten technischen Infrastruktur die wohl größte Bedrohung. Autoritäre Regime könnten Apple per Gesetz zwingen, die Technik auch zur Erkennung anderer Inhalte einzusetzen, befürchten unter anderem der Kryptografie-Experte Matthew Green, Whistleblower Edward Snowden und Bürgerrechtsorganisationen wie die Electronic Frontier Foundation (EFF): »Regierungen, die Homosexualität verbieten, könnten von Apple verlangen, dass es seine Erkennung auf LGBTQ+-Inhalte trainiert. Ein autoritäres Regime könnte verlangen, dass die Technik in die Lage versetzt wird, beliebte satirische Darstellungen oder Protestschreiben zu entdecken. Wir haben solche Fälle von ›mission creep‹ schon gesehen.« Kommt es so weit, hätte das Unternehmen die Wahl, bei derartigen Menschenrechtsverletzungen mitzumachen oder auf Geschäfte in dem jeweiligen Land zu verzichten. Apple verweist auf Anfrage darauf, dass die Technik zunächst nur in den USA eingesetzt wird und dass vor einer Ausweitung auf andere Länder noch »juristische Fragen« zu klären seien.
 

WestfalenFCB

Aktives Mitglied
Das finde ich durchaus eine sinnvolle Idee. Klar dass dadurch in die Privatsphäre eingegriffen würde. Trotzdem… zum Schutze der Kinder:

Ich würde mich gegen so eine Software nicht wehren👍
 
Oben