NotebookCHECK - Notebook Forum

Notebookcheck Artikel => News => Topic started by: Redaktion on December 15, 2021, 11:33:17

Title: iPhone: Apple legt seine kontroversen Pläne zum Scannen nach Nacktbildern von Kindern auf Eis
Post by: Redaktion on December 15, 2021, 11:33:17
Apple hatte ursprünglich geplant, die kontroversen CSAM-Scans in der Fotos-App von iPhones und iPads noch in diesem Jahr zu starten, nun hat der Konzern sämtliche Hinweise auf diese Pläne von seiner Webseite gelöscht – ein klares Zeichen, dass das Vorhaben zumindest auf Eis gelegt wurde.

https://www.notebookcheck.com/iPhone-Apple-legt-seine-kontroversen-Plaene-zum-Scannen-nach-Nacktbildern-von-Kindern-auf-Eis.585374.0.html
Title: Re: iPhone: Apple legt seine kontroversen Pläne zum Scannen nach Nacktbildern von Kindern auf Eis
Post by: Bananarama on December 16, 2021, 05:28:59
QuoteApple legt seine kontroversen Pläne zum Scannen nach Nacktbildern von Kindern auf Eis
Das ist falsch. Denn Apple kann nicht etwas auf Eis legen, was sie gar nicht vorhatten.
QuoteiPhone-Nutzer müssen sich also vorerst keine Sorgen darüber machen, dass CSAM-Scans potentiell ihre Privatsphäre verletzen.
Das hätten sie, aus eigentlich allgemein verständlichen Gründen, auch nicht bei der Einführung dieser Sicherheitsfunktion gemusst. Denn wo kein Scan, ...
QuoteVorerst beschränkt sich der Konzern darauf, Nacktbilder in der Nachrichten-App zu scannen, und auch das nur, wenn der Nutzer bzw. dessen Eltern dieses Feature zuvor aktiviert haben.
Nein, auch das ist falsch. Es werden keine Nacktbilder IN der Nachrichten-App gescannt, egal ob die Kindersicherung aktiviert ist oder nicht. Es werden lediglich bei aktivierter Kindersicherung EINGEHENDE Bilder mittels KI anlysiert und gegebenenfalls maskiert. Das Kind bekommt eine entsprechende Warnmeldung, kann die Bilder aber trotzdem anschauen oder verschicken und/oder selbst entscheiden, ob es seine Eltern oder die Polizei informiert. Ein Scan im algemeinen oder der lokalen, wie in der Cloud gespeicherten Chats, findet nicht statt.
QuoteApple hatte zwar beteuert, dass keinerlei Bilder in der Cloud analysiert werden, und dass Bilder noch vor dem Upload in die iCloud Fotobibliothek auf dem Gerät mit einer Hash-Datenbank abgeglichen werden sollen, das konnte Kritiker dieser Vorgehensweise aber nicht beruhigen.
Und wieder falsch. Apple hat natürlich nichts dergleichen beteuert, denn das wäre ja gelogen. Apple scannt, wie andere Anbieter auch, routinemäßig in ihrer Cloud Bilder nach illegalen Inhalten. Das tun sie seit etwa 2019. Und lokale Bilder werden nicht VOR dem Upload via Hash abgegelichen (na da schau her, er kennt das richtige Wort ja doch!), sondern WÄHREND des Uploads. Das ist wichtig, denn ohne Upload, also Verwendung der iCloud, kein Abgleich. Und natürlich auch kein "Scan".
QuoteZahlreiche Kritiker haben das aber anders gesehen, inklusive Edward Snowden, Sicherheitsexperten der EU und der Electronic Frontier Foundation. Die Kritik richtete sich vor allem gegen die Einführung von Massenüberwachung auf iPhones, aber auch die konkrete Vorgehensweise wurde als ineffektiv und gefährlich bezeichnet.
Schon die Verwendung des falschen Terminus "Massenüberwachung" beweist, dass diese "Kritiker" nicht den Hauch einer Ahnung von der "konkreten Vorgehensweise" zu haben scheinen. Nicht das mich das wundern tät.  ::)