News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Post reply

The message has the following error or errors that must be corrected before continuing:
Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.
Other options
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview

Topic summary

Posted by Bananarama
 - December 16, 2021, 05:28:59
QuoteApple legt seine kontroversen Pläne zum Scannen nach Nacktbildern von Kindern auf Eis
Das ist falsch. Denn Apple kann nicht etwas auf Eis legen, was sie gar nicht vorhatten.
QuoteiPhone-Nutzer müssen sich also vorerst keine Sorgen darüber machen, dass CSAM-Scans potentiell ihre Privatsphäre verletzen.
Das hätten sie, aus eigentlich allgemein verständlichen Gründen, auch nicht bei der Einführung dieser Sicherheitsfunktion gemusst. Denn wo kein Scan, ...
QuoteVorerst beschränkt sich der Konzern darauf, Nacktbilder in der Nachrichten-App zu scannen, und auch das nur, wenn der Nutzer bzw. dessen Eltern dieses Feature zuvor aktiviert haben.
Nein, auch das ist falsch. Es werden keine Nacktbilder IN der Nachrichten-App gescannt, egal ob die Kindersicherung aktiviert ist oder nicht. Es werden lediglich bei aktivierter Kindersicherung EINGEHENDE Bilder mittels KI anlysiert und gegebenenfalls maskiert. Das Kind bekommt eine entsprechende Warnmeldung, kann die Bilder aber trotzdem anschauen oder verschicken und/oder selbst entscheiden, ob es seine Eltern oder die Polizei informiert. Ein Scan im algemeinen oder der lokalen, wie in der Cloud gespeicherten Chats, findet nicht statt.
QuoteApple hatte zwar beteuert, dass keinerlei Bilder in der Cloud analysiert werden, und dass Bilder noch vor dem Upload in die iCloud Fotobibliothek auf dem Gerät mit einer Hash-Datenbank abgeglichen werden sollen, das konnte Kritiker dieser Vorgehensweise aber nicht beruhigen.
Und wieder falsch. Apple hat natürlich nichts dergleichen beteuert, denn das wäre ja gelogen. Apple scannt, wie andere Anbieter auch, routinemäßig in ihrer Cloud Bilder nach illegalen Inhalten. Das tun sie seit etwa 2019. Und lokale Bilder werden nicht VOR dem Upload via Hash abgegelichen (na da schau her, er kennt das richtige Wort ja doch!), sondern WÄHREND des Uploads. Das ist wichtig, denn ohne Upload, also Verwendung der iCloud, kein Abgleich. Und natürlich auch kein "Scan".
QuoteZahlreiche Kritiker haben das aber anders gesehen, inklusive Edward Snowden, Sicherheitsexperten der EU und der Electronic Frontier Foundation. Die Kritik richtete sich vor allem gegen die Einführung von Massenüberwachung auf iPhones, aber auch die konkrete Vorgehensweise wurde als ineffektiv und gefährlich bezeichnet.
Schon die Verwendung des falschen Terminus "Massenüberwachung" beweist, dass diese "Kritiker" nicht den Hauch einer Ahnung von der "konkreten Vorgehensweise" zu haben scheinen. Nicht das mich das wundern tät.  ::)
Posted by Redaktion
 - December 15, 2021, 11:33:17
Apple hatte ursprünglich geplant, die kontroversen CSAM-Scans in der Fotos-App von iPhones und iPads noch in diesem Jahr zu starten, nun hat der Konzern sämtliche Hinweise auf diese Pläne von seiner Webseite gelöscht – ein klares Zeichen, dass das Vorhaben zumindest auf Eis gelegt wurde.

https://www.notebookcheck.com/iPhone-Apple-legt-seine-kontroversen-Plaene-zum-Scannen-nach-Nacktbildern-von-Kindern-auf-Eis.585374.0.html