Mac-TV.de

Mac-TV.de (https://www.mac-tv.de/Forum/index.php)
-   Apple allgemein (und den Rest der Welt) (https://www.mac-tv.de/Forum/forumdisplay.php?f=3)
-   -   Apple filtert iCloud-Uploads mit iOS 15 (https://www.mac-tv.de/Forum/showthread.php?t=18211)

cordcam 06.08.2021 14:11

Apple filtert iCloud-Uploads mit iOS 15
 
https://www.heise.de/meinung/Totalue...l-6157251.html

Wie ist eure Meinung dazu?

Jörn 06.08.2021 16:52

Völliger Unsinn.

Die Dinge, die der Autor aufzählt, haben nichts mit Apples Vorhaben und Technologie zu tun, sondern sind frei erfunden.

Was Apple angekündigt hat, ist ein sehr cleveres System, um eine Datenbank von bereits bekannten Kinderporno-Fotos abzugleichen mit Fotos, die zur iCloud hochgeladen werden.

Im Web wird es derzeit so dargestellt, als würde man damit generell Nacktbilder scannen, und alle sind in Aufruhr. Stattdessen werden Hash-Werte aus einer Datenbank mit bekannten (kriminellen) Inhalten abgeglichen. Sozusagen "Klassiker-Bilder" aus der Kinderporno-Szene.

Solche Filter verwenden Facebook, Google und Microsoft schon lange, allerdings hat es dort den Preis, dass Fotos unverschlüsselt sein müssen. Apple führt jetzt eine Technik ein, bei der Bilder dennoch verschlüsselt bleiben können. Das ist gut. Apple sieht (wie bisher) nicht, was wir in unserer Foto-Library haben. Die Datenbank wird on-device abgeglichen, daher funktioniert es trotz Verschlüsselung.

Das bedeutet: Die vielen unbescholtenen Anwender behalten ihre Verschlüsselung. Der vermutlich geringe Prozentsatz an Tätern macht das also nicht kaputt. Das ist gut.

Wer seine Fotos nicht zu iCloud hochlädt, dessen Fotos werden generell nicht überprüft. Wer jedoch iCloud nutzen will, muss sich damit abfinden, dass dort keine Kinderporno-Fotos hochgeladen werden dürfen. Damit die Fotos nicht angesehen werden müssen, und damit auch keine "Künstliche Intelligenz" die Fotos auswertet, verwendet Apple die schon genannten Hash-Werte aus einer Datenbank mit bekannten Bildern. Das ist ein sehr treffsicheres System, das dennoch die Privatsphäre der Kunden aufrecht erhält.

Das System meldet auch "Treffer" nur dann, wenn mehrere davon entdeckt wurden. Bedeutet: Mehrere, bereits in der Kinderporno-Szene bekannte Bilder. Erst wenn dies der Fall ist, wird es Apple gemeldet und es folgt eine manuelle Überprüfung.

Außerdem hat Apple einen Filter in iMessage eingebaut, der von den Eltern aktiviert werden muss. Er blendet einen Warnhinweis ein, wenn Kinder Nacktbilder erhalten oder von sich selbst versenden.

rene204 06.08.2021 17:15

Jörn, danke für diese Klarstellung.
Es ist wirklich auffällig, wie sich im Netz die Meldungen darüber aufhäufen und Gerüchte und Spekulationen vermehren.
-> https://www.mactechnews.de/news/arti...he-178222.html
Dort wird das anschaulich auch noch einmal mit einer Grafik erklärt.

Jörn 06.08.2021 17:22

Übrigens gilt es zunächst nur für die USA.

Jörn 06.08.2021 17:31

Wir werden jetzt sicherlich die nächsten Tage mit folgendem Dialog zubringen:

Frage: "Das ist ja alles schön und gut! Aber was ist, wenn ich einfach meine Kinder am Strand fotografiere und das System meldet mich an die Behörden?"

Antwort: "Diese Bilder sind ja nicht in einer Kinderporno-Datenbank gespeichert, also können sie auch nicht erkannt werden. Es geht nicht um private Bilder, sondern um Bilder, die bereits veröffentlicht wurden und bekannt sind."

[Alle fünf Minuten wiederholen.]

cordcam 06.08.2021 17:35

Was ist mit den im Text zu findenden Argumenten, dass damit ein Tor geöffnet wird? Am Anfang geht es nur um Kinderpornographie. Auch weil da natürlich jeder mehr Schutz will.

Wonach wird dann aber in ein paar Jahren gescannt?

Und wenn diese Möglichkeit erst mal da ist: Steigen nicht die Begehrlichkeiten des Staates nach allem scannen zu lassen, was er als Bedrohung empfindet?

cordcam 06.08.2021 17:39

Und was ist, wenn Dir jemand, der dir schaden will, ein Kinderpornofoto per Messenger schickt, dort eingestellt ist, dass das Bild automatisch in der Camera Roll gespeichert wird und es dann sofort in iCloud hochgeladen wird?

Jörn 06.08.2021 17:45

Zum Argument, dass ein Tor für den Staat geöffnet wird:

Wenn der Staat etwas gescannt haben will, dann wird auch gescannt. Das hat mit Apple nichts zu tun. Die Lage ist heute exakt so wie gestern.

Der Staat hat bereits das Scannen von Web-Videos angeordnet, und das wird bei Youtube & Co umgesetzt. Jedes Video, das Du zu Youtube hochlädst, wird gescannt:

- auf Urheberrechtsverletzungen im Video
- auf Urheberrechtsverletzungen im Ton
- auf das genaue Gesprächsthema (ob Werbung geschaltet wird).

Jörn 06.08.2021 17:50

Zum Argument, dass Dir jemand Kinderpornos per iMessage sendet, diese sofort in iPhoto landen, und von dort in der iCloud:

Damit der Filter anschlägt, müssen eine Anzahl solcher Vorfälle vorgekommen sein. Du würdest einen Kontakt, der Dir solche Bilder sendet, vermutlich bitten, es zu unterlassen, oder den Kontakt blockieren.

Falls Du dennoch in Apples Filter landest, hast Du vermutlich keine Probleme, die Ursache zu belegen.

Ehrlich gesagt halte ich solche Einwände für wenig realistisch. Mir hat noch niemand solche Bilder gesendet, und ich würde sie dann ganz sicher nicht in meiner iCloud-Library aufbewahren, sondern umgehend löschen.

Juris 07.08.2021 01:00

Das Thema wird uns noch beschäftigen. Es gibt jetzt einen offenen Brief an Apple - https://appleprivacyletter.com/


Alle Zeitangaben in WEZ +2. Es ist jetzt 11:50 Uhr.

Powered by vBulletin® Version 3.6.8 (Deutsch)
Copyright ©2000 - 2021, Jelsoft Enterprises Ltd.