Mac-TV.de

Mac-TV.de (https://www.mac-tv.de/Forum/index.php)
-   Apple allgemein (und den Rest der Welt) (https://www.mac-tv.de/Forum/forumdisplay.php?f=3)
-   -   Apple filtert iCloud-Uploads mit iOS 15 (https://www.mac-tv.de/Forum/showthread.php?t=18211)

Jörn 07.08.2021 01:17

Edward Snowden sagt, wenn sie heute Fotos wegen X scannen, dann könnten sie morgen Fotos wegen Y scannen; dies müsse verhindert werden, denn es handele sich um Massenüberwachung.

So sehr ich Edward Snowden schätze, schient mir dies sachlich falsch zu sein. Apple scannt schon seit Jahren alle Bilder in der Fotos-App. Die App scannt die Bilder nach bekannten Gesichtern, nach Gegenständen, nach bekannten Gebäuden (Eiffelturm), und notiert sorgfältig die GPS-Koordinaten.

Was bedeutet das? Es bedeutet einerseits, dass Apple kein vorgeschobenes Vehikel wie z.B. Kinderschutz benötigt, wenn sie die Leute überwachen wollten. Und andererseits, dass man jede gute und nützliche Technologie in ein schiefes Licht stellen kann, wenn man absurde Szenarien behauptet.

Apple könnte eine Milliarde Kreditkarten missbrauchen, aber sie tun es nicht. Apple könnte eine Milliarde Mail-Adressen an eine Werbefirma verkaufen, aber sie tun es nicht. Stets zu sagen: "Ja, aber sie könnten es!", ist kein konstruktiver Beitrag zur Debatte.

Jörn 07.08.2021 01:48

Zitat:

Zitat von Juris (Beitrag 267433)
Das Thema wird uns noch beschäftigen. Es gibt jetzt einen offenen Brief an Apple - https://appleprivacyletter.com/

Das ist eine Sammlung an falschen Behauptungen. Es scheint den Autoren vor allem darum zu gehen, ihre Thesen verbreiten zu wollen.

Allein die Wortwahl ist bedenklich: Da wird von "objectionable photos" geschrieben, wo es doch in Wahrheit um Fotos geht, die echten Missbrauch an Kindern zeigen, und die von Fachleuten zuvor bereits in einer Datenbank hinterlegt wurden.

Die Wahrheit ist, dass Apple sich überhaupt nicht um "objectionable photos" kümmert, wenn damit (meinetwegen auch krasse) Porno-Bilder gemeint sind, die von Erwachsenen handeln.

Dann wird behauptet, dadurch würde die Verschlüsselung ausgehebelt. In Wahrheit ist Apples System deswegen so ausgefeilt, weil es die Verschlüsselung erhält, aber trotzdem in der Lage ist, bereits bekannte und kriminelle Bilder zu erkennen. Das ist keine Magie, denn jede Foto-App scannt heutzutage alle Fotos auf bestimmte Objekte (Menschen, Bäume, Sehenswürdigkeiten), und niemand kam auf die Idee, zu behaupten, dies würde die Verschlüsselung aushebeln.

Weiter wird behauptet, Apples zweites System, das Kinder vor dem Empfangen und Versenden von Nacktbildern mit einem Hinweis warnt, wäre ein Bruch der Verschlüsselung und Privatheit. Das ist sachlich und technisch falsch. Die Verschlüsselung findet statt zwischen Sender und Empfänger, dies bleibt unverändert. Aber natürlich ist ein Foto, wenn es sich bereits auf dem Gerät befindet, für den Anwender sichtbar, und ebenso für die Software. Deswegen kann man Kindern eine Warnung einblenden. Es hat mit Verschlüsselung überhaupt nichts zu tun.

Dann folgt in dem Text eine längere Liste an Verschwörungstheorien, welche Daten wohin gemeldet werden könnten. Diese Theorien könnten zwar eintreffen. Aber dazu benötigt Apple die neue Technik überhaupt nicht. Sie könnten es jetzt schon tun, jederzeit. Wenn Apple die neue Technik wieder einstellt, könnten sie trotzdem jedes Foto zu einer chinesischen Behörde laden, wenn sie das wollten. Diese Verschwörungstheorien würden also weiterhin denkbar bleiben. So kommt man nicht weiter.

Ein weiterer Verschwörungstheoretiker argumentiert, Apple würde in Saudi Arabien kein FaceTime anbieten, weil verschlüsselte Telefonate dort nicht erlaubt seien; und dies zeige, wie sehr sich Apple den Wünschen totalitärer Regime beuge. — Aber das Gegenteil ist der Fall: sie haben lieber auf FaceTime verzichtet als die Verschlüsselung aufzugeben. Das beweist also genau das Gegenteil.

Hier wird so getan, als seien digitale Inhalte generell verschlüsselt, und Apple bräche nun dieses heilige Prinzip. Fakt ist jedoch, dass die "Big Player" weitgehend auf Verschlüsselung verzichtet haben. Sind Fotos in Facebook verschlüsselt? In Instagram? In WhatsApp? In Messenger? Google? Bing? Nein, das sind sie nicht; teilweise beginnen sie gerade damit, eine Verschlüsselung einzuführen. Hat sich jemand beschwert? Nein. Apple ist hingegen der "Gold Standard" bei diesen Technologien. Niemand bietet eine derart paranoide Verschlüsselung an wie Apple. Jetzt wird so getan, als wäre schon immer alles verschlüsselt gewesen, und Apple bräche plötzlich durch die Hintertür ins Haus ein.

Am Ende des Textes wird gar behauptet, homosexuelle Kinder könnten ihr Zuhause verlieren, geschlagen werden, oder schlimmeres. Zitat: "these 'child protection' features are going to get queer kids kicked out of their homes, beaten, or worse". Begründet wird es damit, dass Apple entsprechende Fotos auf dem Gerät erkennt. — Auch hier wird suggeriert, Apple scanne alle Bilder und fände per KI heraus, was dort zu sehen sei. Aber das ist grob falsch. Stattdessen wird eine Datenbank an bereits bekannten "Klassiker-Bildern" aus der Kinderporno-Szene verwendet. Die Hash-Werte (also eine Reihe von Zahlen) dieser kriminellen Fotos wird mit Hash-Werten auf dem Gerät abgeglichen. Private Fotos, gleich welcher Art, sind überhaupt nicht betroffen, weil sie nicht in dieser Datenbank enthalten sind. Was ist daran so schwer zu verstehen?

Der Text ist ingesamt sehr irreführend und nach meinen Maßstäben bösartig. Er lässt auch kein Interesse daran erkennen, einen Beitrag zur Problemlösung zu leisten.

cordcam 07.08.2021 11:00

Zitat:

Zitat von Jörn (Beitrag 267431)
Zum Argument, dass ein Tor für den Staat geöffnet wird:

Wenn der Staat etwas gescannt haben will, dann wird auch gescannt. Das hat mit Apple nichts zu tun. Die Lage ist heute exakt so wie gestern.

Der Staat hat bereits das Scannen von Web-Videos angeordnet, und das wird bei Youtube & Co umgesetzt. Jedes Video, das Du zu Youtube hochlädst, wird gescannt:

- auf Urheberrechtsverletzungen im Video
- auf Urheberrechtsverletzungen im Ton
- auf das genaue Gesprächsthema (ob Werbung geschaltet wird).

YouTube ist ein Dienst, zu dem ich gezielt etwas hochlade. Die iCloud ist der Standardspeicherplatz meines Geräts.

Ich sehe da einen riesigen Unterschied und eine neue Situation!

Aus dem offenen Brief:

“Apple sells iPhones without FaceTime in Saudi Arabia, because local regulation prohibits encrypted phone calls. That's just one example of many where Apple's bent to local pressure. What happens when local regulations in Saudi Arabia mandate that messages be scanned not for child sexual abuse, but for homosexuality or for offenses against the monarchy?”

Jörn 07.08.2021 11:10

Darauf hatte ich ja bereits geantwortet.

Mit Saudi Arabien oder China ergibt sich keine neue Situation. Fotos scannen kann Apple ja heute schon und tut es bei jedem einzelnen Foto, um darauf Gesichter, Hunde und Eiffeltürme zu erkennen. Es ist also nicht zutreffend, dass diese neue Software etwas ermöglichen würde, was zuvor unmöglich war.

Was jedoch oft nicht verstanden wird: Es handelt sich beim neuen iCloud-Filter eben NICHT um ein Scannen der Fotos. Dazu hätte es keine neue Technik gebraucht. Sondern es werden Hash-Werte (ein paar lange Zahlen) aus einer Datenbank verglichen. Es werden also gerade NICHT die Fotos nach Bildinhalten durchsucht, d.h. es wird eben gerade NICHT untersucht, ob auf dem Bild jemand den König beleidigt. Wenn man wollte, hätte man es längst tun können.

Und, wie gesagt, Apple hat dem Wunsch von Saudi Arabien gerade NICHT nachgegeben, auf die Verschlüsselung von FaceTime zu verzichten. Sondern stattdessen gibt es in Saudi Arabien eben kein FaceTime. Es ist also genau das Gegenteil von dem passiert, was der Text behauptet.

Apple weiß NICHT, ob jemand sich auf Webseiten für Homosexuelle tummelt oder entsprechende Chatnachrichten austauscht, Fotos speichert oder Videos anschaut. Aber Google weiß es. Facebook weiß es auch. WhatsApp weiß es. Instagram weiß es. Nur Apple weiß es nicht. Wer wird jedoch kritisiert? Apple.

cordcam 07.08.2021 11:13

Abgesehen davon verändert sich ein wichtiges Rechtsprinzip:

Ich werde plötzlich ANLASSLOS unter Verdacht gestellt und überprüft. Dauerhaft.

Jörn 07.08.2021 11:35

Hier werden Rechtsbegriffe vermischt, um es möglichst dramatisch darzustellen. Der Staat verdächtigt zunächst niemanden.

Niemand wird anlasslos unter Verdacht gestellt. Sondern es ist ein Upload-Filter, wie ihn die meisten Online-Dienste verwenden und zum Teil verwenden müssen.

Stellt sich dabei heraus, dass kriminelle Inhalte hochgeladen wurden, wird nach weiteren Prüfungen eventuell der Staat informiert. Dann besteht aber tatsächlich ein Anlass. Bis dahin ist es komplett anonym: Weder kennt Apple die Personen, noch die Fotos. Erst wenn verschiedene Stufen einen dringenden Verdacht melden, dann wird näher hingeschaut, und dann sieht Apple zunächst nur die verschiedenen Zertifikate, mit denen das System arbeitet. Wenn auch dies den Verdacht erhärtet, gibt es definitiv einen Anlass.

fcbayernsupporter 07.08.2021 11:37

Danke an alle beteiligten hier im Thread für die sachliche Diskussion und das Abwägen. Ich stimme hier Jörn mit seinen Argumenten zu. Insbesondere diesem: Es hätte diese neue Technik nicht gebraucht, um das von den Kritikern für die Zukunft drohende Szenario heraufzubeschwören.

Andererseits ist diese neue Technik für Staaten, welche Druck auf Apple ausüben, um ihre eigene Datenbank mit Hashwerten ins Spiel zu bringen, eine Möglichkeit, das Verfahren in der Öffentlichkeit als „harmlos“ darzustellen, weil ja der Abgleich on-device passiert und die Technik ja bereits existiert.

Bleibe da aber in der Abwägung weiterhin bei Jörns Argumentation. Insbesondere Apple hat in der Vergangenheit bewiesen (siehe damals die FBI-Geschichte), dass sie hier klare Kante zeigen können. Und nochmals: Es hätte diese neue Technik nicht benötigt, um…

Ich verlinke nachfolgend noch den Blogpost von John Gruber, Daring Fireball, welcher das Thema sehr gut zusammenfasst. Den Artikel kann ich wärmstens empfehlen:

https://daringfireball.net/2021/08/a...slippery_slope

cordcam 07.08.2021 11:45

Doch, es ist ein anlassloser Verdacht und eine anlasslose Überwachung.

Dabei ist es völlig egal, ob ich anfänglich anonym bleibe.

Das bin ich auch, wenn ich als Fußgänger unterwegs bin und ein Polizist mich einfach mal kontrollieren will. Darf er nicht, ich bin davor geschützt.

Das wird hier ausgehebelt. Mein Eigentum wird anlasslos überprüft.

Im Grunde ist die Software ein Privatdetektiv, der Dir auf der Straße ständig in die Taschen greifen darf, um zu gucken, ob alles ok ist. Würde man das gut finden?

cordcam 07.08.2021 12:01

Wie schnell so etwas außer Kontrolle gerät, hat sich ja in den Hamburger „Gefahrengebieten“ gezeigt, in denen anlasslos kontrolliert werden darf:

Da reichte dann eine mitgeführte Toilettenbürste oder ein Bund Petersilie, um zum Gefährder erklärt zu werden. Bürste und Petersilie wurden beschlagnahmt.

Jörn 07.08.2021 12:41

Es ähnelt aber nicht einer Polizeikontrolle mit einer eindeutigen Person, sondern einer automatisierten und zunächst anonymen Radarkontrolle, bei der keine Daten gespeichert werden, es sei denn, jemand überschreitet tatsächlich das Tempo signifikant. Erst dann dürfen Daten erhoben werden.

"Anlasslos" wäre es dann, wenn generell von allen Autos und Personen die Daten erfasst und gespeichert würden. Das haben Gerichte meines Wissens auch so entschieden — es dient mir aber nur als Beispiel und möchte nicht abschweifen.

Bei Apple bleibt die Anonymität und die Verschlüsselung gewahrt. Weil also keine indentifizierbaren Personen betroffen sind, wird auch niemand in seinen Rechten verletzt. Die Anonymität wird dann (und nur dann) aufgehoben, wenn ein klarer Anlass gefunden wurde. Zudem kann sich ja jeder frei entscheiden, ob er Kunde bei iCloud sein will oder nicht.


Alle Zeitangaben in WEZ +2. Es ist jetzt 16:41 Uhr.

Powered by vBulletin® Version 3.6.8 (Deutsch)
Copyright ©2000 - 2022, Jelsoft Enterprises Ltd.