logo
logo
Apple filtert iCloud-Uploads mit iOS 15 - Seite 10 - Mac-TV.de
Zurück   Mac-TV.de > Rund um Apple und Technik > Apple allgemein (und den Rest der Welt)
Registrieren Hilfe Suchen Heutige Beiträge Alle Foren als gelesen markieren

Antwort
 
Themen-Optionen Thema durchsuchen
  #91  
Alt 15.08.2021, 12:44
woreich woreich ist offline
Erfahrener Benutzer
 
Registriert seit: 05.01.2008
Beiträge: 987
Unter Netzpolitik.org gibt es eine Langzeitchronik zum generellen Thema.

Andere (auch EU-)Länder sind da sicher schon weiter. Und nun werden auch NGOs gezwungen, Überwachung zu betreiben, weil sie sonst für (kriminelle) Inhalte ihrer Kunden zur Rechenschaft gezogen werden können.

Gut - ich bin nicht kriminell und nicht sonstwas. Insofern kann ich mich ja zurücklehnen und mich über das neue Applefeature freuen.
Mit Zitat antworten
  #92  
Alt 16.08.2021, 16:10
christo747 christo747 ist offline
Benutzer
 
Registriert seit: 05.01.2008
Beiträge: 32
Wow. Was hier teilweise geschrieben wird ist erschreckend.
Beispielsweise Jörn: “Was Apple angekündigt hat, ist ein sehr cleveres System, um eine Datenbank von bereits bekannten Kinderporno-Fotos abzugleichen mit Fotos, die zur iCloud hochgeladen werden.”

Meine Sicht ist anders. Apple gibt alles auf was sie in den letzten Jahren unter dem Begriff “Privacy” beworben haben. Es ist ein Dammbruch für den Schutz der Privatsphäre. Wer jetzt noch Apple kauft ist selber Schuld. Das sage ich als Apple-Fan der letzten 25 Jahre.
Mit Zitat antworten
  #93  
Alt 16.08.2021, 16:25
Jörn Jörn ist gerade online
Administrator
 
Registriert seit: 05.01.2008
Beiträge: 9.380
Und sicherlich erfahren wir auch die Begründung dafür?

Meine Auffassung habe ich jedenfalls ausführlich begründet und mit Fakten belegt.

Was ist falsch an folgendem Satz: "Was Apple angekündigt hat, ist ein sehr cleveres System, um eine Datenbank von bereits bekannten Kinderporno-Fotos abzugleichen mit Fotos, die zur iCloud hochgeladen werden"?

Geändert von Jörn (16.08.2021 um 16:46 Uhr).
Mit Zitat antworten
  #94  
Alt 16.08.2021, 17:06
christo747 christo747 ist offline
Benutzer
 
Registriert seit: 05.01.2008
Beiträge: 32
Zitat:
Zitat von Jörn Beitrag anzeigen
Was ist falsch an folgendem Satz: "Was Apple angekündigt hat, ist ein sehr cleveres System, um eine Datenbank von bereits bekannten Kinderporno-Fotos abzugleichen mit Fotos, die zur iCloud hochgeladen werden"?
Jörn, ich denke, dass Du das weißt. Es geht in keinster Weise um die technische Umsetzung. Wer glaubt die Art der Umsetzung spiele eine Rolle ist mehr als naiv. - Es ist völlig ok sich über Technik und Software Gedanken zu machen, nur hier spielt dies absolut keine Rolle. Es ist ganz simpel ein massiver Eingriff in die Privatsphäre. Ich kann das für mich nicht akzeptieren und wundere mich über jeden der das kann.

Wirklich, ich habe jahrelang für Apples Umgang mit Datensicherheit geworben. Dass sie sich selber mal das größte Leck zufügen, hätte ich niemals gedacht.

PS: Noch eine Randbemerkung. Dies ist kein technischer Spaß wie er von Dir für die Mac-TV-Sendungen gesucht/verwendet wird. Dies ist bitterer Ernst!
Mit Zitat antworten
  #95  
Alt 16.08.2021, 17:23
Jörn Jörn ist gerade online
Administrator
 
Registriert seit: 05.01.2008
Beiträge: 9.380
Du hast geschrieben, mein Satz wäre erschreckend. Ich habe Dich gefragt, warum. Darauf gibst Du keine Antwort. Das macht eine sachliche Debatte schwierig.

Du beschreibst die Technik als "massiver Eingriff in die Privatsphäre". Apple sagt, der Eingriff sei erstens minimal, und zweitens bliebe die Privatsphäre vollständig erhalten (außer man würde Kinderpornos zu iCloud laden). Wer hat nun Recht? Warum ist es "massiv" und nicht minimal? Warum betrifft es Deine Privatsphäre? Sind denn die Maßnahmen, mit denen die Privatsphäre erhalten bleiben soll, untauglich?

Du beschreibst die Technik als "größtes Leck". Warum ist es ein Leck?

(Ich habe jene vier Punkte, zu denen mich eine Antwort interessieren würden, unterstrichen.)
Mit Zitat antworten
  #96  
Alt 17.08.2021, 11:03
Jörn Jörn ist gerade online
Administrator
 
Registriert seit: 05.01.2008
Beiträge: 9.380
Nachdem ich keine Antworten bekomme, poste ich mal einen "Blick über den Gartenzaun":

Zitat:
Laut eines Berichts der BBC hat Facebook die Taliban von seiner Plattform gesperrt. Auch Inhalte, die die Taliban unterstützten, dürften dort nicht veröffentlicht werden, berichtet der Sender unter Berufung auf eine Stellungnahme des Unternehmens.

"Die Taliban gelten nach US-Gesetzen als Terrorgruppe und wir haben sie gemäß unseren Regel für gefährliche Gruppierungen gesperrt", zitiert die BBC einen Unternehmenssprecher. "Das bedeutet, dass wir Nutzerkonten entfernen, die von den Taliban oder in ihrem Namen betrieben werden."

Die Regelung gelte auch für andere Dienste des Unternehmens, etwa Instagram und WhatsApp. Allerdings berichtet die BBC, dass die Taliban möglicherweise WhatsApp zur Kommunikation nutzen. (Quelle: Zeit)
Das bedeutet, dass sämtliche (!) Inhalte auf Facebook und Instagram gescannt werden müssen: Jeder Text, jedes Bild, jedes Video.

Nun werden fast alle Facebook-Nutzer usw. zustimmen, dass man solche Inhalte nicht auf dieser Plattform haben möchte, und dass die Prüfung angemessen ist. Der Preis dafür ist, das keine Verschlüsselung stattfindet. Alles ist lesbar. Das mag für eine Facebook-Seite logisch sein, da sie sowieso öffentlich ist; aber es gibt auch geschlossene Gruppen oder private Nachrichten. All das ist offen lesbar. Daran kann man sehen, dass diese (technisch plumpen) Filter große Nachteile haben.

Apples Technik ermöglicht eine Verschlüsselung, und trotzdem können bestimmte Inhalte gefunden werden. Ist das nicht besser?

Natürlich ist Apples Fall auch etwas simpler, weil man Hash-Werte von bereits bekannten Bildern vergleichen kann. Facebook muss neue Inhalte erkennen, d.h. sie müssen den tatsächlichen Inhalt von Bildern erkennen. Apples Technik erkennt hingegen keine Inhalte, sondern vergleicht Zahlen aus einer Datenbank. Apple gewinnt keinerlei Kenntnis über die Bilder; Facebook hingegen macht genau dies. Apple kann nicht wissen, ob ein Bild einen Strand zeigt; Facebook weiß es.

Wenn in den Foren argumentiert wird, Apple würde Fotos "scannen", dann meint das ein Erkennen der Inhalte. Genau das kann Apple aber nicht.

Es wird in den Foren behauptet, Apples Technik wäre ein Dammbruch, also eine neue Art der Überwachung. Genau das ist es nicht. Facebook (und alle anderen) scannen tatsächlich alle Inhalte. Apple hat nun einen Weg gefunden, ohne ein "Erkennen der Bilder" auszukommen, indem man Hash-Werte benutzt; und es hält die Verschlüsselung aufrecht. Apple tut also das Gegenteil dessen, was unterstellt wird: Apple erkennt nicht den Inhalt der Bilder, die Verschlüsselung bleibt erhalten, und trotzdem funktioniert der Filter.
Mit Zitat antworten
  #97  
Alt 17.08.2021, 12:00
Jörn Jörn ist gerade online
Administrator
 
Registriert seit: 05.01.2008
Beiträge: 9.380
Was ist ein Hash-Wert?

Ein Hash-Wert ist eine lange Kette aus Zahlen und Buchstaben, ungefähr so:

3i4rwshjgfqoi3zrtsjkhflqk3g5i7w4ezrgfhkyjdhdiwu45o riagyfkhwi74tekjg.


Wie benutzt Apple solche Hash-Werte?

Apple benutzt die Hash-Werte, um Informationen zu verschlüsseln, auf eine Weise, die nicht in das Original zurückverwandelt werden kann.


Erläuterung

Normalerweise geht man als Anwender davon aus, dass eine Verschlüsselung stets zurückverwandelt werden kann in das Original (sofern man den Schlüssel besitzt). Es gibt aber Fälle, wo das unerwünscht ist.

Ein Beispiel dafür wären Passwörter. Hier wird aus einem Passwort ("Mutter123") ein Hash-Wert erzeugt ("8723kjakdfui236rkjsylai3i4wdjfak"). Der Hash-Wert wird z.B. auf dem Facebook-Server gespeichert. Es gibt keine Möglichkeit, den Hash-Wert zurückzuverwandeln in das Original.

Aber! Anders als bei "normaler" Verschlüsselung ist der Hash-Wert immer gleich. Bei normaler Verschlüsselung wäre die verschlüsselte Version immer unterschiedlich. Wenn man also sein Passwort zehn mal verschlüsseln würde, bekäme man zehn unterschiedliche Ergebnisse. Bei einem Hash-Wert wird dieser aber immer gleich sein. Trotzdem lässt er keine Rückschlüsse auf das Original zu.

Deswegen werden Passwörter oft als Hash-Wert gespeichert. Wenn Ihr z.B. die Facebook-Seite besucht, übergebt Ihr dem Facebook-Server nicht Eurer Passwort, sondern nur den Hash-Wert. Dieser Hash-Wert ist in Eurem Account gespeichert und wird nun verglichen. Dieser Vergleich ist möglich, weil der Hash-Wert stets gleich ist. Wenn der Hash stimmt, könnt Ihr Euch einloggen. Dennoch kennt Facebook Euer wahres Passwort nicht.

Nun werden manche Leute das nicht sofort verstehen und denken, egal was letztlich dahintersteckt, Facebook muss irgendwie mein Passwort kennen. Aber das stimmt nicht. — Auf gleiche Weise ist es ein Irrtum, wenn man dächte, egal was letztlich dahinter steckt, Apple muss irgendwie meine Bilder kennen (sonst könnte es nicht wissen, welche davon Kinderpornos sind). Aber das ist falsch. Facebook kennt nicht das Passwort und Apple kennt nicht die Bilder.


Umwandlung von Bildern in Hash-Werte

Bestimmte Merkmale eines Bildes (bestimmte Geometrien, Helligkeitswerte usw.) werden umgewandelt in Zahlenwerte. Das wird auf eine Weise gemacht, die auch leichte Änderungen von Fotos übersteht (etwa, dass man es spiegelverkehrt speichert). Dazu gibt es bekannte und erprobte Methoden. Diese Zahlenwerte (3762823, 387929234, 234212, 2, 23123, 342212) werden dann umgewandelt in einen Hash-Wert (3478kfuiw3ekjgfq3kuktrefkksdkqauetgvmlka3ztrfkjwk jel3ahrfkjsfhdqkjeagk).

Der Clou ist nun, dass dieser Hash-Wert nicht (!) zurückverwandelt werden kann in das Bild. Wenn Apple also diese Hash-Werte bekäme (sie bekommen sie aber nicht), dann könnten sie daraus keinerlei Rückschlüsse ziehen auf das Foto.

Deswegen sind Parolen wie "Totalüberwachung!" und "Privatsphäre!!" technisch etwas obskur, weil eine Zahlenwurst wie "3478kfuiw3ekjgfq3kuktref", die nicht in das Original zurückgeführt werden kann, offensichtlich keine Verletzung eines Geheimnisses oder einer Privatsphäre ist. Der ganze Gag dieser Technik besteht ja gerade darin, dass Apple die Inhalte der Bilder nicht sehen kann.

Ein weiterer Clou ist nun, dass der Hash-Wert für gleiche (oder sehr ähnliche) Bilder immer identisch ist. Dadurch kann man diese Werte zuverlässig mit einer Datenbank abgleichen. Anstatt also Bilder zu vergleichen, vergleicht man Hash-Werte. Das ist eine sehr exakte Methode, denn natürlich möchte man kann keine falschen Treffer.

Damit man es sich noch besser vorstellen kann: Ein DNA-Test bei einem Kriminalfall ist ähnlich. Man kann die DNA einer Blutspur nicht "zurückverwandeln" in den Täter. Aber wenn ein Verdächtiger "zufällig" die gleiche DNA hat, dann ist das kein Zufall mehr. (Jedenfalls rechtfertigt es eine weitere Untersuchung.) Das gleiche geschieht beim Hash-Wert: Zunächst sagt der Hash-Wert überhaupt nichts, aber wenn er plötzlich identisch ist mit einem bekannten Kinderporno-Hash, dann sollte man mal hinsehen. Die Chance auf einen Irrtum ist geringer als zehn Lottogewinne nacheinander.


Entschlüsselung des Hash-Wertes

Verwirrend für viele Anwender dürfte sein, dass Apple diese Treffer angeblich mitbekommt, und dann angeblich doch die Bilder sehen kann. Dieser Irrtum basiert vermutlich auf schlampig geschriebenen Artikeln bzw. auf hysterischen Forums-Postings.

Die tatsächliche Technik ist feiner und intelligenter: Die Hash-Werte sind nämlich noch einmal verschlüsselt, diesmal mit einem anderen Trick.

Zunächst kann Apple die Hash-Werte und deren Prüfungsergebnis nicht sehen. Warum nicht? Weil sie verschlüsselt sind. Apple kann also nicht wissen, welcher Anwender welche Hash-Werte und Prüfungsergebnisse hat. Apple hat keine Chance, das zu sehen.

Wer hat den Schlüssel für diese Verschlüsselung? Den hat Apple. Aber! Es handelt sich um eine weitere clevere Technik, nämlich einen speziellen "mehrteiligen" Schlüssel.

Was ist ein "mehrteiliger" Schlüssel? Stellen wir uns ein Bankschließfach vor, bei dem der Kunde und der Direktor gleichzeitig einen Schlüssel umdrehen müssen. Oder man hätte eine Erbschaft, bei der alle zehn Kinder zustimmen müssen, damit sie ausbezahlt wird. Solange nicht alle Schlüssel (oder Unterschriften) vorliegen, passiert nichts.

Nun könnte ein Sultan aber hundert Kinder haben, und er legt daher fest, dass die Erbschaft ab siebzig Unterschriften ausbezahlt wird. Oder man hätte ein Bankschließfach mit zehn Schlüsseln, das öffnet, sobald fünf davon vorliegen.

Apples Schlüssel öffnet, wenn dreißig Schlüssel vorliegen. Man braucht also dreißig Treffer, dann kann Apple diese Hash-Werte sehen und zudem eine schemenhafte Version des Bildes. Bei 29 Treffern sieht Apple überhaupt nichts — auch nicht, dass es 29 Treffer gibt.

Wenn es 30 Treffer gab und das Schloss öffnet, dann öffnet es nur diese 30 Treffer. Alle anderen Fotos (und auch die Originale der Treffer) bleiben für Apple unlesbar. Apple kann nur die Treffer selbst in einer schemenhaften Version sehen.


Fazit

Der Clou der Technik besteht darin, eben nicht alle Fotos nach ihrem Inhalt ("Eiffelturm", "Kinder beim Planschen im Schwimmbad") auszuwerten. Denn die Hash-Werte machen dies erstens unmöglich und zweitens unnötig. Die Behauptung, Apple schnüffele durch alle Fotos, ist an exakt jener Stelle unpräzise, an der man sehr präzise formulieren muss. Apple ist technisch in der Lage, die Fotos zu prüfen, ohne deren Inhalte auszuwerten. Die Erzeugung eines Hash-Wertes ist etwas anderes als ein Foto "auszuwerten".

Es wird auch nichts zu Apple oder irgendwelchen Behörden gefunkt — dies ist nicht möglich, weil die Hash-Werte und die Treffer nochmals verschlüsselt sind. Der Schlüssel öffnet ab 30 Treffern und nur für diese Treffer. Anschließend erfolgt eine manuelle Prüfung durch einen Mitarbeiter, der nur diese 30 Treffer sehen kann.

Wer für sich die Möglichkeit in Betracht zieht, 30 solcher Treffer zu produzieren, der könnte diese Art von Bildern in ein verschlüsseltes Disk-Image speichern und dieses dann zur iCloud zu laden. Dort kann Apple nicht hineinsehen, weil sie den Schlüssel nicht haben.

Geändert von Jörn (17.08.2021 um 13:56 Uhr).
Mit Zitat antworten
  #98  
Alt 17.08.2021, 12:04
cordcam cordcam ist offline
Erfahrener Benutzer
 
Registriert seit: 13.04.2010
Beiträge: 2.809
Du hast es immer noch nicht verstanden. Bei Facebook weiß ich das und ich wähle genau aus, was ich poste. Es wird also mitnichten alles gescannt. Ich habe ja schon eine Auswahl getroffen.

Apple nimmt sich aber auf meinem iPhone mal eben meine gesamte Fotosammlung vor. Später möglicherweise mehr.
Mit Zitat antworten
  #99  
Alt 17.08.2021, 12:10
cordcam cordcam ist offline
Erfahrener Benutzer
 
Registriert seit: 13.04.2010
Beiträge: 2.809
Ich hätte einen Kompromissvorschlag, den ich mir eh schon lange wünsche:

Apple könnte es doch möglich machen, dass ich nicht nur die iCloud Fotomediathek an- und ausschalten kann, sondern dass ich mehr Wahl habe.

So dass ich zum Beispiel Bilder taggen kann, die nicht in die iCloud sollen.

Trotzdem bleibt natürlich die Hintertür, die repressive Staaten definitiv zu nutzen wissen, weil sie ja schon gelernt haben, wie willfährig Apple handelt, wenn es um Profit geht.
Mit Zitat antworten
  #100  
Alt 17.08.2021, 12:15
cordcam cordcam ist offline
Erfahrener Benutzer
 
Registriert seit: 13.04.2010
Beiträge: 2.809
Der DNA Test ist ein gutes Beispiel.

Ich kann die Erhebung eines DNA Abgleichs verweigern, wenn kein konkreter Verdacht gegen mich vorliegt.

Ich kann die Erhebung eines Hash Abgleiches bei der Nutzung der iCloud Meciathek aber nicht verweigern. Er wird anlasslos erhoben.
Mit Zitat antworten
Antwort


Themen-Optionen Thema durchsuchen
Thema durchsuchen:

Erweiterte Suche

Forumregeln
Es ist Ihnen nicht erlaubt, neue Themen zu verfassen.
Es ist Ihnen nicht erlaubt, auf Beiträge zu antworten.
Es ist Ihnen nicht erlaubt, Anhänge anzufügen.
Es ist Ihnen nicht erlaubt, Ihre Beiträge zu bearbeiten.

vB Code ist An.
Smileys sind An.
[IMG] Code ist An.
HTML-Code ist Aus.
Gehe zu




Powered by vBulletin® Version 3.6.8 (Deutsch)
Copyright ©2000 - 2021, Jelsoft Enterprises Ltd.