Apple filtert iCloud-Uploads mit iOS 15

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge
  • cordcam
    Erfahrener Benutzer
    • 13.04.2010
    • 3057

    Apple filtert iCloud-Uploads mit iOS 15

    Apple kündigt mit CSAM-Scanning eine Art Totalüberwachung für Kinderschutz an. Und schafft damit einen fatalen Präzedenzfall, kommentiert Jürgen Schmidt


    Wie ist eure Meinung dazu?
  • Jörn
    Administrator
    • 05.01.2008
    • 10223

    #2
    Völliger Unsinn.

    Die Dinge, die der Autor aufzählt, haben nichts mit Apples Vorhaben und Technologie zu tun, sondern sind frei erfunden.

    Was Apple angekündigt hat, ist ein sehr cleveres System, um eine Datenbank von bereits bekannten Kinderporno-Fotos abzugleichen mit Fotos, die zur iCloud hochgeladen werden.

    Im Web wird es derzeit so dargestellt, als würde man damit generell Nacktbilder scannen, und alle sind in Aufruhr. Stattdessen werden Hash-Werte aus einer Datenbank mit bekannten (kriminellen) Inhalten abgeglichen. Sozusagen "Klassiker-Bilder" aus der Kinderporno-Szene.

    Solche Filter verwenden Facebook, Google und Microsoft schon lange, allerdings hat es dort den Preis, dass Fotos unverschlüsselt sein müssen. Apple führt jetzt eine Technik ein, bei der Bilder dennoch verschlüsselt bleiben können. Das ist gut. Apple sieht (wie bisher) nicht, was wir in unserer Foto-Library haben. Die Datenbank wird on-device abgeglichen, daher funktioniert es trotz Verschlüsselung.

    Das bedeutet: Die vielen unbescholtenen Anwender behalten ihre Verschlüsselung. Der vermutlich geringe Prozentsatz an Tätern macht das also nicht kaputt. Das ist gut.

    Wer seine Fotos nicht zu iCloud hochlädt, dessen Fotos werden generell nicht überprüft. Wer jedoch iCloud nutzen will, muss sich damit abfinden, dass dort keine Kinderporno-Fotos hochgeladen werden dürfen. Damit die Fotos nicht angesehen werden müssen, und damit auch keine "Künstliche Intelligenz" die Fotos auswertet, verwendet Apple die schon genannten Hash-Werte aus einer Datenbank mit bekannten Bildern. Das ist ein sehr treffsicheres System, das dennoch die Privatsphäre der Kunden aufrecht erhält.

    Das System meldet auch "Treffer" nur dann, wenn mehrere davon entdeckt wurden. Bedeutet: Mehrere, bereits in der Kinderporno-Szene bekannte Bilder. Erst wenn dies der Fall ist, wird es Apple gemeldet und es folgt eine manuelle Überprüfung.

    Außerdem hat Apple einen Filter in iMessage eingebaut, der von den Eltern aktiviert werden muss. Er blendet einen Warnhinweis ein, wenn Kinder Nacktbilder erhalten oder von sich selbst versenden.
    Zuletzt geändert von Jörn; 06.08.2021, 16:14.

    Kommentar

    • rene204
      Erfahrener Benutzer
      • 05.01.2008
      • 385

      #3
      Jörn, danke für diese Klarstellung.
      Es ist wirklich auffällig, wie sich im Netz die Meldungen darüber aufhäufen und Gerüchte und Spekulationen vermehren.
      -> https://www.mactechnews.de/news/arti...he-178222.html
      Dort wird das anschaulich auch noch einmal mit einer Grafik erklärt.

      Kommentar

      • Jörn
        Administrator
        • 05.01.2008
        • 10223

        #4
        Übrigens gilt es zunächst nur für die USA.

        Kommentar

        • Jörn
          Administrator
          • 05.01.2008
          • 10223

          #5
          Wir werden jetzt sicherlich die nächsten Tage mit folgendem Dialog zubringen:

          Frage: "Das ist ja alles schön und gut! Aber was ist, wenn ich einfach meine Kinder am Strand fotografiere und das System meldet mich an die Behörden?"

          Antwort: "Diese Bilder sind ja nicht in einer Kinderporno-Datenbank gespeichert, also können sie auch nicht erkannt werden. Es geht nicht um private Bilder, sondern um Bilder, die bereits veröffentlicht wurden und bekannt sind."

          [Alle fünf Minuten wiederholen.]

          Kommentar

          • cordcam
            Erfahrener Benutzer
            • 13.04.2010
            • 3057

            #6
            Was ist mit den im Text zu findenden Argumenten, dass damit ein Tor geöffnet wird? Am Anfang geht es nur um Kinderpornographie. Auch weil da natürlich jeder mehr Schutz will.

            Wonach wird dann aber in ein paar Jahren gescannt?

            Und wenn diese Möglichkeit erst mal da ist: Steigen nicht die Begehrlichkeiten des Staates nach allem scannen zu lassen, was er als Bedrohung empfindet?

            Kommentar

            • cordcam
              Erfahrener Benutzer
              • 13.04.2010
              • 3057

              #7
              Und was ist, wenn Dir jemand, der dir schaden will, ein Kinderpornofoto per Messenger schickt, dort eingestellt ist, dass das Bild automatisch in der Camera Roll gespeichert wird und es dann sofort in iCloud hochgeladen wird?

              Kommentar

              • Jörn
                Administrator
                • 05.01.2008
                • 10223

                #8
                Zum Argument, dass ein Tor für den Staat geöffnet wird:

                Wenn der Staat etwas gescannt haben will, dann wird auch gescannt. Das hat mit Apple nichts zu tun. Die Lage ist heute exakt so wie gestern.

                Der Staat hat bereits das Scannen von Web-Videos angeordnet, und das wird bei Youtube & Co umgesetzt. Jedes Video, das Du zu Youtube hochlädst, wird gescannt:

                - auf Urheberrechtsverletzungen im Video
                - auf Urheberrechtsverletzungen im Ton
                - auf das genaue Gesprächsthema (ob Werbung geschaltet wird).

                Kommentar

                • Jörn
                  Administrator
                  • 05.01.2008
                  • 10223

                  #9
                  Zum Argument, dass Dir jemand Kinderpornos per iMessage sendet, diese sofort in iPhoto landen, und von dort in der iCloud:

                  Damit der Filter anschlägt, müssen eine Anzahl solcher Vorfälle vorgekommen sein. Du würdest einen Kontakt, der Dir solche Bilder sendet, vermutlich bitten, es zu unterlassen, oder den Kontakt blockieren.

                  Falls Du dennoch in Apples Filter landest, hast Du vermutlich keine Probleme, die Ursache zu belegen.

                  Ehrlich gesagt halte ich solche Einwände für wenig realistisch. Mir hat noch niemand solche Bilder gesendet, und ich würde sie dann ganz sicher nicht in meiner iCloud-Library aufbewahren, sondern umgehend löschen.
                  Zuletzt geändert von Jörn; 06.08.2021, 17:24.

                  Kommentar

                  • Juris
                    Benutzer
                    • 30.06.2013
                    • 71

                    #10
                    Das Thema wird uns noch beschäftigen. Es gibt jetzt einen offenen Brief an Apple - https://appleprivacyletter.com/

                    Kommentar

                    • Jörn
                      Administrator
                      • 05.01.2008
                      • 10223

                      #11
                      Edward Snowden sagt, wenn sie heute Fotos wegen X scannen, dann könnten sie morgen Fotos wegen Y scannen; dies müsse verhindert werden, denn es handele sich um Massenüberwachung.

                      So sehr ich Edward Snowden schätze, schient mir dies sachlich falsch zu sein. Apple scannt schon seit Jahren alle Bilder in der Fotos-App. Die App scannt die Bilder nach bekannten Gesichtern, nach Gegenständen, nach bekannten Gebäuden (Eiffelturm), und notiert sorgfältig die GPS-Koordinaten.

                      Was bedeutet das? Es bedeutet einerseits, dass Apple kein vorgeschobenes Vehikel wie z.B. Kinderschutz benötigt, wenn sie die Leute überwachen wollten. Und andererseits, dass man jede gute und nützliche Technologie in ein schiefes Licht stellen kann, wenn man absurde Szenarien behauptet.

                      Apple könnte eine Milliarde Kreditkarten missbrauchen, aber sie tun es nicht. Apple könnte eine Milliarde Mail-Adressen an eine Werbefirma verkaufen, aber sie tun es nicht. Stets zu sagen: "Ja, aber sie könnten es!", ist kein konstruktiver Beitrag zur Debatte.
                      Zuletzt geändert von Jörn; 07.08.2021, 01:17.

                      Kommentar

                      • Jörn
                        Administrator
                        • 05.01.2008
                        • 10223

                        #12
                        Zitat von Juris Beitrag anzeigen
                        Das Thema wird uns noch beschäftigen. Es gibt jetzt einen offenen Brief an Apple - https://appleprivacyletter.com/
                        Das ist eine Sammlung an falschen Behauptungen. Es scheint den Autoren vor allem darum zu gehen, ihre Thesen verbreiten zu wollen.

                        Allein die Wortwahl ist bedenklich: Da wird von "objectionable photos" geschrieben, wo es doch in Wahrheit um Fotos geht, die echten Missbrauch an Kindern zeigen, und die von Fachleuten zuvor bereits in einer Datenbank hinterlegt wurden.

                        Die Wahrheit ist, dass Apple sich überhaupt nicht um "objectionable photos" kümmert, wenn damit (meinetwegen auch krasse) Porno-Bilder gemeint sind, die von Erwachsenen handeln.

                        Dann wird behauptet, dadurch würde die Verschlüsselung ausgehebelt. In Wahrheit ist Apples System deswegen so ausgefeilt, weil es die Verschlüsselung erhält, aber trotzdem in der Lage ist, bereits bekannte und kriminelle Bilder zu erkennen. Das ist keine Magie, denn jede Foto-App scannt heutzutage alle Fotos auf bestimmte Objekte (Menschen, Bäume, Sehenswürdigkeiten), und niemand kam auf die Idee, zu behaupten, dies würde die Verschlüsselung aushebeln.

                        Weiter wird behauptet, Apples zweites System, das Kinder vor dem Empfangen und Versenden von Nacktbildern mit einem Hinweis warnt, wäre ein Bruch der Verschlüsselung und Privatheit. Das ist sachlich und technisch falsch. Die Verschlüsselung findet statt zwischen Sender und Empfänger, dies bleibt unverändert. Aber natürlich ist ein Foto, wenn es sich bereits auf dem Gerät befindet, für den Anwender sichtbar, und ebenso für die Software. Deswegen kann man Kindern eine Warnung einblenden. Es hat mit Verschlüsselung überhaupt nichts zu tun.

                        Dann folgt in dem Text eine längere Liste an Verschwörungstheorien, welche Daten wohin gemeldet werden könnten. Diese Theorien könnten zwar eintreffen. Aber dazu benötigt Apple die neue Technik überhaupt nicht. Sie könnten es jetzt schon tun, jederzeit. Wenn Apple die neue Technik wieder einstellt, könnten sie trotzdem jedes Foto zu einer chinesischen Behörde laden, wenn sie das wollten. Diese Verschwörungstheorien würden also weiterhin denkbar bleiben. So kommt man nicht weiter.

                        Ein weiterer Verschwörungstheoretiker argumentiert, Apple würde in Saudi Arabien kein FaceTime anbieten, weil verschlüsselte Telefonate dort nicht erlaubt seien; und dies zeige, wie sehr sich Apple den Wünschen totalitärer Regime beuge. — Aber das Gegenteil ist der Fall: sie haben lieber auf FaceTime verzichtet als die Verschlüsselung aufzugeben. Das beweist also genau das Gegenteil.

                        Hier wird so getan, als seien digitale Inhalte generell verschlüsselt, und Apple bräche nun dieses heilige Prinzip. Fakt ist jedoch, dass die "Big Player" weitgehend auf Verschlüsselung verzichtet haben. Sind Fotos in Facebook verschlüsselt? In Instagram? In WhatsApp? In Messenger? Google? Bing? Nein, das sind sie nicht; teilweise beginnen sie gerade damit, eine Verschlüsselung einzuführen. Hat sich jemand beschwert? Nein. Apple ist hingegen der "Gold Standard" bei diesen Technologien. Niemand bietet eine derart paranoide Verschlüsselung an wie Apple. Jetzt wird so getan, als wäre schon immer alles verschlüsselt gewesen, und Apple bräche plötzlich durch die Hintertür ins Haus ein.

                        Am Ende des Textes wird gar behauptet, homosexuelle Kinder könnten ihr Zuhause verlieren, geschlagen werden, oder schlimmeres. Zitat: "these 'child protection' features are going to get queer kids kicked out of their homes, beaten, or worse". Begründet wird es damit, dass Apple entsprechende Fotos auf dem Gerät erkennt. — Auch hier wird suggeriert, Apple scanne alle Bilder und fände per KI heraus, was dort zu sehen sei. Aber das ist grob falsch. Stattdessen wird eine Datenbank an bereits bekannten "Klassiker-Bildern" aus der Kinderporno-Szene verwendet. Die Hash-Werte (also eine Reihe von Zahlen) dieser kriminellen Fotos wird mit Hash-Werten auf dem Gerät abgeglichen. Private Fotos, gleich welcher Art, sind überhaupt nicht betroffen, weil sie nicht in dieser Datenbank enthalten sind. Was ist daran so schwer zu verstehen?

                        Der Text ist ingesamt sehr irreführend und nach meinen Maßstäben bösartig. Er lässt auch kein Interesse daran erkennen, einen Beitrag zur Problemlösung zu leisten.
                        Zuletzt geändert von Jörn; 07.08.2021, 01:21.

                        Kommentar

                        • cordcam
                          Erfahrener Benutzer
                          • 13.04.2010
                          • 3057

                          #13
                          Zitat von Jörn Beitrag anzeigen
                          Zum Argument, dass ein Tor für den Staat geöffnet wird:

                          Wenn der Staat etwas gescannt haben will, dann wird auch gescannt. Das hat mit Apple nichts zu tun. Die Lage ist heute exakt so wie gestern.

                          Der Staat hat bereits das Scannen von Web-Videos angeordnet, und das wird bei Youtube & Co umgesetzt. Jedes Video, das Du zu Youtube hochlädst, wird gescannt:

                          - auf Urheberrechtsverletzungen im Video
                          - auf Urheberrechtsverletzungen im Ton
                          - auf das genaue Gesprächsthema (ob Werbung geschaltet wird).
                          YouTube ist ein Dienst, zu dem ich gezielt etwas hochlade. Die iCloud ist der Standardspeicherplatz meines Geräts.

                          Ich sehe da einen riesigen Unterschied und eine neue Situation!

                          Aus dem offenen Brief:

                          “Apple sells iPhones without FaceTime in Saudi Arabia, because local regulation prohibits encrypted phone calls. That's just one example of many where Apple's bent to local pressure. What happens when local regulations in Saudi Arabia mandate that messages be scanned not for child sexual abuse, but for homosexuality or for offenses against the monarchy?”

                          Kommentar

                          • Jörn
                            Administrator
                            • 05.01.2008
                            • 10223

                            #14
                            Darauf hatte ich ja bereits geantwortet.

                            Mit Saudi Arabien oder China ergibt sich keine neue Situation. Fotos scannen kann Apple ja heute schon und tut es bei jedem einzelnen Foto, um darauf Gesichter, Hunde und Eiffeltürme zu erkennen. Es ist also nicht zutreffend, dass diese neue Software etwas ermöglichen würde, was zuvor unmöglich war.

                            Was jedoch oft nicht verstanden wird: Es handelt sich beim neuen iCloud-Filter eben NICHT um ein Scannen der Fotos. Dazu hätte es keine neue Technik gebraucht. Sondern es werden Hash-Werte (ein paar lange Zahlen) aus einer Datenbank verglichen. Es werden also gerade NICHT die Fotos nach Bildinhalten durchsucht, d.h. es wird eben gerade NICHT untersucht, ob auf dem Bild jemand den König beleidigt. Wenn man wollte, hätte man es längst tun können.

                            Und, wie gesagt, Apple hat dem Wunsch von Saudi Arabien gerade NICHT nachgegeben, auf die Verschlüsselung von FaceTime zu verzichten. Sondern stattdessen gibt es in Saudi Arabien eben kein FaceTime. Es ist also genau das Gegenteil von dem passiert, was der Text behauptet.

                            Apple weiß NICHT, ob jemand sich auf Webseiten für Homosexuelle tummelt oder entsprechende Chatnachrichten austauscht, Fotos speichert oder Videos anschaut. Aber Google weiß es. Facebook weiß es auch. WhatsApp weiß es. Instagram weiß es. Nur Apple weiß es nicht. Wer wird jedoch kritisiert? Apple.

                            Kommentar

                            • cordcam
                              Erfahrener Benutzer
                              • 13.04.2010
                              • 3057

                              #15
                              Abgesehen davon verändert sich ein wichtiges Rechtsprinzip:

                              Ich werde plötzlich ANLASSLOS unter Verdacht gestellt und überprüft. Dauerhaft.

                              Kommentar

                              Lädt...
                              X