Apple filtert iCloud-Uploads mit iOS 15

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge
  • Pantello
    Neuer Benutzer
    • 07.08.2021
    • 7

    #61
    Zitat von Jörn Beitrag anzeigen
    @Pantello

    Ist das nicht etwas platt? Ich habe hier den Eindruck, dass Du Dich dem Problem nicht stellst.

    ... Deine Antworten etwas simpel.

    Ermüdend finde ich Deine Darstellung von "Beweislastumkehr" und anderem juristischen Krimskrams.

    ...Ich finde diese Sprache und diese Art von Schein-Argumenten wenig hilfreich

    ...die Debatte aufzuheizen, anstatt ein sachliches Problem zu lösen.
    Ich habe versucht mit ganz normalen Argumenten Dir zu widersprechen und Du bezeichnest diese als platt, hetzerisch und ermüdend, unterstellst mir das ich mich den Problem nicht stelle und unsachlich bin. Echt jetzt?!

    Na dann bleibt mir nicht viel mehr als Dir viel Spaß zu wünschen und Danke das ich dabei sein durfte. Dann müssen halt andere User Deine Argumente bestätigen.
    Dann ist hoffentlich alles wieder in Ordnung.

    Kommentar

    • Jörn
      Administrator
      • 05.01.2008
      • 10240

      #62
      @fafhnir

      In Ordnung, mit diese Argumenten kann ich was anfangen. Denn sie sind technisch falsch, und hier müsste man sich schnell einig werden können.

      Bevor ich dazu komme: Es wurde kritisiert, dass hier mit Totschlag-Argumenten argumentiert wird. Aber was genau wird denn totgeschlagen? Wird hier der Anspruch der Geschädigten (also jener, die auf den Bildern zu sehen sind) totgeschlagen? Werden deren Ansprüche mit einem großen Schwung vom Tisch gewischt? — Ich wäre an Ideen interessiert, wie beide Ansprüche am besten ausbalanciert werden könnten.


      Behauptung: "Zu glauben, dass es auch nur einen Pädophilen weniger gibt, weil ich die Bildquellen trocken lege ist naiv."

      Niemand hat behauptet, es würde sich die Anzahl der Pädophilen verringern. Sondern es wurde behauptet, dass sich die Anzahl der entsprechenden Bilder auf Apples Servern verringert.


      Behauptung: "Das Kobalt in unseren Telefonen wird von 12-jährigen aus den Minen geholt! Wie steht es damit?"

      Damit steht es so, dass es sich hier um einen "Whataboutismus" handelt, der die Debatte in ein weiteres Thema lenkt und daher verworfen wird.


      Behauptung: "Wie kommt der Apple-Mitarbeiter dann bitte an das Bild, was auf meinem iPhone liegt, zum Abgleichen? Kommen sie jetzt an die Bilder oder nicht?"

      Das ist simpel. Die Bilder haben sie ja auf ihren Servern, WENN sie jemand hochlädt. Nur um diese Bilder geht es. Es geht nicht um Bilder auf dem iPhone per se, sondern nur um jene, die auf Apples Servern geladen werden sollen.
      Die Verschlüsselung der "Treffer-Bilder" Bilder (und nur dieser!) wird aufgehoben, wenn eine bestimmte Anzahl an Treffern erreicht wird. Sagen wir mal, es gab zehn Treffer, dann wird die Verschlüsselung durch das zehnte Bild aufgehoben — aber nur für diese zehn Bilder. Die Apple-Mitarbeiter können das Bild aber nicht im Original sehen, sondern nur eine schemenhafte, niedrig aufgelöste Version, die dazu dienen soll, falsche Treffer auszuschließen. Alle anderen Bilder bleiben verschlüsselt. (Seltsam, ich hatte das bereits mehrfach erläutert.)


      Behauptung: "Ganz egal, wie gering die "false-positive"-Rate ist, es sind dann immernoch zig tausene Falsche Alarme. bei jedem schaut dann ein Apple-Mitarbeiter die privaten Bilder der User an, deren Bilder fälschlicherweise von der KI markiert wurden."

      Nein, das ist nicht möglich. Nur die zehn Treffer werden entschlüsselt, sobald das zehnte Bild erkannt wurde. Apple schaut sich also keineswegs "die Bilder" des betreffenden Kunden an.
      Es handelt sich auch nicht um KI, die eine hohe Fehlerquote hat, sondern um einen Hash. Ein Hash ist so präzise wie ein Passwort. Die genau Technik ist zu komplex, um sie hier in einem Satz darzustellen, aber es geht nicht darum, dass eine KI versucht, den Inhalt eines Bildes zu erkennen. Das wurde schon mehrfach klargestellt.


      Behauptung: "Und bei nem echten Treffer verständigt Apple die Behörden!"

      Nein, das ist nicht der Fall. Es müssen eine ganze Reihe solcher Treffer vorliegen. Erst dann können die Treffer überhaupt von Apple gesehen (entschlüsselt) werden. Apple prüft dann den Fall persönlich. Erst wenn der Verdacht auf eine Straftat in diesem Umfang vorliegt, wird der Account gesperrt, und in den USA werden entsprechende Behörden informiert, weil es das Gesetz so vorschreibt. Dieser Mechanismus wurde ja schon oft erläutert.


      Behauptung: "Schiebe ihnen einfach ein oder mehrere KiPo-Bilder unter und Schwups, ist das Leben im Arsch. Ein Lehrer, der ne Anklage wegen sowas am Hals hat, dessen Leben ist kaputt, selbst wenn er freigesprochen wird!"

      Das wurde häufig widerlegt, aber ich wiederhole es gerne. Der wichtigste Punkt ist, dass Apple den Namen eines betroffenen Kunden nicht in einer Tageszeitung veröffentlicht, sondern der Name bleibt geheim mit Ausnahme der prüfenden juristischen Behörde. Auch diese wird den Namen nicht veröffentlichen. Sondern der Fall wird geprüft. Sollte sich der Verdacht nicht bestätigen, wird niemand davon erfahren. Weiterhin ist falsch, dass ein einzelnes Foto ausreicht. Erforderlich sind eine ganze Reihe von Fotos, die in einer Kinderporno-Datenbank enthalten sind. Mir ist nicht ganz klar, wie man jemanden dies unterschieben sollte.


      Behauptung: "Wer kontrolliert diese CSED-Datenbank?"

      Jedenfalls nicht Apple, und das ist gut so. Die Verantwortung sollte auf unabhängige Schultern verteilt sein. Die Datenbank wird gepflegt von der NCMEC. Das ist eine private, gemeinnützige Organisation, die 1984 vom Kongress der Vereinigten Staaten gegründet wurde. (Dies könnte man leicht per Wikipedia herausfinden.)


      Behauptung: "Kann ein Staat oder eine Strafverfolgungsbehörde Bilder einstellen?"

      Die Idee dieses Arguments scheint zu sein, dass irgendwer ein Bild (also ein "Suchprofil") in die Datenbank schleust, und schwupps! hat man das gewünschte Opfer an der Angel. Hier wird so getan, als öffne sich eine Bodenklappe, und das arme Opfer verschwände sofort in einem dunklen Verließ. Aber was soll wohl eine verrückt gewordene Behörde davon haben, irgendeinen Unsinn in die Datenbank zu schleusen? Apple würde dann einfach das Trefferbild ansehen und sofort erkennen, dass es nichts mit Kinderpornographie zu tun hat, und der Fall ist erledigt. Ebenso würde es ein Staatsanwalt oder ein Richter sehen.


      Behauptung: "Schöne Behauptung, dass das alles geprüfte Bilder sind, aber wer garantiert das?"

      Das muss nicht garantiert werden, weil es sowieso offensichtlich wird, ob es sich um bekannte kinderpornografische Bilder handelt oder nicht.


      Behauptung: "Sollten wir nach Snowden & Pegasus wirklich Vertrauen in Behörden haben, die über Bande Zugriff auf Milliarden Telefone bekommen?"

      Wieso sollte über diesen Uploadfilter eine Behörde Zugriff bekommen auf mein iPhone? Hier geht es um etwas ganz anderes. Es ist ein Upload-Filter für bestimmte Server. Es geht um das "Raus", nicht um das "Rein". Warum sollte darüber jemand "rein" in mein iPhone kommen?


      Behauptung: "Aber ich lasse keinen Staat auf mein Gerät."

      Gut. Ich auch nicht. Es hat allerdings mit dem vorliegenden Thema nichts zu tun.
      Zuletzt geändert von Jörn; 09.08.2021, 14:06.

      Kommentar

      • Jörn
        Administrator
        • 05.01.2008
        • 10240

        #63
        Zitat von Pantello Beitrag anzeigen
        Ich habe versucht mit ganz normalen Argumenten Dir zu widersprechen und Du bezeichnest diese als platt, hetzerisch und ermüdend, unterstellst mir das ich mich den Problem nicht stelle und unsachlich bin.
        Genau. Wenn ich falsch liegen sollte, könnte ich vielleicht etwas nicht richtig verstanden haben, und Du könntest so freundlich sein, es nochmal präziser zu erläutern.

        Du könntest Dich allerdings auch selbst irren.

        Deswegen tauschen wir Argumente aus und prüfen sie. Wenn das für Dich nicht infrage kommst, wird die Debatte etwas schwierig.

        Kommentar

        • fafhnir
          Erfahrener Benutzer
          • 05.01.2008
          • 146

          #64
          Zitat von Jörn Beitrag anzeigen
          @fafhnir

          Niemand hat behauptet, es würde sich die Anzahl der Pädophilen verringern. Sondern es wurde behauptet, dass sich die Anzahl der entsprechenden Bilder auf Apples Servern verringert.
          Also geht es Apple primär um den Schutz der eigenen Server?

          Zitat von Jörn Beitrag anzeigen
          @fafhnir
          Behauptung: "Das Kobalt in unseren Telefonen wird von 12-jährigen aus den Minen geholt! Wie steht es damit?"

          Damit steht es so, dass es sich hier um einen "Whataboutismus" handelt, der die Debatte in ein weiteres Thema lenkt und daher verworfen wird.
          Punkt Nummer 1: Mag sein, dass Du dieses Argunent verwerfen möchtest. Für mich hat es Bestand.
          Denn Geht es Apple um das Kindeswohl (wie sie sagen), wäre hier ein Ansatz, den Apple ohne Verlust der Sicherheit, ohne Eingriffe von Staaten sondern nur durch Verzicht auf Profit verfolgen könnte.

          Zitat von Jörn Beitrag anzeigen
          @fafhnir
          Behauptung: "Wie kommt der Apple-Mitarbeiter dann bitte an das Bild, was auf meinem iPhone liegt, zum Abgleichen? Kommen sie jetzt an die Bilder oder nicht?"

          Das ist simpel. Die Bilder haben sie ja auf ihren Servern, WENN sie jemand hochlädt. Nur um diese Bilder geht es. Es geht nicht um Bilder auf dem iPhone per se, sondern nur um jene, die auf Apples Servern geladen werden sollen.
          Die Verschlüsselung der "Treffer-Bilder" Bilder (und nur dieser!) wird aufgehoben, wenn eine bestimmte Anzahl an Treffern erreicht wird. Sagen wir mal, es gab zehn Treffer, dann wird die Verschlüsselung durch das zehnte Bild aufgehoben — aber nur für diese zehn Bilder. Die Apple-Mitarbeiter können das Bild aber nicht im Original sehen, sondern nur eine schemenhafte, niedrig aufgelöste Version, die dazu dienen soll, falsche Treffer auszuschließen. Alle anderen Bilder bleiben verschlüsselt. (Seltsam, ich hatte das bereits mehrfach erläutert.)
          Punkt Nummer 1: Wer kontrolliert das? Wann ist die Auflösung eines Bildes gering und schemenhaft genug, damit deine oder meine Privatsphäre nicht tangiert wird? Wieso prüfen das Apple-Mitarbeiter und nicht offizielle Stellen? Und komm mir nicht mit: Das steht in den AGBs, dass Apple mal n Blick auf deine niedrig aufgelösten Bilder werfen darf. Diesen AGBs würde ich niemals zustimmen!

          Zitat von Jörn Beitrag anzeigen
          @fafhnir
          Behauptung: "Ganz egal, wie gering die "false-positive"-Rate ist, es sind dann immernoch zig tausene Falsche Alarme. bei jedem schaut dann ein Apple-Mitarbeiter die privaten Bilder der User an, deren Bilder fälschlicherweise von der KI markiert wurden."

          Nein, das ist nicht möglich. Nur die zehn Treffer werden entschlüsselt, sobald das zehnte Bild erkannt wurde. Apple schaut sich also keineswegs "die Bilder" des betreffenden Kunden an.
          Jörn, das APPLE sich die Bilder nicht jedes einzeln Anschaut ist mir schon klar.
          Aber nichts desto trotz schaut Apple sich bei einem Alarm (ob nach einem oder nach 10 Bildern) die Bilder an. Das sagen sie selbst.
          Und ob es bei den 10 bleibt, wer weiß Vielleicht sind es morgen 8 oder 12?

          Zitat von Jörn Beitrag anzeigen
          @fafhnir
          Behauptung: "Und bei nem echten Treffer verständigt Apple die Behörden!"

          Nein, das ist nicht der Fall. Es müssen eine ganze Reihe solcher Treffer vorliegen. Erst dann können die Treffer überhaupt von Apple gesehen (entschlüsselt) werden. Apple prüft dann den Fall persönlich. Erst wenn der Verdacht auf eine Straftat in diesem Umfang vorliegt, wird der Account gesperrt, und in den USA werden entsprechende Behörden informiert, weil es das Gesetz so vorschreibt. Dieser Mechanismus wurde ja schon oft erläutert.
          Ob der Alarm jetzt 1 oder 10 Bilder inkludiert ändert nichts am Ergebnis. Apple verständigt die Behörden! Die Aussage ist an sich richtig. Und wenn das System ausgerollt wird, dann bald nicht nur in den USA

          Zitat von Jörn Beitrag anzeigen
          @fafhnir
          Behauptung: "Schiebe ihnen einfach ein oder mehrere KiPo-Bilder unter und Schwups, ist das Leben im Arsch. Ein Lehrer, der ne Anklage wegen sowas am Hals hat, dessen Leben ist kaputt, selbst wenn er freigesprochen wird!"

          Das wurde häufig widerlegt, aber ich wiederhole es gerne. Der wichtigste Punkt ist, dass Apple den Namen eines betroffenen Kunden nicht in einer Tageszeitung veröffentlicht, sondern der Name bleibt geheim mit Ausnahme der prüfenden juristischen Behörde. Auch diese wird den Namen nicht veröffentlichen. Sondern der Fall wird geprüft. Sollte sich der Verdacht nicht bestätigen, wird niemand davon erfahren. Weiterhin ist falsch, dass ein einzelnes Foto ausreicht. Erforderlich sind eine ganze Reihe von Fotos, die in einer Kinderporno-Datenbank enthalten sind. Mir ist nicht ganz klar, wie man jemanden dies unterschieben sollte.
          Was denkst Du, wie lange. es dauert, bis die Bilder im Umlauf sind, die die Trigger auslösen? Und Bilder auf ein Gerät zu bekommen, ist leichter als man denkt. Nicht jedes iPhone ist gut geschützt! Und wenn der Ex-Partner sauer ist und das Kennwort kennt, tja, dann nehmen solche Dinge ihren Lauf! Und sag bitte nicht, das es in der Geschichte der Verbrechen niemals untergeschobene digitale Belastungsdokumente gab!
          Das Apple die Namen nicht in der Bäckerblume veröffentlicht, weiß ich auch. Aber es gibt Berufsgruppen, bei denen der Arbeitgeber von den Ermittlungen, sollten sie stattfinden, erfährt. Und in Falle von vielen sozialen Berufen war es dann. Da reicht ein Verdacht, auch wenn er scih später als falsch herausstellt.

          Zitat von Jörn Beitrag anzeigen
          @fafhnir
          Behauptung: "Wer kontrolliert diese CSED-Datenbank?"

          Jedenfalls nicht Apple, und das ist gut so. Die Verantwortung sollte auf unabhängige Schultern verteilt sein. Die Datenbank wird gepflegt von der NCMEC. Das ist eine private, gemeinnützige Organisation, die 1984 vom Kongress der Vereinigten Staaten gegründet wurde. (Dies könnte man leicht per Wikipedia herausfinden.)
          Hab ich Jörn, hab ich. Und die private gemeinnützige Organisation wird von wem kontrolliert? Wer finanziert die? Sind die an US-Recht gebunden (Cloud-Act, etc.)?

          Zitat von Jörn Beitrag anzeigen
          @fafhnir
          Behauptung: "Kann ein Staat oder eine Strafverfolgungsbehörde Bilder einstellen?"

          Die Idee dieses Arguments scheint zu sein, dass irgendwer ein Bild (also ein "Suchprofil") in die Datenbank schleust, und schwupps! hat man das gewünschte Opfer an der Angel. Hier wird so getan, als öffne sich eine Bodenklappe, und das arme Opfer verschwände sofort in einem dunklen Verließ. Aber was soll wohl eine verrückt gewordene Behörde davon haben, irgendeinen Unsinn in die Datenbank zu schleusen? Apple würde dann einfach das Trefferbild ansehen und sofort erkennen, dass es nichts mit Kinderpornographie zu tun hat, und der Fall ist erledigt. Ebenso würde es ein Staatsanwalt oder ein Richter sehen.
          Nein Jörn Idee des Argumentes war, dass sich eine Regierungsstelle (FBI, NSA, etc.) via richterlicher Anordnung Zugriff verschafft und die Hashes einstellt, die auf die gesuchten Dokumente triggert.

          Zitat von Jörn Beitrag anzeigen
          @fafhnir
          Behauptung: "Schöne Behauptung, dass das alles geprüfte Bilder sind, aber wer garantiert das?"

          Das muss nicht garantiert werden, weil es sowieso offensichtlich wird, ob es sich um bekannte kinderpornografische Bilder handelt oder nicht.
          Keine Behauptung, Jörn. Eine Frage. Niemand hat Zugriff auf diese Datenbank. Wer garantiert mir, dass es sich nur um KiPo-Material handelt? Blindes Vertrauen, echt?

          Zitat von Jörn Beitrag anzeigen
          @fafhnir
          Behauptung: "Sollten wir nach Snowden & Pegasus wirklich Vertrauen in Behörden haben, die über Bande Zugriff auf Milliarden Telefone bekommen?"

          Wieso sollte über diesen Uploadfilter eine Behörde Zugriff bekommen auf mein iPhone? Hier geht es um etwas ganz anderes. Es ist ein Upload-Filter für bestimmte Server. Es geht um das "Raus", nicht um das "Rein". Warum sollte darüber jemand "rein" in mein iPhone kommen?
          Nun, wenn dein iPhone beim Upload von Bildern meldet, dass da was nicht OK ist, dann ist das ein Einblick in dein Gerät. Ob jetzt Aktiv durch einen Einbruch ins Gerät oder durch einen digitalen Kanarienvogel, der in deinem iPhone installiert ist und Alarm gibt, wenn ein Suchmuster Erfolg hat.


          Wie auch immer. Es wird die technische Infrastruktur zur Prüfung auf spezielle Inhalte geschaffen. Trump oder seine Brüder im geiste freuen sich über so eine Möglichkeit zur Kontrolle unbeliebter Inhalte.

          Sicher, heute sind es KiPos. Aber morgen?

          Und will mir wirklich jemand erzählen, dass China sich nicht einen Keks freut, wenn sie nur Verweisen müssen, dass Apple eine solche Infrastruktur hat und sie die nutzen wollen? Wer stellt sich dagegen? Gegen China?

          Tim Cooks Macht in allen Ehren, aber googelt mal, was mit dem AliBaba-Chef passiert ist, als er nicht spuren wollte. China hat kein Problem damit, Apple den Marktzugang und den Zugriff auf billige Produktionsstätten zu sperren, wenn sie nicht spuren.

          Ne ne, für mich geht das eindeutig zu weit. Und selbst wenn Apple nur die ehrenhaftesten Absichten hegt, das Umfeld ist voller Menschen mit weniger guten Motiven und mit Macht, die scharren alle mit den Hufen!

          Kommentar

          • Pantello
            Neuer Benutzer
            • 07.08.2021
            • 7

            #65
            Zitat von Jörn Beitrag anzeigen
            Genau. Wenn ich falsch liegen sollte, könnte ich vielleicht etwas nicht richtig verstanden haben, und Du könntest so freundlich sein, es nochmal präziser zu erläutern.
            Ich versuchs nochmal, auch auf die Gefahr hin wieder persönlich angegangen zu werden.

            Die Technik die hier angewendet wird spielt überhaupt keine Rolle.
            Dass Apple dafür eine verblüffende Technik entwickelt hat, stellt glaube ich auch niemand in Frage.

            Auf ein Minimum verkürzt.

            Warum wird auf dem iPhone dieser Prozess in Gang gesetzt. Warum?

            Weil man die Fotos analysieren/vergleichen möchte.

            Warum?

            Weil man Kinderpronographie auf dem Rechner finden möchte um diese zu stoppen.

            Wird man nicht finden. (weil der User das behauptet)

            Wieso analysiert/vergleicht man trotzdem?

            Punkt.

            An dieser Stelle hört eben für viele die Debatte auf, wenn es zum ermüdenden Argument Grundrecht auf Unschuldsvermutung und Privatsphäre kommt.

            Ich kann es verstehen, wenn Apples iCloud sauber bleiben soll. Das ist ihr gutes Recht.
            Aber dann soll der Prozess während des Uploades auf dem iCloud Server stattfinden und nicht im Betriebssystem für alle vorinstalliert sein.

            Kommentar

            • Jörn
              Administrator
              • 05.01.2008
              • 10240

              #66
              Zitat von Pantello Beitrag anzeigen
              Ich versuchs nochmal, auch auf die Gefahr hin wieder persönlich angegangen zu werden.
              Niemand hat Dich persönlich angegangen.

              Zitat von Pantello Beitrag anzeigen
              Warum wird auf dem iPhone dieser Prozess in Gang gesetzt. Warum? (...) Aber dann soll der Prozess während des Uploades auf dem iCloud Server stattfinden und nicht im Betriebssystem vorinstalliert sein.
              Dies wurde schon mehrfach beantwortet. Wenn die Prüfung auf den iCloud-Servern stattfinden würde, dann müssten dazu die Bilder unverschlüsselt sein. Der Preis für diese Variante wäre also, dass die Verschlüsselung komplett wegfällt. Jeder Apple-Mitarbeiter könnte dann die Fotos von jedem Kunden sehen. Das wäre also die Folge Deines Vorschlags.

              Deswegen muss der Filter auf dem iPhone stattfinden, weil das iPhone den Schlüssel hat. Das iPhone führt die Prüfung durch, SOFERN man die iCloud-Server benutzen möchte. Danach werden die Bilder verschlüsselt und auf die Server geladen.

              Leuchtet Dir dieses Verfahren ein oder bist Du weiterhin der Meinung, Apple solle generell auf eine Verschlüsselung verzichten, damit die Prüfung auf den iCloud-Servern stattfinden kann?

              Kommentar

              • Pantello
                Neuer Benutzer
                • 07.08.2021
                • 7

                #67
                Zitat von Jörn Beitrag anzeigen
                Leuchtet Dir dieses Verfahren ein oder bist Du weiterhin der Meinung, Apple solle generell auf eine Verschlüsselung verzichten, damit die Prüfung auf den iCloud-Servern stattfinden kann?
                Das Verfahren habe ich von Anfang an verstanden.
                Ich bin auch nicht für einen Verzicht auf Verschlüsselung in der iCloud.

                Aber wenn es nicht geht, dann geht es halt nicht.

                Vielleicht gibt es in 1-2 Jahr eine bessere Lösung dafür.

                Kommentar

                • cordcam
                  Erfahrener Benutzer
                  • 13.04.2010
                  • 3061

                  #68
                  Wieso müssen die Fotos auf iCloud entschlüsselt sein? Sie sind doch sowieso nicht Ende zu Ende verschlüsselt.

                  Wäre nicht ein Hash-Abgleich auf dem Transportweg möglich?

                  Kommentar

                  • mleis
                    Erfahrener Benutzer
                    • 19.02.2014
                    • 113

                    #69
                    Zitat von Jörn Beitrag anzeigen
                    Niemand hat Dich persönlich angegangen.
                    Wenn die Prüfung auf den iCloud-Servern stattfinden würde, dann müssten dazu die Bilder unverschlüsselt sein. Der Preis für diese Variante wäre also, dass die Verschlüsselung komplett wegfällt. Jeder Apple-Mitarbeiter könnte dann die Fotos von jedem Kunden sehen. Das wäre also die Folge Deines Vorschlags.

                    Deswegen muss der Filter auf dem iPhone stattfinden, weil das iPhone den Schlüssel hat. Das iPhone führt die Prüfung durch, SOFERN man die iCloud-Server benutzen möchte. Danach werden die Bilder verschlüsselt und auf die Server geladen.
                    Ich blicke bei diesem iCloud-Verschlüsselungskrimskrams noch nicht 100%ig durch. So wie ich das verstehe, findet zwar die Übertragung E2E-verschlüsselt statt. Die Keys für die verschlüsselte Speicherung der Daten in iCloud liegen allerdings auf Apples Servern, womit Apple die Daten dann durchaus lesen und serverseitig scannen könnte. Aber das ist ja keine neue Erscheinung, sondern war schon die ganze Zeit so. Oder übersehe ich da etwas? Deshalb verschlüssele ich sensible Daten in Cloud-Diensten auch schon immer mit Cryptomator.

                    Ob ich Apples Schritt jetzt gut oder schlecht finde, dazu bilde ich mir gerade noch meine Meinung. Aber ich glaube, es wird mir schwer fallen, mich da am Ende eindeutig auf eine Seite schlagen zu können. Es gibt für alles gute Argumente.

                    Kommentar

                    • cordcam
                      Erfahrener Benutzer
                      • 13.04.2010
                      • 3061

                      #70
                      Oder so, ich glaube, Dein Ansatz ist technisch richtiger, als meiner.

                      Kommentar

                      • Jörn
                        Administrator
                        • 05.01.2008
                        • 10240

                        #71
                        @fafhnir

                        Deine Einwände ergeben sich zumeist daraus, dass Dir das genaue Verfahren nicht bekannt ist. Jedenfalls wirkt es auf mich so, weil Deine Fragen sehr einfach durch die technische Dokumentation (und zahlreiche Artikel in den seriösen Apple-Webseiten) beantwortet werden können.


                        Zitat von fafhnir Beitrag anzeigen
                        Wieso prüfen das Apple-Mitarbeiter und nicht offizielle Stellen?
                        Es prüfen Apple-Mitarbeiter, weil dadurch verhindert wird, dass Behörden Deine Adresse erfahren, obwohl es kein wirklicher Treffer war. Apple schützt also Deine Privatsphäre, weil sie zunächst prüfen, ob wirklich ein Grund vorliegt, um eine Behörde einzuschalten. Bitte teile mir mit, ob Du das richtig findest, oder ob stattdessen von vornherein eine Behörde eingeschaltet werden sollte.


                        Zitat von fafhnir Beitrag anzeigen
                        Aber nichts desto trotz schaut Apple sich bei einem Alarm (ob nach einem oder nach 10 Bildern) die Bilder an. Das sagen sie selbst.Und ob es bei den 10 bleibt, wer weiß Vielleicht sind es morgen 8 oder 12?
                        Apple schaut sich jene Bilder an, die Treffer ausgelöst haben. Allerdings in einer niedrig aufgelösten, schemenhaften Version. Der Sinn ist, dass die Privatsphäre geschützt bleibt, wenn es sich als Irrtum herausstellt. (Unschuldsvermutung)

                        Was ist stattdessen Dein Vorschlag? Soll Apple sich die Treffer-Bilder überhaupt nicht ansehen?



                        Zitat von fafhnir Beitrag anzeigen
                        Was denkst Du, wie lange. es dauert, bis die Bilder im Umlauf sind, die die Trigger auslösen?
                        Das ist simpel. Wie ich Dir schon gesagt habe, handelt es sich nicht um eine schwammige Künstliche Intelligenz, sondern um einen Hash. Ein Hash ist sehr präzise. Sollte dennoch ein Bild auftauchen, das "falschen Alarm" auslöst, wird Apple es natürlich sofort bemerken, weil man sich die Treffer-Bilder ansieht.

                        Daran kannst Du sehen, dass Dein Vorschlag, Apple solle sich die Bilder nicht ansehen, nicht praxisgerecht ist.



                        Zitat von fafhnir Beitrag anzeigen
                        Und Bilder auf ein Gerät zu bekommen, ist leichter als man denkt.
                        Dieses Argument läuft darauf hinaus, dass Kinderpronos auf Computern oder Smartphones generell nicht verfolgt werden sollen, weil man ja nie weiß, wie sie dort hingekommen sind. Aber das entspricht nicht der gängigen Rechtspraxis. Wenn sich auf einem Computer 100 Kinderporno-Bilder befinden sollten, und wenn es irgendwie herauskommt, dann wird das untersucht.

                        Hier sehe ich die Möglichkeit eines Kompromisses, nämlich, dass der Upload-Filter den Anwender warnt und auffordert, die Bilder zu löschen. Dann wäre das Problem vom Tisch.

                        Aber wir können uns nicht darauf einigen, dass jeder Besitzer von Kinderpornos einfach weitermacht, weil er stets sagen kann, huch, wo kommen die denn plötzlich her. Das ist ein bisschen zu simpel.



                        Zitat von fafhnir Beitrag anzeigen
                        Und die private gemeinnützige Organisation wird von wem kontrolliert? Wer finanziert die? Sind die an US-Recht gebunden (Cloud-Act, etc.)?
                        Das kannst Du sehr einfach bei Wikipedia herausfinden. Ich verstehe nicht warum Du nicht versuchst, diese Daten, die dich so sehr aufregen, erstmal genauer anzusehen.



                        Zitat von fafhnir Beitrag anzeigen
                        Idee des Argumentes war, dass sich eine Regierungsstelle (FBI, NSA, etc.) via richterlicher Anordnung Zugriff verschafft und die Hashes einstellt, die auf die gesuchten Dokumente triggert.
                        Das habe ich bereits beantwortet. Nehmen wir an, eine Behörde verschafft sich die Möglichkeit, das Bild einer lila Kuh in die Datenbank zu schmuggeln. Und Du hast eine lila Kuh in Deinen Fotos und wirst damit geschnappt.

                        Was dann? Apple wird sich, wenn es eine Reihe solcher Treffer gibt, diese Treffer ansehen und sagen: Hm, das sieht ja aus wie eine lila Kuh. — Oder glaubst Du, dass Du wegen der lila Kuh sofort verhaftet wirst? Apple sucht Kinderpornos. Du unterstellst nun, sie würden auch nach anderen Dingen suchen, quasi als ob sie nicht beurteilen könnten, was sie da sehen.

                        Ich verstehe nicht, warum Du nicht berücksichtigst, dass Apple die Treffer überprüft, um genau dies auszuschließen.



                        Zitat von fafhnir Beitrag anzeigen
                        Niemand hat Zugriff auf diese Datenbank. Wer garantiert mir, dass es sich nur um KiPo-Material handelt? Blindes Vertrauen, echt?
                        Das habe ich bereits beantwortet. Wenn jemand Bilder von Autos einschmuggelt, wird Apple das vermutlich erkennen.



                        Zitat von fafhnir Beitrag anzeigen
                        Es wird die technische Infrastruktur zur Prüfung auf spezielle Inhalte geschaffen.
                        Jeder größere Anbieter prüft die Uploads. Das ist bei Youtube so, das ist bei Twitter so, das ist bei Facebook so, auch bei Instagram oder Whatsapp. Die Prüfung erfolgt bei Apple auf dem Gerät, wenn der Upload gewünscht wird, DAMIT die Inhalte verschlüsselt bleiben können. Deine Behauptung, dass eine solche Prüf-Infrastruktur hier erstmals geschaffen worden wäre, ist falsch.



                        Zitat von fafhnir Beitrag anzeigen
                        Und will mir wirklich jemand erzählen, dass China sich nicht einen Keks freut, wenn sie nur Verweisen müssen, dass Apple eine solche Infrastruktur hat und sie die nutzen wollen? Wer stellt sich dagegen? Gegen China?
                        Wenn China eine Prüfung/Filterung haben möchte, dann können sie das einfach gesetzlich vorschreiben. Es hängt nicht davon ab, ob Apple diese Technik bereits besitzt. Wenn sie sie nicht bereits besäßen, müssten sie sie schaffen. Es ist also falsch, zu behaupten, dies würde die Dinge für China einfacher machen.

                        Du brauchst nicht erst nach China zu schauen. Schaue auf die EU. Hier wurden Upload-Filter vom EU-Parlament beschlossen. Und? Hätte es das EU-Parlament beeindruckt, wenn Facebook gesagt hätte: "Aber diese Technik haben wir gar nicht"? — Dann wird die Technik eben geschaffen. Deine Behauptung, Apple würde es dem Gesetzgeber einfacher machen, ist nicht schlüssig.

                        Kommentar

                        • Jörn
                          Administrator
                          • 05.01.2008
                          • 10240

                          #72
                          Zitat von Pantello
                          Ich bin auch nicht für einen Verzicht auf Verschlüsselung in der iCloud. Aber wenn es nicht geht, dann geht es halt nicht. Vielleicht gibt es in 1-2 Jahr eine bessere Lösung dafür.
                          Aber es geht ja. Apples Technik beweist es. Die Fotos werden kurz vor dem Upload (wo sie noch entschlüsselt sind) geprüft, dann wieder verschlüsselt und hochgeladen.

                          Wie kommst Du nun zu Deiner These, es würde nicht gehen?

                          Kommentar

                          • cordcam
                            Erfahrener Benutzer
                            • 13.04.2010
                            • 3061

                            #73
                            „Hier sehe ich die Möglichkeit eines Kompromisses, nämlich, dass der Upload-Filter den Anwender warnt und auffordert, die Bilder zu löschen. Dann wäre das Problem vom Tisch.“

                            Das ist ein interessanter Gedanke.

                            Kommentar

                            • Jörn
                              Administrator
                              • 05.01.2008
                              • 10240

                              #74
                              Zitat von mleis Beitrag anzeigen
                              Die Keys für die verschlüsselte Speicherung der Daten in iCloud liegen allerdings auf Apples Servern, womit Apple die Daten dann durchaus lesen und serverseitig scannen könnte.
                              Ich bin nicht sicher, ob das zutrifft. Wenn jemand den Schlüssel hätte, wäre ja die ganze Verschlüsselung sinnlos.

                              Meines Wissens wird hier übersehen, dass jedes Foto mit einem "Voucher" (also einem kleinen Beipackzettel) ausgestattet wird. Dieser Voucher enthält das Ergebnis der Prüfung. Der Voucher ist selbst verschlüsselt. Den Schlüssel hat Apple, ABER (!!!) es ist ein spezielles System, bei dem diese Voucher nur dann entschlüsselt werden können, wenn eine bestimmte Menge davon vorliegen.

                              In diesem Voucher ist dann eine schemenhafte, niedrig aufgelöste Version des Fotos gespeichert, die Apple dann betrachten kann.

                              Die Original-Fotos bleiben also verschlüsselt. Aufgeschlossen werden die Voucher, WENN eine bestimmte Menge davon als "Treffer" erkannt wurden. Dann werden diese Treffer-Voucher (und nur diese, also nicht alle) entschlüsselt, und als Folge kann man eine schemenhafte Vorschau auf das Bild erhalten.

                              Kommentar

                              • mleis
                                Erfahrener Benutzer
                                • 19.02.2014
                                • 113

                                #75
                                Zitat von Jörn Beitrag anzeigen
                                Ich bin nicht sicher, ob das zutrifft. Wenn jemand den Schlüssel hätte, wäre ja die ganze Verschlüsselung sinnlos.
                                Ich bin mir ebenfalls nicht sicher, deshalb frage ich ja.

                                Ich finde es auch schwierig, darüber genaue Informationen zu bekommen. Das, was ich gefunden habe, liest sich so, als wäre das System hauptsächlich dafür gut, das Auslagern der iCloud-Daten auf Drittanbieter-Storage wie Amazon zu ermöglichen, ohne dass diese Anbieter Zugriff auf die Daten bekommen.

                                Außerdem findet man ja auch eine Menge Berichte darüber, dass Apple nach wie vor keine Backups E2E verschlüsselt, und auf Anfrage der Strafverfolgungsbehörden diese Daten herausgibt. Das wurde ja auch schon in den vorangegangenen Debatten intensiv diskutiert, inwiefern das gut oder schlecht ist.

                                Ich finde es wichtig, diese Details zu kennen, wenn man darüber diskutiert, weil viele Argumente irrelevant werden, wenn Apple sowieso schon die ganze Zeit alle nicht E2E verschlüsselten iCloud-Daten lesen "kann". Das ist doch eigentlich das, was die meisten gerade aufregt.

                                Aber wie gesagt, vielleicht check ich's auch einfach noch nicht so ganz. Also wenn sich da jemand auskennt, nur her damit.

                                Kommentar

                                Lädt...
                                X