Apple filtert iCloud-Uploads mit iOS 15

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge
  • Florian Raabe
    Erfahrener Benutzer
    • 27.01.2011
    • 860

    #46
    Zitat von Jörn Beitrag anzeigen

    Ich weiß nicht, ob dies die Motivation für Apples neue Technik ist. Es liegt auf der Hand, dass die pädokriminelle Szene sich nicht von Apples iCloud das Handwerk legen lässt. Ich habe ja mal eine Sendung gemacht, in der ich u.a. erläutert habe, wie solche Inhalte geschützt werden, basierend auf einem Insider-Bericht von WikiLeaks. Da geht's ganz anders zur Sache.
    Könntest du den Link zu dem Beitrag mal posten, Jörn? Würde mich sehr interessieren!
    Never change a running System
    -Since 1996

    Kommentar

    • Pantello
      Neuer Benutzer
      • 07.08.2021
      • 7

      #47
      Zitat von Jörn Beitrag anzeigen
      Und das ist für mich dann in Ordnung — gerade noch. Ich gehe davon aus, dass Apple nicht vorhat, meine privaten Dateien zu bewerten, und dass ich in weiterer Zukunft keinen peinlichen Anruf bekomme, wenn ich ein heißes Video auf meinem Desktop habe und dieses zur iCloud hochlädt.
      Nein, das sehe ich anderes. Hier geht es in meinen Augen um etwas Grundsätzliches.

      Niemand, hat Apple in die Position der "Executive" gesetzt.
      Als einer der größten High-Tech Konzerne hat niemand Apple dazu auserkoren jetzt plötzlich aktiv Welt-Polizei zu spielen und auf Verbrecherfahndung zu gehen.
      Ich halte das gerade, weil sie in einer solchen Machtposition sind für sehr gefährlich.


      Zitat von Jörn Beitrag anzeigen
      Vielleicht sollte Apple nochmal ganz offen erklären, wo sie die rote Linie ziehen. Im Prinzip haben sie das mit den ganzen technischen Details schon getan, aber irgendwer bei Apple sollte sich vielleicht nochmal etwas volksnäher äußern.
      Diese Sichtweise ist jetzt aber schon etwas "von oben herab".
      Ich und ihr von Apple haben es verstanden aber bitte erklärt es nochmal so dass es auch die anderen Fachleute wie EFF, Snowden, die Hopkins Uni etc. und das "Volk" verstehen.

      Ich glaub die und das "Volk" haben das schon sehr gut verstanden.


      12:50 Uhr aus dem Forum MacRumors

      "...After all when you get major privacy advocates and organisations like the EFF and professors in this field that have way more knowledge than most of us here on this subject, unless you work in that field of course. When they say this is a bad move, I sit up and take notice."
      Zuletzt geändert von Pantello; 08.08.2021, 12:51.

      Kommentar

      • Jörn
        Administrator
        • 05.01.2008
        • 10241

        #48
        Was würdest Du also tun?

        12:50 Uhr aus dem Forum MacRumors

        "...After all when you get major privacy advocates and organisations like the EFF and professors in this field that have way more knowledge than most of us here on this subject, unless you work in that field of course. When they say this is a bad move, I sit up and take notice."
        Aber was bedeutet das nun genau? Ist es damit gestorben und abgeschafft? Oder beginnt damit die Debatte über die genauen Details, Daten und Fakten? — Ich würde sagen, es beginnt die Debatte. Die Kritiker sollten im Detail (und nicht mit ein paar pauschalen Floskeln) zeigen, wo etwas nicht richtig gemacht wurde. Das kann man dann überprüfen, und dann sieht man, wer recht hat.
        Zuletzt geändert von Jörn; 08.08.2021, 17:49.

        Kommentar

        • Pantello
          Neuer Benutzer
          • 07.08.2021
          • 7

          #49
          Hallo Jörn. Danke für die Antwort.

          Das englische User Zitat bezieht sich auf MacRumors vorherige Kommentare im Forum die ähnlich wie Du kein Problem mit Apples neuen "Feature" haben.

          Was ich an Apples Stelle tun würde?

          Als erst mal mich ehrlich der Apple Gemeinde gegenüber machen.
          Mich würde da z.B. interessieren, warum wurde das kontroverse "Feature" nicht schon auf der WWDC thematisiert? Das wäre meiner Meinung nach der richtige Ort und Zeitpunkt gewesen.

          Ich würde als Apple im Angesicht der vielen Bedenken das "Feature" zum Frieden aller vom iPhone streichen und in die iCloud verlegen. Wenn es denn überhaupt sein muss.

          Wenn es sein muss...
          ...würde ich der Gemeinde klar machen warum es notwendig ist.
          Mir leuchtet es nämlich nicht so ganz ein ob dadurch überhaupt etwas erreicht wird und wenn ja mit welchen Erfolgsaussichten rechnet man. Es sind Kranke Leute die sowas machen. Und die Drahtzieher, die damit Geld verdienen werden wohl kaum Apples iCloud bemühen.

          Durch solche Statements würde man vielen Spekulationen den Wind aus den Segeln nehmen.
          Wie gesagt die WWDC wäre meiner Meinung nach der richtige Ort dafür gewesen.

          Aber das ist alles wahrscheinlich naives Wunschdenken.

          So wie es Aussieht (internes Memo) zieht Tim Cook das auf Biegen und Brechen durch, auch wenn es Reputation und Vertrauen kostet. Die alte Garde ist dann zwar enttäuscht aber die jüngere wird darüber hinwegkommen. Dort ist man das von anderen sozialen Netzwerken gewohnt.

          "Privacy is a Fundamental Human Right"...wird dann halt flugs neu definiert und "What happens on your iPhone, stays on your iPhone"...nochmal in technischer Wortklauberei erklärt das es ja noch immer so ist.

          Bis dahin schwelge ich in Ridley Scotts Apple Werbespot 1984. - Der den Kampf gegen Big Brother symbolisiert.

          Kommentar

          • Jörn
            Administrator
            • 05.01.2008
            • 10241

            #50
            Zitat von Pantello Beitrag anzeigen
            Ich würde als Apple im Angesicht der vielen Bedenken das "Feature" zum Frieden aller vom iPhone streichen und in die iCloud verlegen.
            Gut. Dann müsste Apple aber auf die Verschlüsselung verzichten. Alle Fotos der iCloud-Kunden lägen dann, für alle Apple-Mitarbeiter sichtbar, auf diesen Servern. Ein Mitarbeiter könnte sehen, was Du so für Fotos hochlädst. Dasselbe gilt für prominente Personen. Mal sehen, was die so für Fotos machen... da lässt sich bestimmt was verdienen...

            Da frage ich mich, ob Apple nicht den besseren Kompromiss gefunden hat? Die Verschlüsselung bleibt erhalten, und deswegen muss die Prüfung auf dem Gerät erfolgen.

            Was sagst Du zu diesem Argument?


            Zitat von Pantello Beitrag anzeigen
            "Privacy is a Fundamental Human Right"...wird dann halt flugs neu definiert und "What happens on your iPhone, stays on your iPhone"...nochmal in technischer Wortklauberei erklärt das es ja noch immer so ist.
            Grundrechte stehen aber manchmal in Konkurrenz zu anderen Grundrechten. Das eine Recht findet seine natürliche Grenze dort, wo ein anderes Recht beeinträchtigt wird.

            Nehmen wir an, ich wäre (mittlerweile etwas gealtert) eins der missbrauchten Kinder gewesen; und die Fotos davon zirkulieren noch immer. Nehmen wir an, ich würde mich an Tim Cook wenden und ihn fragen, ob er nicht etwas beitragen könnte, um das zu verhindern? Und wenn er mich dann mit einem altklugen Vortrag über Grundrechte abspeisen würde?

            Stattdessen findet eine Abwägung statt. Könnte man nicht die Privatsphäre erhalten und trotzdem diese Fotos erwischen und blockieren? Das ist natürlich nicht einfach, außerdem braucht es die Zustimmung der Kunden.

            Und darüber wird gerade gerungen. Manche Kunden sehen ausschließlich ihre eigenen Rechte; manche sind zu bestimmten Kompromissen bereit, damit auch andere ihre Rechte erhalten. Das muss man als Gesellschaft (oder als Kundschaft) diskutieren und aushandeln. Ich würde noch hinzufügen: Man muss es anschließend ausprobieren und dann prüfen, ob es nochmal nachgebessert werden muss. Ich in der Meinung, dass gute Chancen bestehen, dass man eine vernünftige und funktionierende Lösung findet.

            Kommentar

            • Jörn
              Administrator
              • 05.01.2008
              • 10241

              #51
              Nach ein Nachtrag zum "Aushandeln" eines Kompromisses, der alle Rechte angemessen wahrt.

              Zu diesem Aushandeln gehören auch die ablehnenden Stimmen mancher Sicherheitsexperten oder Organisationen. Einige davon werden zitiert mit Äußerungen, die sie vor der Veröffentlichung der neuen Technik gepostet haben. Denn am Tag zuvor gab es bereits eine hektische Debatte, als die ersten Gerüchte zirkulierten. Diese Stimmen würde ich daher ausklammern. Jene Organisationen, die sie dennoch veröffentlicht haben, müssen sich die Frage gefallen lassen, ob sie überhaupt an einer redlichen Debatte teilnehmen wollen, oder ob sie nur eine Hysterie anfeuern wollen.

              Bei den übrig gebliebenen Stimmen würde ich danach fragen, welchen Beitrag sie denn dazu leisten wollen, dass Kinderpornographie nicht allzu simpel verfügbar ist? Denn wenn diese Frage keine Antwort erhält, dann bin ich nicht ganz sicher, ob es überhaupt ein konstruktiver Beitrag zur Debatte ist. Kategorische Maximalforderungen, die nur eine Seite berücksichtigen, sind sehr leicht zu formulieren. Sie lösen aber das Problem nicht.

              Nach meiner vorläufigen Ansicht ist das Problem bei jenen Leuten in guten Händen, die sich erstens für Privatheit einsetzen, die aber zweitens die technischen Fähigkeiten haben, knifflige Widersprüche aufzulösen und in funktionierende Produkte umzusetzen.

              Apples Technik finde ich absolut verblüffend — ich hätte nicht gedacht, dass sowas überhaupt möglich ist. Beispielsweise das System, dass ein Schlüssel dann aufgeschlossen werden kann, wenn eine bestimmte Menge an kleinen Teilschlüsseln vorhanden ist (sagen wir mal zehn von tausend). Dieser Trick sorgt dafür, dass ein einzelnes Treffer-Bild nicht von Apple gesehen werden kann; aber wenn es zehn sind, dann schließt das zehnte Bild alle zehn Bilder auf, und Apple kann eine sehr gering aufgelöste (schemenhafte) Version dieser zehn Bilder prüfen. Alle anderen Bilder bleiben aber verschlüsselt. Dadurch kann Apple prüfen, ob falscher Alarm ausgelöst wurde, oder ob tatsächlich Treffer-Bilder in signifikanter Menge vorliegen.

              Da würde ich sagen: Das ist konstruktiv. Ich kann klar erkennen, dass versucht wurde, beide Seiten fair zu berücksichtigen.

              Wenn nun ein Sicherheits-Experte ebenso konstruktiv auf Schwachstellen hinweisen würde, könnte man die Schwachstellen beseitigen. Aber momentan lese ich vor allem knackige Twitter-Statements mit Maximalforderungen, die letztlich das Problem nicht lösen. Ich finde, die "Gegenseite" müsste hier eine Schippe drauflegen.

              Kommentar

              • Pantello
                Neuer Benutzer
                • 07.08.2021
                • 7

                #52
                Zitat von Jörn Beitrag anzeigen
                Gut. Dann müsste Apple aber auf die Verschlüsselung verzichten. Alle Fotos der iCloud-Kunden lägen dann, für alle Apple-Mitarbeiter sichtbar, auf diesen Servern. Ein Mitarbeiter könnte sehen, was Du so für Fotos hochlädst. Dasselbe gilt für prominente Personen. Mal sehen, was die so für Fotos machen... da lässt sich bestimmt was verdienen...

                Da frage ich mich, ob Apple nicht den besseren Kompromiss gefunden hat? Die Verschlüsselung bleibt erhalten, und deswegen muss die Prüfung auf dem Gerät erfolgen.

                Was sagst Du zu diesem Argument?
                Darauf entgegne ich, andere Bilderdienst haben auch eine Lösung gefunden. Last uns die nehmen.
                Die Argumentation geht in Richtung einer bekannten deutschen Politikerin der "Alternativlosigkeit", das ist es aber nie.

                Zitat von Jörn Beitrag anzeigen
                Grundrechte stehen aber manchmal in Konkurrenz zu anderen Grundrechten. Das eine Recht findet seine natürliche Grenze dort, wo ein anderes Recht beeinträchtigt wird.
                Sehr richtig, aber das würde ich hier auch gerne für mich in Anspruch nehmen.

                Zitat von Jörn Beitrag anzeigen
                Nehmen wir an, ich wäre (mittlerweile etwas gealtert) eins der missbrauchten Kinder gewesen; und die Fotos davon zirkulieren noch immer. Nehmen wir an, ich würde mich an Tim Cook wenden und ihn fragen, ob er nicht etwas beitragen könnte, um das zu verhindern? Und wenn er mich dann mit einem altklugen Vortrag über Grundrechte abspeisen würde?
                "Altklug" und "abspeisen" in einem Satz mit den Grundrechten finde ich auch gewagt, aber ich weiß was Du meinst
                Das wäre jetzt aber ein sehr anarchistisches Szenario von Dir.
                Und würde schlussfolgern "Der Zweck heiligt die Mittel". Das kann es also auch bei allen hehren Absichten nicht sein.

                Dieser Ansicht war bis vor kurzem auch noch Tim Cook als er sich weigerte dem FBI das iPhone des 14-fachen Mörders den San Bernardino Attentäter zu entsperren und künftig Hintertüren in das iPhone für das FBI einzubauen.

                Zitat von Jörn Beitrag anzeigen
                Stattdessen findet eine Abwägung statt.
                Dies wäre aber dann Aufgabe des Gesetzgebers.

                Zitat von Jörn Beitrag anzeigen
                Könnte man nicht die Privatsphäre erhalten und trotzdem diese Fotos erwischen und blockieren?
                Oben genannt Bilderdienste schaffen das

                Zitat von Jörn Beitrag anzeigen
                Das ist natürlich nicht einfach, außerdem braucht es die Zustimmung der Kunden.
                Wird man sich einfach mit neuem Kleingedruckten verschaffen.

                Zitat von Jörn Beitrag anzeigen
                Und darüber wird gerade gerungen. Manche Kunden sehen ausschließlich ihre eigenen Rechte; manche sind zu bestimmten Kompromissen bereit, damit auch andere ihre Rechte erhalten.
                Den Punkt hier finde ich jetzt eben ganz gefährlich.
                Es werden erst mal alle iPhone Besitzer unter Generalverdacht gestellt und das heute leider immer beliebtere Mittel der Beweislastumkehr verwendet (siehe kürzlich Berliners Justizsenator gegenüber der Polizei)
                Dann wird der Teil der iPhone Besitzer die sich auf das Grundrecht der Privatsphäre und Unschuldsvermutung berufen markiert, in eine Ecke gestellt und als Egoisten oder Schlimmeres verurteilt.

                Zitat von Jörn Beitrag anzeigen
                Das muss man als Gesellschaft (oder als Kundschaft) diskutieren und aushandeln.
                Sehr richtig. Finde ich auch. Man sollte keine Fakten schaffen.

                Zitat von Jörn Beitrag anzeigen
                Ich würde noch hinzufügen: Man muss es anschließend ausprobieren und dann prüfen, ob es nochmal nachgebessert werden muss.
                Das geht hier nicht. Du kannst ja auch schlecht sagen och' jetzt probiere ich es ein bisschen mit Gefängnis oder Schlimmeren, mal schauen ob das passt und wenn nicht dann lasse ich ihn halt wieder frei.
                Außerdem wissen wir aus Erfahrung, dass solch gemachten Zugeständnisse, wurden sie erst einmal praktiziert oft sehr schwere wieder zurückgenommen werden können.

                Kommentar

                • Jörn
                  Administrator
                  • 05.01.2008
                  • 10241

                  #53
                  @Pantello

                  Welche Bilderdienste haben denn eine bessere Lösung gefunden? Wo wird die Privatsphäre besser geschützt und gleichzeitig eine bessere Abwehr bestimmter Inhalte realisiert?

                  Auf den Umstand, dass Grundrechte mit anderen Grundrechten ausbalanciert werden müssen, antwortest Du, Du wolltest eben Deine Grundrechte in Anspruch nehmen. — Ist das nicht etwas platt? Ich habe hier den Eindruck, dass Du Dich dem Problem nicht stellst.

                  Du schreibst, die Abwägung fände allein beim Gesetzgeber statt. Aber ist nicht jedes Produkt das Ergebnis einer Abwägung? — Auch hier finde ich Deine Antworten etwas simpel. Facebook, Twitter und YouTube wägen beispielsweise ab, welche Inhalte gestattet sind, und welche gelöscht werden. Beispielsweise Aufstachelung, Hetze, Rassismus, Stalking, und so weiter. Andere Anbieter (etwa Telegram) brüsten sich damit, dass auch Neonazis herzlich willkommen wären (habe ich gehört). Ist es da wirklich zutreffend, zu behaupten, nur der Staat sollte diese Abwägung vornehmen? Du kannst doch nicht ernsthaft argumentieren wollen, Apple dürfe keine eigene Abwägung vornehmen.

                  Ermüdend finde ich Deine Darstellung von "Beweislastumkehr" und anderem juristischen Krimskrams. Apple ist aber keine Justizbehörde, und an dieser Stelle funktioniert Dein Argument nicht mehr. Die Kunden müssen gegenüber Apple nichts beweisen, noch hat Apple je einen Beweis verlangt. Ich finde diese Sprache und diese Art von Schein-Argumenten wenig hilfreich, weil sie nach meiner Ansicht dazu dienen, die Debatte aufzuheizen, anstatt ein sachliches Problem zu lösen.

                  Apple möchte seine iCloud-Dienste für bestimmte Dinge nicht zur Verfügung stellen, daher gibt es einen Upload-Filter. Das hat nichts mit einem Generalverdacht zu tun, sondern es ist einfach eine Einschränkung, was der Dienst erlaubt und was nicht.

                  Kommentar

                  • cordcam
                    Erfahrener Benutzer
                    • 13.04.2010
                    • 3061

                    #54
                    Tolle Argumentation.

                    „Apple übernimmt, ohne je demokratisch dazu beauftragt worden zu sein, die Aufgabe einer Polizeibehörde, weil sie dies aber nicht ist, kann der Mensch auch seine Grundrechte nicht einfordern.“

                    Kommentar

                    • Jörn
                      Administrator
                      • 05.01.2008
                      • 10241

                      #55
                      Das ist nicht meine Argumentation, sondern ihr Gegenteil. Sondern ich habe gesagt, dass ich das als Schein-Argumente empfinde, die dazu dienen, die Debatte aufzuheizen.

                      Weder hat Apple die Aufgabe einer Polizeibehörde, noch habe ich das behauptet, noch hat Apple das behauptet, noch verhält sich Apple so.

                      Kommentar

                      • cordcam
                        Erfahrener Benutzer
                        • 13.04.2010
                        • 3061

                        #56
                        Ich weiß, dass Du das so imaginierst. Dennoch verhalten sie sich so. iOS 15 wird mit Spyware ausgeliefert werden.

                        Kommentar

                        • fafhnir
                          Erfahrener Benutzer
                          • 05.01.2008
                          • 146

                          #57
                          Totschlagargument Kinderpornos...

                          Mich nervt in diesem Zusammenhang das Argument Kinderpornografie.
                          Davon ab, dass es eigentlich "Dokumentierter Kindesmissbrauch" heißen sollte.

                          Das wird immer vorgeholt, wenn es um Einschränkungen der Rechte geht.

                          Kann man ja auch nur schwer was sagen. Argumentiert man dagegen, befürwortet man ja gleich "Kinderpornos".


                          Über 90% des Kindesmißbrauchs findet in den heimischen 4 Wänden statt. Zu glauben, dass es auch nur einen Pädophilen weniger gibt, weil ich die Bildquellen trocken lege ist naiv. Genauso könnte ich sagen, Kinder werden schwul, wenn sie sich küssende Männer oder Frauen sehen (genau dass, was Freund Orban und Putin gerade machen)

                          Ist es nicht auch Kindesmissbrauch, wenn man Kinder in China oder Indien Telefone zusammenschrauben oder TShirts nähen lässt? Das Kobalt in unseren Telefonen wird von 12-jährigen aus den Minen geholt! Wie steht es damit?

                          Schauen wir uns die Sache mal technisch an. Apple gleicht Bilder lokal auf dem iPhone mit der "KiPo"-Datenbank ab.

                          Das Argument: Wir, Apple, haben keinen Zugriff auf eure Bilder und wollen das auch nicht (Privacy!!11!)

                          OK: Wenn ein Treffer (oder auch mehrere) stattfinden, steht in dem Apple-Whitepaper, gleicht ein Apple-Mitarbeiter die Bilder ab.

                          Aha, komisch: Wie kommt der Apple-Mitarbeiter dann bitte an das Bild, was auf meinem iPhone liegt, zum Abgleichen?
                          Kommen sie jetzt an die Bilder oder nicht?

                          Und Leute, nur, dass wir uns nicht vertun: Es gibt Milliarden IOS-Geräte da draußen. Ganz egal, wie gering die "false-positive"-Rate ist, es sind dann immernoch zig tausene Falsche Alarme. bei jedem schaut dann ein Apple-Mitarbeiter die privaten Bilder der User an, deren Bilder fälschlicherweise von der KI markiert wurden.

                          Und bei nem echten Treffer verständigt Apple die Behörden!

                          Ja klasse, nie war es einfacher, unliebsame menschen loszuwerden. Schiebe ihnen einfach ein oder mehrere KiPo-Bilder unter und Schwups, ist das Leben im Arsch. Ein Lehrer, der ne Anklage wegen sowas am Hals hat, dessen Leben ist kaputt, selbst wenn er freigesprochen wird!

                          Danke, aber das will ich nicht!

                          Und was völlig fehlt: Wer kontrolliert diese CSED-Datenbank?

                          Hat eine unabhängige Regulierungsbehörde Einsicht?
                          Kann ein Staat oder eine Strafverfolgungsbehörde Bilder einstellen?
                          Wer kontrolliert die?

                          Schöne Behauptung, dass das alles geprüfte Bilder sind, aber wer garantiert das?

                          Sollten wir nach Snowden & Pegasus wirklich Vertrauen in Behörden haben, die über Bande Zugriff auf Milliarden Telefone bekommen?

                          Vertraut wem ihr wollt, ich bin raus.

                          Wenn Apple das umsetzt, dann steige ich entweder auf ein Unix-Phone um oder auf ein gutes altes Nokia mit Hotspot-Funktion fürs Linux-Notebook.

                          Wird wehtun, ja. Aber ich lasse keinen Staat auf mein Gerät. Punkt!

                          Kommentar

                          • Berto
                            Erfahrener Benutzer
                            • 19.06.2010
                            • 482

                            #58
                            Ich habe wenig Hintergrundinformationen bezüglich Apples Pläne gegen Kinderpornographie, weiß also vermutlich nur das, was ihr auch wisst. Aber ich habe das so verstanden, dass Apple die Dateien lokal nach bekannten (illegalen) Daten durchsucht.

                            Nichts anderes macht ein Virenscanner auch, oder habe ich etwas übersehen? Ich verstehe das Problem nicht. Eine russische (z.B. Kaspersky) oder tschechische (z.B. Avast) Antivirus Software kaufen ist okay, aber wenn Apple das im Hintergrund kostenlos im Kampf gegen Verbrecher will, gibt es einen Aufschrei?
                            Zuletzt geändert von Berto; 09.08.2021, 13:38.

                            Kommentar

                            • cordcam
                              Erfahrener Benutzer
                              • 13.04.2010
                              • 3061

                              #59
                              Mit Ungarn zusammen könnte Apple ja so eine Liste hashtaggen und in iOS einbauen:

                              Kommentar

                              • Berto
                                Erfahrener Benutzer
                                • 19.06.2010
                                • 482

                                #60
                                Zitat von cordcam Beitrag anzeigen
                                Rosa_Liste
                                Diesem Wikipedia Artikel fehlt es an Belegen.

                                Kommentar

                                Lädt...
                                X