Apple filtert iCloud-Uploads mit iOS 15

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge
  • woreich
    Erfahrener Benutzer
    • 05.01.2008
    • 1054

    #91
    Unter Netzpolitik.org gibt es eine Langzeitchronik zum generellen Thema.

    Andere (auch EU-)Länder sind da sicher schon weiter. Und nun werden auch NGOs gezwungen, Überwachung zu betreiben, weil sie sonst für (kriminelle) Inhalte ihrer Kunden zur Rechenschaft gezogen werden können.

    Gut - ich bin nicht kriminell und nicht sonstwas. Insofern kann ich mich ja zurücklehnen und mich über das neue Applefeature freuen.

    Kommentar

    • christo747
      Benutzer
      • 05.01.2008
      • 34

      #92
      Wow. Was hier teilweise geschrieben wird ist erschreckend.
      Beispielsweise Jörn: “Was Apple angekündigt hat, ist ein sehr cleveres System, um eine Datenbank von bereits bekannten Kinderporno-Fotos abzugleichen mit Fotos, die zur iCloud hochgeladen werden.”

      Meine Sicht ist anders. Apple gibt alles auf was sie in den letzten Jahren unter dem Begriff “Privacy” beworben haben. Es ist ein Dammbruch für den Schutz der Privatsphäre. Wer jetzt noch Apple kauft ist selber Schuld. Das sage ich als Apple-Fan der letzten 25 Jahre.

      Kommentar

      • Jörn
        Administrator
        • 05.01.2008
        • 10239

        #93
        Und sicherlich erfahren wir auch die Begründung dafür?

        Meine Auffassung habe ich jedenfalls ausführlich begründet und mit Fakten belegt.

        Was ist falsch an folgendem Satz: "Was Apple angekündigt hat, ist ein sehr cleveres System, um eine Datenbank von bereits bekannten Kinderporno-Fotos abzugleichen mit Fotos, die zur iCloud hochgeladen werden"?
        Zuletzt geändert von Jörn; 16.08.2021, 16:46.

        Kommentar

        • christo747
          Benutzer
          • 05.01.2008
          • 34

          #94
          Zitat von Jörn Beitrag anzeigen
          Was ist falsch an folgendem Satz: "Was Apple angekündigt hat, ist ein sehr cleveres System, um eine Datenbank von bereits bekannten Kinderporno-Fotos abzugleichen mit Fotos, die zur iCloud hochgeladen werden"?
          Jörn, ich denke, dass Du das weißt. Es geht in keinster Weise um die technische Umsetzung. Wer glaubt die Art der Umsetzung spiele eine Rolle ist mehr als naiv. - Es ist völlig ok sich über Technik und Software Gedanken zu machen, nur hier spielt dies absolut keine Rolle. Es ist ganz simpel ein massiver Eingriff in die Privatsphäre. Ich kann das für mich nicht akzeptieren und wundere mich über jeden der das kann.

          Wirklich, ich habe jahrelang für Apples Umgang mit Datensicherheit geworben. Dass sie sich selber mal das größte Leck zufügen, hätte ich niemals gedacht.

          PS: Noch eine Randbemerkung. Dies ist kein technischer Spaß wie er von Dir für die Mac-TV-Sendungen gesucht/verwendet wird. Dies ist bitterer Ernst!

          Kommentar

          • Jörn
            Administrator
            • 05.01.2008
            • 10239

            #95
            Du hast geschrieben, mein Satz wäre erschreckend. Ich habe Dich gefragt, warum. Darauf gibst Du keine Antwort. Das macht eine sachliche Debatte schwierig.

            Du beschreibst die Technik als "massiver Eingriff in die Privatsphäre". Apple sagt, der Eingriff sei erstens minimal, und zweitens bliebe die Privatsphäre vollständig erhalten (außer man würde Kinderpornos zu iCloud laden). Wer hat nun Recht? Warum ist es "massiv" und nicht minimal? Warum betrifft es Deine Privatsphäre? Sind denn die Maßnahmen, mit denen die Privatsphäre erhalten bleiben soll, untauglich?

            Du beschreibst die Technik als "größtes Leck". Warum ist es ein Leck?

            (Ich habe jene vier Punkte, zu denen mich eine Antwort interessieren würden, unterstrichen.)

            Kommentar

            • Jörn
              Administrator
              • 05.01.2008
              • 10239

              #96
              Nachdem ich keine Antworten bekomme, poste ich mal einen "Blick über den Gartenzaun":

              Laut eines Berichts der BBC hat Facebook die Taliban von seiner Plattform gesperrt. Auch Inhalte, die die Taliban unterstützten, dürften dort nicht veröffentlicht werden, berichtet der Sender unter Berufung auf eine Stellungnahme des Unternehmens.

              "Die Taliban gelten nach US-Gesetzen als Terrorgruppe und wir haben sie gemäß unseren Regel für gefährliche Gruppierungen gesperrt", zitiert die BBC einen Unternehmenssprecher. "Das bedeutet, dass wir Nutzerkonten entfernen, die von den Taliban oder in ihrem Namen betrieben werden."

              Die Regelung gelte auch für andere Dienste des Unternehmens, etwa Instagram und WhatsApp. Allerdings berichtet die BBC, dass die Taliban möglicherweise WhatsApp zur Kommunikation nutzen. (Quelle: Zeit)
              Das bedeutet, dass sämtliche (!) Inhalte auf Facebook und Instagram gescannt werden müssen: Jeder Text, jedes Bild, jedes Video.

              Nun werden fast alle Facebook-Nutzer usw. zustimmen, dass man solche Inhalte nicht auf dieser Plattform haben möchte, und dass die Prüfung angemessen ist. Der Preis dafür ist, das keine Verschlüsselung stattfindet. Alles ist lesbar. Das mag für eine Facebook-Seite logisch sein, da sie sowieso öffentlich ist; aber es gibt auch geschlossene Gruppen oder private Nachrichten. All das ist offen lesbar. Daran kann man sehen, dass diese (technisch plumpen) Filter große Nachteile haben.

              Apples Technik ermöglicht eine Verschlüsselung, und trotzdem können bestimmte Inhalte gefunden werden. Ist das nicht besser?

              Natürlich ist Apples Fall auch etwas simpler, weil man Hash-Werte von bereits bekannten Bildern vergleichen kann. Facebook muss neue Inhalte erkennen, d.h. sie müssen den tatsächlichen Inhalt von Bildern erkennen. Apples Technik erkennt hingegen keine Inhalte, sondern vergleicht Zahlen aus einer Datenbank. Apple gewinnt keinerlei Kenntnis über die Bilder; Facebook hingegen macht genau dies. Apple kann nicht wissen, ob ein Bild einen Strand zeigt; Facebook weiß es.

              Wenn in den Foren argumentiert wird, Apple würde Fotos "scannen", dann meint das ein Erkennen der Inhalte. Genau das kann Apple aber nicht.

              Es wird in den Foren behauptet, Apples Technik wäre ein Dammbruch, also eine neue Art der Überwachung. Genau das ist es nicht. Facebook (und alle anderen) scannen tatsächlich alle Inhalte. Apple hat nun einen Weg gefunden, ohne ein "Erkennen der Bilder" auszukommen, indem man Hash-Werte benutzt; und es hält die Verschlüsselung aufrecht. Apple tut also das Gegenteil dessen, was unterstellt wird: Apple erkennt nicht den Inhalt der Bilder, die Verschlüsselung bleibt erhalten, und trotzdem funktioniert der Filter.

              Kommentar

              • Jörn
                Administrator
                • 05.01.2008
                • 10239

                #97
                Was ist ein Hash-Wert?

                Ein Hash-Wert ist eine lange Kette aus Zahlen und Buchstaben, ungefähr so:

                3i4rwshjgfqoi3zrtsjkhflqk3g5i7w4ezrgfhkyjdhdiwu45o riagyfkhwi74tekjg.


                Wie benutzt Apple solche Hash-Werte?

                Apple benutzt die Hash-Werte, um Informationen zu verschlüsseln, auf eine Weise, die nicht in das Original zurückverwandelt werden kann.


                Erläuterung

                Normalerweise geht man als Anwender davon aus, dass eine Verschlüsselung stets zurückverwandelt werden kann in das Original (sofern man den Schlüssel besitzt). Es gibt aber Fälle, wo das unerwünscht ist.

                Ein Beispiel dafür wären Passwörter. Hier wird aus einem Passwort ("Mutter123") ein Hash-Wert erzeugt ("8723kjakdfui236rkjsylai3i4wdjfak"). Der Hash-Wert wird z.B. auf dem Facebook-Server gespeichert. Es gibt keine Möglichkeit, den Hash-Wert zurückzuverwandeln in das Original.

                Aber! Anders als bei "normaler" Verschlüsselung ist der Hash-Wert immer gleich. Bei normaler Verschlüsselung wäre die verschlüsselte Version immer unterschiedlich. Wenn man also sein Passwort zehn mal verschlüsseln würde, bekäme man zehn unterschiedliche Ergebnisse. Bei einem Hash-Wert wird dieser aber immer gleich sein. Trotzdem lässt er keine Rückschlüsse auf das Original zu.

                Deswegen werden Passwörter oft als Hash-Wert gespeichert. Wenn Ihr z.B. die Facebook-Seite besucht, übergebt Ihr dem Facebook-Server nicht Eurer Passwort, sondern nur den Hash-Wert. Dieser Hash-Wert ist in Eurem Account gespeichert und wird nun verglichen. Dieser Vergleich ist möglich, weil der Hash-Wert stets gleich ist. Wenn der Hash stimmt, könnt Ihr Euch einloggen. Dennoch kennt Facebook Euer wahres Passwort nicht.

                Nun werden manche Leute das nicht sofort verstehen und denken, egal was letztlich dahintersteckt, Facebook muss irgendwie mein Passwort kennen. Aber das stimmt nicht. — Auf gleiche Weise ist es ein Irrtum, wenn man dächte, egal was letztlich dahinter steckt, Apple muss irgendwie meine Bilder kennen (sonst könnte es nicht wissen, welche davon Kinderpornos sind). Aber das ist falsch. Facebook kennt nicht das Passwort und Apple kennt nicht die Bilder.


                Umwandlung von Bildern in Hash-Werte

                Bestimmte Merkmale eines Bildes (bestimmte Geometrien, Helligkeitswerte usw.) werden umgewandelt in Zahlenwerte. Das wird auf eine Weise gemacht, die auch leichte Änderungen von Fotos übersteht (etwa, dass man es spiegelverkehrt speichert). Dazu gibt es bekannte und erprobte Methoden. Diese Zahlenwerte (3762823, 387929234, 234212, 2, 23123, 342212) werden dann umgewandelt in einen Hash-Wert (3478kfuiw3ekjgfq3kuktrefkksdkqauetgvmlka3ztrfkjwk jel3ahrfkjsfhdqkjeagk).

                Der Clou ist nun, dass dieser Hash-Wert nicht (!) zurückverwandelt werden kann in das Bild. Wenn Apple also diese Hash-Werte bekäme (sie bekommen sie aber nicht), dann könnten sie daraus keinerlei Rückschlüsse ziehen auf das Foto.

                Deswegen sind Parolen wie "Totalüberwachung!" und "Privatsphäre!!" technisch etwas obskur, weil eine Zahlenwurst wie "3478kfuiw3ekjgfq3kuktref", die nicht in das Original zurückgeführt werden kann, offensichtlich keine Verletzung eines Geheimnisses oder einer Privatsphäre ist. Der ganze Gag dieser Technik besteht ja gerade darin, dass Apple die Inhalte der Bilder nicht sehen kann.

                Ein weiterer Clou ist nun, dass der Hash-Wert für gleiche (oder sehr ähnliche) Bilder immer identisch ist. Dadurch kann man diese Werte zuverlässig mit einer Datenbank abgleichen. Anstatt also Bilder zu vergleichen, vergleicht man Hash-Werte. Das ist eine sehr exakte Methode, denn natürlich möchte man kann keine falschen Treffer.

                Damit man es sich noch besser vorstellen kann: Ein DNA-Test bei einem Kriminalfall ist ähnlich. Man kann die DNA einer Blutspur nicht "zurückverwandeln" in den Täter. Aber wenn ein Verdächtiger "zufällig" die gleiche DNA hat, dann ist das kein Zufall mehr. (Jedenfalls rechtfertigt es eine weitere Untersuchung.) Das gleiche geschieht beim Hash-Wert: Zunächst sagt der Hash-Wert überhaupt nichts, aber wenn er plötzlich identisch ist mit einem bekannten Kinderporno-Hash, dann sollte man mal hinsehen. Die Chance auf einen Irrtum ist geringer als zehn Lottogewinne nacheinander.


                Entschlüsselung des Hash-Wertes

                Verwirrend für viele Anwender dürfte sein, dass Apple diese Treffer angeblich mitbekommt, und dann angeblich doch die Bilder sehen kann. Dieser Irrtum basiert vermutlich auf schlampig geschriebenen Artikeln bzw. auf hysterischen Forums-Postings.

                Die tatsächliche Technik ist feiner und intelligenter: Die Hash-Werte sind nämlich noch einmal verschlüsselt, diesmal mit einem anderen Trick.

                Zunächst kann Apple die Hash-Werte und deren Prüfungsergebnis nicht sehen. Warum nicht? Weil sie verschlüsselt sind. Apple kann also nicht wissen, welcher Anwender welche Hash-Werte und Prüfungsergebnisse hat. Apple hat keine Chance, das zu sehen.

                Wer hat den Schlüssel für diese Verschlüsselung? Den hat Apple. Aber! Es handelt sich um eine weitere clevere Technik, nämlich einen speziellen "mehrteiligen" Schlüssel.

                Was ist ein "mehrteiliger" Schlüssel? Stellen wir uns ein Bankschließfach vor, bei dem der Kunde und der Direktor gleichzeitig einen Schlüssel umdrehen müssen. Oder man hätte eine Erbschaft, bei der alle zehn Kinder zustimmen müssen, damit sie ausbezahlt wird. Solange nicht alle Schlüssel (oder Unterschriften) vorliegen, passiert nichts.

                Nun könnte ein Sultan aber hundert Kinder haben, und er legt daher fest, dass die Erbschaft ab siebzig Unterschriften ausbezahlt wird. Oder man hätte ein Bankschließfach mit zehn Schlüsseln, das öffnet, sobald fünf davon vorliegen.

                Apples Schlüssel öffnet, wenn dreißig Schlüssel vorliegen. Man braucht also dreißig Treffer, dann kann Apple diese Hash-Werte sehen und zudem eine schemenhafte Version des Bildes. Bei 29 Treffern sieht Apple überhaupt nichts — auch nicht, dass es 29 Treffer gibt.

                Wenn es 30 Treffer gab und das Schloss öffnet, dann öffnet es nur diese 30 Treffer. Alle anderen Fotos (und auch die Originale der Treffer) bleiben für Apple unlesbar. Apple kann nur die Treffer selbst in einer schemenhaften Version sehen.


                Fazit

                Der Clou der Technik besteht darin, eben nicht alle Fotos nach ihrem Inhalt ("Eiffelturm", "Kinder beim Planschen im Schwimmbad") auszuwerten. Denn die Hash-Werte machen dies erstens unmöglich und zweitens unnötig. Die Behauptung, Apple schnüffele durch alle Fotos, ist an exakt jener Stelle unpräzise, an der man sehr präzise formulieren muss. Apple ist technisch in der Lage, die Fotos zu prüfen, ohne deren Inhalte auszuwerten. Die Erzeugung eines Hash-Wertes ist etwas anderes als ein Foto "auszuwerten".

                Es wird auch nichts zu Apple oder irgendwelchen Behörden gefunkt — dies ist nicht möglich, weil die Hash-Werte und die Treffer nochmals verschlüsselt sind. Der Schlüssel öffnet ab 30 Treffern und nur für diese Treffer. Anschließend erfolgt eine manuelle Prüfung durch einen Mitarbeiter, der nur diese 30 Treffer sehen kann.

                Wer für sich die Möglichkeit in Betracht zieht, 30 solcher Treffer zu produzieren, der könnte diese Art von Bildern in ein verschlüsseltes Disk-Image speichern und dieses dann zur iCloud zu laden. Dort kann Apple nicht hineinsehen, weil sie den Schlüssel nicht haben.
                Zuletzt geändert von Jörn; 17.08.2021, 13:56.

                Kommentar

                • cordcam
                  Erfahrener Benutzer
                  • 13.04.2010
                  • 3061

                  #98
                  Du hast es immer noch nicht verstanden. Bei Facebook weiß ich das und ich wähle genau aus, was ich poste. Es wird also mitnichten alles gescannt. Ich habe ja schon eine Auswahl getroffen.

                  Apple nimmt sich aber auf meinem iPhone mal eben meine gesamte Fotosammlung vor. Später möglicherweise mehr.

                  Kommentar

                  • cordcam
                    Erfahrener Benutzer
                    • 13.04.2010
                    • 3061

                    #99
                    Ich hätte einen Kompromissvorschlag, den ich mir eh schon lange wünsche:

                    Apple könnte es doch möglich machen, dass ich nicht nur die iCloud Fotomediathek an- und ausschalten kann, sondern dass ich mehr Wahl habe.

                    So dass ich zum Beispiel Bilder taggen kann, die nicht in die iCloud sollen.

                    Trotzdem bleibt natürlich die Hintertür, die repressive Staaten definitiv zu nutzen wissen, weil sie ja schon gelernt haben, wie willfährig Apple handelt, wenn es um Profit geht.

                    Kommentar

                    • cordcam
                      Erfahrener Benutzer
                      • 13.04.2010
                      • 3061

                      Der DNA Test ist ein gutes Beispiel.

                      Ich kann die Erhebung eines DNA Abgleichs verweigern, wenn kein konkreter Verdacht gegen mich vorliegt.

                      Ich kann die Erhebung eines Hash Abgleiches bei der Nutzung der iCloud Meciathek aber nicht verweigern. Er wird anlasslos erhoben.

                      Kommentar

                      • Jörn
                        Administrator
                        • 05.01.2008
                        • 10239

                        Zitat von cordcam Beitrag anzeigen
                        Trotzdem bleibt natürlich die Hintertür, die repressive Staaten definitiv zu nutzen wissen
                        Wie beurteilst Du die Hinweise von Apple, die belegen, dass es technisch nicht geht? Ist das technisch falsch, und an welcher Stelle?

                        Ich nehme mal an, dass ich auf diese Frage keine Antwort bekomme?

                        Kommentar

                        • Jörn
                          Administrator
                          • 05.01.2008
                          • 10239

                          Zitat von cordcam Beitrag anzeigen
                          Du hast es immer noch nicht verstanden.
                          Öhh... ok.

                          Kommentar

                          • Jörn
                            Administrator
                            • 05.01.2008
                            • 10239

                            Warum hat Apples Technik nichts zu tun mit China und anderen Schurkenstaaten?

                            Die Idee dieses Arguments ist, dass die Datenbank mit den Hash-Werten von China so verändert wird, dass nicht nur Kinderpornos gefunden werden, sondern auch Demonstranten.

                            Bevor ich zur Technik komme: Es ist doch verblüffend, wie oft dieses Argument auf einer technischen Ebene bereits erläutert und verworfen wurde — von zahlreichen Artikel, von Apples zahlreichen Stellungnahmen, und nicht zuletzt mehrfach in diesem Thread.


                            Datenbank

                            Apple sagt, dass ihre Version der Datenbank die Schnittmenge darstellt aus den Datenbanken verschiedener anerkannter Institute, die aus unterschiedlichen Ländern stammen. "Schnittmenge" bedeutet, dass nur jene Bilder verwendet werden, die bei allen diesen Institute (aus mehreren Ländern) gelistet sind.

                            China müsste also alle diese Institute schmieren. Wenn nur eins davon sich verweigert, bleibt Apples Datenbank unverändert.

                            Zudem müsste dies dreißig Mal gelingen. Alle Datenbanken alle beteiligter Institute (aus mehreren Ländern) müssten dreißig solcher Fotos beinhalten, und nur exakt diese Fotos könnte man finden. Alle diese dreißig Fotos müssten beim Opfer gefunden werden.

                            Die Technik kann nicht dazu verwendet werden, allgemein "Demonstranten" zu finden. Sondern die Technik findet ganz exakt bestimmte Bilder. Und dreißig davon müssen beim "Opfer" gespeichert sein. Das scheint mir der dümmste Hack der Weltgeschichte zu sein.

                            Craig Federighi ist noch ausführlicher auf dieses Argument eingegangen, deswegen kann ich mich hier kürzer fassen.


                            Persönliche Prüfung

                            Das Ergebnis dieses hohen Aufwandes (alle beteiligten Datenbanken zu manipulieren) wäre nur, dass ein Treffer bei einem Apple-Mitarbeiter auf dem Tisch landet. Er sieht dann einen demonstrierenden Chinesen, verwirft den Fall, und, wenn es häufiger vorkommt, geht der Ursache auf den Grund.

                            Eine automatische Weiterleitung an irgendwelche Behörden erfolgt nicht. Insofern sehe ich nicht, wie dieser "Hack" gelingen könnte.


                            Politischer Druck und Gesetze

                            Falsch ist, dass hier eine neue Möglichkeit entstanden wäre, Fotos und Dateien nach bestimmten Merkmalen zu finden. Wenn Apple angeblich auf politischen Druck bestimmte Dateien aufspüren wollte, dann hätten sie das längst tun können.

                            Jede einzelne Anwender-Datei unter macOS und iOS ist bereits verschlagwortet. Wer einen Suchbegriff bei Spotlight eingibt, sieht diese Technik in Aktion: Das Ergebnis kommt sofort. Dieses Tempo gelingt nur, weil alle diese Dateien bereits vorab verschlagwortet und kategorisiert wurden.

                            Dabei werden seit OS X 10.3 auch die Inhalte ausgewertet. Also der Inhalt aller Word-, Exel-, Pages- und Keynote-Dateien, aller Mails und iMessage-Nachrichten. Dasselbe gilt seit einiger Zeit auch für Fotos und Videos. Du kannst "Paris" eingeben und findest Deine Fotos aus Paris. Du kannst "Baby lachend" eingeben und findest entsprechende Fotos.

                            Wenn Apple so nett im Bett mit China liegen würde, wie Du oft behauptest, dann hätten sie schon längst eine entsprechende Suche nach Demonstranten oder Aktivisten einbauen können.

                            Diese Technik existiert bereits und wird auch dann existieren, wenn Apple den Kinderporno-Filter wieder zurücknehmen sollte. Mit anderen Worten: Das eine hat mit dem anderen nichts zu tun.

                            Kommentar

                            • cordcam
                              Erfahrener Benutzer
                              • 13.04.2010
                              • 3061

                              Wenn Apple behauptet, dass das technisch nicht geht, ist das eine dreiste Lüge.

                              Tatsächlich ist das sehr einfach.

                              Das wird so ablaufen:

                              China: Tolles System. Bei uns nutzt ihr jetzt aber nicht mehr diese beiden Datenbanken aus verschiedenen Ländern, sondern nur noch unsere.

                              Apple: Tut uns leid, wir haben versprochen, dass wir das nicht machen.

                              China: Bei uns werdet ihr keine iPhones mehr verkaufen.

                              Apple: Dürfen wir untertänigst darum bitten, eure Datenbank für das System zu nutzen? Wir wären hocherfreut, dem chinesischen Staat zu Diensten zu sein.

                              Kommentar

                              • Jörn
                                Administrator
                                • 05.01.2008
                                • 10239

                                Das ist sehr einfach zu beantworten, weil es bereits mehrfach beantwortet wurde. (Zuletzt auf der gleichen Seite wie dieses Posting.)

                                Wenn China das tun wollte, dann könnten sie es schon immer. Es hat mit der neuen Technik nichts zu tun. Im Gegenteil: Die neue Technik erschwert die Suche nach demonstrierenden Chinesen, weil die neue Technik nach einem sehr exakten Zahlenwert (dem Hash) sucht. Von allen verfügbaren Technologien ist diese also am wenigsten geeignet, weil sie nur das sucht, was schon exakt bekannt ist.

                                Geeignet wäre die schon seit vielen Jahren vorhandene inhaltliche Erkennung von Bildern und Dateien. Diese Technik ist nicht auf exakte Übereinstimmung angewiesen, sondern erkennt Bildinhalte: den Eiffelturm ebenso wie eine Demonstration — aber eben nicht ein ganz bestimmtes Bild vom Eiffelturm, sondern generell Abbildungen vom Eiffelturm, und generell Bilder von Menschengruppen (Demonstrationen). Diese Technik wäre für die Chinesen nützlich. Dennoch habe ich nirgends eine Kritik an dieser Technik gelesen. Aber auch hier könnte man orakeln, dass Apple diese Daten im Hintergrund über den chinesischen Tresen schiebt. Letztlich kann man allen Leuten alles unterstellen, wenn man so argumentieren möchte.

                                Das sind dann aber keine technischen Argumente (Du schreibst ja im ersten Satz ausdrücklich von Technik), sondern unterstellt einfach Betrug. Genauer gesagt: zukünftigen Betrug. Ich bin mir nicht ganz sicher, ob ich das seriös finde, weil es unmöglich ist, die Behauptung eines zukünftigen Betrugs zu widerlegen. Diese Art von Argumentation fordert Belege, ohne selbst Belege zu liefern. Behaupten und orakeln kann man viel.

                                Kommentar

                                Lädt...
                                X