EU plant Verbot von Verschlüsselung

Stelle deine Frage öffentlich an die Threema-Forum-Community - über 3.000 Mitglieder helfen dir weiter. Los gehts!
Unterstützung von offizieller Seite erhältst du direkt bei Threema: Zum offiziellen Threema-Support
  • Ohne nun für eine Partei oder Person zu werben, dennoch finde ich dieses Vidoe gut gemach.:

    Auf seiner twitter Seite sind auch einige Interessante Themen und Neuigkeiten dazu.


    Externer Inhalt twitter.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Ebenso interessante Beiträge, welche sich aktuell um Facebook und Apple drehen. Nebenbei noch ein paar Beiträge, :
    https://twitter.com/jason_kint


    Hart ist auch der Bericht über Facebook - Cambridge Analytica und dem "Geheimen" Abkommen mitElizabeth Denham (UK-Datenschutzbeauftragte).
    https://techcrunch.com/2021/01…ca-gags-uk-data-watchdog/

  • Hmmmm ..... der Wissenschaftliche Dienst des Europäischen Parlaments ist eine verdammt gewichtige Institution innerhalb des Gesamtgebildes.


    Deren rechtliche Bewertung ist von den Macht-u. Datengeilen Politikern nicht mal eben Beiseite zu kehren. ?


    Das ist aus meiner Sicht nicht nur ein kleiner Hoffnungsschimmer, der sich da auftut.


    In der Vergangenheit hat sich gezeigt, dass spätere Gerichtsentscheidungen des Europäischen Gerichtshofes in der Regel den zuvor gemachten rechtlichen Bewertungen des Wissenschaftlichen Dienstes folgten. ?


    Das ist somit aus meiner Sicht schon mal als klare Klatsche zu sehen !


    Just my 2 Cent

  • Auch der EU-Ministerrat kommt am Ende nicht an den Urteilen des Europäischen Gerichtshofes vorbei?


    In Deutschland hatten wir es ja auch, dass Macht-u. Datengeile Politiker immer und immer wieder versuchten, die Vorratsdatenspeicherung durchzuprügeln ?


    Aber auch diese Herrschaften mußten erkennen, dass das Bundesverfassungsgericht am Ende mehr zu sagen hat, als die vorgenannten Damen und Herren. ?


    Die bisherigen Urteile des Europäischen Gerichtshofes sind eindeutig und am Ende auch vom Ministerrat zu akzeptieren.


    Just my 2 Cent

  • Auch hier ist, ich zitiere, zu lesen:


    "Nach einem Urteil des Europäischen Gerichtshofs ist die dauerhafte und flächendeckende automatisierte Analyse privater Kommunikation grundrechtswidrig und verboten (Abs. 177). Der Europaabgeordnete Patrick Breyer hat aus diesem Grund die US-Unternehmen Facebook und Google wegen Verletzung der Datenschutz-Grundverordnung bei den Datenschutzbehörden angezeigt."


    Es gibt eine Rechtsprechung des Europäischen Gerichtshofs, die gegen diese avisierten Praktiken ausfällt !!!!


    Es ist nun entweder am Europäischen Parlament, diese Daten- und Macht geilen Politiker der Europäischen Kommission einzufangen oder aber am europäischen Bürger, bei den nächsten EU-Wahlen für endgültige Klarheit zu sorgen.


    Traurig ist aus meiner Sicht nur, dass es bereits vom Europäischen Gerichtshof eine eindeutige Rechtsprechung gibt und weder die Europaparlementarier noch die gesamte Presse der Kommission jetzt die Hölle heiss macht.


    Es wird sich hier ganz eindeutig zeigen müssen, ob auch in der EU Gerichte das letzte Wort haben oder eben der Politiker ..... in Deutschland zumindest hat das Bundesverfassungsgericht noch "die Hosen an".


    Just my 2 Cent

  • Unabhängig davon, wie die Sache ausgehen wird/könnte: Ich habe am Wochenende die Personen, die im Artikel von Patrick Breyer in #175 genannt sind, plus alle deutschen EU-Abgeordneten, angeschrieben. Ich hatte eine Vorlage, ebenfalls von Breyer's Seite und habe auf dieser Grundlage die Mail geschrieben und zusätzlich ins Englische übersetzt.


    Aufgeben gibt's nicht. Im März/April rum wird sichs zeigen, in welche Richtung es geht!

  • Patrick Breyer, MdEP:


    Flächendeckende Nachrichten- und Chatkontrolle: Google, Facebook und Microsoft lobbyieren gegen die wenigen geplanten Auflagen bezüglich Fehlerquote, Verdachtsabhängigkeit, Berufsgeheimnisschutz und Transparenz.

    Hier ihr Brief: https://www.patrick-breyer.de/…letter-ePD-derogation.pdf


    Wenn sie geschrieben hätten, dass sie gerne endlich an alle Nutzer-Daten, ohne irgendwelche Einschränkungen, kommen würden, dann wäre das wenigstens offen und ehrlich gewesen.


    Also, EU: Wir müssen Kindermissbrauch stoppen!

    Facebook, Google, Microsoft: Wir finden für euch die Täter, aber macht uns keine Einschränkungen!


    <X<X<X<X<X<X<X<X<X<X<X<X<X<X<X<X<X<X<X<X<X<X<X<X<X<X<X<X

  • Die Bedenken der Vorzeigeunternehmen auf Deutsch (Übersetzung mit DeepL):


    Teil 1:

    Sehr geehrtes Mitglied des Europäischen Parlaments,


    wir begrüßen die gemeinsamen Bemühungen der EU-Institutionen um den Vorschlag für eine vorübergehende Ausnahmeregelung von bestimmten Bestimmungen der Datenschutzrichtlinie für elektronische Kommunikation zur Bekämpfung von Material über sexuellen Kindesmissbrauch im Internet (die "vorübergehende Ausnahmeregelung").


    Die Sicherheit von Kindern im Internet liegt uns sehr am Herzen, und wir investieren viel in branchenführende Tools, die helfen, missbräuchliches Verhalten auf der Grundlage von Verkehrs- und Inhaltsdaten zu verhindern, zu erkennen und zu melden. Wir glauben, dass die vorgeschlagene vorläufige Ausnahmeregelung unsere Bemühungen um die Sicherheit von Kindern unterstützen könnte. Wir sind dankbar für die Bemühungen aller Parteien, einen Weg nach vorne zu finden, und insbesondere für den vorläufigen Kompromiss, der erreicht wurde, um von einer Fehlerquote von eins zu 50 Milliarden zugunsten eines pragmatischeren Ansatzes abzurücken, der verlangt, die Fehlerquote "so weit wie möglich" zu begrenzen und solche Fehler umgehend zu beheben.


    Die Forderung nach einer spezifischen und unrealistischen Fehlerquote würde alle derzeit verwendeten Technologien zur Erkennung von Material über sexuellen Kindesmissbrauch (CSAM) ausschließen, da keine der heute von irgendeinem Unternehmen verwendeten Technologien mit dieser Genauigkeit arbeitet. Darüber hinaus sind uns keine von Fachleuten begutachteten Beweise bekannt, die belegen, dass irgendeine im Einsatz befindliche Technologie diese Messlatte erfüllt. Die Festlegung einer solch unrealistischen Schwelle würde jedes Unternehmen davon abhalten, weiterhin Material und Aktivitäten zum sexuellen Missbrauch von Kindern zu erkennen.


    Es gibt jedoch noch weitere Punkte, über die noch keine Einigung erzielt wurde und die, wenn sie nicht gelöst werden, unsere Fähigkeit, den Kampf gegen sexuellen Kindesmissbrauch und -ausbeutung im Internet fortzusetzen, erheblich behindern und damit Kinder und die Verfolgung von Straftätern gefährden könnten.


    Die fraglichen Elemente sind:

    ● Meldung an die zuständigen nationalen Strafverfolgungsbehörden

    ● Vorratsspeicherung von Inhaltsdaten für einen Zeitraum von höchstens drei Monaten

    ● Kohärenz und Konsistenz mit bestehenden Rahmenwerken

    ● Konkrete Verdachtsmomente

    ● Informationsanforderungen für positive Treffer von CSAM und

    ● Lokales Alter der Einwilligung und Berufsrecht.

  • Teil 2:

    Wir gehen auf unsere Hauptbedenken zu jedem dieser Elemente unmittelbar im Folgenden ein.


    Meldung an die zuständigen nationalen Strafverfolgungsbehörden

    In seinem Änderungsantrag 28 schlägt das Europäische Parlament in Artikel 3 (1) sub (ea) vor, dass "jeder Fall eines begründeten und überprüften Verdachts auf sexuellen Online-Kindermissbrauch unverzüglich den zuständigen nationalen Strafverfolgungsbehörden gemeldet wird." Nach dem derzeitigen System sind US-Anbieter gesetzlich verpflichtet, Inhalte mit sexuellem Missbrauch von Kindern an die CyberTipline des National Centre for Missing and Exploited Children (NCMEC) zu melden. Das NCMEC hat eine internationale Drehscheibenfunktion - es nimmt alle derartigen Hinweise entgegen und leitet diese Informationen anschließend triagiert an Strafverfolgungsbehörden in der ganzen Welt weiter, einschließlich an Strafverfolgungsbehörden in Europa. Dies geschieht entweder direkt oder über eine Clearingstelle. Die vorgeschlagene Änderung untergräbt das bestehende effektive globale Meldesystem, indem sie eine parallele und doppelte Meldestruktur schafft und das System für bruchstückhafte Bemühungen und potenzielle Fehler öffnet. Dies würde das gut etablierte und funktionierende internationale System in Frage stellen, das zahlreiche positive Ergebnisse für Strafverfolgungsbehörden auf der ganzen Welt geliefert hat. Erhebliche Änderungen am bestehenden Meldesystem könnten zu wichtigen unbeabsichtigten Folgen führen und erfordern eine sorgfältige Abwägung über die Gestaltung und die Ressourcen, die nicht durch eine Übergangsverordnung geregelt werden können und derzeit als Teil der umfassenderen CSAM-Strategie der EU erörtert werden.


    Vorratsspeicherung von Inhaltsdaten für einen Zeitraum von höchstens drei Monaten

    Die Bestimmung des Europäischen Parlaments in Artikel 3(1) sub (db) und ihr "harter Stopp" der Datenspeicherung von drei Monaten kollidiert mit den Anforderungen an US-Anbieter, die einer Aufbewahrungspflicht von 90 Tagen und möglichen Verlängerungen unterliegen. Ein solch endlicher Zeitraum birgt die große Gefahr, dass laufende Ermittlungen der weltweiten Strafverfolgungsbehörden untergraben werden. Das derzeitige System ist auf die gezielte Aufbewahrung von Daten angewiesen, um sicherzustellen, dass wichtige Beweise verfügbar bleiben und genutzt werden können, um Straftäter vor Gericht zu bringen.


    Kohärenz und Konsistenz mit bestehenden Rahmenwerken

    Die derzeit diskutierten Änderungen beinhalten eine Verpflichtung für Anbieter, sich bei Technologien, die in den Anwendungsbereich der Übergangsregelung fallen, vorab mit den Datenschutzbehörden abzustimmen. Diese Anforderung weicht von den Grundsätzen der DSGVO ab (z. B. risikobasierter Ansatz), die diese Konsultation nur dann verlangt, wenn die Datenschutz-Folgenabschätzung nahelegt, dass das Risiko der Datenverarbeitung hoch ist und nicht anderweitig gemindert werden kann. Der Text der Ausnahmeregelung sollte diesem Prinzip folgen. Darüber hinaus verlangt die allgemeine Ausrichtung zum Vorschlag für die Datenschutzverordnung für elektronische Kommunikation, die im Entwurf des Rates vom 10. Februar angenommen wurde, keine vorherige Konsultation, wenn der Anbieter auf Kommunikationsinhalte zugreift, sondern behält den risikobasierten Ansatz bei (Art. 6a (2)). Die vorläufige Ausnahmeregelung sollte dies ebenfalls tun.


    Konkrete Verdachtsmomente

    Erwägungsgrund 11 enthält einen Verweis auf die Notwendigkeit, nur in Fällen von konkreten Verdachtsmomenten für sexuellen Online-Kindermissbrauch bestimmte Kommunikationen zu untersuchen. Diese Anforderung scheint auf einem Missverständnis darüber zu beruhen, wie die Technologien zur Erkennung von CSAM tatsächlich funktionieren, und kann die Fähigkeit der Anbieter beeinträchtigen, solche Inhalte in großem Umfang zu erkennen. Die Technologie zur Erkennung von CSAM sucht nach Übereinstimmungen von Inhalten, die zuvor als Material zur sexuellen Ausbeutung und zum Missbrauch von Kindern identifiziert wurden, und hilft so, die Verdachtsmomente genau zu bestimmen. Daher kann nur durch die Anwendung der verfügbaren Technologie ein konkreter Verdacht auf Aktivitäten im Zusammenhang mit der sexuellen Ausbeutung und dem Missbrauch von Kindern entstehen.


    Informationspflichten bei positiven Treffern für CSAM

    Die Abänderung 28 des Europäischen Parlaments in Artikel 3(1) sub xii verlangt von den Providern, dass sie im Falle eines "positiven Treffers für Online-Material über sexuellen Kindesmissbrauch" Informationen an einen Nutzer weitergeben, es sei denn, dies würde eine laufende Untersuchung beeinträchtigen. Diese Bestimmung ist für die Anbieter praktisch unmöglich, da nicht im Voraus bestimmt werden kann, wann eine Untersuchung eingeleitet wird, wann sie abgeschlossen ist oder unter welchen Umständen eine Offenlegung eine laufende Untersuchung durch die Strafverfolgungsbehörden beeinträchtigen würde oder nicht mehr beeinträchtigen würde. Darüber hinaus würde die Benachrichtigung von Nutzern, die möglicherweise Gegenstand von Ermittlungen der Strafverfolgungsbehörden sind, wahrscheinlich zu einer Reihe von negativen Folgen führen, einschließlich, aber nicht beschränkt auf die Zerstörung von Beweismaterial, Selbstbeschädigung und Gewalt gegen andere, einschließlich der kindlichen Opfer dieser Straftaten. Der vorgeschlagene überarbeitete Text geht auf diese Bedenken nicht ein.


    Lokale Regeln für das Alter der Einwilligung

    Der Änderungsantrag des Europäischen Parlaments zu Erwägungsgrund 4a spricht von der Notwendigkeit, lokale Regeln für das Alter der Einwilligung zu berücksichtigen und die Meldung von Bildmaterial auszuschließen, wenn die Personen über dem Alter der Einwilligung sind. Diese Anforderung setzt voraus, dass die Anbieter über Informationen über die Nutzer verfügen, die in der Praxis nicht bekannt sind, und stellt somit eine unzumutbare Belastung für die Industrie dar, um ein Herkunftsland und unerreichbar genaue Alterskennzeichen zu bestimmen.


    Berufsgeheimnis

    Die Abänderung 28 des Europäischen Parlaments in Artikel 3 Absatz 1 sub xiii schließt Mitteilungen aus, die durch das Berufsgeheimnis geschützt sind (z. B. Anwalt/Mandant und Arzt/Patient). Für Diensteanbieter ist es jedoch technisch unmöglich, festzustellen, ob ein solches Privileg besteht oder nicht. Selbst wenn die Anbieter den Nutzern erlauben würden, die Kommunikation als privilegiert zu kennzeichnen, gäbe es keine Möglichkeit, diese Kennzeichnung zu überprüfen, und es könnte ein gefährliches Schlupfloch entstehen, das es Kinderschändern ermöglichen würde, ihre Kommunikation vor der Entdeckung durch die CSAM abzuschirmen. Wir dulden keinen sexuellen Missbrauch und keine sexuelle Ausbeutung von Kindern in unseren Diensten und haben über viele Jahre hinweg fleißig an der Entwicklung geeigneter Technologien gearbeitet, um dieses Ziel zu erreichen. Ein rechtlicher Rahmen für die Anbieter ist unerlässlich für die Fortsetzung unserer Bemühungen, Material über sexuelle Ausbeutung und Missbrauch von Kindern in unseren Diensten zu erkennen und zu entfernen. Während eine längerfristige Lösung als Teil der breiteren EU-Strategie für eine effektivere Bekämpfung dieses Verbrechens diskutiert wird, ermutigen wir die EU-Gesetzgeber, sich auf eine praktikable Zwischenlösung zu einigen, die die derzeitige Unklarheit und Unsicherheit dringend beseitigt. Wir möchten auch unser kollektives Engagement für die Gewährleistung privater und sicherer Kommunikation für unsere Nutzer hervorheben und begrüßen die Anerkennung der Rolle, die die Verschlüsselung bei der Unterstützung dieses Ziels spielt, durch das Europäische Parlament. Wir glauben, dass eine praktikable Ausnahmeregelung, die die Kerninteressen des Schutzes der Privatsphäre ausgleicht und die Fortsetzung der bestehenden Bemühungen zur Verhinderung, Aufdeckung und Meldung von CSAM ermöglicht, erreichbar ist, wenn die oben genannten Punkte berücksichtigt werden.


    Wir freuen uns auf unseren weiteren Dialog in dieser wichtigen Angelegenheit. Wir sind bereit, Ihre Fragen zu beantworten und Sie mit den Informationen zu unterstützen, die Sie benötigen, um diese Akte voranzubringen.