• The Hellenic Data Protection Authority fines the Ministry of Migration and Asylum for the “Centaurus” and “Hyperion” systems with the largest penalty ever imposed to a Greek public body

    Two years ago, in February 2022, Homo Digitalis had filed (https://homodigitalis.gr/en/posts/10874) a complaint against the Ministry of Immigration and Asylum for the “#Centaurus” and “#Hyperion” systems deployed in the reception and accommodation facilities for asylum seekers, in cooperation with the civil society organizations Hellenic League for Human Rights and HIAS Greece, as well as the academic Niovi Vavoula.

    Today, the Hellenic Data Protection Authority identified significant GDPR violations in this case by the Ministry of Immigration and Asylum and decided to impose a fine of €175.000 euro – the highest ever imposed against a public body in the country.

    The detailed analysis of the GDPR highlights the significant shortcomings that the Ministry of Immigration and Asylum had fallen into in the context of preparing a comprehensive and coherent Data Protection Impact Assessment, and demonstrates the significant violations of the GDPR that have been identified and relate to a large number of subjects who have a real hardship in being able to exercise their rights.

    Despite the fact that the DPA remains understaffed, with a reduced budget, facing even the the risk of eviction from its premises, it manages to fulfil its mission and maintain citizens’ trust in the Independent Authorities. It remains to be seen how long the DPA will last if the state does not stand by its side.

    Of course, nothing ends here. A high fine does not in itself mean anything. The Ministry of Immigration and Asylum must comply within 3 months with its obligations. However, the decision gives us the strength to continue our actions in the field of border protection in order to protect the rights of vulnerable social groups who are targeted by highly intrusive technologies.

    You can read our press release here: https://homodigitalis.gr/wp-content/uploads/2024/04/PressRelease_%CE%97omoDigitalis_Fine-175.000-euro_Hellenic_Data_Protec

    You can read Decision 13/2024 on the Authority’s website here: https://www.dpa.gr/el/enimerwtiko/prakseisArxis/aytepaggelti-ereyna-gia-tin-anaptyxi-kai-egkatastasi-ton-programmaton

    https://homodigitalis.gr/en/posts/132195

    #Grèce #surveillance #migrations #réfugiés #justice #amende #RGDP #données #protection_des_données #camps_de_réfugiés #technologie

    • Griechenland soll Strafe für Überwachung in Grenzcamps zahlen

      Wie weit darf die EU bei der Überwachung von Asylsuchenden an ihren Grenzen gehen? Griechenland testet das in neuen Lagern auf den Ägäischen Inseln. Nun hat die griechische Datenschutzbehörde dafür eine Strafe verhängt. Bürgerrechtler:innen hoffen auf eine Entscheidung mit Signalwirkung.

      Doppelter „Nato-Sicherheitszaun“ mit Stacheldraht. Kameras, die selbst den Basketballplatz und die Gemeinschaftsräume rund um die Uhr im Blick haben. Drohnen sorgen für Überwachung aus der Luft. Das Lager auf Samos, das die griechische Regierung 2021 mit viel Getöse eröffnet hat, gleicht eher einem Gefängnis als einer Erstaufnahme für Asylsuchende, die gerade in Europa gelandet sind.

      Das Überwachungssystem, das in diesem und vier weiteren Lagern auf den griechischen Inseln für „Sicherheit“ sorgen soll, heißt Centaurus. Die Bilder aus den Sicherheitskameras und Drohnen laufen in einem Kontrollzentrum im Ministerium in Athen zusammen. Bei besonderen Situationen sollen auch Polizeibehörden oder die Feuerwehr direkten Zugang zu den Aufnahmen bekommen. Mit dem System Hyperion wird der Zugang zum Lager kontrolliert: biometrischen Eingangstore, die sich nur mit Fingerabdrücken öffnen lassen.

      Für den Einsatz dieser Technologien ohne vorherige Grundrechtsprüfung hat das Ministerium nun eine Strafe kassiert. Die griechische Datenschutzaufsicht sieht einen Verstoß gegen Datenschutzgesetze in der EU (DSGVO). In einem lang erwarteten Beschluss belegte sie vergangene Woche das Ministerium für Migration und Asyl mit einem Bußgeld von 175.000 Euro.
      Erst eingesetzt, dann Folgen abgeschätzt

      Zwei konkrete Punkte führten laut Datenschutzbehörde zu der Entscheidung: Das Ministerium hat es versäumt, rechtzeitig eine Datenschutz-Folgenabschätzung zu erstellen. Gemeint ist damit eine Bewertung, welche Auswirkungen der Einsatz der Überwachung auf die Grundrechte der betroffenen Personen hat. Es geht um die Asylsuchenden, die in den Lagern festgehalten werden, aber auch Angestellte, Mitarbeitende von NGOs oder Gäste, die das Lager betreten.

      Eine solche Abschätzung hätte bereits vor der Anschaffung und dem Einsatz der Technologien vollständig vorliegen müssen, schreibt die Aufsichtsbehörde in ihrer Entscheidung. Stattdessen ist sie bis heute unvollständig: Ein Verstoß gegen die Artikel 25 und 35 der Datenschutzgrundverordnung, für die die Behörde eine Geldbuße in Höhe von 100.000 Euro verhängt.

      Zusätzlich wirft die Behörde dem Ministerium Intransparenz vor. Dokumente hätten beispielsweise verwirrende und widersprüchliche Angaben enthalten. Verträge mit den Unternehmen, die die Überwachungssysteme betreiben, hätte das Ministerium mit Verweis auf Geheimhaltung gar nicht herausgegeben, und damit auch keine Details zu den Bedingungen, zu denen die Daten verarbeitet werden. Wie diese Systeme mit anderen Datenbanken etwa zur Strafverfolgung verknüpft sind, ob also Aufnahmen und biometrische Daten auch bei der Polizei landen könnten, das wollte das Ministerium ebenfalls nicht mitteilen. Dafür verhängte die Aufsichtsbehörde weitere 75.000 Euro Strafe.
      Ministerium: Systeme noch in der Testphase

      Das Ministerium rechtfertigt sich: Centaurus und Hyperion seien noch nicht vollständig in Betrieb, man befinde sich noch in der Testphase. Die Aufsichtsbehörde habe nicht bedacht, dass „die Verarbeitung personenbezogener Daten nicht bewertet werden konnte, bevor die Systeme in Betrieb genommen wurden“. Hinzu kämen Pflichten zur Geheimhaltung, die sich aus den Verträgen mit den Unternehmen hinter den beiden Systemen ergeben.

      Die Behörde hat das nicht durchgehen lassen: Rein rechtlich mache es keinen Unterschied, ob ein System noch getestet wird oder im Regelbetrieb sei, schriebt sie in ihrer Entscheidung. Die Abschätzung hätte weit vorher, nämlich bereits bei Abschluss der Verträge, vorliegen müssen. Noch dazu würden diese Verstöße eine große Zahl an Menschen betreffen, die sich in einer besonders schutzlosen Lage befänden.

      Abschalten muss das Ministerium die Überwachungssysteme allerdings nicht, sie bleiben in Betrieb. Es muss lediglich binnen drei Monaten den Forderungen nachkommen und fehlende Unterlagen liefern. Das Ministerium kündigt an, die Entscheidung rechtlich überprüfen und möglicherweise anfechten zu wollen.
      Geheimhaltungspflicht keine Ausrede

      „Die Entscheidung ist sehr wichtig, weil sie einen sehr hohen Standard dafür setzt, wann und wie eine Datenschutz-Folgenabschätzung erfolgreich durchgeführt werden muss, sogar vor der Auftragsvergabe“, sagt Eleftherios Helioudakis. Er ist Anwalt bei der griechischen Organisation Homo Digitalis und beschäftigt sich mit den Auswirkungen von Technologien auf Menschenrechte. Eine Beschwerde von Homo Digitalis und weiteren Vereinen aus dem Jahr 2022 hatte die Untersuchung angestoßen.

      Helioudakis sagt, die Entscheidung mache deutlich, dass mangelnde Kommunikation mit der Datenschutzbehörde zu hohen Geldstrafen führen kann. Außerdem sei nun klar: Das Ministerium kann Vertragsklauseln zum Datenschutz nicht aus Gründen der Geheimhaltung vor der Datenschutzbehörde verbergen, denn für deren Untersuchungen ist die Geheimhaltungspflicht aufgehoben – wie es die DSGVO vorsieht. Das Urteil der Behörde beziehe sich zudem erst mal nur auf die Mängel bei der Einführung der Systeme, so der Bürgerrechtler. Es könnten also neue Fälle bei der Datenschutzbehörde anhängig gemacht werden.

      Die Sanktionen sind laut der Hilfsorganisation Hias die höchsten, die die Datenschutzbehörde je gegen den griechischen Staat verhängt hat. In der Summe fallen die Strafzahlungen allerdings gering aus. Sind die Datenschutzregeln der EU wirklich das geeignete Instrument, um die Rechte von Asylsuchenden zu schützen? Eleftherios Helioudakis sagt ja. „Die gesetzlichen Bestimmungen der Datenschutz-Grundverordnung sind Instrumente, mit denen wir die Bestimmungen zum Schutz personenbezogener Daten praktisch durchsetzen können.“ Es gebe keine richtigen und falschen Ansätze. „Wir können die uns zur Verfügung stehenden juristischen Instrumente nutzen, um unsere Strategie zu bündeln und uns gegen übergriffige Praktiken zu wehren.“

      Die Lager auf den Ägäischen Inseln werden vollständig von der EU finanziert und gelten als „Modell“. Nach ihrem Vorbild plant die EU in den kommenden Jahren weitere Lager an ihren Außengrenzen zu errichten. Die Entscheidung der griechischen Datenschutzaufsicht wird von der Kommission vermutlich mit Interesse verfolgt. Sie macht deutlich, unter welchen Voraussetzungen Überwachungstechnologien in diesen Camps eingesetzt werden können.

      https://netzpolitik.org/2024/panopticon-fuer-gefluechtete-griechenland-soll-strafe-fuer-ueberwachung

  • Sorvegliare in nome della sicurezza: le Agenzie Ue vogliono carta bianca

    Il nuovo regolamento di #Europol mette a rischio la #privacy di milioni di persone mentre #Frontex, chiamata a controllare le frontiere, punta sull’intelligenza artificiale e la biometria per fermare i migranti. Provando a eludere la legge.

    C’è una lotta interna nel cuore delle istituzioni europee il cui esito toccherà da vicino il destino di milioni di persone. Lo scontro è sul nuovo regolamento di Europol, l’Agenzia europea di contrasto al crimine, entrato in vigore a fine giugno 2022 con la “benedizione” del Consiglio europeo ma che il Garante per la protezione dei dati (Gepd) definisce un “colpo allo Stato di diritto”. “La principale controversia riguarda la possibilità per l’Agenzia di aggirare le proprie regole quando ha ‘bisogno’ di trattare categorie di dati al di fuori di quelli che può raccogliere -spiega Chloé Berthélémy, policy advisor dell’European digital rights (Edri), un’organizzazione che difende i diritti digitali nel continente-. Uno scandalo pari a quanto rivelato, quasi un decennio fa, da Edward Snowden sulle agenzie statunitensi che dimostra una tendenza generale, a livello europeo, verso un modello di sorveglianza indiscriminata”.

    Con l’obiettivo di porre un freno a questa tendenza, il 22 settembre di quest’anno il presidente del Gepd, Wojciech Wiewiórowski, ha comunicato di aver intentato un’azione legale di fronte alla Corte di giustizia dell’Unione europea per contestare la legittimità dei nuovi poteri attribuiti a Europol. Un momento chiave di questa vicenda è il gennaio 2022 quando l’ufficio del Gepd scopre che proprio l’Agenzia aveva conservato illegalmente un vasto archivio di dati sensibili di oltre 250mila persone, tra cui presunti terroristi o autori di reati, ma soprattutto di persone che erano entrate in contatto con loro. Secondo quanto ricostruito dal Guardian esisteva un’area di memoria (cache) detenuta dall’Agenzia contenente “almeno quattro petabyte, equivalenti a tre milioni di cd-rom” con dati raccolti nei sei anni precedenti dalle singole autorità di polizia nazionali. Il Garante ordina così di cancellare, entro un anno, tutti i dati più “vecchi” di sei mesi ma con un “colpo di mano” questa previsione viene spazzata via proprio con l’entrata in vigore del nuovo regolamento. “In particolare, due disposizioni della riforma rendono retroattivamente legali attività illegali svolte dall’Agenzia in passato -continua Berthélémy-. Ma se Europol può essere semplicemente esentata dai legislatori ogni volta che viene colta in flagrante, il sistema di controlli ed equilibri è intrinsecamente compromesso”.

    L’azione legale del Gepd ha però un ulteriore obiettivo. In gioco c’è infatti anche il “modello” che l’Europa adotterà in merito alla protezione dei dati: da un lato quello americano, basato sulla sorveglianza pressoché senza limiti, dall’altro il diritto alla protezione dei dati che può essere limitato solo per legge e con misure proporzionate, compatibili con una società democratica. Ma proprio su questo aspetto le istituzioni europee vacillano. “Il nuovo regolamento esplicita l’obiettivo generale della comunità delle forze dell’ordine: quello di poter utilizzare metodi di ‘polizia predittiva’ che hanno come finalità l’identificazione di individui che potranno potenzialmente essere coinvolti nella commissione di reati”, sottolinea ancora la ricercatrice. Significa, in altri termini, l’analisi di grandi quantità di dati predeterminati (come sesso e nazionalità) mediante algoritmi e tecniche basate sull’intelligenza artificiale che permetterebbero, secondo i promotori del modello, di stabilire preventivamente la pericolosità sociale di un individuo.

    “Questo approccio di polizia predittiva si sviluppa negli Stati Uniti a seguito degli attentati del 2001 -spiega Emilio De Capitani, già segretario della Commissione libertà civili (Libe) del Parlamento europeo dal 1998 al 2011 che da tempo si occupa dei temi legati alla raccolta dei dati-. Parallelamente, in quegli anni, inizia la pressione da parte della Commissione europea per sviluppare strumenti di raccolta dati e costruzione di database”.

    “Il nuovo regolamento esplicita l’obiettivo generale della comunità delle forze dell’ordine: quello di poter utilizzare metodi di ‘polizia predittiva’” – Chloé Berthélémy

    Fra i primi testi legislativi europei che si fondano sulla raccolta pressoché indiscriminata di informazioni c’è la Direttiva 681 del 2016 sulla raccolta dei dati dei passeggeri aerei (Pnr) come strumento “predittivo” per prevenire i reati di terrorismo e altri reati definiti come gravi. “Quando ognuno di noi prende un aereo alimenta due archivi: l’Advanced passenger information (Api), che raccoglie i dati risultanti dai documenti ufficiali come la carta di identità o il passaporto permettendo così di costruire la lista dei passeggeri imbarcati, e un secondo database in cui vengono versate anche tutte le informazioni raccolte dalla compagnia aerea per il contratto di trasporto (carta di credito, e-mail, esigenze alimentari, tipologia dei cibi, annotazioni relative a esigenze personali, etc.) -spiega De Capitani-. Su questi dati legati al contratto di trasporto viene fatto un controllo indiretto di sicurezza filtrando le informazioni in relazione a indicatori che potrebbero essere indizi di pericolosità e che permetterebbero di ‘sventare’ attacchi terroristici, possibili dirottamenti ma anche reati minori come la frode o la stessa violazione delle regole in materia di migrazione. Questo perché il testo della Direttiva ha formulazioni a dir poco ambigue e permette una raccolta spropositata di informazioni”. Tanto da costringere la Corte di giustizia dell’Ue, con una sentenza del giugno 2022 a reinterpretare in modo particolarmente restrittivo il testo legislativo specificando che “l’utilizzo di tali dati è permesso esclusivamente per lo stretto necessario”.

    L’esempio della raccolta dati legata ai Pnr è esemplificativo di un meccanismo che sempre di più caratterizza l’operato delle Agenzie europee: raccogliere un elevato numero di dati per finalità genericamente collegate alla sicurezza e con scarse informazioni sulla reale utilità di queste misure indiscriminatamente intrusive. “Alle nostre richieste parlamentari in cui chiedevamo quanti terroristi o criminali fossero stati intercettati grazie a questo sistema, che raccoglie miliardi di dati personali, la risposta è sempre stata evasiva -continua De Capitani-. È come aggiungere paglia mentre si cerca un ago. Il cittadino ci rimette due volte: non ha maggior sicurezza ma perde in termini di rispetto dei suoi diritti. E a perderci sono soprattutto le categorie meno protette, e gli stessi stranieri che vengono o transitano sul territorio europeo”.

    “Il cittadino ci rimette due volte: non ha maggior sicurezza ma perde in termini di rispetto dei suoi diritti. Soprattutto le categorie meno protette” – Emilio De Capitani

    I migranti in particolare diventano sempre più il “banco di prova” delle misure distopiche di sorveglianza messe in atto dalle istituzioni europee europee attraverso anche altri sistemi che si appoggiano anch’essi sempre più su algoritmi intesi a individuare comportamenti e caratteristiche “pericolose”. E in questo quadro Frontex, l’Agenzia che sorveglia le frontiere esterne europee gioca un ruolo di primo piano. Nel giugno 2022 ancora il Garante europeo ha emesso nei suoi confronti due pareri di vigilanza che sottolineano la presenza di regole “non sufficientemente chiare” sul trattamento dei dati personali dei soggetti interessati dalla sua attività e soprattutto “norme interne che sembrano ampliare il ruolo e la portata dell’Agenzia come autorità di contrasto”.

    Il Garante si riferisce a quelle categorie speciali come “i dati sanitari delle persone, i dati che rivelano l’origine razziale o etnica, i dati genetici” che vengono raccolti in seguito all’identificazione di persone potenzialmente coinvolte in reati transfrontalieri. Ma quel tipo di attività di contrasto non rientra nel mandato di Frontex come guardia di frontiera ma ricade eventualmente nelle competenze di un corpo di polizia i cui possibili abusi sarebbero comunque impugnabili davanti a un giudice nazionale o europeo. Quindi, conclude il Garante, il trattamento di questi dati dovrebbe essere protetto con “specifiche garanzie per evitare pratiche discriminatorie”.

    Ma secondo Chris Jones, direttore esecutivo del gruppo di ricerca indipendente Statewatch, il problema è a monte. Sono le stesse istituzioni europee a incaricare queste due agenzie di svolgere attività di sorveglianza. “Frontex ed Europol hanno sempre più poteri e maggior peso nella definizione delle priorità per lo sviluppo di nuove tecnologie di sicurezza e sorveglianza”, spiega. Un peso che ha portato, per esempio, a finanziare all’interno del piano strategico Horizon Europe 2020, che delinea il programma dell’Ue per la ricerca e l’innovazione dal 2021 al 2024, il progetto “Secure societies”. Grazie a un portafoglio di quasi 1,7 miliardi di euro è stata commissionata, tra gli altri, la ricerca “ITFlows” che ha come obiettivo quello di prevedere, attraverso l’utilizzo di strumenti di intelligenza artificiale, i flussi migratori. Il sistema predittivo, simile a quello descritto da Berthélémy, è basato su un modello per il quale, con una serie di informazioni storiche raccolte su un certo fenomeno, sarebbe possibile anticipare sugli eventi futuri.

    “Se i dati sono cattivi, la decisione sarà cattiva. Se la raccolta dei dati è viziata dal pregiudizio e dal razzismo, lo sarà anche il risultato finale” – Chris Jones

    “Se le mie previsioni mi dicono che arriveranno molte persone in un determinato confine, concentrerò maggiormente la mia sorveglianza su quella frontiera e potrò più facilmente respingerli”, osserva Yasha Maccanico, ricercatore di Statewatch. Sempre nell’ambito di “Secure societies” il progetto “iBorderCtrl” riguarda invece famigerati “rilevatori di bugie” pseudoscientifici che dedurrebbe lo stato emotivo, le intenzioni o lo stato mentale di una persona in base ai suoi dati biometrici. L’obiettivo è utilizzare questi strumenti per valutare la credibilità dei racconti dei richiedenti asilo nelle procedure di valutazione delle loro richieste di protezione. E in questo quadro sono fondamentali i dati su cui si basano queste predizioni: “Se i dati sono cattivi, la decisione sarà cattiva -continua Jones-. Se la raccolta dei dati è viziata dal pregiudizio e dal razzismo, lo sarà anche il risultato finale”. Per questi motivi AccessNow, che si occupa di tutela dei diritti umani nella sfera digitale, ha scritto una lettera (firmata anche da Edri e Statewatch) a fine settembre 2022 ai membri del consorzio ITFlows per chiedere di terminare lo sviluppo di questi sistemi.

    Anche sul tema dei migranti il legislatore europeo tenta di creare, come per Europol, una scappatoia per attuare politiche di per sé illegali. Nell’aprile 2021 la Commissione europea ha proposto un testo per regolamentare l’utilizzo dell’intelligenza artificiale e degli strumenti basati su di essa (sistemi di videosorveglianza, identificazione biometrica e così via) escludendo però l’applicazione delle tutele previste nei confronti dei cittadini che provengono da Paesi terzi. “Rispetto ai sistemi di intelligenza artificiale quello che conta è il contesto e il fine con cui vengono utilizzati. Individuare la presenza di un essere umano al buio può essere positivo ma se questo sistema è applicato a un confine per ‘respingere’ la persona diventa uno strumento che favorisce la lesione di un diritto fondamentale -spiega Caterina Rodelli analista politica di AccessNow-. Si punta a creare due regimi differenti in cui i diritti dei cittadini di Paesi terzi non sono tutelati come quelli degli europei: non per motivi ‘tecnici’ ma politici”. Gli effetti di scarse tutele per gli uni, i migranti, ricadono però su tutti. “Per un motivo molto semplice. L’Ue, a differenza degli Usa, prevede espressamente il diritto alla tutela della vita privata nelle sue Carte fondamentali -conclude De Capitani-. Protezione che nasce dalle più o meno recenti dittature che hanno vissuto gli Stati membri: l’assunto è che chi è o si ‘sente’ controllato non è libero. Basta questo per capire perché sottende l’adozione di politiche ‘predittive’ e la riforma di Europol o lo strapotere di Frontex, stiano diventando un problema di tutti perché rischiano di violare la Carta dei diritti fondamentali”.

    https://altreconomia.it/sorvegliare-in-nome-della-sicurezza-le-agenzie-ue-vogliono-carta-bianca
    #surveillance #biométrie #AI #intelligence_artificielle #migrations #réfugiés #Etat_de_droit #données #protection_des_données #règlement #identification #police_prédictive #algorythme #base_de_données #Advanced_passenger_information (#Api) #avion #transport_aérien #Secure_societies #ITFlows #iBorderCtrl #asile #

    • New Europol rules massively expand police powers and reduce rights protections

      The new rules governing Europol, which came into force at the end of June, massively expand the tasks and powers of the EU’s policing agency whilst reducing external scrutiny of its data processing operations and rights protections for individuals, says a report published today by Statewatch.

      Given Europol’s role as a ‘hub’ for information processing and exchange between EU member states and other entities, the new rules thus increase the powers of all police forces and other agencies that cooperate with Europol, argues the report, Empowering the police, removing protections (https://www.statewatch.org/publications/reports-and-books/empowering-the-police-removing-protections-the-new-europol-regulation).

      New tasks granted to Europol include supporting the EU’s network of police “special intervention units” and managing a cooperation platform for coordinating joint police operations, known as EMPACT. However, it is the rules governing the processing and exchange of data that have seen the most significant changes.

      Europol is now allowed to process vast quantities of data transferred to it by member states on people who may be entirely innocent and have no link whatsoever to any criminal activity, a move that legalises a previously-illegal activity for which Europol was admonished by the European Data Protection Supervisor.

      The agency can now process “investigative data” which, as long it relates to “a specific criminal investigation”, could cover anyone, anywhere, and has been granted the power to conduct “research and innovation” projects. These will be geared towards the use of big data, machine learning and ‘artificial intelligence’ techniques, for which it can process sensitive data such as genetic data or ethnic background.

      Europol can now also use data received from non-EU states to enter “information alerts” in the Schengen Information System database and provide “third-country sourced biometric data” to national police forces, increasing the likelihood of data obtained in violation of human rights being ‘laundered’ in European policing and raising the possibility of third states using Europol as a conduit to harass political opponents and dissidents.

      The new rules substantially loosen restrictions on international data transfers, allowing the agency’s management board to authorise transfers of personal data to third states and international organisations without a legal agreement in place – whilst priority states for international cooperation include dictatorships and authoritarian states such as Algeria, Egypt, Turkey and Morocco.

      At the same time, independent external oversight of the agency’s data processing has been substantially reduced. The threshold for referring new data processing activities to the European Data Protection Supervisor (EDPS) for external scrutiny has been raised, and if Europol decides that new data processing operations “are particularly urgent and necessary to prevent and combat an immediate threat,” it can simply consult the EDPS and then start processing data without waiting for a response.

      The agency is now required to employ a Fundamental Rights Officer (FRO), but the role clearly lacks independence: the FRO will be appointed by the Management Board “upon a proposal of the Executive Director,” and “shall report directly to the Executive Director”.

      Chris Jones, Director of Statewatch, said:

      “The proposals to increase Europol’s powers were published six months after the Black Lives Matter movement erupted across the world, calling for new ways to ensure public safety that looked beyond the failed, traditional model of policing.

      With the new rules agreed in June, the EU has decided to reinforce that model, encouraging Europol and the member states to hoover up vast quantities of data, develop ‘artificial intelligence’ technologies to examine it, and increase cooperation with states with appalling human rights records.”

      Yasha Maccanico, a Researcher at Statewatch, said:

      “Europol has landed itself in hot water with the European Data Protection Supervisor three times in the last year for breaking data protection rules – yet the EU’s legislators have decided to reduce the EDPS’ supervisory powers. Independent, critical scrutiny and oversight of the EU’s policing agency has never been more needed.”

      The report (https://www.statewatch.org/publications/reports-and-books/empowering-the-police-removing-protections-the-new-europol-regulation) has been published alongside an interactive ’map’ of EU agencies and ’interoperable’ policing and migration databases (https://www.statewatch.org/eu-agencies-and-interoperable-databases), designed to aid understanding and further research on the data architecture in the EU’s area of freedom, security and justice.

      https://www.statewatch.org/news/2022/november/new-europol-rules-massively-expand-police-powers-and-reduce-rights-prote
      #interopérabilité #carte #visualisation

    • EU agencies and interoperable databases

      This map provides a visual representation of, and information on, the data architecture in the European Union’s “area of freedom, security and justice”. It shows the EU’s large-scale databases, networked information systems (those that are part of the ’Prüm’ network), EU agencies, national authorities and international organisations (namely Interpol) that have a role in that architecture. It is intended to facilitate understanding and further investigation into that architecture and the agencies and activities associated with it.

      https://www.statewatch.org/eu-agencies-and-interoperable-databases
      #réseau #prüm_II

  • #doctolib joue sur les mots : rien d’illégal dans sa pratique de sécurisation des données puisque « ce n’est pas à strictement parler du chiffrement de bout en bout mais cela peut l’être en termes de communication ».

    ENQUETE. Doctolib : certaines données médicales ne sont pas entièrement protégées
    https://www.francetvinfo.fr/internet/securite-sur-internet/enquete-doctolib-certaines-donnees-medicales-ne-sont-pas-entierement-pr

    « On a reçu de Doctolib les données en clair sur vos prochains rendez-vous. On ne les a pas reçues chiffrées, explique Benjamin Sonntag. Donc cela veut dire que Doctolib lui-même a ces informations en clair. » Or ces rendez-vous médicaux sont signifiants et renseignent sur l’état de santé d’une personne. « Si vous allez régulièrement chez un oncologue ou chez un psychologue, cela raconte quelque chose sur votre état de santé », poursuit Benjamin Sonntag.

    #protection_des_données #santé_privatisée #RGPD #chiffrement

    Voir aussi : https://seenthis.net/messages/954868

  • Жильбер гилбс sut Twitter

    Depuis hier, #TousAntiCovid permet de convertir le #Pass_Sanitaire français 2D-DOC vers le format européen DCC. Problème : au moment de la conversion, l’intégralité des données du pass transitent par un prestataire américain, Akamai.

    L’application TousAntiCovid qui devait être complètement anonyme finit donc par intégrer un wallet nominatif des pass sanitaires, puis par transmettre les données de ce wallet à une société tierce (déjà dénoncée) qui les fait transiter par un intermédiaire américain.

    Tout ça utilise la même API d’IN Groupe que lors de mon thread initial sur TousAntiCovid Verif : https://twitter.com/gilbsgilbs/status/1401128591153373186 . La terminaison TLS se fait toujours chez l’américain Akamai, société soumise au #Cloud_Act. Seuls des serveurs géolocalisés en UE semblent répondre désormais.

    Ils sortent ça alors qu’ils sont parfaitement au courant du problème et considèrent même que c’est un risque de gravité importante dans leur AIPD : https://twitter.com/cryptosaurus6/status/1410695579458547712 . De là à dire qu’ils se moquent de nos données personnelles, il n’y a qu’un pas.

    Un ticket a été ouvert sur le GitLab de l’application TousAntiCovid concernant cette fuite de données : https://gitlab.inria.fr/stopcovid19/stopcovid-android/-/issues/76 .

    https://twitter.com/gilbsgilbs/status/1410948608841576449

    #StopCovid #vie_privée #protection_des_données #secret_médical

  • Doctolib, la plateforme de réservation de médecins, a envoyé des données à Facebook et Outbrain, violant ainsi le secret médical
    https://www.developpez.com/actu/316232/Doctolib-la-plateforme-de-reservation-de-medecins-a-envoye-des-donnees-a

    ...et histoire de faire la totale :

    Début juin, Doctolib a reçu le « Big Brother Award » négatif de l’association de protection des données Digitalcourage.

    et

    Enfin, Doctolib a également été épinglé fin 2020 à l’occasion de la conférence rC3 du Chaos Computer Club. Un chercheur en sécurité avait trouvé une faille permettant d’accéder aux données de plus de 150 millions de rendez-vous.

    #doctolib #vie_privée #protection_des_données

  • Geneva Human Rights Talks

    Les Geneva Human Rights Talks (GHRT) ouvriront la Semaine des droits humains en portant le regard sur différents aspects du respect de la dignité humaine : les données personnelles, le racisme institutionnel, la discrimination ethnique, et la question des prisonniers politiques.

    Les récits et témoignages des quatre personnalités invitées lors de cet événement interactif illustreront différents combats qui nécessitent encore et toujours un engagement sans faille.

    #Protection_des_données personnelles, un combat inégal et perdu d’avance ? (En français)
    Intervenant dans le documentaire The Great Hack de Netflix, #Paul_Olivier_Dehaye s’est distingué par son enquête sur la firme d’analyse de données #Cambridge_Analytica. Aujourd’hui, il est le fondateur de l’association #PersonalData.IO, œuvrant à rendre les #droits_à_la_protection_des_données effectifs et collectivement utiles.
    –-> il parle notamment de #algocratie

    Le #racisme_institutionnel, défis de nos sociétés ? (En français), à partir de 1:22:15


    #Rokhaya_Diallo est une journaliste française, autrice et réalisatrice reconnue pour son travail contre la discrimination raciale, de genre et religieuse. Elle a animé et co-écrit des émissions télévisées et a réalisé plusieurs documentaires. Elle est aussi active dans le domaine littéraire, s’exprimant à travers différentes créations. Elle est selon le New York Times « une des activistes anti-racistes les plus importantes en France ».

    Violation des droits de l’homme ou prévention du #séparatisme ? (In english)
    #Jewher_Ilham est la fille d’#Ilham_Tohti, un professeur qui s’est investi dans la lutte contre les discriminations et violations commises envers les #ouïghours, minorité ethnique en #Chine. Jewher Ilham témoignera de l’arrestation de son père, de ses efforts constants pour le libérer et de son engagement à faire en sorte que les minorités voient leurs droits préservés en Chine. Elle parlera également des #camps_de_rééducation du #Xinjiang et de ses suggestions pour prévenir les violations des droits humains qui s’y déroulent.

    #Prisonniers_politiques, criminels ou témoins de violations cachées des #droits_humains ? (En français)
    #Lakhdar_Boumediene était responsable humanitaire pour le Croissant-Rouge quand il a été emprisonné en 2002 à #Guantanamo pour des raisons politiques. En 2008, suite à sa demande, la Cour Suprême des États-Unis a reconnu le droit des détenus de Guantanamo de contester judiciairement la légalité de leur détention, indépendamment de leur nationalité. Il a ainsi été déclaré innocent et libéré en 2009. Depuis, il vit en France avec sa famille et il dénonce les traitements injustes et inhumains subis durant sa #détention ainsi que le phénomène des prisonniers politiques.

    https://www.unige.ch/cite/evenements/semaine-des-droits-humains/sdh2020/geneva-humain-rights-talk

    #vidéo

    ping @karine4 @isskein

  • Perché l’università delle piattaforme è la fine dell’università

    Un gruppo di docenti di alcune università italiane ha scritto una lettera aperta sulle conseguenze dell’uso di piattaforme digitali proprietarie nella didattica a distanza. Auspichiamo che si apra al più presto una discussione sul futuro dell’educazione e che gli investimenti di cui si discute in queste settimane vengano utilizzati per la creazione di un’infrastruttura digitale pubblica per scuole e università.

    Care colleghe e cari colleghi, care studentesse e cari studenti,

    come certamente sapete, le scuole e le università italiane, da quando è iniziata l’emergenza COVID, per ragioni inizialmente comprensibili, si sono affidate per la gestione della didattica a distanza (esami inclusi) a piattaforme e strumenti proprietari, appartenenti, perlopiù, alla galassia cosiddetta “GAFAM” (Google, Apple, Facebook, Microsoft e Amazon: https://gafam.info). Esistono poche eccezioni, come il Politecnico di Torino, che ha adottato soluzioni non-proprietarie (https://www.coronavirus.polito.it/didattica_online/supporto_tecnico_alla_didattica_online/linee_guida_e_vademecum_tecnici) e autoprodotte. Tuttavia, il 16 luglio 2020 la Corte di Giustizia Europea ha emanato una sentenza (https://www.garanteprivacy.it/documents/10160/0/FAQ+dell%27EDPB+sulla+sentenza+della+Corte+di+giustizia+dell%27Unione+europea+nella+causa+C-311_18.pdf/d2f928b2-ab57-ae7c-8f17-390664610d2c?version=3.0) molto importante, dove, in sintesi, si afferma che le imprese statunitensi non garantiscono la privacy degli utenti secondo il regolamento europeo sulla protezioni dei dati, conosciuto come #GDPR (#General_Data_Protection_Regulation: https://gdpr.eu/what-is-gdpr). Dunque allo stato tutti i trasferimenti di dati da UE a Stati Uniti devono essere considerati non conformi alla direttiva europea e perciò illegittimi.

    Sul tema è in corso un dibattito a livello comunitario e il Garante Europeo ha esplicitamente invitato “istituzioni, uffici, agenzie e organi dell’Unione europea a evitare trasferimenti di dati personali verso gli Stati Uniti per nuove operazioni di trattamento o in caso di nuovi contratti con fornitori di servizi” (https://www.key4biz.it/il-garante-privacy-europeo-non-usare-i-cloud-provider-usa-conformarsi-alla-sentenza-schrems-ii/328472). Mentre il garante irlandese ha direttamente vietato (https://www.politico.eu/article/facebook-privacy-data-us) i trasferimenti dei dati degli utenti Facebook verso gli Stati Uniti. Alcuni studi (http://copyrightblog.kluweriplaw.com/2020/06/04/emergency-remote-teaching-a-study-of-copyright-and-data-p) infine sottolineano come la maggioranza della piattaforme commerciali usate durante la “didattica emergenziale” (in primis G-Suite: https://www.agendadigitale.eu/scuola-digitale/liberiamo-la-scuola-dai-servizi-cloud-usa-lettera-aperta-ai-presidi) pongano seri problemi legali e documentano una “sistematica violazione dei principi di trasparenza.”

    In questa difficile situazione, varie organizzazioni, tra cui (come diremo sotto) alcuni docenti universitari, stanno cercando di sensibilizzare scuole e università italiane ad adeguarsi alla sentenza, nell’interesse non solo di docenti e studenti, che hanno il diritto di studiare, insegnare e discutere senza essere sorvegliati (https://www.vox.com/recode/2020/5/4/21241062/schools-cheating-proctorio-artificial-intelligence), profilati e schedati, ma delle istituzioni stesse. I rischi legati a una didattica appaltata a multinazionali che fanno dei nostri dati ciò che vogliono non sono, infatti, solo economici e culturali, ma anche legali: chiunque, in questa situazione, potrebbe sporgere reclamo al garante della privacy a danno dell’istituzione in cui ci troviamo a lavorare.

    La questione va però al di là del diritto alla privatezza nostra e dei nostri studenti. Nella rinnovata emergenza COVID sappiamo che vi sono enormi interessi economici (https://www.roars.it/online/dematerializzazioni-algoritmi-e-profitti) in ballo e che le piattaforme digitali, che in questi mesi hanno moltiplicato i loro fatturati (si veda lo studio (https://www.mbres.it/sites/default/files/resources/rs_WebSoft2020_presentazione.pdf) pubblicato a ottobre da Mediobanca), hanno la forza e il potere per plasmare il futuro dell’educazione in tutto il mondo. Un esempio è quello che sta accadendo nella scuola con il progetto nazionale “#Smart_Class” (https://www.istruzione.it/pon), finanziato con fondi UE dal Ministero dell’Istruzione. Si tratta di un pacchetto preconfezionato di “didattica integrata” (https://www.youtube.com/watch?v=vPPhUL8MIPs&feature=youtu.be

    ) dove i contenuti (di tutte le materie) li mette Pearson, il software Google e l’hardware è Acer-Chrome Book. (Per inciso, Pearson è il secondo editore al mondo (https://www.publishersweekly.com/binary-data/Global502019.pdf), con un fatturato di oltre 4 miliardi e mezzo di euro nel 2018.) E per le scuole che aderiscono non è possibile acquistare altri prodotti…

    Infine, sebbene possa apparirci fantascienza, oltre a stabilizzare la teledidattica proprietaria (https://www.roars.it/online/teledidattica-proprietaria-e-privata-o-libera-e-pubblica) come “offerta”, si parla già (https://www.forbes.com/sites/forbestechcouncil/2020/06/08/artificial-intelligence-in-education-transformation) di intelligenze artificiali che “affiancheranno” i docenti nel loro lavoro.

    Per tutte queste ragioni un gruppo di docenti di varie università italiane ha deciso di reagire.

    La loro e nostra iniziativa non è al momento finalizzata a presentare un reclamo immediato al garante, ma ad evitarlo, permettendo a docenti e studenti di creare spazi di discussione e indurre a rettificare scelte che coinvolgono la loro libertà d’insegnamento e il loro diritto allo studio. Solo se la risposta istituzionale sarà insufficiente o assente, ricorreremo, come extrema ratio, al reclamo al garante della privacy. In tal caso il primo passo sarà sfruttare la “falla” aperta dalla sentenza della corte UE per spingere il garante italiano a intervenire (invero lo aveva già fatto #Antonello_Soro (https://www.key4biz.it/soro-al-parlamento-infrastruttura-cloud-pubblica-non-piu-eludibile-per-lindipendenza-dai-poteri-privati/311412), ma è rimasto inascoltato). Lo scopo di queste azioni non è certamente quello di “bloccare” le piattaforme che erogano la didattica a distanza e chi le usa, ma spingere il governo a investire finalmente nella creazione di un’infrastruttura pubblica e basata su software libero (https://www.agendadigitale.eu/sicurezza/leuropa-post-privacy-shield-e-lopen-source-la-via-per-uscire-dal-colo) per la comunicazione scientifica e didattica. Esistono vari modelli (vedi quello proposto qui: https://infolet.it/files/2020/11/FACSIMILE-MODULO-DOCENTI-PRIVACY_pdf.pdf) ai quali ispirarsi, per esempio in Francia (http://apps.education.fr), ma anche in Spagna (https://cedec.intef.es/proyecto-edia), ecc. e la stessa UNESCO nel 2019 ha approvato una Raccomandazione (https://en.unesco.org/news/new-unesco-recommendation-will-promote-access-educational-resources-all) per l’uso di risorse e strumenti aperti in ambito educativo.

    Come dicevamo sopra, prima di arrivare al garante nazionale è necessario una tappa preliminare. Ciascuno deve scrivere al responsabile del trattamento dati richiedendo alcune informazioni (qui il fac-simile di modulo per docenti che abbiamo preparato: https://infolet.it/files/2020/11/FACSIMILE-MODULO-DOCENTI-PRIVACY_pdf.pdf). Se non si riceverà risposta entro trenta giorni, o se la risposta è considerata insoddisfacente, si potrà procedere col reclamo al garante nazionale. A quel punto, il discorso cambierà, perché il reclamo al garante potrà essere fatto non solo da singoli, ma da gruppi o associazioni. È importante sottolineare che, anche in questo evitabile scenario, la domanda al responsabile del trattamento dati non può essere assolutamente interpretata come una “protesta” contro il proprio ateneo, ma come un tentativo di renderlo, per tutti e tutte, un ambiente di lavoro e di studi migliore, adeguandosi alle norme europee.

    https://infolet.it/2020/11/10/perche-luniversita-delle-piattaforme-e-la-fine-delluniversita

    #université #enseignement_à_distance #gafa #vie_privée #protection_des_données #business #GAFAM #cour_de_justice_européenne #CJUE #enseignement #ESR #distanciel

    ping @etraces

    • Why basing universities on digital platforms will lead to their demise
      (All links removed. They can be found in the original post – English Translation by Desmond Schmidt)

      A group of professors from Italian universities have written an open letter on the consequences of using proprietary digital platforms in distance learning. They hope that a discussion on the future of education will begin as soon as possible and that the investments discussed in recent weeks will be used to create a public digital infrastructure for schools and universities.

      Dear colleagues and students,

      as you already know, since the COVID-19 emergency began, Italian schools and universities have relied on proprietary platforms and tools for distance learning (including exams), which are mostly produced by the “GAFAM” group of companies (Google, Apple, Facebook, Microsoft and Amazon). There are a few exceptions, such as the Politecnico di Torino, which has adopted instead its own custom-built solutions. However, on July 16, 2020 the European Court of Justice issued a very important ruling, which essentially says that US companies do not guarantee user privacy in accordance with the European General Data Protection Regulation (GDPR). As a result, all data transfers from the EU to the United States must be regarded as non-compliant with this regulation, and are therefore illegal.

      A debate on this issue is currently underway in the EU, and the European Authority has explicitly invited “institutions, offices, agencies and organizations of the European Union to avoid transfers of personal data to the United States for new procedures or when securing new contracts with service providers.” In fact the Irish Authority has explicitly banned the transfer of Facebook user data to the United States. Finally, some studies underline how the majority of commercial platforms used during the “educational emergency” (primarily G-Suite) pose serious legal problems and represent a “systematic violation of the principles of transparency.”

      In this difficult situation, various organizations, including (as stated below) some university professors, are trying to help Italian schools and universities comply with the ruling. They do so in the interests not only of the institutions themselves, but also of teachers and students, who have the right to study, teach and discuss without being surveilled, profiled and catalogued. The inherent risks in outsourcing teaching to multinational companies, who can do as they please with our data, are not only cultural or economic, but also legal: anyone, in this situation, could complain to the privacy authority to the detriment of the institution for which they are working.

      However, the question goes beyond our own right, or that of our students, to privacy. In the renewed COVID emergency we know that there are enormous economic interests at stake, and the digital platforms, which in recent months have increased their turnover (see the study published in October by Mediobanca), now have the power to shape the future of education around the world. An example is what is happening in Italian schools with the national “Smart Class” project, financed with EU funds by the Ministry of Education. This is a package of “integrated teaching” where Pearson contributes the content for all the subjects, Google provides the software, and the hardware is the Acer Chromebook. (Incidentally, Pearson is the second largest publisher in the world, with a turnover of more than 4.5 billion euros in 2018.) And for the schools that join, it is not possible to buy other products.

      Finally, although it may seem like science fiction, in addition to stabilizing proprietary distance learning as an “offer”, there is already talk of using artificial intelligence to “support” teachers in their work.

      For all these reasons, a group of professors from various Italian universities decided to take action. Our initiative is not currently aimed at presenting an immediate complaint to the data protection officer, but at avoiding it, by allowing teachers and students to create spaces for discussion and encourage them to make choices that combine their freedom of teaching with their right to study. Only if the institutional response is insufficient or absent, we will register, as a last resort, a complaint to the national privacy authority. In this case the first step will be to exploit the “flaw” opened by the EU court ruling to push the Italian privacy authority to intervene (indeed, the former President, Antonello Soro, had already done so, but received no response). The purpose of these actions is certainly not to “block” the platforms that provide distance learning and those who use them, but to push the government to finally invest in the creation of a public infrastructure based on free software for scientific communication and teaching (on the model of what is proposed here and
      which is already a reality for example in France, Spain and other European countries).

      As we said above, before appealing to the national authority, a preliminary stage is necessary. Everyone must write to the data protection officer (DPO) requesting some information (attached here is the facsimile of the form for teachers we have prepared). If no response is received within thirty days, or if the response is considered unsatisfactory, we can proceed with the complaint to the national authority. At that point, the conversation will change, because the complaint to the national authority can be made not only by individuals, but also by groups or associations. It is important to emphasize that, even in this avoidable scenario, the question to the data controller is not necessarily a “protest” against the institution, but an attempt to turn it into a better working and study environment for everyone, conforming to European standards.

      https://theoreti.ca/?p=7684

  • Machine-Readable Refugees

    Hassan (not his real name; other details have also been changed) paused mid-story to take out his wallet and show me his ID card. Its edges were frayed. The grainy, black-and-white photo was of a gawky teenager. He ran his thumb over the words at the top: ‘Jamhuri ya Kenya/Republic of Kenya’. ‘Somehow,’ he said, ‘no one has found out that I am registered as a Kenyan.’

    He was born in the Kenyan town of Mandera, on the country’s borders with Somalia and Ethiopia, and grew up with relatives who had escaped the Somali civil war in the early 1990s. When his aunt, who fled Mogadishu, applied for refugee resettlement through the United Nations High Commissioner for Refugees, she listed Hassan as one of her sons – a description which, if understood outside the confines of biological kinship, accurately reflected their relationship.

    They were among the lucky few to pass through the competitive and labyrinthine resettlement process for Somalis and, in 2005, Hassan – by then a young adult – was relocated to Minnesota. It would be several years before US Citizenship and Immigration Services introduced DNA tests to assess the veracity of East African refugee petitions. The adoption of genetic testing by Denmark, France and the US, among others, has narrowed the ways in which family relationships can be defined, while giving the resettlement process the air of an impartial audit culture.

    In recent years, biometrics (the application of statistical methods to biological data, such as fingerprints or DNA) have been hailed as a solution to the elusive problem of identity fraud. Many governments and international agencies, including the UNHCR, see biometric identifiers and centralised databases as ways to determine the authenticity of people’s claims to refugee and citizenship status, to ensure that no one is passing as someone or something they’re not. But biometrics can be a blunt instrument, while the term ‘fraud’ is too absolute to describe a situation like Hassan’s.

    Biometrics infiltrated the humanitarian sector after 9/11. The US and EU were already building centralised fingerprint registries for the purposes of border control. But with the start of the War on Terror, biometric fever peaked, most evidently at the borders between nations, where the images of the terrorist and the migrant were blurred. A few weeks after the attacks, the UNHCR was advocating the collection and sharing of biometric data from refugees and asylum seekers. A year later, it was experimenting with iris scans along the Afghanistan/Pakistan frontier. On the insistence of the US, its top donor, the agency developed a standardised biometric enrolment system, now in use in more than fifty countries worldwide. By 2006, UNHCR agents were taking fingerprints in Kenya’s refugee camps, beginning with both index fingers and later expanding to all ten digits and both eyes.

    Reeling from 9/11, the US and its allies saw biometrics as a way to root out the new faceless enemy. At the same time, for humanitarian workers on the ground, it was an apparently simple answer to an intractable problem: how to identify a ‘genuine’ refugee. Those claiming refugee status could be crossed-checked against a host country’s citizenship records. Officials could detect refugees who tried to register under more than one name in order to get additional aid. Biometric technologies were laden with promises: improved accountability, increased efficiency, greater objectivity, an end to the heavy-handed tactics of herding people around and keeping them under surveillance.

    When refugees relinquish their fingerprints in return for aid, they don’t know how traces of themselves can travel through an invisible digital architecture. A centralised biometric infrastructure enables opaque, automated data-sharing with third parties. Human rights advocates worry about sensitive identifying information falling into thehands of governments or security agencies. According to a recent privacy-impact report, the UNHCR shares biometric data with the Department of Homeland Security when referring refugees for resettlement in the US. ‘The very nature of digitalised refugee data,’ as the political scientist Katja Jacobsen says, ‘means that it might also become accessible to other actors beyond the UNHCR’s own biometric identity management system.’

    Navigating a complex landscape of interstate sovereignty, caught between host and donor countries, refugee aid organisations often hold contradictory, inconsistent views on data protection. UNHCR officials have long been hesitant about sharing information with the Kenyan state, for instance. Their reservations are grounded in concerns that ‘confidential asylum-seeker data could be used for non-protection-related purposes’. Kenya has a poor record of refugee protection. Its security forces have a history of harassing Somalis, whether refugees or Kenyan citizens, who are widely mistrusted as ‘foreigners’.

    Such well-founded concerns did not deter the UNHCR from sharing data with, funding and training Kenya’s Department of Refugee Affairs (now the Refugee Affairs Secretariat), which since 2011 has slowly and unevenly taken over refugee registration in the country. The UNHCR hasconducted joint verification exercises with the Kenyan government to weed out cases of double registration. According to the anthropologist Claire Walkey, these efforts were ‘part of the externalisation of European asylum policy ... and general burden shifting to the Global South’, where more than 80 per cent of the world’s refugees live. Biometrics collected for protection purposes have been used by the Kenyan government to keep people out. Tens of thousands of ethnic Somali Kenyan citizens who have tried to get a Kenyan national ID have been turned away in recent years because their fingerprints are in the state’s refugee database.

    Over the last decade, biometrics have become part of the global development agenda, allegedly a panacea for a range of problems. One of the UN’s Sustainable Development Goals is to provide everyone with a legal identity by 2030. Governments, multinational tech companies and international bodies from the World Bank to the World Food Programme have been promoting the use of digital identity systems. Across the Global South, biometric identifiers are increasingly linked to voting, aid distribution, refugee management and financial services. Countries with some of the least robust privacy laws and most vulnerable populations are now laboratories for experimental tech.

    Biometric identifiers promise to tie legal status directly to the body. They offer seductively easy solutions to the problems of administering large populations. But it is worth asking what (and who) gets lost when countries and international bodies turn to data-driven, automated solutions. Administrative failures, data gaps and clunky analogue systems had posed huge challenges for people at the mercy of dispassionate bureaucracies, but also provided others with room for manoeuvre.

    Biometrics may close the gap between an ID and its holder, but it opens a gulf between streamlined bureaucracies and people’s messy lives, their constrained choices, their survival strategies, their hopes for a better future, none of which can be captured on a digital scanner or encoded into a database.

    https://www.lrb.co.uk/blog/2020/september/machine-readable-refugees
    #biométrie #identité #réfugiés #citoyenneté #asile #migrations #ADN #tests_ADN #tests_génétiques #génétique #nationalité #famille #base_de_donnée #database #HCR #UNHCR #fraude #frontières #contrôles_frontaliers #iris #technologie #contrôle #réinstallation #protection_des_données #empreintes_digitales #identité_digitale

    ping @etraces @karine4
    via @isskein

  • La #Suisse sous couverture - Agents infiltrés (1/5)

    En 1955, les #services_de_renseignement américains et l’entreprise suisse #Crypto_AG concluent un accord confidentiel qui permettra l’#espionnage des communications de 130 pays. Durant des décennies, un pan de l’industrie helvétique sera impliqué dans ces activités, malgré la « #neutralité » du pays et avec la bénédiction du Conseil fédéral.

    https://www.rts.ch/play/tv/la-suisse-sous-couverture/video/la-suisse-sous-couverture-agents-infiltres-15?id=10868165

    #histoire #USA #guerre_froide #Crypto #William_Friedman #cryptographie #technologie #espions #renseignements #Boris_Hagelin #neutralité #espionnage #affaire_Buehler #Hans_Buehler #Nora_Makabee #BND #Siemens #Loèches #Valais

    ping @simplicissimus @etraces

    • La Suisse sous couverture - Les grandes oreilles de la Confédération (2/5)

      A #Loèche, #Swisscom, le Département fédéral de la défense et des entreprises privées proches de la #National_Security_Agency (#NSA) gèrent un parc d’antennes pour les communications satellitaires entre la Suisse et l’étranger. En l’an 2000, ce site stratégique devient la porte d’entrée privilégiée de Washington pour espionner les communications dans le monde entier.

      https://www.rts.ch/play/tv/la-suisse-sous-couverture/video/la-suisse-sous-couverture-les-grandes-oreilles-de-la-confederation-25-?id=108681
      #neutralité #télécommunication #satellites #ONYX #services_de_renseignement #USA #Etats-Unis #Jean-Paul_Rouiller #signalhorn #Treasure_Map serveurs_clandestins #déni

    • La Suisse sous couverture - #Genève, nid d’espions (3/5)

      Des salons de l’#ONU truffés de micros, des antennes camouflées dans les missions diplomatiques et des agents russes ou américains infiltrés partout... A Genève, où Edward Snowden travaillait pour la #CIA, le petit monde du renseignement grenouille discrètement et les espions chassent en meute.

      https://www.rts.ch/play/tv/la-suisse-sous-couverture/video/la-suisse-sous-couverture-geneve-nid-despions-35?id=10868210
      #Snowden #Nations_Unies #Special_collection_service (#SCS) #organisations_internationales #système_d'écoute #site_C #Wiesbaden #Fort_Meade #NSA #Russie

    • La Suisse sous couverture - Le secret bunker suisse (4/5)

      Nos données numériques personnelles sont une mine d’or d’informations qu’il faut protéger des regards indiscrets. En Suisse, une législation déficiente – elle date de 1992 – permet à des puissances étrangères d’accéder à ces données. Dans le dossier du « big data », c’est la souveraineté de la Confédération qui est en jeu.

      https://www.rts.ch/play/tv/la-suisse-sous-couverture/video/la-suisse-sous-couverture-le-secret-bunker-suisse-45?id=10868236

      #big_data #données_numériques #coffre-fort_numérique #réduit_national_4.0 #stockage #RGPD #protection_des_données #cloud_act

    • La Suisse sous couverture - Crypto révolution (5/5)

      D’un côté, Google et consorts contrôlent les canaux et le stockage de l’information. De l’autre, une puissante mouvance de hackers tente de rendre cette information publique, en piratant des systèmes informatiques. L’enjeu de cette guerre ? La défense de libertés fondamentales, aussi bien sur internet que dans la société.

      https://www.rts.ch/play/tv/la-suisse-sous-couverture/video/la-suisse-sous-couverture-crypto-revolution-55?id=10868255

      #activisme #résistance #hackers #Digital_Gesellschaft #droits_humains #chaos_computer #club #surveillance #économie_de_la_surveillance

    • La CIA s’est servie d’une entreprise suisse pour espionner plus de 100 pays

      Une affaire d’espionnage secoue la Suisse : pendant des décennies, les services de renseignement américains et allemands ont secrètement utilisé une entreprise suisse et sa technologie pour espionner de nombreux États. Que savaient les autorités suisses à ce sujet ?

      Vue de l’extérieur, la firme zougoise Crypto AG était une entreprise suisse sérieuse, spécialisée dans la technologie de pointe. Elle fabriquait un produit peu utilisé par la plupart des gens : des appareils de chiffrement. Ses clients étaient des États ainsi que leurs armées et services secrets voulant rendre leurs communications secrètes illisibles, c’est-à-dire les crypter ou les chiffrer.

      Cependant, Crypto AG n’était une entreprise normale et respectant les valeurs ayant cours en Suisse que côté pile. Côté face, elle possédait une structure cryptique – au sens propre – car ses propriétaires agissant dans l’ombre étaient, à partir de 1970, l’agence centrale de renseignement américaine (CIA) et le service de renseignement allemand (BND). Les deux services secrets firent en sorte que la technologie de cryptage « swiss made », réputée infaillible, soit munie d’une porte dérobée.

      Grâce à ces manipulations ciblées, la CIA et le BND ont pu espionner 148 États – ennemis ou alliés – pendant des dizaines d’années. Tous ces pays avait investi des millions pour obtenir la technologie de ce pays neutre et digne de confiance qu’était la Suisse. Autrement dit, ils ont payé eux-mêmes les appareils qui les ont trahis.

      Les faits ont été dévoilés à la mi-février par la télévision suisse alémanique SRF, la chaîne allemande ZDF et le « Washington Post » à l’issue d’une enquête commune. L’équipe de recherche s’est appuyée sur des dossiers de la CIA qu’on lui a fait passer en douce, et sur des entretiens avec d’anciens employés de Crypto AG et leurs proches.

      L’ampleur du « coup du siècle des services secrets » – ce sont les termes de la CIA – paraît énorme. L’affaire met en lumière les tensions de l’époque de la guerre froide. La complicité de la CIA et du BND éclaire d’un nouveau jour bon nombre d’événements historiques de ces 50 dernières années. Jusqu’où faut-il réécrire l’histoire mondiale récente ? Seule une étude approfondie des CryptoLeaks le déterminera. L’histoire suisse doit-elle, elle aussi, être révisée ? C’est la question qui fait tant de vagues aussi en Suisse. On se demande ce que les autorités suisses savaient, et si l’État suisse était au courant des agissements des services de renseignement étrangers sur son sol et les a couverts.
      « Le programme a dépassé les espérances les plus folles »

      Dans quelle mesure les activités d’espionnage de la CIA et du BND, s’appuyant sur la technologie truquée de l’entreprise Crypto AG, ont-elles abouti ? Le succès des espions est toujours un échec pour ceux qui en sont victimes : la réponse dépend donc du point de vue adopté. Celui de la CIA, d’après les sources publiées, est le suivant : « Cela a été le projet d’espionnage à la fois le plus productif et le plus long depuis la Seconde Guerre mondiale. » Ainsi, entre 80 et 90 % des communications secrètes de l’Iran ont pu être déchiffrées. D’après la source de la CIA, « le programme a dépassé les espérances les plus folles de ses inventeurs. »

      Ces écoutes ont permis aux États-Unis d’influencer l’issue de tous les grands conflits ou presque à leur profit. Un exemple : selon l’état actuel des sources, le coup d’État militaire au Chili (1973) a été soutenu par les États-Unis sur la base des écoutes. En même temps, la CIA et le BND ont épié les conversations du régime militaire alors parvenu au pouvoir et n’ont donc jamais rien ignoré des méthodes de persécution et de torture qui coûtèrent la vie à 30 000 opposants au régime.
      Beaucoup de questions, premières réponses

      Les révélations sur Crypto AG font beaucoup de vagues, mais il n’est pas encore possible d’en tirer des conclusions définitives. Les grandes questions qu’elles posent esquissent cependant la portée de l’affaire pour la Suisse.

      Pourquoi la CIA et le BND ont-ils utilisé la couverture discrète d’une entreprise suisse ?

      Crypto AG a été fondée en 1952 par le cryptologue suédois Boris Hagelin. Il n’a pas implanté son entreprise en Suisse par hasard : « Lorsqu’on travaillait dans un domaine aussi sensible que la cryptographie, il valait mieux rechercher la protection d’un pays neutre mais faisant preuve de peu de scrupules moraux », indique la source de la CIA. Boris Hagelin a vendu son entreprise en 1970 à une société-écran de la CIA et du BND.

      Ce sont la CIA et le BND qui se sont livrés à ces activités d’espionnage. Pourquoi l’affaire est-elle perçue en Suisse comme un scandale « suisse » ?

      Du point de vue suisse, il est déterminant de savoir si les autorités du pays connaissaient les intentions, le modus operandi et la portée des activités d’espionnage, et si elles les ont tolérées, voire même favorisées.

      Des employés de Crypto AG soupçonnèrent que des puissances étrangères s’étaient immiscées dans les rouages de leur parfaite technique. Ils en ont informé la justice suisse. Que s’est-il passé ensuite ?

      Il est prouvé qu’au milieu des années 1970, un employé a informé des instances officielles que les appareils vendus étaient « dotés de générateurs de clés manipulés permettant aux services d’espionnage allemands et américains de déchiffrer les messages » : c’est ce que dit une fiche des Archives fédérales du 24 juillet 1977. Le problème est que les dossiers relatifs à cette fiche ont en partie disparu…

      La police fédérale suisse a enquêté sur la base de ces accusations, mais sans résultat. Des témoins de l’époque affirment aujourd’hui que les interrogatoires menés par la police ne l’ont été que « pour la forme »...

      Toute l’affaire ne sent-elle pas un peu le réchauffé de l’époque de la guerre froide ?

      Il est vrai que les premières accusations ont été lancées au milieu des années 1970. Et que Hans Bühler, ancien employé de Crypto, a accusé ouvertement son entreprise de collaborer avec des services secrets étrangers (Hans Bühler, soupçonné d’espionnage, a passé neuf mois dans une geôle iranienne, et a publié ses accusations dans un livre paru en 1994). Mais toute la portée de l’affaire n’éclate au grand jour que maintenant, car des preuves ont été fournies par des sources de la CIA. De plus, les activités d’espionnage ont perduré jusqu’en 2018, soit bien après la fin de la guerre froide. Le BND s’en est toutefois retiré en 1993 déjà, à la suite de la réunification de l’Allemagne.

      Dans l’état actuel des connaissances, que savait le Conseil fédéral de ces activités d’espionnage ?

      C’est une question clé. On ne sait pas encore dans quelle mesure des conseillers fédéraux étaient au courant de ces activités. Les documents de la CIA impliquent l’ancien conseiller fédéral Kaspar Villiger (PLR). Aujourd’hui âgé de 79 ans, ce dernier nie vigoureusement avoir été informé des détails.

      Pourquoi est-ce si important de savoir si le Conseil fédéral était au courant des activités d’espionnage ?

      S’il devait s’avérer que le Conseil fédéral, ou certains conseillers fédéraux, connaissaient ces activités d’espionnage, des questions sérieuses se posent : le gouvernement les a-t-il tolérées ? Ou les a-t-il couvertes ? A-t-il accepté que la neutralité suisse serve de leurre ? Et si la Suisse a été complice, a fermé les yeux ou couvert les faits : comment justifier l’espionnage contre des pays belligérants lorsqu’on affiche une politique de neutralité ?

      Comment le Conseil fédéral et le Parlement réagissent-ils à l’affaire ?

      La présidente de la Confédération, Simonetta Sommaruga, a dit très tôt que le gouvernement allait réunir tous les faits et était favorable à une enquête. La ministre de la Défense Viola Amherd a confirmé que son département abrite des documents laissant penser que son prédécesseur Kaspar Villiger était au courant. Désormais, l’affaire fait l’objet d’une enquête de la Délégation des Commissions de gestion des chambres fédérales. Cet organe de contrôle entend déterminer ce que la Suisse savait de ces activités d’espionnage, et si les renseignements suisses en ont même éventuellement même.

      L’affaire des CryptoLeaks met-elle en péril le rôle actuel de la Suisse ?

      La Suisse joue un rôle d’intermédiaire dans de nombreux conflits. Elle propose même ses « bons offices » dans les régions du monde sous tension. Ainsi, elle joue actuellement le « rôle du facteur » entre les États-Unis et l’Iran. La Suisse ne peut endosser ce rôle diplomatique que si sa crédibilité d’État neutre est intacte. C’est précisément cette crédibilité qui est en jeu maintenant. Ajoutons que l’Iran a été particulièrement touché par l’espionnage permis par la technologie « swiss made » truquée et vendue par le représentant de Crypto, Hans Bühler.

      Ce sont les États-Unis et l’Allemagne qui ont espionné d’autres pays. Pourquoi la réputation de la Suisse en souffrirait-elle ?

      L’avenir dira si la perception extérieure de la Suisse a subi des dommages. Mais la perception intérieure de la Suisse est de toute façon affectée : l’image de pays neutre à laquelle tiennent tant de Suisses est endommagée. L’affaire des CryptoLeaks pourrait jeter un discrédit total sur la neutralité suisse (voir aussi le commentaire de notre invité, p. 15).

      Crédibilité, confiance, image de soi : ce sont des facteurs subjectifs. L’affaire menace-t-elle aussi des intérêts économiques tangibles ?

      La Suisse possède une branche technologique en plein essor, qui dépend aussi de l’image de marque du pays. De plus, la Suisse souhaite se vendre comme une « place numérique propre », et promeut une initiative internationale dans le domaine de l’éthique. L’affaire des #CryptoLeaks tombe très mal.

      https://www.revue.ch/fr/editions/2020/03/detail/news/detail/News/la-cia-sest-servie-dune-entreprise-suisse-pour-espionner-plus-de-100-pays

  • Monitoring being pitched to fight Covid-19 was tested on refugees

    The pandemic has given a boost to controversial data-driven initiatives to track population movements

    In Italy, social media monitoring companies have been scouring Instagram to see who’s breaking the nationwide lockdown. In Israel, the government has made plans to “sift through geolocation data” collected by the Shin Bet intelligence agency and text people who have been in contact with an infected person. And in the UK, the government has asked mobile operators to share phone users’ aggregate location data to “help to predict broadly how the virus might move”.

    These efforts are just the most visible tip of a rapidly evolving industry combining the exploitation of data from the internet and mobile phones and the increasing number of sensors embedded on Earth and in space. Data scientists are intrigued by the new possibilities for behavioural prediction that such data offers. But they are also coming to terms with the complexity of actually using these data sets, and the ethical and practical problems that lurk within them.

    In the wake of the refugee crisis of 2015, tech companies and research consortiums pushed to develop projects using new data sources to predict movements of migrants into Europe. These ranged from broad efforts to extract intelligence from public social media profiles by hand, to more complex automated manipulation of big data sets through image recognition and machine learning. Two recent efforts have just been shut down, however, and others are yet to produce operational results.

    While IT companies and some areas of the humanitarian sector have applauded new possibilities, critics cite human rights concerns, or point to limitations in what such technological solutions can actually achieve.

    In September last year Frontex, the European border security agency, published a tender for “social media analysis services concerning irregular migration trends and forecasts”. The agency was offering the winning bidder up to €400,000 for “improved risk analysis regarding future irregular migratory movements” and support of Frontex’s anti-immigration operations.

    Frontex “wants to embrace” opportunities arising from the rapid growth of social media platforms, a contracting document outlined. The border agency believes that social media interactions drastically change the way people plan their routes, and thus examining would-be migrants’ online behaviour could help it get ahead of the curve, since these interactions typically occur “well before persons reach the external borders of the EU”.

    Frontex asked bidders to develop lists of key words that could be mined from platforms like Twitter, Facebook, Instagram and YouTube. The winning company would produce a monthly report containing “predictive intelligence ... of irregular flows”.

    Early this year, however, Frontex cancelled the opportunity. It followed swiftly on from another shutdown; Frontex’s sister agency, the European Asylum Support Office (EASO), had fallen foul of the European data protection watchdog, the EDPS, for searching social media content from would-be migrants.

    The EASO had been using the data to flag “shifts in asylum and migration routes, smuggling offers and the discourse among social media community users on key issues – flights, human trafficking and asylum systems/processes”. The search covered a broad range of languages, including Arabic, Pashto, Dari, Urdu, Tigrinya, Amharic, Edo, Pidgin English, Russian, Kurmanji Kurdish, Hausa and French.

    Although the EASO’s mission, as its name suggests, is centred around support for the asylum system, its reports were widely circulated, including to organisations that attempt to limit illegal immigration – Europol, Interpol, member states and Frontex itself.

    In shutting down the EASO’s social media monitoring project, the watchdog cited numerous concerns about process, the impact on fundamental rights and the lack of a legal basis for the work.

    “This processing operation concerns a vast number of social media users,” the EDPS pointed out. Because EASO’s reports are read by border security forces, there was a significant risk that data shared by asylum seekers to help others travel safely to Europe could instead be unfairly used against them without their knowledge.

    Social media monitoring “poses high risks to individuals’ rights and freedoms,” the regulator concluded in an assessment it delivered last November. “It involves the use of personal data in a way that goes beyond their initial purpose, their initial context of publication and in ways that individuals could not reasonably anticipate. This may have a chilling effect on people’s ability and willingness to express themselves and form relationships freely.”

    EASO told the Bureau that the ban had “negative consequences” on “the ability of EU member states to adapt the preparedness, and increase the effectiveness, of their asylum systems” and also noted a “potential harmful impact on the safety of migrants and asylum seekers”.

    Frontex said that its social media analysis tender was cancelled after new European border regulations came into force, but added that it was considering modifying the tender in response to these rules.
    Coronavirus

    Drug shortages put worst-hit Covid-19 patients at risk
    European doctors running low on drugs needed to treat Covid-19 patients
    Big Tobacco criticised for ’coronavirus publicity stunt’ after donating ventilators

    The two shutdowns represented a stumbling block for efforts to track population movements via new technologies and sources of data. But the public health crisis precipitated by the Covid-19 virus has brought such efforts abruptly to wider attention. In doing so it has cast a spotlight on a complex knot of issues. What information is personal, and legally protected? How does that protection work? What do concepts like anonymisation, privacy and consent mean in an age of big data?
    The shape of things to come

    International humanitarian organisations have long been interested in whether they can use nontraditional data sources to help plan disaster responses. As they often operate in inaccessible regions with little available or accurate official data about population sizes and movements, they can benefit from using new big data sources to estimate how many people are moving where. In particular, as well as using social media, recent efforts have sought to combine insights from mobile phones – a vital possession for a refugee or disaster survivor – with images generated by “Earth observation” satellites.

    “Mobiles, satellites and social media are the holy trinity of movement prediction,” said Linnet Taylor, professor at the Tilburg Institute for Law, Technology and Society in the Netherlands, who has been studying the privacy implications of such new data sources. “It’s the shape of things to come.”

    As the devastating impact of the Syrian civil war worsened in 2015, Europe saw itself in crisis. Refugee movements dominated the headlines and while some countries, notably Germany, opened up to more arrivals than usual, others shut down. European agencies and tech companies started to team up with a new offering: a migration hotspot predictor.

    Controversially, they were importing a concept drawn from distant catastrophe zones into decision-making on what should happen within the borders of the EU.

    “Here’s the heart of the matter,” said Nathaniel Raymond, a lecturer at the Yale Jackson Institute for Global Affairs who focuses on the security implications of information communication technologies for vulnerable populations. “In ungoverned frontier cases [European data protection law] doesn’t apply. Use of these technologies might be ethically safer there, and in any case it’s the only thing that is available. When you enter governed space, data volume and ease of manipulation go up. Putting this technology to work in the EU is a total inversion.”
    “Mobiles, satellites and social media are the holy trinity of movement prediction”

    Justin Ginnetti, head of data and analysis at the Internal Displacement Monitoring Centre in Switzerland, made a similar point. His organisation monitors movements to help humanitarian groups provide food, shelter and aid to those forced from their homes, but he casts a skeptical eye on governments using the same technology in the context of migration.

    “Many governments – within the EU and elsewhere – are very interested in these technologies, for reasons that are not the same as ours,” he told the Bureau. He called such technologies “a nuclear fly swatter,” adding: “The key question is: What problem are you really trying to solve with it? For many governments, it’s not preparing to ‘better respond to inflow of people’ – it’s raising red flags, to identify those en route and prevent them from arriving.”
    Eye in the sky

    A key player in marketing this concept was the European Space Agency (ESA) – an organisation based in Paris, with a major spaceport in French Guiana. The ESA’s pitch was to combine its space assets with other people’s data. “Could you be leveraging space technology and data for the benefit of life on Earth?” a recent presentation from the organisation on “disruptive smart technologies” asked. “We’ll work together to make your idea commercially viable.”

    By 2016, technologists at the ESA had spotted an opportunity. “Europe is being confronted with the most significant influxes of migrants and refugees in its history,” a presentation for their Advanced Research in Telecommunications Systems Programme stated. “One burning issue is the lack of timely information on migration trends, flows and rates. Big data applications have been recognised as a potentially powerful tool.” It decided to assess how it could harness such data.

    The ESA reached out to various European agencies, including EASO and Frontex, to offer a stake in what it called “big data applications to boost preparedness and response to migration”. The space agency would fund initial feasibility stages, but wanted any operational work to be jointly funded.

    One such feasibility study was carried out by GMV, a privately owned tech group covering banking, defence, health, telecommunications and satellites. GMV announced in a press release in August 2017 that the study would “assess the added value of big data solutions in the migration sector, namely the reduction of safety risks for migrants, the enhancement of border controls, as well as prevention and response to security issues related with unexpected migration movements”. It would do this by integrating “multiple space assets” with other sources including mobile phones and social media.

    When contacted by the Bureau, a spokeswoman from GMV said that, contrary to the press release, “nothing in the feasibility study related to the enhancement of border controls”.

    In the same year, the technology multinational CGI teamed up with the Dutch Statistics Office to explore similar questions. They started by looking at data around asylum flows from Syria and at how satellite images and social media could indicate changes in migration patterns in Niger, a key route into Europe. Following this experiment, they approached EASO in October 2017. CGI’s presentation of the work noted that at the time EASO was looking for a social media analysis tool that could monitor Facebook groups, predict arrivals of migrants at EU borders, and determine the number of “hotspots” and migrant shelters. CGI pitched a combined project, co-funded by the ESA, to start in 2019 and expand to serve more organisations in 2020.
    The proposal was to identify “hotspot activities”, using phone data to group individuals “according to where they spend the night”

    The idea was called Migration Radar 2.0. The ESA wrote that “analysing social media data allows for better understanding of the behaviour and sentiments of crowds at a particular geographic location and a specific moment in time, which can be indicators of possible migration movements in the immediate future”. Combined with continuous monitoring from space, the result would be an “early warning system” that offered potential future movements and routes, “as well as information about the composition of people in terms of origin, age, gender”.

    Internal notes released by EASO to the Bureau show the sheer range of companies trying to get a slice of the action. The agency had considered offers of services not only from the ESA, GMV, the Dutch Statistics Office and CGI, but also from BIP, a consulting firm, the aerospace group Thales Alenia, the geoinformation specialist EGEOS and Vodafone.

    Some of the pitches were better received than others. An EASO analyst who took notes on the various proposals remarked that “most oversell a bit”. They went on: “Some claimed they could trace GSM [ie mobile networks] but then clarified they could do it for Venezuelans only, and maybe one or two countries in Africa.” Financial implications were not always clearly provided. On the other hand, the official noted, the ESA and its consortium would pay 80% of costs and “we can get collaboration on something we plan to do anyway”.

    The features on offer included automatic alerts, a social media timeline, sentiment analysis, “animated bubbles with asylum applications from countries of origin over time”, the detection and monitoring of smuggling sites, hotspot maps, change detection and border monitoring.

    The document notes a group of services available from Vodafone, for example, in the context of a proposed project to monitor asylum centres in Italy. The proposal was to identify “hotspot activities”, using phone data to group individuals either by nationality or “according to where they spend the night”, and also to test if their movements into the country from abroad could be back-tracked. A tentative estimate for the cost of a pilot project, spread over four municipalities, came to €250,000 – of which an unspecified amount was for “regulatory (privacy) issues”.

    Stumbling blocks

    Elsewhere, efforts to harness social media data for similar purposes were proving problematic. A September 2017 UN study tried to establish whether analysing social media posts, specifically on Twitter, “could provide insights into ... altered routes, or the conversations PoC [“persons of concern”] are having with service providers, including smugglers”. The hypothesis was that this could “better inform the orientation of resource allocations, and advocacy efforts” - but the study was unable to conclude either way, after failing to identify enough relevant data on Twitter.

    The ESA pressed ahead, with four feasibility studies concluding in 2018 and 2019. The Migration Radar project produced a dashboard that showcased the use of satellite imagery for automatically detecting changes in temporary settlement, as well as tools to analyse sentiment on social media. The prototype received positive reviews, its backers wrote, encouraging them to keep developing the product.

    CGI was effusive about the predictive power of its technology, which could automatically detect “groups of people, traces of trucks at unexpected places, tent camps, waste heaps and boats” while offering insight into “the sentiments of migrants at certain moments” and “information that is shared about routes and motives for taking certain routes”. Armed with this data, the company argued that it could create a service which could predict the possible outcomes of migration movements before they happened.

    The ESA’s other “big data applications” study had identified a demand among EU agencies and other potential customers for predictive analyses to ensure “preparedness” and alert systems for migration events. A package of services was proposed, using data drawn from social media and satellites.

    Both projects were slated to evolve into a second, operational phase. But this seems to have never become reality. CGI told the Bureau that “since the completion of the [Migration Radar] project, we have not carried out any extra activities in this domain”.

    The ESA told the Bureau that its studies had “confirmed the usefulness” of combining space technology and big data for monitoring migration movements. The agency added that its corporate partners were working on follow-on projects despite “internal delays”.

    EASO itself told the Bureau that it “took a decision not to get involved” in the various proposals it had received.

    Specialists found a “striking absence” of agreed upon core principles when using the new technologies

    But even as these efforts slowed, others have been pursuing similar goals. The European Commission’s Knowledge Centre on Migration and Demography has proposed a “Big Data for Migration Alliance” to address data access, security and ethics concerns. A new partnership between the ESA and GMV – “Bigmig" – aims to support “migration management and prevention” through a combination of satellite observation and machine-learning techniques (the company emphasised to the Bureau that its focus was humanitarian). And a consortium of universities and private sector partners – GMV among them – has just launched a €3 million EU-funded project, named Hummingbird, to improve predictions of migration patterns, including through analysing phone call records, satellite imagery and social media.

    At a conference in Berlin in October 2019, dozens of specialists from academia, government and the humanitarian sector debated the use of these new technologies for “forecasting human mobility in contexts of crises”. Their conclusions raised numerous red flags. They found a “striking absence” of agreed upon core principles. It was hard to balance the potential good with ethical concerns, because the most useful data tended to be more specific, leading to greater risks of misuse and even, in the worst case scenario, weaponisation of the data. Partnerships with corporations introduced transparency complications. Communication of predictive findings to decision makers, and particularly the “miscommunication of the scope and limitations associated with such findings”, was identified as a particular problem.

    The full consequences of relying on artificial intelligence and “employing large scale, automated, and combined analysis of datasets of different sources” to predict movements in a crisis could not be foreseen, the workshop report concluded. “Humanitarian and political actors who base their decisions on such analytics must therefore carefully reflect on the potential risks.”

    A fresh crisis

    Until recently, discussion of such risks remained mostly confined to scientific papers and NGO workshops. The Covid-19 pandemic has brought it crashing into the mainstream.

    Some see critical advantages to using call data records to trace movements and map the spread of the virus. “Using our mobile technology, we have the potential to build models that help to predict broadly how the virus might move,” an O2 spokesperson said in March. But others believe that it is too late for this to be useful. The UK’s chief scientific officer, Patrick Vallance, told a press conference in March that using this type of data “would have been a good idea in January”.

    Like the 2015 refugee crisis, the global emergency offers an opportunity for industry to get ahead of the curve with innovative uses of big data. At a summit in Downing Street on 11 March, Dominic Cummings asked tech firms “what [they] could bring to the table” to help the fight against Covid-19.

    Human rights advocates worry about the longer term effects of such efforts, however. “Right now, we’re seeing states around the world roll out powerful new surveillance measures and strike up hasty partnerships with tech companies,” Anna Bacciarelli, a technology researcher at Amnesty International, told the Bureau. “While states must act to protect people in this pandemic, it is vital that we ensure that invasive surveillance measures do not become normalised and permanent, beyond their emergency status.”

    More creative methods of surveillance and prediction are not necessarily answering the right question, others warn.

    “The single largest determinant of Covid-19 mortality is healthcare system capacity,” said Sean McDonald, a senior fellow at the Centre for International Governance Innovation, who studied the use of phone data in the west African Ebola outbreak of 2014-5. “But governments are focusing on the pandemic as a problem of people management rather than a problem of building response capacity. More broadly, there is nowhere near enough proof that the science or math underlying the technologies being deployed meaningfully contribute to controlling the virus at all.”

    Legally, this type of data processing raises complicated questions. While European data protection law - the GDPR - generally prohibits processing of “special categories of personal data”, including ethnicity, beliefs, sexual orientation, biometrics and health, it allows such processing in a number of instances (among them public health emergencies). In the case of refugee movement prediction, there are signs that the law is cracking at the seams.
    “There is nowhere near enough proof that the science or math underlying the technologies being deployed meaningfully contribute to controlling the virus at all.”

    Under GDPR, researchers are supposed to make “impact assessments” of how their data processing can affect fundamental rights. If they find potential for concern they should consult their national information commissioner. There is no simple way to know whether such assessments have been produced, however, or whether they were thoroughly carried out.

    Researchers engaged with crunching mobile phone data point to anonymisation and aggregation as effective tools for ensuring privacy is maintained. But the solution is not straightforward, either technically or legally.

    “If telcos are using individual call records or location data to provide intel on the whereabouts, movements or activities of migrants and refugees, they still need a legal basis to use that data for that purpose in the first place – even if the final intelligence report itself does not contain any personal data,” said Ben Hayes, director of AWO, a data rights law firm and consultancy. “The more likely it is that the people concerned may be identified or affected, the more serious this matter becomes.”

    More broadly, experts worry that, faced with the potential of big data technology to illuminate movements of groups of people, the law’s provisions on privacy begin to seem outdated.

    “We’re paying more attention now to privacy under its traditional definition,” Nathaniel Raymond said. “But privacy is not the same as group legibility.” Simply put, while issues around the sensitivity of personal data can be obvious, the combinations of seemingly unrelated data that offer insights about what small groups of people are doing can be hard to foresee, and hard to mitigate. Raymond argues that the concept of privacy as enshrined in the newly minted data protection law is anachronistic. As he puts it, “GDPR is already dead, stuffed and mounted. We’re increasing vulnerability under the colour of law.”

    https://www.thebureauinvestigates.com/stories/2020-04-28/monitoring-being-pitched-to-fight-covid-19-was-first-tested-o
    #cobaye #surveillance #réfugiés #covid-19 #coronavirus #test #smartphone #téléphones_portables #Frontex #frontières #contrôles_frontaliers #Shin_Bet #internet #big_data #droits_humains #réseaux_sociaux #intelligence_prédictive #European_Asylum_Support_Office (#EASO) #EDPS #protection_des_données #humanitaire #images_satellites #technologie #European_Space_Agency (#ESA) #GMV #CGI #Niger #Facebook #Migration_Radar_2.0 #early_warning_system #BIP #Thales_Alenia #EGEOS #complexe_militaro-industriel #Vodafone #GSM #Italie #twitter #détection #routes_migratoires #systèmes_d'alerte #satellites #Knowledge_Centre_on_Migration_and_Demography #Big_Data for_Migration_Alliance #Bigmig #machine-learning #Hummingbird #weaponisation_of_the_data #IA #intelligence_artificielle #données_personnelles

    ping @etraces @isskein @karine4 @reka

    signalé ici par @sinehebdo :
    https://seenthis.net/messages/849167

  • Des analyses de Swisscom soutiennent la lutte contre le coronavirus

    L’#Office_fédéral_de_la_santé_publique (#OFSP) a demandé à Swisscom des analyses pour vérifier si les mesures de protection contre l’infection du #coronavirus sont respectées. Les analyses comprennent des données relatives à la #mobilité et aux #rassemblements de personnes dans l’#espace_public. Les évaluations montrent que la population suisse a fortement réduit ses #déplacements. L’OFSP ne reçoit à aucun moment des #données_géographiques de Swisscom, mais seulement des #statistiques et des #visualisations. Les données qui sous-tendent les analyses et les visualisations sont anonymisées et agrégées. Aucun lien avec des personnes spécifiques ne peut être établi.

    Le 21 mars, le Conseil fédéral a interdit les rassemblements de plus de cinq personnes dans l’espace public (art. 7c, al. 1, Ordonnance 2 COVID-19). Les autorités souhaitent maintenant avoir des preuves pour savoir si ces mesures de protection de la population sont respectées ou non. L’Office fédéral de la santé publique (OFSP) reçoit des analyses sur la mobilité et sur les rassemblements dans l’espace public qui se basent sur la plateforme Mobility Insights de Swisscom. La plateforme et les analyses correspondantes ont déjà été utilisées dans le contexte de la Smart City, comme p. ex. à Montreux ou à Pully.

    Les premières évaluations montrent que les habitants font beaucoup moins de déplacements depuis la première interdiction de rassemblements de plus de cinq personnes. En effet, les déplacements, en termes de kilomètres parcourus, ont diminué d’environ 50% dans toute la Suisse par rapport à un mois antérieur typique. Il faut toutefois souligner que la population du Tessin a réduit ses trajets de la manière la plus prononcée.
    Anonymisation complète et agrégation des données

    Pour localiser les rassemblements de personnes, la plateforme Mobility Insight (en conformité avec l’art. 45b, loi sur les télécommunications) affiche les zones où se trouvent au moins 20 cartes SIM par surface de 100 mètres par 100 mètres. Les analyses se basent sur des données géographiques approximatives sur les 24 heures passées.

    Pour indiquer comment les déplacements de la population ont évolué, la plateforme affiche la mobilité approximative des cartes SIM Swisscom d’une zone (p. ex. d’un canton) au cours d’une période de temps donnée. Les informations qui sont obtenues par des moyens techniques dans le réseau mobile sont anonymisées automatiquement aussitôt après leur création puis regroupées sous forme agrégée en vue des analyses.
    L’OFSP ne reçoit pas de données géographiques, mais seulement des visualisations

    L’OFSP ne reçoit à aucun moment des données géographiques, mais seulement des statistiques et des visualisations que Swisscom peut calculer à partir de ces données. Les analyses/visualisations sont entièrement anonymisées et agrégées, donc uniquement visibles sous forme d’une valeur de groupe. Ainsi, aucun lien ne peut être établi avec des personnes spécifiques ou des profils de déplacement individuels. Les directives de la loi fédérale sur la protection des données et les principes éthiques que suit Swisscom pour le traitement des données sont entièrement respectés. Dès que l’ordonnance 2 COVID-19 ne sera plus applicable, aucune analyse ne sera plus mise à la disposition de l’OFSP.

    Les clients ont le contrôle de leurs données en tout temps

    Les clients peuvent définir eux-mêmes pour quels produits et prestations Smart Data Swisscom est autorisée à utiliser leurs données, sous une forme anonymisée et agrégée, autrement dit très concise (#opt-out). Un opt-out peut être demandé dans le domaine « #Protection_des_données », sous Mon profil, dans l’Espace clients. Les données ne sont donc pas utilisées pour d’autres analyses.

    https://www.swisscom.ch/fr/about/news/2020/03/27-swisscom-coronavirus.html

    #Orange en #France... #Swisscom en #Suisse...

    #données #téléphone #smartphone #surveillance #anonymat #agrégation #anonymisation #données_agrégées

    ping @etraces

  • Les #outils_numériques de l’#humanitaire sont-ils compatibles avec le respect de la #vie_privée des #réfugiés ?

    Pour gérer les opérations humanitaires dans le camp de réfugiés syriens de #Zaatari en #Jordanie, les ONG ont mis en place des outils numériques, mais l’#innovation a un impact sur le personnel humanitaire comme sur les réfugiés. Travailler sur ce camp ouvert en 2012, où vivent 76 000 Syriens et travaillent 42 ONG, permet de s’interroger sur la célébration par le monde humanitaire de l’utilisation de #nouvelles_technologies pour venir en aide à des réfugiés.

    Après plusieurs années d’observation participative en tant que chargée d’évaluation pour une organisations non gouvernementales (ONG), je suis allée plusieurs fois à Amman et dans le camp de Zaatari, en Jordanie, entre 2017 et 2018, pour rencontrer des travailleurs humanitaires de 13 organisations différentes et agences de l’Onu et 10 familles vivant dans le camp, avec l’aide d’un interprète.

    Le camp de Zaatari a été ouvert dès 2012 par le Haut Commissariat aux Réfugiés pour répondre à la fuite des Syriens vers la Jordanie. Prévu comme une « #installation_temporaire », il peut accueillir jusqu’à 120 000 réfugiés. Les ONG et les agences des Nations Unies y distribuent de la nourriture et de l’eau potable, y procurent des soins et proposent un logement dans des caravanes.

    Pour faciliter la #gestion de cet espace de 5,2 km2 qui accueille 76 000 personnes, de très nombreux rapports, cartes et bases de données sont réalisés par les ONG. Les #données_géographiques, particulièrement, sont collectées avec des #smartphones et partagées via des cartes et des #tableaux_de_bord sur des #plateformes_en_ligne, soit internes au camp comme celle du Haut Commissariat des Nations unies pour les réfugiés (HCR), soit ouvertes à tous comme #Open_Street_Map. Ainsi, grâce à des images par satellite, on peut suivre les déplacements des abris des réfugiés dans le camp qui ont souvent lieu la nuit. Ces #mouvements modifient la #géographie_du_camp et la densité de population par zones, obligeant les humanitaires à modifier les services, tel l’apport en eau potable.

    Les réfugiés payent avec leur iris

    Ces outils font partie de ce que j’appelle « l’#humanitaire_numérique_innovant ». Le scan de l’#iris tient une place à part parmi ces outils car il s’intéresse à une partie du #corps du réfugié. Cette donnée biométrique est associée à la technologie de paiement en ligne appelée #blockchain et permet de régler ses achats au #supermarché installé dans le camp par une société jordanienne privée. Avant l’utilisation des #scanners à iris, les réfugiés recevaient une #carte_de_crédit qu’ils pouvaient utiliser dans divers magasins autour du camp, y compris dans des #échoppes appartenant à des réfugiés.

    Ils ne comprennent pas l’utilité pour eux d’avoir changé de système. Nour*, une réfugiée de 30 ans, trouvait que « la #carte_Visa était si facile » et craint de « devenir aveugle si [elle] continue à utiliser [son] iris. Cela prend tellement de temps : “ouvre les yeux”, “regarde à gauche”, etc. ». Payer avec son corps n’a rien d’anecdotique quand on est réfugié dans un camp et donc dépendant d’une assistance mensuelle dont on ne maîtrise pas les modalités. Nisrine, une autre réfugiée, préférait quand « n’importe qui pouvait aller au supermarché [pour quelqu’un d’autre]. Maintenant une [seule] personne doit y aller et c’est plus difficile ». Sans transport en commun dans le camp, se rendre au supermarché est une contrainte physique pour ces femmes.

    Le principal argument des ONG en faveur du développement du scan de l’iris est de réduire le risque de #fraude. Le #Programme_Alimentaire_Mondial (#Pam) contrôle pourtant le genre de denrées qui peuvent être achetées en autorisant ou non leur paiement avec la somme placée sur le compte des réfugiés. C’est le cas par exemple pour des aliments comme les chips, ou encore pour les protections hygiéniques. Pour ces biens-là, les réfugiés doivent compléter en liquide.

    Des interactions qui changent entre le personnel humanitaire et les réfugiés

    Les effets de ces #nouvelles_technologies se font aussi sentir dans les interactions entre le personnel du camp et les réfugiés. Chargés de collecter les #données, certains humanitaires doivent régulièrement interroger des jeunes hommes venant de zones rurales limitrophes (qui forment la majorité des réfugiés) sur leur hygiène ou leurs moyens de subsistance. Cela leur permet de créer des #indicateurs pour classer les réfugiés par catégories de #vulnérabilité et donc de #besoins. Ces interactions sont considérées par les réfugiés comme une intrusion dans leur espace de vie, à cause de la nature des questions posées, et sont pourtant devenues un des rares moments d’échanges entre ceux qui travaillent et vivent dans le camp.

    Le #classement des ménages et des individus doit se faire de manière objective pour savoir qui recevra quoi, mais les données collectées sont composites. Difficile pour les responsables de projets, directement interpellés par des réfugiés dans le camp, d’assumer les choix faits par des logiciels. C’est un exercice mathématique qui décide finalement de l’#allocation de l’aide et la majorité des responsables de programmes que j’ai interrogés ne connaissent pas son fonctionnement. Le processus de décision est retiré des mains du personnel humanitaire.

    Aucune évaluation de la #protection_des_données n’a été réalisée

    La vie privée de cette population qui a fui la guerre et trouvé refuge dans un camp est-elle bien protégée alors que toutes ces #données_personnelles sont récoltées ? Le journal en ligne The New Humanitarian rapportait en 2017 une importante fuite de données de bénéficiaires du Pam en Afrique de l’Ouest, détectée par une entreprise de protection de la donnée (https://www.thenewhumanitarian.org/investigations/2017/11/27/security-lapses-aid-agency-leave-beneficiary-data-risk). En Jordanie, les #données_biométriques de l’iris des réfugiés circulent entre une banque privée et l’entreprise jordanienne qui exploite le supermarché, mais aucune évaluation de la protection des données n’a été réalisée, ni avant ni depuis la mise en œuvre de cette #innovation_technologique. Si la protection des données à caractère personnel est en train de devenir un objet de légalisation dans l’Union européenne (en particulier avec le Règlement Général sur la Protection des Données), elle n’a pas encore été incluse dans le #droit_humanitaire.

    De la collecte de données sur les pratiques d’hygiène à l’utilisation de données biométriques pour la distribution de l’#aide_humanitaire, les outils numériques suivent en continu l’histoire des réfugiés. Non pas à travers des récits personnels, mais sur la base de données chiffrées qui, pense-t-on, ne sauraient mentir. Pour sensibiliser le public à la crise humanitaire, les équipes de communication des agences des Nations Unies et des ONG utilisent pourtant des histoires humaines et non des chiffres.

    Les réfugiés eux-mêmes reçoivent peu d’information, voire aucune, sur ce que deviennent leurs données personnelles, ni sur leurs droits en matière de protection de données privées. La connexion Internet leur est d’ailleurs refusée, de peur qu’ils communiquent avec des membres du groupe État Islamique… La gestion d’un camp aussi vaste que celui de Zaatari bénéficie peut-être de ces technologies, mais peut-on collecter les #traces_numériques des activités quotidiennes des réfugiés sans leur demander ce qu’ils en pensent et sans garantir la protection de leurs données personnelles ?

    http://icmigrations.fr/2020/01/16/defacto-015-01

    #camps_de_réfugiés #numérique #asile #migrations #camps #surveillance #contrôle #biométrie #privatisation

    ping @etraces @reka @karine4 @isskein

  • Studie “Das Smartphone, bitte! Digitalisierung von Migrationskontrolle in Deutschland und Europa”

    27. December 2019 by Daniela Turß

    Handydatenauswertung bei Geflüchteten ist teuer, unzuverlässig und gefährlich.

    Cover der Studie „Das Smartphone, bitte! Digitalisierung von Migrationskontrolle in Deutschland und Europa“

    Die Studie „Das Smartphone, bitte! Digitalisierung von Migrationskontrolle in Deutschland und Europa“ befasst sich mit der im Jahr 2017 eingeführten Analyse elektronischer Datenträger durch das BAMF. Wenn eine asylsuchende Person weder Pass noch Passersatzdokument vorweisen kann, ist die Behörde dazu berechtigt, ihr Smartphone auszuwerten, um Hinweise auf Identität und Herkunft zu erhalten. Diese Praxis verletzt das Grundrecht auf Vertraulichkeit und Integrität informationstechnischer Systeme von zigtausenden Menschen – für wenig aussagekräftige Ergebnisse.

    Seit der Einführung des Verfahrens im Jahr 2017 hat das BAMF hochgerechnet etwa 20.000 Mobiltelefone von Asylsuchenden ausgelesen und über 11 Millionen Euro in dieses Verfahren investiert. Im Zeitraum Januar 2018 bis Juni 2019 scheiterte das Auslesen in etwa einem Viertel der Fälle bereits an technischen Problemen. Nur in 1-2 % der verwertbaren Auswertungen fanden sich Widersprüche zu den Angaben, die die Asylsuchenden selbst in ihren Befragungen gemacht hatten.

    Für die Studie wertete die Journalistin Anna Biselli und die Juristin Lea Beckmann einen umfangreichen Quellenbestand aus, darunter Ergebnisberichte von Datenträgerauswertungen, Asylakten, interne Dienstanweisungen, Handbücher und Schulungsunterlagen des BAMF und Dokumente aus dem Gesetzgebungsverfahren. Zudem führten die Autorinnen Hintergrundgespräche mit Geflüchteten, Anwält*innen und Rechtswissenschaftler*innen, Verfahrensberatungsstellen und Menschenrechtsorganisationen in Deutschland und anderen Ländern Europas.

    https://freiheitsrechte.org/studie-handydatenauswertung

    –-> Studie: https://freiheitsrechte.org/home/wp-content/uploads/2019/12/GFF-Studie_Digitalisierung-von-Migrationskontrolle.pdf

    #migration #smartphone #Allemagne #BAMF #Europe #identité #numérisation #contrôle #étude

  • EU-Asylbehörde beschattete Flüchtende in sozialen Medien

    Die EU-Agentur EASO überwachte jahrelang soziale Netzwerke, um Flüchtende auf dem Weg nach Europa zu stoppen. Der oberste Datenschützer der EU setzte dem Projekt nun ein Ende.

    Das EU-Asylunterstützungsbüro EASO hat jahrelang in sozialen Medien Informationen über Flüchtende, Migrationsrouten und Schleuser gesammelt. Ihre Erkenntnisse meldete die Behörde mit Sitz in Malta an EU-Staaten, die Kommission und andere EU-Agenturen. Die Ermittlungen auf eigene Faust sorgen nun für Ärger mit EU-Datenschützern.

    Mitarbeiter von EASO durchforsteten soziale Medien seit Januar 2017. Ihr Hauptziel waren Hinweise auf neue Migrationsbewegungen nach Europa. Die EU-Behörde übernahm das Projekt von der UN-Organisation UNHCR, berichtete EASO damals in einem Newsletter.

    Die Agentur durchsuchte einschlägige Seiten, Kanäle und Gruppen mit der Hilfe von Stichwortlisten. Im Fokus standen Fluchtrouten, aber auch die Angebote von Schleusern, gefälschte Dokumente und die Stimmung unter den Geflüchteten, schrieb ein EASO-Sprecher an netzpolitik.org.

    Das Vorläuferprojekt untersuchte ab März 2016 Falschinformationen, mit denen Schleuser Menschen nach Europa locken. Es entstand als Folge der Flüchtlingsbewegung 2015, im Fokus der UN-Mitarbeiter standen Geflüchtete aus Syrien, dem Irak und Afghanistan.

    Flüchtende informierten sich auf dem Weg nach Europa über soziale Netzwerke, heißt es im Abschlussbericht des UNHCR. In Facebook-Gruppen und Youtube-Kanälen bewerben demnach Schleuser offen ihr Angebot. Sie veröffentlichten auf Facebook-Seiten sogar Rezensionen von zufriedenen „Kunden“, sagten Projektmitarbeiter damals den Medien.
    Fluchtrouten und Fälschungen

    Die wöchentlichen Berichte von EASO landeten bei den EU-Staaten und Institutionen, außerdem bei UNHCR und der Weltpolizeiorganisation Interpol. Die EU-Staaten forderten EASO bereits 2018 auf, Hinweise auf Schleuser an Europol zu übermitteln.

    Die EU-Agentur überwachte Menschen aus zahlreichen Ländern. Beobachtet wurden Sprecher des Arabischen und von afghanischen Sprachen wie Paschtunisch und Dari, aber auch von in Äthiopien und Eritrea verbreiteten Sprachen wie Tigrinya und Amharisch, das in Nigeria gesprochene Edo sowie etwa des Türkischen und Kurdischen.

    „Das Ziel der Aktivitäten war es, die Mitgliedsstaaten zu informieren und den Missbrauch von Schutzbedürftigen zu verhindern“, schrieb der EASO-Sprecher Anis Cassar.
    Als Beispiel nannte der Sprecher den „Konvoi der Hoffnung“. So nannte sich eine Gruppe von hunderte Menschen aus Afghanistan, Iran und Pakistan, die im Frühjahr 2019 an der griechisch-bulgarischen Grenze auf Weiterreise nach Europa hofften.

    Die griechische Polizei hinderte den „Konvoi“ mit Tränengasgranaten am Grenzübertritt. Die „sehr frühe Entdeckung“ der Gruppe sei ein Erfolg des Einsatzes, sagte der EASO-Sprecher.
    Kein Schutzschirm gegen Gräueltaten

    Gräueltaten gegen Flüchtende standen hingegen nicht im Fokus von EASO. In Libyen werden tausende Flüchtende unter „KZ-ähnlichen Zuständen“ in Lagern festgehalten, befand ein interner Bericht der Auswärtigen Amtes bereits Ende 2017.

    Über die Lage in Libyen dringen über soziale Medien und Messengerdienste immer wieder erschreckende Details nach außen.

    Die EU-Agentur antwortete ausweichend auf unsere Frage, ob ihre Mitarbeiter bei ihrem Monitoring Hinweise auf Menschenrechtsverletzungen gefunden hätten.

    „Ich bin nicht in der Lage, Details über die Inhalte der tatsächlichen Berichte zu geben“, schrieb der EASO-Sprecher. „Die Berichte haben aber sicherlich dazu beigetragen, den zuständigen nationalen Behörden zu helfen, Schleuser ins Visier zu nehmen und Menschen zu retten.“

    Der Sprecher betonte, das EU-Asylunterstützungsbüro sei keine Strafverfolgungsbehörde oder Küstenwache. Der Einsatz habe bloß zur Information der Partnerbehörden gedient.
    Datenschützer: Rechtsgrundlage fehlt

    Der oberste EU-Datenschützer übte heftige Kritik an dem Projekt. Die Behörde kritisiert, die EU-Agentur habe sensible persönliche Daten von Flüchtenden gesammelt, etwa über deren Religion, ohne dass diese informiert worden seien oder zugestimmt hätten.

    Die Asylbehörde habe für solche Datensammelei keinerlei Rechtsgrundlage, urteilte der EU-Datenschutzbeauftragte Wojciech Wiewiórowski in einem Brief an EASO im November.

    Die Datenschutzbehörde prüfte die Asylagentur nach neuen, strengeren Regeln für die EU-Institutionen, die etwa zeitgleich mit der Datenschutzgrundverordnung zu gelten begannen.

    In dem Schreiben warnt der EU-Datenschutzbeauftragte, einzelne Sprachen und Schlüsselwörter zu überwachen, könne zu falschen Annahmen über Gruppen führen. Dies wirke unter Umständen diskriminierend.

    Die Datenschutzbehörde ordnete die sofortigen Suspendierung des Projektes an. Es gebe vorerst keine Pläne, die Überwachung sozialer Medien wieder aufzunehmen, schrieb der EASO-Sprecher an netzpolitik.org.

    Die Asylbehörde widersprach indes den Vorwürfen. EASO habe großen Aufwand betrieben, damit keinerlei persönliche Daten in ihren Berichten landeten, schrieb der Sprecher.

    Anders sieht das der EU-Datenschutzbeauftragte. In einem einzigen Bericht, der den Datenschützern als Beispiel übermittelt wurde, fanden sie mehrere E-Mailadressen und die Telefonnummer eines Betroffenen, schrieben sie in dem Brief an EASO.

    EASO klagte indes gegenüber netzpolitik.org über die „negativen Konsequenzen“ des Projekt-Stopps. Dies schade den EU-Staaten in der Effektivität ihrer Asylsysteme und habe womöglich schädliche Auswirkungen auf die Sicherheit von Migranten und Asylsuchenden.
    Frontex stoppte Monitoring-Projekt

    Die EU-Asylagentur geriet bereits zuvor mit Aufsehern in Konflikt. Im Vorjahr ermittelte die Antikorruptionsbehörde OLAF wegen Mobbing-Vorwürfen, Verfehlungen bei Großeinkäufen und Datenschutzverstößen.

    Auf Anfrage von netzpolitik.org bestätigte OLAF, dass „Unregelmäßigkeiten“ in den genannten Bereichen gefunden wurden. Die Behörde wollte aber keine näheren Details nennen.

    EASO ist nicht die einzige EU-Behörde, die soziale Netzwerke überwachen möchte. Die Grenzagentur Frontex schrieb im September einen Auftrag über 400.000 Euro aus. Ziel sei die Überwachung von sozialen Netzwerken auf „irreguläre Migrationsbewegungen“.

    Kritische Nachfragen bremsten das Projekt aber schon vor dem Start. Nach kritischen Nachfragen der NGO Privacy International blies Frontex das Projekt ab. Frontex habe nicht erklären können, wie sich die Überwachung mit dem Datenschutz und dem rechtlichen Mandat der Organisation vereinen lässt, kritisierte die NGO.

    https://netzpolitik.org/2019/eu-asylbehoerde-beschattete-fluechtende-in-sozialen-medien#spendenleist
    #EASO #asile #migrations #réfugiés #surveillance #réseaux_sociaux #protection_des_données #Frontex #données

    –->

    « Les rapports hebdomadaires de l’EASO ont été envoyés aux pays et institutions de l’UE, au #HCR et à l’Organisation mondiale de la police d’#Interpol. Les États de l’UE ont demandé à l’EASO en 2018 de fournir à #Europol des informations sur les passeurs »

    ping @etraces

  • Datenschutzkonferenz: Hohe Hürden für den Einsatz von Windows 10 | heise online
    https://www.heise.de/newsticker/meldung/Datenschutzkonferenz-Hohe-Huerden-fuer-den-Einsatz-von-Windows-10-4584678.html

    En Allemagnee la législation en vigeur le rend pratiquement impossible d’utiliser Microsoft Windows 10 d’une manière légale. Les responsables pour la protection des données auprès des gouvernements des Länder viennent d’adopter cette position et la soutiennent dans un papier intutulé Datenschutz bei Windows 10 – Prüfschema .

    Voici le lien vers le texte : https://tlfdi.de/mam/tlfdi/gesetze/orientierungshilfen/beschluss_zu_top_13_win10_prufschema.pdf

    12.11.2019 von Stefan Krempl

    Die Aufsichtsbehörden haben ein Prüfschema für das Microsoft-Betriebssystem veröffentlicht. Nur bei einem tragbaren Restrisiko kann dieses verwendet werden.

    Die Datenschutzbeauftragten von Bund und Ländern sehen wenig Spielraum, Microsofts Betriebssystem Windows 10 rechtskonform zu nutzen. „Es ist zunächst Aufgabe des Verantwortlichen sicherzustellen und zu dokumentieren, dass die datenschutzrechtlichen Anforderungen beim Einsatz von Windows 10 jederzeit eingehalten werden“, schreiben sie in einem jetzt veröffentlichten Prüfschema. Dabei gelte es darauf zu achten, ob und gegebenenfalls „welche personenbezogenen Daten an Microsoft übermittelt werden“ und ob für diese Transfers eine Rechtsgrundlage vorliege.

    Praktisch ist dies aber eine kaum zu leistende Aufgabe, räumt die Datenschutzkonferenz (DSK) in dem Papier ein. Verschiedene Untersuchungen zeigten, dass es aktuell nicht möglich sei, die Übertragung insbesondere von Telemetrie-Daten „durch Konfiguration von Windows10 vollständig zu unterbinden“. Da die Transfers verschlüsselt erfolgten, „liegen keine detaillierten Erkenntnisse über die Natur der übertragenen Daten von einer unabhängigen Stelle vor“. Es müssten daher „technische Maßnahmen zur Verhinderung einer unbefugten Übermittlung zum Einsatz kommen“.
    Mit jedem Update erneute Prüfung?

    Zudem sei „wegen des fortlaufenden Veränderns und Hinzufügens von Funktionalität“ durch Microsoft ebenso fortlaufend zu überwachen, „ob anlässlich eines Updates eine erneute Prüfung durchgeführt werden muss“. Prinzipiell sei etwa laut der DSGVO der Grundsatz der Datenminimierung zu beachten. Stellt sich ein Transfer als unzulässig heraus, habe dieser „zu unterbleiben“, was „mit geeigneten und angemessenen Maßnahmen“ sichergestellt werden müsse. Daneben sei zu beachten, dass Microsoft Daten in die USA schicke und damit in „ein Drittland“ außerhalb der EU. Die DSK weist darauf hin, dass gegen die Rechtmäßigkeit des für diese Übertragungen genutzten Privacy Shields Bedenken bestünden und Klagen liefen.

    Das Resümee der Kontrolleure: Nur wenn „das Restrisiko“ durch die Implementierung der skizzierten Maßnahmen „tragbar ist“, könnten das Betriebssystem beziehungsweise bestimmte Funktionen davon zum Einsatz kommen. Generell lasse sich die Frage, ob Windows 10 datenschutzkonform ist, angesichts der Vielfalt der Editionen, Versionen, Funktionalitäten und vorgenommener Konfigurationen nicht beantworten. Jeder Anwender müsse seine Installation selbst prüfen. Sollten dabei etwa auch Beschäftigtendaten verarbeitet werden, müssten zusätzlich besondere Rechtsvorschriften beachtet werden.
    Kennzeichen-Scanning gerügt

    Die DSK rügt zudem die „exzessive Nutzung“ von Systemen zum Kfz-Kennzeichen-Scanning durch Strafverfolger als „Verstoß gegen das Grundgesetz“. Damit werde auch das Recht auf informationelle Selbstbestimmung der Bürger verletzt. Die Aufseher fordern die Polizeibehörden und Staatsanwaltschaften auf, „die umfassende und unterschiedslose Erfassung, Speicherung und Auswertung von Kraftfahrzeugen“ zu unterlassen und die rechtswidrig gespeicherten Daten zu löschen. In weiteren Entschließungen sprechen sich die Beauftragten etwa gegen eine Weitergabe sensibler Daten an unbefugte Dritte durch Gesundheits-Apps aus und geben Hinweise zum Einsatz von KI-Systemen in Betrieben und von Messengern im Krankenhausbereich.

    Titel: Datenschutz bei Windows 10 – Prüfschema – Version 1.0
    Herausgeber: Konferenz der unabhängigen Datenschutzbehörden des Bundes und der Länder
    Edition und Redaktion: AK Technik der Konferenz der unabhängigen Datenschutzbehörden des Bundes und der Länder
    Ansprechpartner/Autoren: Rasmus Robrahn, Dr. Martin Krämer, Dr. Christoph Lahmann und Uwe Robra (Die Landesbeauftragte für den Datenschutz Niedersachsen)

    #Allemagne #droit #sécurité #vie_privée #protection_des_données

  • #Visas : les ratés de la #sous-traitance à des #sociétés_privées

    En quelques années, la #France a généralisé la #délégation à des entreprises privées de ses services de délivrance des visas. Difficultés à obtenir un rendez-vous, bugs informatiques, surcoût : les demandeurs se plaignent de nombreux dysfonctionnements résultant de cette nouvelle donne, qui, par ailleurs, pose de sérieuses questions en matière de #protection_des_données personnelles.

    https://www.mediapart.fr/journal/international/021119/visas-les-rates-de-la-sous-traitance-des-societes-privees
    #migrations #privatisation #VFS_global
    ping @etraces

    • Visas pour l’UE : les compagnies privées profitent, les demandeurs galèrent

      Au sein de sa politique des visas, l’Union européenne a développé deux priorités problématiques : le lien avec les réadmissions et le recours aux sous-traitants privés. Et cela au détriment des personnes qui souhaitent venir légalement en Europe. Quatrième et dernier volet de notre série consacrée aux possibles effets du Pacte européen sur la migration et l’asile.

      Sans surprise, le Pacte européen sur la migration et l’asile, présenté le 23 septembre dernier par la Commission européenne, a réaffirmé la nécessité d’utiliser la politique des visas pour pousser les pays tiers à coopérer en matière de réadmission. Inaugurée à la fin des années 1990, cette approche est désormais ancrée dans la législation européenne, en particulier depuis la refonte du Code des visas en 2019.

      Pourtant, souligne une récente analyse du German Institute for International and Security Affairs, “il n’existe aucune preuve de l’effet de levier” d’une politique des visas plus ou moins restrictive. Le seul exemple en ce sens, ce sont les pays des Balkans occidentaux, qui constituent toutefois une exception de par leur proximité à l’UE et leur espoir d’y adhérer.

      Si les gouvernements des pays tiers semblent donc rester indifférents aux stratégies européennes liées aux visas, ce sont leurs citoyens qui en subissent les effets. Souhaitant se rendre légalement dans un pays de l’UE pour des raisons professionnelles, touristiques ou autres, ces personnes se trouvent confrontées à un système complexe, opaque et de plus en plus critiqué.

      “Il n’existe aucune preuve de l’effet de levier” d’une politique des visas plus ou moins restrictive.

      Au cours des quinze dernières années, tous les États membres sauf la Roumanie ont progressivement sous-traité la gestion des demandes de visas à des compagnies privées, principalement #VFSGlobal (filiale du groupe #Kuoni, racheté en 2016 par le fonds d’investissements privés suédois #EQT) et #TLSContact (filiale du groupe français #Teleperformance). Or la participation de prestataires privés à la gestion des demandes de visa engendre de nombreuses situations problématiques. Le coût des services offerts par leurs centres (appels, prises de rendez-vous, photocopies…) est exorbitant. Les informations données sur les procédures peuvent être contradictoires ou trompeuses. Des dossiers pourtant complets ne sont pas acceptés. Les tentatives d’arnaque sont fréquentes.

      Forums et réseaux sociaux regorgent de plaintes, et les témoignages que nous avons recueillis vont dans le même sens. Cristel a galéré pendant des mois pour que son compagnon Elias puisse quitter le Togo et la rejoindre en Belgique, où elle avait accouché, seule, de leur petite fille. “Le centre #VFS lui a dit qu’il devait passer un examen médical. Elias a appelé la seule clinique agrée au Togo, les tests coûtaient 200 euros. Quand il y est allé, à l’accueil une dame lui a dit qu’il devait payer 400 euros”. Non seulement le coût réel de ces tests est de 50 euros, mais le certificat n’était pas nécessaire dans le cadre d’un regroupement familial avec une personne de nationalité belge. "Dans le parcours migratoire légal, comme dans le parcours illégal, on essaye d’arnaquer les personnes parce qu’on sait qu’elles vont investir de l’argent dans ce parcours”, constate Cristel.

      Le mari de Fatma, après leur mariage en Algérie, a eu moins de mal à introduire une demande de visa pour la Belgique, où il avait fait des études supérieures. “Mais on nous a conseillés pour la préparation du dossier”, précise Fatma, “et puis il était ‘présentable’, comme il dit, quand il est allé au centre TLSContact d’Alger”. "Introduire une demande de visa prend un temps fou”, explique Cristel. “Il faut connaître les codes, il faut un réseau, on n’y arrive pas tout seul”. Les deux femmes se sont adressées à un collectif belge, Amoureux, vos Papiers !, qui les a soutenues dans la démarche.

      “Jusqu’à présent, tous les rapports sur la mise en œuvre de la politique des visas révèlent des problèmes pratiques liés aux prestataires de services extérieurs”, confirme l’eurodéputé espagnol Juan Fernando López Aguilar, membre du Groupe de l’Alliance Progressiste des Socialistes et Démocrates et rapporteur pour la refonte du Code des visas. “Le Parlement européen est contraire à l’utilisation de ces prestataires, comme il est en grande majorité contraire au lien entre politique des visas et réadmission. Mais nous avons dû faire des compromis. Nous avons indiqué clairement dans le Code des visas que les États membres sont entièrement responsables du respect des normes par les prestataires. Nous avons introduit des conditions très strictes en matière de marchés publics, de protections des données, de respect des droits fondamentaux et de contrôles”.

      Le règlement de juin 2019 modifiant le Codes des visas stipule que "au plus tard le 1er février de chaque année, les États membres présentent à la Commission un rapport sur leur coopération avec les prestataires de services extérieurs dans le monde entier, ainsi que sur le contrôle de ceux-ci". La première échéance arrivera le 1er février 2021, le nouveau Code des Visas étant entré en vigueur en février 2020. Interrogée dans le cadre de cet article, la Commission a fait savoir qu’aucun rapport n’a encore été soumis. Il sera intéressant de voir quels États membres présenteront ce document d’ici le 1er février 2021 et quelles conclusions pourront en être tirées.

      Le #Pacte_sur_la_migration_et_l’asile ne contient aucune proposition législative concernant ces #prestataires, mais présente une initiative visant une “#digitalisation complète de la #procédure_de_visa d’ici 2025, avec un #visa_numérique et la possibilité d’introduire les demandes en ligne”. Réduisant “de façon significative” le rôle des #prestataires de services extérieurs, l’initiative permettrait selon la Commission de diminuer le coût de la procédure pour les demandeurs et d’assurer une meilleure protection des données personnelles.

      Elle éviterait aussi des situations comme celle vécue par Elias. Comme tout ressortissant togolais souhaitant se rendre en Belgique, il a dû introduire sa demande de visa au Nigeria, au centre VFS de Lagos. En novembre, malgré la fermeture des frontières entre le Togo, le Bénin et le Nigéria, “il a payé 1.400 euros pour traverser clandestinement deux frontières, parce qu’on ne pouvait pas envoyer un dossier par mail”, dénonce Cristel.

      Demander un visa est un droit. Quiconque devrait pouvoir le faire de façon aisée et s’attendre à un traitement de la demande correct, objectif et harmonisé au niveau européen. Le Pacte permettra-t-il de faire un pas dans cette direction ?

      Si la proposition de la Commission prendra forme, on pourra s’attendre à un sérieux lobbying de la part des compagnies menacées de perdre un marché si juteux. Étrangement, TLSContact est inscrite dans le Registre de transparence de la Commission et du Parlement européen seulement depuis 2019, et VFSGlobal n’y figure pas (mais ceci pourrait changer après le récent accord interinstitutionnel rendant le registre de transparence obligatoire).

      Les États membres, en intercalant des compagnies privées entre leurs administrations et les demandeurs de visa, ont en fin de compte dupliqué le filtre, souvent arbitraire, à travers lequel passent ces demandes, dans le but obsessif de “lutter contre l’immigration irrégulière”. L’histoire d’Henri est en ce sens exemplaire. En 2019, ce Togolais a été invité par une ONG française dans le cadre d’une mission de volontariat de deux mois. En 2017, il avait obtenu un visa pour se rendre en Belgique pour cette même raison. “J’avais pu faire la demande directement à l’ambassade”, se souvient-t-il, “et parler avec des personnes compétentes”.

      En 2019, il doit passer par un centre géré par Capago, une société française fondée en 2010. “Le traitement de la demande a été plus rapide, mais la réponse a été négative et il était impossible de parler avec quelqu’un pour avoir plus d’informations”. Raison du refus : ”Votre volonté de quitter le territoire des États membres avant l’expiration du visa n’a pas pu être établie”. Pourtant, s’étonne Henri, “en 2017 je n’avais pas d’emploi stable et je n’étais pas encore marié. En 2019 mon dossier était plus solide, mais je n’ai pas eu le visa”.

      Demander un visa est un droit. Quiconque devrait pouvoir le faire de façon aisée et s’attendre à un traitement de la demande correct, objectif et harmonisé au niveau européen. Le Pacte permettra-t-il de faire un pas dans cette direction ?

      https://voxeurop.eu/fr/migration-asile-visas-pour-lue-les-compagnies-privees-profitent-les-demande
      #business

  • 5G : « Les Etats-Unis ont peur de perdre leur prééminence technologique »
    https://usbeketrica.com/article/5g-les-etats-unis-ont-peur-de-perdre-leur-preeminence-technologique

    « La 5G est un enjeu géopolitique qui a peut-être été non-assumé au départ (...) toute la difficulté est de savoir si c’est une guerre commerciale avec un simple volet technologique, ou si la guerre commerciale est un paravent à une rivalité technologique exacerbée entre Chinois et Américains (...) Le positionnement des autorités américaines est notamment lié à la montée en gamme de Huawei en matière de smartphones et de pose de câbles sous-marins. La crainte des Américains de perdre leur prééminence technologique est particulièrement élevée. »

    « Le matériel résidentiel chez Orange, SFR ou Bouygues, c’est du Huawei (...) En Pologne, tout le réseau mobile d’Orange est d’origine Huawei. Est-ce que ça veut dire qu’il est plus à risque qu’un réseau Nokia ou Alcatel ? La réalité, c’est qu’on ne peut pas le savoir pour l’instant... »

    #5G #technologie #Huawei #protection_des_données

  • Berne identifie les réfugiés grâce à leur portable

    Le Secrétariat d’Etat aux migrations contrôle l’identité des requérants d’asile grâce aux données de leur téléphone, ce que dénonce une organisation d’aide aux réfugiés.

    Nombreux sont les requérants d’asile qui ne peuvent pas prouver leur identité. Dans le cadre d’un projet pilote, le Secrétariat d’Etat aux migrations (#SEM) a contrôlé les téléphones mobiles et les ordinateurs portables des réfugiés pour vérifier leur identité. « Une atteinte à la vie privée », dénonce l’Organisation suisse d’aide aux réfugiés (OSAR)

    Le SEM a examiné 565 appareils et leurs données de novembre 2017 à mai 2018, sur une base volontaire de requérants d’asile arrivés dans les centres de Chiasso (TI) et de Vallorbe (VD). Dans 15% des cas, des informations utiles sur l’identité ou l’#itinéraire des réfugiés ont été trouvées. Le porte-parole du SEM Daniel Bach a confirmé l’existence d’un rapport interne sur ce projet pilote, comme l’ont rapporté samedi des journaux du groupe Tamedia.

    Base volontaire

    Daniel Bach s’est contenté d’expliquer que les résultats du projet pilote ont montré que ces contrôles « peuvent fournir des informations complémentaires importantes sur l’origine et l’identité des requérants d’asile ainsi que sur l’itinéraire de leur voyage ». Le porte-parole a souligné que les fouilles des téléphones mobiles et ordinateurs portables avaient été effectuées sur une base volontaire et que la protection des données personnelles avait été garantie à tout moment.

    Selon lui, jusqu’à trois quarts des demandeurs d’asile en Suisse ne peuvent prouver leur identité avec des papiers d’identité officiels. Dans certains pays, il n’y a pas d’acte de naissance et les gens n’ont pas de papiers d’identité. Les passeports des réfugiés sont aussi souvent confisqués en cours de route par des trafiquants ou d’autres groupes criminels. Les personnes sauvées en mer peuvent aussi avoir perdu leurs papiers d’identité en cours de périple.

    L’OSAR critique

    L’Organisation suisse d’aide aux réfugiés (OSAR) a vivement critiqué ce projet pilote de contrôle systématique des #données_téléphoniques et informatiques privées des demandeurs d’asile. « On ne sait pas si les autorités vont pas utiliser ces données à d’autres fins que la seule vérification de l’identité », s’interroge la porte-parole de l’OSAR Eliane Engeler à l’agence Keystone-ATS.

    « Du point de vue de la #protection_des_données, ce projet est hautement contestable et implique une atteinte draconienne à la #vie_privée des personnes concernées », dénonce-t-elle. « Le droit pénal réglemente de manière très restrictive la fouille des données des téléphones portables. Les smartphones de criminels présumés ne peuvent être analysés qu’en cas de violations graves de la loi et de suspicion justifiée », souligne-t-elle.

    Base juridique nécessaire

    Pour sa part, le porte-parole du SEM estime qu’une base juridique n’est nécessaire que pour tous les contrôles qui ne sont pas effectués avec l’assentiment du requérant d’asile. Un projet d’évaluation des données des réfugiés est actuellement en cours d’examen au Parlement. Selon les journaux Tamedia, la commission des institutions politiques (CIP) du Conseil national doit prendre une décision prochainement.

    En juin 2018, la CI du Conseil des Etats avait soutenu par 9 voix contre 1 une initiative parlementaire de l’UDC. Celle-ci demandait que les autorités puissent contrôler les téléphones mobiles des requérants d’asile si c’est le seul moyen pour établir leur identité. Avec ce feu vert, la commission du Conseil national a ainsi pu élaborer un projet concret.

    https://www.letemps.ch/suisse/berne-identifie-refugies-grace-portable
    #smartphone #téléphone_portable #Suisse #surveillance #contrôle #réfugiés #asile #migrations

    ping @etraces

  • Régulation du numérique : comment la Californie veut contrer Washington
    https://www.latribune.fr/technos-medias/internet/regulation-du-numerique-comment-la-californie-veut-contrer-washington-8070

    Au fil de trois lois différentes encadrant les pratiques en ligne, le « Golden State » s’est doté en 2018 d’un dispositif juridique sans pareil dans le reste du pays. #Protection_des_données, *neutralité_du_Net, régulation de l’intelligence artificielle : la Californie prend le contre-pied de la ligne officielle à Washington, alors que l’administration Trump était tentée jusqu’ici de déréguler la Toile.

    À coup d’ambitieux projets de loi, la Californie semble déterminée à redéfinir les règles en vigueur sur Internet. Tandis que le gouvernement fédéral prend le parti de déréguler, comme l’illustre la suppression de la loi sur la neutralité du Net, le « Golden State » fait le pari inverse, allant parfois jusqu’à défier ouvertement l’administration Trump. Tout a commencé en juin 2018, lorsque le Golden State a adopté le California Consumer Privacy Act de 2018. Cette loi, qui entrera en application le 1er janvier 2020, est largement inspirée du #RGPD européen, dont elle reprend les grandes lignes : plus grand contrôle des internautes sur leurs données personnelles, possibilité de refuser qu’elles soient employées à des fins commerciales, protections supplémentaires concernant les données des mineurs.

    La Californie ne s’est toutefois pas arrêtée en si bon chemin, et en septembre 2018, le gouverneur Jerry Brown a signé une autre loi encadrant le comportement des « #bots », ces intelligences artificielles conversationnelles simples. Cette régulation, qui prendra effet le 1er juillet 2019, oblige les bots à s’identifier lorsqu’ils communiquent avec des humains en ligne. L’objectif : empêcher que ces agents virtuels ne soient utilisés pour manipuler leurs interlocuteurs en se faisant passer pour des humains, que ce soit à des fins commerciales (vendre un produit) ou politiques (influencer une élection).

    Mais la mesure la plus forte est sans aucun doute celle qui concerne la neutralité du Net, ratifiée en septembre dernier par le gouverneur Jerry Brown. Cette loi, la plus stricte du territoire américain, interdit aux fournisseurs Internet de bloquer ou ralentir les contenus, et de favoriser la bande passante de certains sites ou services au détriment d’autres. Elle restaure dans les grandes lignes la loi sur la neutralité du Net instaurée par Barack Obama en 2015, et abrogée par l’administration Trump en décembre 2017.

  • #Solid : le projet de l’inventeur du World Wide Web pour reprendre possession de ses #données_personnelles

    On présente souvent Sir Tim Berners-Lee comme étant « l’inventeur d’Internet ». L’homme est en fait l’inventeur du World Wide Web et du langage HTML. Fervent défenseur de la neutralité du net, et d’une certaine liberté face au pouvoir grandissant des GAFA, il vient de lancer un tout nouveau projet dédié à la reprise en main des données personnelles. Le projet Solid vise à décentraliser #Internet, et à reprendre le pouvoir aux GAFA. Cette reprise en main passe par les données personnelles qui sont le coeur du business des géants du web. Si la plateforme arrive à séduire les développeurs, et les utilisateurs, elle pourrait radicalement changer la face d’Internet.

    https://www.blogdumoderateur.com/solid-le-projet-de-linventeur-du-world-wide-web-pour-reprendre-pos
    #protection_des_données

    ping @fil

  • Bots at the Gate A Human Rights Analysis of Automated Decision. Making in Canada’s Immigration and Refugee System

    A new report from the Citizen Lab and the International Human Rights Program at the University of Toronto’s Faculty of Law investigates the use of artificial intelligence and automated decision-making in Canada’s immigration and refugee systems. The report finds that use of automated decision-making technologies to augment or replace human judgment threatens to violate domestic and international human rights law, with alarming implications for the fundamental human rights of those subjected to these technologies.

    The ramifications of using automated decision-making in the sphere of immigration and refugee law and policy are far-reaching. Marginalized and under-resourced communities such as residents without citizenship status often have access to less robust human rights protections and less legal expertise with which to defend those rights. The report notes that adopting these autonomous decision-making systems without first ensuring responsible best practices and building in human rights principles at the outset may only exacerbate pre-existing disparities and can lead to rights violations including unjust deportation.

    Since at least 2014, Canada has been introducing automated decision-making experiments in its immigration mechanisms, most notably to automate certain activities currently conducted by immigration officials and to support the evaluation of some immigrant and visitor applications. Recent announcements signal an expansion of the uses of these technologies in a variety of immigration decisions that are normally made by a human immigration official. These can include decisions on a spectrum of complexity, including whether an application is complete, whether a marriage is “genuine”, or whether someone should be designated as a “risk.”

    The report provides a critical interdisciplinary analysis of public statements, records, policies, and drafts by relevant departments within the Government of Canada, including Immigration, Refugees and Citizenship Canada, and the Treasury Board of Canada Secretariat. The report additionally provides a comparative analysis to similar initiatives occurring in similar jurisdictions such as Australia and the United Kingdom. In February, the IHRP and the Citizen Lab submitted 27 separate Access to Information Requests and continue to await responses from Canada’s government.

    The report concludes with a series of specific recommendations for the federal government, the complete and detailed list of which are available at the end of this publication. In summary, they include recommendations that the federal government:

    1. Publish a complete and detailed report, to be maintained on an ongoing basis, of all automated decision systems currently in use within Canada’s immigration and refugee system, including detailed and specific information about each system.

    2. Freeze all efforts to procure, develop, or adopt any new automated decision system technology until existing systems fully comply with a government-wide Standard or Directive governing the responsible use of these technologies.

    3. Adopt a binding, government-wide Standard or Directive for the use of automated decision systems, which should apply to all new automated decision systems as well as those currently in use by the federal government.

    4. Establish an independent, arms-length body with the power to engage in all aspects of oversight and review of all use of automated decision systems by the federal government.

    5. Create a rational, transparent, and public methodology for determining the types of administrative processes and systems which are appropriate for the experimental use of automated decision system technologies, and which are not.

    6. Commit to making complete source code for all federal government automated decision systems—regardless of whether they are developed internally or by the private sector—public and open source by default, subject only to limited exceptions for reasons of privacy and national security.

    7. Launch a federal Task Force that brings key government stakeholders alongside academia and civil society to better understand the current and prospective impacts of automated decision system technologies on human rights and the public interest more broadly.


    https://citizenlab.ca/2018/09/bots-at-the-gate-human-rights-analysis-automated-decision-making-in-canad
    #frontières #surveillance #migrations #catégorisation #tri #Droits_Humains #rapport #Canada #réfugiés #protection_des_données #smart_borders #frontières_intelligentes #algorithme #automatisme
    signalé par @etraces sur seenthis

  • c’t entwickelt datenschutzfreundliche Social-Media-Buttons weiter | heise online
    https://www.heise.de/newsticker/meldung/c-t-entwickelt-datenschutzfreundliche-Social-Media-Buttons-weiter-2466687.html

    Die c’t hat ihre Methode, wie Webseitenbetreiber diese Buttons datenschutzrechtlich unbedenklich einbinden können, jetzt noch einmal verbessert. Der „Shariff“ benötigt nur einen Klick.

    Embetty: Social-Media-Inhalte datenschutzgerecht einbinden | heise online
    https://www.heise.de/newsticker/meldung/Embetty-Social-Media-Inhalte-datenschutzgerecht-einbinden-4060362.html

    heise online hat das Open-Source-Projekt „Embetty“ entwickelt, um Webseiten-Besucher vor dem Datenhunger von Social-Media-Sites zu schützen.

    Share- und Like-Buttons, Tweets, YouTube-Videos oder Facebook-Inhalte bereichern Websites, aber externe Inhalte verraten deren Anbietern normalerweise ungefragt Informationen über die Nutzer. Datenschutz ist heise online wichtig, deshalb haben wir uns Gedanken gemacht, wie sich dieser unkontrollierte Datenabfluss verhindern lässt. Daraus ist das Open-Source-Projekt „Embetty“ entstanden, das unser Web-Team entwickelt hat. Embetty arbeitet als Vermittler, damit die Informationen erst beim Anklicken Socia-Media-Elemente übertragen werden können. So können Website-Betreiber ihre Besucher noch besser vor dem Datenhunger der Social-Media-Plug-ins schützen.

    https://github.com/heiseonline/embetty
    https://www.heise.de/ct/ausgabe/2018-12-Social-Media-Inhalte-datenschutzfreundlich-in-die-Website-einbinden-40

    #sécurité #protection_des_données #protection_de_la_vie_privée

  • Encrypted Messaging Apps Have Limitations You Should Know
    https://www.wired.com/story/encrypted-messaging-isnt-magic

    Encrypted communication used to be too complicated for mainstream use, but approachable apps like WhatsApp and Signal have become a no-brainer for digital privacy. With all of their security-minded features, like disappearing messages and identity-confirming safety numbers, secure chat apps can rightfully give you peace of mind. You should absolutely use them. As the adage goes, though, there’s no such thing as perfect security. And feeling invincible could get you in trouble.

    End-to-end encryption transforms messages into unintelligible chunks of data as soon as a user presses send. From there, the message isn’t reconstituted into something understandable until it reaches the receiver’s device. Along the way, the message is unreadable, protected from prying eyes. It essentially amounts to a bodyguard who picks you up at your house, rides around with you in your car, and walks you to the door of wherever you’re going. You’re safe during the transport, but your vigilance shouldn’t end there.

    “These tools are hugely better than traditional email and things like Slack” for security, says Matthew Green, a cryptographer at Johns Hopkins University. “But encryption isn’t magic. You can easily get it wrong. In particular, if you don’t trust the people you’re talking to, you’re screwed.”

    On one level it’s obvious that both you and the person you’re chatting with have access to the encrypted conversation—that’s the whole point. But it’s easy to forget in practice that people you message with could show the chat to someone else, take screenshots, or retain the conversation on their device indefinitely.

    Former Trump campaign chair Paul Manafort found this out the hard way recently, when the FBI obtained messages he’d sent over WhatsApp from the people who received them.

    In another current investigation, the FBI was able to access Signal messages sent by former Senate Intelligence Committee aide James Wolfe, and had at least some information about the encrypted messaging habits of New York Times reporter Ali Watkins, after the Justice Department seized her communications records as part of a leak investigation. Though it’s unknown how the FBI gained access to these encrypted chats, it wouldn’t necessarily have taken a crypto-breaking backdoor if investigators had device access or records from other chat participants.

    You also need to keep track of how many devices you’ve stored your encrypted messages on. If you sync chats between, say, your smartphone and your laptop, or back them up in the cloud, there are potentially more opportunities for the data to be exposed. Some services, like iMessage and WhatsApp, either have cloud backups enabled by default or nudge users toward it to streamline the user experience. Manafort provides a useful illustration once again; investigators accessed his iCloud to access some of the same information informants gave them, as well as to glean new information about his activity. The chats were encrypted in WhatsApp; the backups were not.

    “Digital systems strew data all over the place,” Green notes. “And providers may keep metadata like who you talked to and when. Encrypted messaging apps are valuable in that they tend to reduce the number of places where your data can live. However, the data is decrypted when it reaches your phone.”

    That’s where operations security comes in, the process of protecting information by looking holistically at all the ways it could be obtained, and defending against each of them. An “opsec fail,” as it’s known, happens when someone’s data leaks because they didn’t think of a method an attacker could use to access it, or they didn’t carry out the procedure that was meant to protect against that particular theft strategy. Relying solely on these encrypted messaging tools without considering how they work, and without adding other, additional protections, leaves some paths exposed.

    “Good opsec will save you from bad crypto, but good crypto won’t save you from bad opsec,” says Kenn White, director of the Open Crypto Audit Project, referencing a classic warning from security researcher The Grugq. “It’s easy for people to be confused.”

    The stakes are especially high in government, where encrypted chat apps and disappearing message features are increasingly popular among officials. Just last week, sources told CNBC that investigators for special counsel Robert Mueller have been asking witnesses to voluntarily grant access to their encrypted messaging apps, including Dust, Confide, WhatsApp, and Signal. CNBC reported that witnesses have cooperated to avoid being subpoenaed.

    Several encrypted messaging apps offer a disappearing message feature to help ensure that neither you nor the person you’re chatting with keeps data around longer than necessary. But even this precaution needs to come with the understanding that the service you’re using could fail to actually delete the messages you mark for erasure from their servers. Signal had a recent problem, first reported by Motherboard, where a fix for one bug inadvertently created another that failed to delete a set of messages users had set to disappear. The app quickly resolved the issue, but the situation serves as a reminder that all systems have flaws.

    “Encrypted communication apps are tools, and just like any other tool, they have limited uses,” says Eva Galperin, director of cybersecurity at the Electronic Frontier Foundation.

    In fact, simply choosing an encrypted messaging service may cary unknown risks. Some services like Confide and Telegram haven’t allowed an independent auditor to evaluate their cryptography, meaning it’s difficult to know how trustworthy they are, which of their promises they keep, and what user data they actually retain. And iMessage may collect more metadata than you think.

    Signal, WIRED’s secure messaging recommendation, is open source, but it also proved its trustworthiness in a 2016 case where the service was subpoenaed. Developer Open Whisper Systems responded to a grand jury subpoena saying it could only produce the time an account was created and the most recent date that a user’s Signal app connected to its servers. The court had asked for significantly more detail like user names, addresses, telephone numbers, and email addresses. Signal had retained none of it.

    While end-to-end encryption is a vital privacy protection that can thwart many types of surveillance, you still need to understand the other avenues a government or attacker could take to obtain chat logs. Even when a service works perfectly factors like where messages are stored, who else has received them, and who else has access to devices that contain them play an important role in your security. If you’re using encrypted chat apps as one tool in your privacy and security toolbox, more power to you. If you’re relying on it as a panacea, you’re more at risk than you realize.

    Lily Hay Newman - 06.14.18

    https://www.wired.com/story/ditch-all-those-other-messaging-apps-heres-why-you-should-use-signal
    https://www.wired.com/story/encrypt-all-of-the-things
    https://www.washingtonpost.com/news/powerpost/paloma/the-cybersecurity-202/2018/06/06/the-cybersecurity-202-paul-manafort-s-case-may-undermine-the-fbi-s-encryption-argument/5b16ae5e1b326b08e8839150
    https://blogsofwar.com/hacker-opsec-with-the-grugq
    https://www.cnbc.com/2018/06/06/mueller-team-zeroes-in-on-encrypted-apps-as-witness-turn-in-phones.html
    https://motherboard.vice.com/en_us/article/bj3pxd/signal-disappearing-messages-not-disappearing
    https://theintercept.com/2016/09/28/apple-logs-your-imessage-contacts-and-may-share-them-with-police
    https://www.wired.com/story/ditch-all-those-other-messaging-apps-heres-why-you-should-use-signal
    https://www.aclu.org/blog/national-security/secrecy/new-documents-reveal-government-effort-impose-secrecy-encryption?redirect=blog/free-future/new-documents-reveal-government-effort-impose-secrecy-encryption-company

    #vie_privée #messagerie_chiffrée #protection_des_données_personnelles #autodéfense_numérique #cryptography #chiffrement #Signal #gnupg

  • Libre et Humain à l’ère d’internet

    Un livre numérique pour comprendre pourquoi et comment protéger sa #vie_privée sur #internet. Une question essentielle aujourd’hui !


    https://etikya.fr/produit/libre-et-humain-a-lere-dinternet
    #protection_DeS_données #surveillance #manuel #profilage #profilage_de_masse #données #big_data #démocratie #liberté #solutions

    Le #livre peut être téléchargé ici :
    https://espritcreateur.net/wp-content/uploads/2018/02/Extrait-Libre-et-humain-%C3%A0-l%C3%A8re-dinternet.pdf

    Et à écouter...

    Entretien avec #Amélie_Delalain, co-auteure avec Héloïse Pierre, de l’E-Book « Libre et Humain à l’ère d’Internet »

    http://audioblog.arteradio.com/post/3084170/libre_et_humain_a_l_ere_d_internet