notes-michiganx-ds101x-ethi.../README.md
2019-01-23 16:52:56 -05:00

259 lines
No EOL
12 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# Données et éthique
Cette présentation résume mes notes prises dans le cours en ligne (MOOC) sur edX [MichiganX : DS101x](https://courses.edx.org/courses/course-v1:MichiganX+DS101x+1T2018/course/)
## Introduction
### Motivation
Pourquoi les scientifiques de données devraient-ils s'intéresser à l'aspect éthique de leur travail ?
1. Ne pas se faire dire quoi faire par des gens hors du domaine (avocats par exemple)
2. Révolution industrielle et impacts environnementaux... Révolution des données et impacts sociaux
### Éthique
- La moralité définit ce qui est bon
- Il est difficile d'appliquer la moralité aux entreprises
- Il existe plusieurs problèmes éthiques, mais ils sont trop difficiles pour une introduction (ex. : Voiture autonome qui doit frapper un étudiant ou une dame âgée)
- Cadre utilitariste : suffisamment simple pour les besoins du cours
### Data science
- Offre une meilleure façon de faire les choses
- Conséquences :
- Inégalités
- Vie privée
- Nuisances : pourriel
## Consentement
Le consentement doit être éclairé, tel qu'énoncé lors d'études cliniques par exemple
- Revue par un comité d'éthique
- Situations dans lesquelles ce n'est pas requis
- AB testing: les deux choix sont également présentables par l'entreprise
- Situation problématique
- OK Cupid a menti à propos d'une expérience qui modifie le comportement du site web. [The Guardian](https://www.theguardian.com/technology/2014/jul/29/okcupid-experiment-human-beings-dating)
### Limites
- analyse rétrospective vs collecte prospective
- Les données n'ont pas été amassées pour l'usage qu'on veut maintenant en faire
- Volonté d'améliorer le produit dans le cadre de pratiques habituelles
- Et non faire des expériences pour le plaisir auprès des utilisateurs
## Propriété des données
- Place le droit d'enregistrer en opposition au droit de faire ce qu'on veut avec ensuite.
- Prendre une photo et l'utiliser comme chantage
- Droit d'auteur
- Si on utilise les données et qu'on y mélange différentes sources externes et de la connaissance, on devient l'auteur d'une œuvre originale.
- La source exacte des données et leur interprétation sont par nature floues
- Le travail effectué pour amasser des données, les préparer et les nettoyer en fait la propriété du créateur du jeu de données.
- La fondation Wikimedia possède le contenu de Wikipédia, et non ses usagers.
- Ils pourraient charger un abonnement (Trip Advisor, …)
### Enregistrement et utilisation
- Lorsque les données sont à propos de nous, on doit avoir un certain pouvoir sur ce qui en est fait.
- Ex. : l'enseignant mentionne "Rate My Professors"
- Cas d'usage
- Un chercheur possède les données de ses expériences. Un contrat légal peut en changer les conditions.
- Caméra de surveillance : Consens à être filmé, mais pas à être diffusé
- Agences de renseignement : ne connaissant pas les besoins d'avance donc enregistrent tout. L'usage doit être contrôlé (mandat)
### Destruction
- Lorsqu'une compagnie fait faillite, les données sont un actif.
- Le contrat de protection des données doit survivre à l'entreprise.
## Vie privée
- Le panoptique ([Wikipédia](https://fr.wikipedia.org/wiki/Panoptique))
- Rien à cacher... intimité
- L'anonymat permet la démocratie
### Histoire de la vie privée
- 1879 Law of Torts [Thomas Cooley](https://repository.law.umich.edu/books/11/)
- 1890 The Right to Privacy par [Samuel Warren, Louis Brendeis, Harvard Law Review](https://dx.doi.org/10.2307/1321160)
- 1928 [OLMSTEAD et al. v. UNITED STATES](http://cdn.loc.gov/service/ll/usrep/usrep277/usrep277438/usrep277438.pdf)
- 1960 [William M. Prosser, Privacy](https://scholarship.law.berkeley.edu/californialawreview/vol48/iss3/1/)
- l'intrusion dans l'intimité ou la solitude du demandeur ou dans ses affaires privées ;
- le fait de rendre publics des faits privés embarrassants sur le demandeur ;
- la publicité qui met le demandeur sous les projecteurs pour des raisons fautives ;
- l'appropriation, au bénéfice du défendeur, du nom ou de l'apparence du demandeur.
- 1967 [Katz v. United States, Justice John Marshall Harlan II](https://www.law.cornell.edu/supremecourt/text/389/347)
- Exhibited an expectation of privacy
- Society is prepared to recognize that this expectation is objectively reasonable
- 2006 [A taxonomy of privacy](https://www.cs.indiana.edu/~kapadia/internal/SSRN_ID920281_code249137.pdf)
Au Canada
- [La Cour d'appel de l'Ontario reconnaît une cause d'action pour atteinte à la vie privée : Jones v. Tsige](https://www.mccarthy.ca/fr/references/articles/la-cour-dappel-de-lontario-reconnait-une-cause-daction-pour-atteinte-la-vie-privee-jones-v-tsige)
- Perception change entre les générations
- Option de sortie
- Petite ville vs grande ville
- Avec les données massives, il n'y a pas de porte de sortie.
- Le droit à l'oubli (Europe) très difficile à appliquer
### Niveaux de vie privée
- Le respect de la vie privée n'égale pas l'absence de mention
- Secret professionnel
- Un ami qui demande de l'aide pour toi (psychologue par exemple)
- Collègues qui discutent d'un cas client
- Données utilisées par le marchand qui les a accumulées
- Exercice de contrôle (collecte vs usage)
- Services gratuits avec publicité
- Photos d'un évènement privé partagées par un ami
- En donnant ton ADN, tu partages aussi celle de ta famille sans leur consentement
### Risques modernes
- Données ouvertes par les gouvernements
- Elles peuvent être utilisées par des entités commerciales et enrichies par des courtiers de données
- "Waste data" : copie d'une carte d'identité à des fins de vérification d'âge dans un bar
- Métadonnées (Numéro de téléphone, adresse IP, MAC Address Bluetooth)
- Sous-estimer le pouvoir de l'analyse de données. Compteur d'eau ou d'électricité, on sait quand tu prends ta douche...
- Usage de données cryptées en étudiant le microprocesseur
- Sans confiance, on a des contrats complexes. Nécessité de protection "par design".
### Cas d'usages
- Déterminer quand la publicité n'est plus utile et devient énervante
- Censure d'évènements pour ne pas être pris en photo ou filmé (Naked mile)
- Applications mobiles qui demandent beaucoup trop de permissions pour "rien" (pour partager à Facebook et Google en réalité)
- [BBB —Data Privacy Day](https://www.bbb.org/article/tips/14023-bbb-tip-data-privacy)
## Anonymat
### Ego Search
- Recherches web permettant d'identifier quelqu'un.
- [AOL search data leak](https://en.wikipedia.org/wiki/AOL_search_data_leak): 3 mois de données de navigation suffisent.
### Dé-identification
- Retrait des données d'identification personnelles d'un jeu de données
- Pas évident de prime abord, mais assez facile à retrouver
- Sexe, date de naissance, code postal = 87 % unique aux É.-U.
- Netflix: User ID, horodateur, titre du film. Combiné avec IMDB, on a le match entre les deux et on peut identifier la personne.
- Données sous la forme de graphe. On recherche des motifs.
- Fuites :
- Identité
- Attributs cachés
- Lien entre des entités
- Appartenance à un groupe.
- On peut voir ça comme une protection de base, comme barrer la porte en quittant sa maison.
### Anonymat presque impossible
- l'anonymat va être brisé
- Solution la plus forte : ne pas publier les données
- Mais des données sont souvent cruciales en recherche et pour la sécurité publique
### Contrôle de l'identité
- Les gens veulent plutôt pouvoir contrôler leur identité sur le web
- Difficile à gérer
## Validité des données
### Unité de mesure
- Erreur d'interprétation (3x vs 3 %)
- Conversion mesurée en ventes ; en visites ; en impressions
- Erreur d'échelle (lequel entre 1 ou 5 est la meilleure note ?)
### Représentativité
- Est-ce que les usagers de Twitter sont représentatifs de la population ?
- données que l'on a vs les données que l'on aimerait avoir
### Gestion du changement
- Google Flu
- Est-ce que réentrainer un modèle est suffisant ?
- Loi de Campbell : Plus un indicateur est important, plus il est sujet à corrompre le processus qu'il cherche à surveiller. [Assessing the impact of planned social change](https://doi.org/10.1016/0149-7189(79)90048-X)
- Durée moyenne d'appel
- Satisfaction client (NPS)
- Mentir si on se sent écouté
- Faux courriel
### Erreurs dans les données
- Deux personnes dans des bases de données différentes
- Analyse de sentiments avec des textes incluant des sarcasmes
- 26 % des consommateurs ont des erreurs dans les données servant à calculer leur score de crédit
- Les corrections sont souvent faites seulement lorsqu'il y a un problème de remboursement
- Un bon moyen de nettoyer des données est de les montrer au sujet
- Acxion : Personnalise les publicités, mais le destinataire peut modifier les données pour recevoir celles ciblées pour un autre groupe
### Erreurs dans les modèles
- On choisit souvent le modèle le plus simple
- [Paradoxe de Simpson](https://fr.wikipedia.org/wiki/Paradoxe_de_Simpson)
- Un phénomène observé de plusieurs groupes semble s'inverser lorsque les groupes sont combinés
- Exemple : [écart salarial](http://employmentblog.practicallaw.com/gender-pay-gap-reporting-beware-simpsons-paradox/)
## Impact social
- Poids associés aux différentes mesures d'un algorithme (F-score, recall, precision, …)
- Assumés égaux parce qu'on ne sait pas les mesurer
- On pourrait faire mieux
- Ossification
- Biais de confirmation dans les médias
- S'insère dans les algorithmes :
- Reflète les biais du processus que l'on cherche à améliorer ou à remplacer
- Si on change les processus, l'algorithme prendra beaucoup plus de temps à s'adapter
- Ex. : Discrimination basée sur la distance entre la maison et le bureau dans la sélection des candidats en entrevue.
- Exemples :
- Nids de poule mieux détectés là où les gens ont des voitures et des téléphones intelligents
- Predictive policing:
- Prédiction qui se réalise automatiquement en provoquant le comportement
- [Prophétie autoréalisatrice](https://fr.wikipedia.org/wiki/Proph%C3%A9tie_autor%C3%A9alisatrice)
- Score de crédit social (Chine)
- Sesame Credit chez Alibaba
- Historique d'achats
- Partage d'articles critiques du gouvernement sur les médias sociaux
- Algorithme privé et peu transparent
- La surveillance de masse se fait par corrélation spatio-temporelle.
- Exemple de Netflix et IMDB plus haut
## Équité algorithmique
### Biais
- Le jeu d'entrainement n'est pas représentatif de la population
- La population actuelle n'est pas représentative du futur.
- Des processus concurrents mènent à de fausses corrélations.
### Mauvaise analyse des données
- Attributs corrélés
- Discrimination raciale
- Quotas de minorités contournés en échantillonnant par quartier
- Pas difficile de trouver d'autres attributs avec un algorithme et beaucoup de données
- Localisation des concurrents :
- On offre de meilleurs prix que le concurrent lorsqu'il y en a un à proximité
- Mais les concurrents sont seulement dans les quartiers aisés
- P-hacking
- Tests d'hypothèses parallèles, le pourcentage du p-valeur sera égal au pourcentage d'essais qui sont concluants par chance seulement
- Nous avons les données avant de formuler l'hypothèse, elle peut dont être n'importe quoi que l'on veut prouver.
- Puce à ADN
## Code d'éthique
- La réglementation n'est pas la bonne solution
- La technologie est rapide et la législation est lente
- Bon lorsqu'il y a un consensus social
- Gouvernance
- Les entreprises vont faire le strict minimum
- Association professionnelle
- Les professionnels ne veulent pas d'avocat pour décider à leur place
- Sil est trop long ou couvre trop large, il ne sera pas facile à mémoriser ni appliquer
- Proposition de l'enseignant :
- Ne surprends pas
- Sois responsable des résultats