Dans le Big Data, comme « en toute chose, c’est la fin qui est essentielle »

"En toute chose c'est la Fin qui est Essentiel" *. Le règne de l'algorithme a commencé, pour le meilleur...et pour le pire. L'analyse de données personnelles au moyen de techniques de « Data Mining » relève néanmoins de la loi informatique et libertés du 06/01/1978.

"En toute chose, c'est la fin qui est Essentiel", Aristote.
A ce titre les données personnelles doivent obligatoirement être collectées pour des finalités « déterminées, explicites et légitimes » et il est interdit de les traiter ultérieurement pour des "finalités incompatibles".         
En résumé, on ne peut pas utiliser ni réutiliser comme on le souhaite les informations concernant des personnes, et ce, quand bien même elles auraient été rendues publiques.
Les techniques d’analyse de données permettent aujourd’hui de traiter un maximum de données publiques ou privées, de sources multiples plus ou moins connues et de les réutiliser à des fins autres que celles prévues voire même imaginées lors de leur collecte initiale.
Toute la difficulté de l’exercice consiste donc à concilier les pratiques liées aux Big Data avec les principes de protection des données personnelles.

Les données sont collectées pour des finalités légitimes

Des dirigeants de l’entreprise Uber [1] ont récemment déclaré qu’ils ne regarderaient les données des utilisateurs que pour des finalités légitimes liées à leur activité.
Mais une finalité légitime aux yeux de qui, à l’égard de quoi ?
Si en effet, il revient au responsable de traitement de déterminer les données qu’il lui paraît légitime de traiter, cette légitimité pourra toujours être contestée par les personnes concernées ou par le régulateur, voire in fine par le juge.
Le caractère légitime s’appréciera au regard de la loi et du cadre réglementaire, de la clarté de la finalité, de l’intérêt réel, présent. La légitimité sera d’autant plus évidente qu’elle sera incontestable (par exemple si un grand nombre de personnes sont concernées).Les données ne peuvent être utilisées pour une finalité ultérieure « incompatible » avec la finalité initiale de la collecte.Ce principe relève d’une nécessaire transparence vis-à-vis des personnes concernées.
A titre d’exemple, le fait de rendre publique des informations dans le cadre d’un réseau social ne peut s’entendre comme un blanc-seing donné par l’individu pour toute exploitation ultérieure de ces données.
Les capacités croissantes des techniques d’analyse appliquées à des volumes de données toujours plus grands ne sont pas sans risques pour les droits et libertés des individus, tant en termes d’emploi, d’accès au crédit ou à la santé que de déséquilibre économique.
Ainsi, la connaissance des goûts musicaux d’une personne permet de déterminer son appartenance ethnique et par conséquent de déduire des informations sensibles à partir de données apparemment anodines; il est aussi possible de connaitre son appartenance  politique et de la manipuler [2].
Sans garde-fou, le « Data mining » peut aboutir à des pratiques discriminatoires qui parce qu’elles ont un fondement statistique peuvent sembler rationnelles. La détermination de modèles à partir d’algorithmes opaques et souvent sans intervention humaine peut impacter de manière significative les personnes.
La protection des données personnelles et de la vie privée sont des droits fondamentaux mais ces droits ne sont pas absolus. Tout est affaire de balance et d’équilibre.
Cela signifie donc qu’à condition de prendre certaines mesures de protection, ces droits peuvent être mis en balance avec d’autres droits et qu’ils peuvent être limités dans l’intérêt public.
Afin de s’assurer que l’utilisation des données n’est pas incompatible avec la finalité initiale de la collecte, le responsable du traitement doit évaluer si cela n’impacte par de manière significative les intérêts et les droits des personnes concernées. Cette analyse préalable portera notamment sur la prise en compte du contexte de la collecte et des attentes des personnes, sur la nature des données, sur les caractéristiques et les conséquences en termes de gravité et de vraisemblance du nouveau traitement ainsi que sur les mesures de protection telles que par exemple une séparation fonctionnelle ou un chiffrement des données.
Ainsi, et sauf anonymisation, le traitement ultérieur de données de santé ou de données relatives aux enfants ou à des personnes vulnérables est a priori incompatible avec la finalité initiale sans le consentement exprès de la personne concernée. De même que l’analyse et la prédiction des comportements et des préférences afin de prendre des décisions ou des actions vis-à-vis des personnes, requiert le consentement préalable des personnes.
Afin de protéger les données personnelles, les dirigeants sont donc invités par les régulateurs européens de la protection des données regroupés au sein du G29 à se poser les bonnes questions avant la mise en œuvre de tout nouveau traitement susceptible d’analyser ou de prédire le comportement et les habitudes des personnes. Finalement, il s’agit ni plus ni moins d’analyser les impacts d’un traitement pour prendre les mesures de sécurité adaptées et d’en documenter l’analyse. Un avant-goût de l’obligation d’« accountability [3] ».

---------------------
* "En toute chose c'est la fin qui est essentiel" Aristote
[1] http://www.theverge.com/2014/11/18/7244141/uber-denies-that-its-employees-can-look-at-your-rider-history
[2] http://online.wsj.com/articles/SB10001424052702304315004579381393567130078
[3] Le principe d’ « accountability » qui consiste à rendre compte des actions mises en œuvre sera obligatoire à partir de l’adoption du règlement européen de protection des données en 2015.

Chiffrement / Big Data