LOADING

Type to search

L’analyse prédictive peut-elle être sécurisée pour les humains?

ACTUS

L’analyse prédictive peut-elle être sécurisée pour les humains?

Share

Analyse prédictive à grande échelle est un phénomène relativement nouveau qui remet en cause à la fois des décennies de droit et les préoccupations des consommateurs en matière de vie privée.

En tant que technologie, elle pourrait sauver des milliers de vies dans des applications telles que la médecine prédictive, mais si elle n’est pas utilisée avec précaution, elle peut empêcher des milliers de personnes d’obtenir des prêts, par exemple, si un algorithme de souscription privilégie certains utilisateurs.

Il y a quelques semaines, j'ai discuté avec Dennis Hirsch des défis posés par cette nouvelle économie de données. Hirsch est professeur de droit à Ohio State et responsable de son programme sur les données et la gouvernance. Il est également affilié au Risk Institute de l’université.

«L'éthique des données est la nouvelle forme d'atténuation des risques pour l'économie algorithmique», a-t-il déclaré. Dans un monde post-Cambridge Analytica, chaque entreprise doit évaluer les données dont elle dispose sur ses clients et atténuer le risque de préjudice. Comment faire cela, cependant, est à la pointe du nouveau domaine de la gouvernance des données, qui examine les processus et les politiques par le biais desquels les organisations gèrent leurs données.

Vous lisez le Extra Crunch Daily. Vous aimez cette newsletter? Abonnez-vous gratuitement suivre toutes nos discussions et nos débats.

«La réglementation traditionnelle sur la protection de la vie privée vous demande si vous avez averti quelqu'un et lui avez laissé le choix», explique-t-il. Ce principe est à la base de la loi européenne sur la RPG et de la mosaïque de lois américaines protégeant la vie privée. Elle repose sur l’idée simpliste selon laquelle une donnée – telle que l’adresse d’un client – ne devrait pas être partagée avec, par exemple, un spécialiste du marketing à l’insu de cet utilisateur. La confidentialité concerne la protection du carnet d'adresses, pour ainsi dire.

La montée de «l'analyse prédictive» a toutefois complètement démoli cette législation sur la protection de la vie privée. L'analyse prédictive est un terme flou, mais il s'agit essentiellement d'interpréter des données brutes et de tirer de nouvelles conclusions par inférence. C’est l’histoire de la fameuse crise des données Target, où le détaillant a recommandé des produits liés à la grossesse aux femmes qui avaient certains types d’achats. Comme Charles Duhigg l'a expliqué à l'époque:

Beaucoup d'acheteurs achètent du savon et des boules de coton, mais quand quelqu'un commence soudainement à acheter beaucoup de savon sans odeur et de très grands sacs de boules de coton, en plus des désinfectants pour les mains et des gants de toilette, cela signifie qu'ils pourraient se rapprocher de leur date de livraison.

L'analyse prédictive est difficile à prédire. Hirsch a déclaré: «Je pense qu'aucun de nous ne sera assez intelligent pour comprendre l'analyse prédictive.» Parlant des clients, il a déclaré: «Ils abandonnent leurs articles de surface, comme des boules de coton et une lotion pour le corps non parfumée, ils savent qu'ils partagent cela, mais ils ne savent pas qu’ils abandonnent leur statut de grossesse. … Les gens ne sauront pas comment se protéger parce qu’ils ne peuvent pas savoir ce qui peut être déduit de leurs données de surface. ”

A lire également  Daily Crunch: Facebook fait face à de nouvelles préoccupations en matière de confidentialité

En d’autres termes, l’ampleur de ces prévisions sape complètement l’avis et le consentement.

Même si la loi n’a pas été à la hauteur de ce problème plus complexe, les entreprises elles-mêmes semblent réagir à l’issue de Target et les scandales très publics de Facebook. "Ce que nous entendons, c'est que nous ne voulons pas mettre nos clients en danger", a expliqué Hirsch. «Ils comprennent que cette technologie prédictive leur donne un pouvoir vraiment impressionnant et qu'ils peuvent faire beaucoup de bien avec, mais ils peuvent aussi blesser les gens avec.» Les principaux acteurs ici sont les directeurs de la protection de la vie privée des entreprises, un rôle qui a été relevé dans dernières années pour atténuer certains de ces problèmes.

Hirsch consacre beaucoup de temps à la mise au point de nouvelles stratégies de gouvernance permettant aux entreprises d'utiliser l'analyse prédictive de manière éthique, de manière à «pouvoir obtenir et profiter de ses avantages sans avoir à supporter ces coûts». Il se concentre sur quatre domaines: la confidentialité , manipulation, partialité et injustice procédurale. "Nous allons définir des principes sur ce qui est éthique et ce qui ne l'est pas", a-t-il déclaré.

Une grande partie de cette attention a été mise sur la façon d'aider les régulateurs à élaborer des politiques capables de gérer l'analyse prédictive. Parce que les gens ne comprennent pas à quel point des données peuvent être déduites, «je pense qu'une approche réglementaire bien meilleure consiste à avoir quelqu'un qui comprend, idéalement une sorte de régulateur, capable de tracer des lignes.» Hirsch a effectué des recherches comment l'autorité de la FTC peut être un moyen d'avancer dans la mise en pratique de telles politiques.

A lire également  Un activiste de l'extrême droite britannique contourne l'interdiction de Facebook sur Facebook

Il a assimilé cela à la Food and Drug Administration. "Nous ne sommes pas en mesure d'évaluer les risques d'un médicament donné (donc) nous le confions à une agence experte et lui permettons de l'évaluer", a-t-il déclaré. “C’est le genre de réglementation dont nous avons besoin.”

Dans l’ensemble, Hirsch a une vision équilibrée des risques et des avantages. Il souhaite que les analyses soient «plus acceptables sur le plan social», tout en reconnaissant la nécessité d'un examen et d'une surveillance minutieux afin de garantir la protection des consommateurs. En fin de compte, il considère que cela est extrêmement bénéfique pour les entreprises qui peuvent tirer le meilleur parti de cette technologie sans risquer de provoquer la colère des consommateurs.

Qui va voler vos données plus: la Chine ou l'Amérique?

Le logo Huawei est vu dans le centre de Varsovie, en Pologne

Jaap Arriens / NurPhoto via Getty Images

En ce qui concerne l’éthique des données, l’Europe est au cœur d’une pince de superpuissance. Le géant chinois des télécommunications Huawei a fait de l’expansion sur le continent une priorité majeure, tandis que les États-Unis ont envoyé délégation après délégation afin de convaincre ses alliés occidentaux de rejeter les équipements chinois. Le dilemme était bien visible la semaine dernière à la MWC de Barcelone, où les deux parties ont tenté de faire valoir leurs arguments.

Cela fait des années que les révélations de Snowden ont montré que les États-Unis exploitaient une énorme infrastructure d’écoute ciblant des pays du monde entier, y compris de l’Europe. Huawei a réitéré sa position selon laquelle il ne volait pas d'informations de son équipement et a réitéré ses demandes selon lesquelles l'administration Trump fournirait la preuve publique des failles dans sa sécurité.

A lire également  La sonnette sans fil d’August’s View arrive ce mois-ci pour 230 $

Il y a beaucoup de relativisme moral ici, mais je vois cela de plus en plus comme un test décisif de l'Occident sur la Chine. La Chine n’a pas caché ses ambitions de jouer un rôle primordial en Asie de l’Est, pas plus qu’elle n’a caché non plus son intention de construire un réseau de surveillance massif sur son propre peuple ou d’influencer les médias à l’étranger.

Cette tactique, cependant, vient tout droit du livre américain, qui a perdu sa légitimité morale au cours des deux dernières décennies en raison d’une combinaison de la guerre en Irak, de Snowden, de WikiLeaks et d’autres scandales publics qui ont sapé la confiance dans le pays à l’étranger.

La sécurité et la confidentialité ont peut-être constitué un avantage concurrentiel pour les produits américains par rapport à leurs homologues chinois, mais cet avantage a été considérablement réduit pour de nombreux pays. Nous allons de plus en plus voir des pays choisir une combinaison d'équipements chinois et américains dans des applications sensibles, ne serait-ce que pour s'assurer que si un pays volait leurs données, il pourrait tout aussi bien y avoir un équilibre.

Choses qui semblent intéressantes que je n'ai pas encore lues

Obsessions

  • Peut-être que d'autres défis liés à l'utilisation des données et à la responsabilité algorithmique
  • Nous avons un peu un thème autour des marchés émergents, de la macroéconomie et du prochain groupe d'utilisateurs à se connecter à Internet.
  • Plus de discussions sur les mégaprojets, les infrastructures et «pourquoi ne pouvons-nous pas construire des choses?

Merci

À tous les membres de Extra Crunch: merci. Vous nous permettez de sortir du convoyeur de désabonnement des médias et de passer du temps de qualité sur des idées, des personnes et des entreprises étonnantes. Si jamais je peux être utile, cliquez sur répondre, ou envoyez un email à danny@techcrunch.com.

Ce bulletin est rédigé avec l’aide d’Arman Tabatabai de New York.

Vous lisez le Extra Crunch Daily. Vous aimez cette newsletter? Abonnez-vous gratuitement suivre toutes nos discussions et nos débats.

Leave a Comment

Your email address will not be published. Required fields are marked *