A l’ère du Big Data : Entre prédiction et normalisation quelle place à l’évolution ?

Le développement des outils digitaux, l’hyperconnection de chacun, nous conduit à produire mais surtout à mettre à disposition une énorme quantité d’information. Cette information nous permet de connaitre en temps réel des comportements, d’optimiser des campagnes de communication, de recruter la bonne personne pour le bon poste, etc. Nous mettons à chaque moment de l’information à disposition pour en retour nous satisfaire d’une offre de service au plus près de nos attentes.

L’analyse statistique de ces « Big Datas » augmente la probabilité d’une réussite si les facteurs convergents coexistent. Les recherches récentes en sciences cognitives, soulignent la nature probabiliste de la décision. La probabilité est un outil de décision, avec en corollaire sur le plan individuel des biais cognitifs bien connus dans le jugement (préjugé …), le raisonnement (disponibilité … ), induisant même des glissement comportementaux (Conformisme … ).

Fort heureusement, l’augmentation du nombre des données neutralise en partie ces biais à travers une systématisation des analyses là. Si on s’en tient à la cognition humaine, les effets de récence et de primauté nous permettent certes une rapide adaptation aux variations de l’environnement, mais ils peuvent aussi altérer notre jugement en surpondérant certaines informations.

En neutralisant les biais cognitifs, en systématisant l’analyse faite sur ces « big datas », on risque toutefois d’en oublier l’évidence : on ne traite que des informations disponibles. Les informations non disponibles échappent à notre traitement. Les processus inférentiels empreints de complexité c’est-à-dire littéralement d’incertitude renvoient à une abstraction qui échappe pour une grande partie au traitement mathématique pour autant que ces données ne soient pas disponibles. Concrètement, en dehors du besoin, l’appétence d’un individu (ou d’un groupe d’individus) pour un objet de consommation implique des transferts conceptuels similaires à la métaphore. Cette métaphore est construite selon des processus langagiers dont la portée est difficilement prédictive, et sont décrits comme des comportements erratiques voire perçus comme aléatoires.

L’usage de la mathématique sur les bigs data pour prédire les comportements est utile pour ajuster une offre (prévision du trafic, anticipation d’un besoin en énergie etc.), elle l’est moins si elle est utilisée à des fins de décision.

Dans le recrutement prédictif peut nous conduire à identifier des profils A ayant les meilleures chances de succès pour un poste B … au regard des évènements passés. Qu’en est-il des comportements futurs ? Qu’en est-il des circonstances qui échappent à la donnée disponible ? Le propre du progrès est l’inattendu, l’incertain. L’évolution se construit dans l’accidentel au sens ce circonstances non déterministes d’un comportement à venir. Lorsqu’elle est utilisée à des fins prédictives, la Big Data risque de nous confiner à une approche normative qui flirte avec les limites de l’éthique … The Bell Curve.

Répondre

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *