Stratégies électorales et Big Data

Alors que le calendrier des élections municipales françaises de 2020 se retrouve fortement perturbé suite à la crise mondiale liée au Covid-19, nous observons plusieurs différences avec celles de 2014.Aujourd’hui, le charisme ou le programme d’un candidat ne suffit plus à sa victoire : la maîtrise des nouvelles technologies est devenue un atout essentiel. Apparus aux Etats-Unis dans les années 2000, les logiciels de stratégie électorale ont pour objectif de cibler plus facilement et plus rapidement les électeurs. Cette technologie, reposant surtout sur les Big Data et les méthodes de statistique avancées, s’est imposée comme outil désormais indispensable à tout candidat en campagne.

 

Le Big Data en quelques mots

 

Le big data, également appelé mégadonnées ou données massives, désigne l’ensemble des données numériques générées par l’usage des nouvelles technologies à des fins personnelles ou professionnelles. Cette masse d’information recoupe aussi bien des messages, des articles, des données géolocalisées, et bien d’autres.

 

Selon l’Association for Computing Machinery, l’expression « Big Data » date de 1997. Elle fut développée par les géants du numérique et du web afin de regrouper une masse d’informations devenue si volumineuse qu’elle dépasse l’intuition et les capacités humaines d’analyse. L’intérêt pour ces grandes compagnies est de pouvoir accéder rapidement, facilement et efficacement au plus grand nombre d’informations possibles.

 

Le Big Data s’explique d’après le principe des « 5V » :

  • Volume, faisant référence au fait que la masse d’informations du big data est immense et en croissance constante
  • Vitesse, car le traitement de ces données doit souvent se faire en temps réel
  • Variété, par la nature différente des données
  • Véracité, car une donnée n’est pas forcément « vraie » (phénomène de fakenews ou encore publication de robots)
  • Valeur, afin de savoir sélectionner et analyser la donnée qui aura le plus de valeur

 

 

 

 

Pour plus d’informations sur les Big Data et l’intelligence économique, notre article : https://www.cellie.fr/2018/01/24/big-data-et-intelligence-economique/

 

Grâce au web, à l’internet des objets ou encore à l’intelligence artificielle, le Big Data est d’ores et déjà très développé et ne cesse d’innover. Cette masse d’informations disponible permet son usage dans différents domaines, comme dans notre cas pour les stratégies électorales.

 

L’émergence du Big Data dans la politique Américaine

 

Les campagnes présidentielles américaines sont, pour le reste du monde, une référence depuis longtemps. Si, dans les années 1950, la télévision devient un nouvel instrument de campagne, le tournant suivant date de 2004, avec la candidature d’Howard Dean à la primaire du parti démocrate. En effet, son atout fort fut d’avoir une base de données à grande échelle bien fournie et de qualité sur les militants démocrates.

 

En 2008, Obama a utilisé dans sa campagne présidentielle les Big Data avec deux objectifs : mieux connaitre l’historique du comportement des votants et cibler ainsi plus efficacement les opérations électorales sur internet et sur le terrain. C’est l’apparition de deux approches nouvelles et complémentaires, que sont l’usage des réseaux sociaux et l’exploitation des Big Data. En croisant les informations comprenant l’âge, la typologie socio-professionnelle, le profil de consommateur, ou encore l’engagement civique des 240 millions d’Américains en âge de voter, la campagne d’Obama a pu déterminer les intentions de vote, les quartiers et zones géographiques où militer avec précision.

 

Un usage intensifié qui s’exporte en France

 

Depuis dix ans, le volume de données et d’informations électorales pouvant être exploité n’a fait qu’augmenter, à tel point qu’en 2012, lors de la seconde élection de Barack Obama, l’analyse des données est développée à un niveau scientifique par les mathématiciens de la campagne « Obama for America ».

 

En France, c’est François Hollande qui est le premier à employer cette nouvelle technique dans le cadre de sa campagne présidentielle de 2012. En effet, grâce aux services de la start-up LMP (du nom de ses créateurs, aujourd’hui renommée eXplain), l’optimisation de ce démarchage électoral a permis à l’équipe de François Hollande de frapper à près de 5 millions de portes. Ainsi, 1 électeur sur 5 s’apprêtant à voter pour le Front National a été finalement convaincu de voter pour le candidat. Son logiciel, 50 + 1 (basé sur l’algorithme d’inférence écologique du statisticien américain Gary King), est à l’origine de ce porte-à-porte intelligent : en croisant les données de l’INSEE et les résultats des derniers scrutins, il a déterminé à l’échelle des bureaux de vote, les secteurs où un candidat a le plus de chance de gagner des voix.

 

Lors des élections présidentielles de 2017, Emmanuel Macron a fait appel à la même entreprise, cette fois-ci pour gagner des voix mais également pour élaborer son programme. Au poste de ministre de l’Economie, il avait lancé durant l’été 2016 une Grande Marche (un questionnaire réalisé par LMP et analysé par Proxem) pour collecter des données sur plus de 100 000 français volontaires afin d’identifier les problèmes concrets et les préoccupations de certaines catégories socio-professionnelles. Le programme d’E. Macron était alors avant tout un algorithme, qu’il qualifiait plutôt de « diagnostic ».

 

 

 

Et sur le terrain des élections municipales de 2020 ?

 

Une dizaine de jeunes entreprises de la Civitech se partagent aujourd’hui le marché des municipales en France. Si à Paris, Anne Hidalgo a fait le choix de travailler avec Cap Collectif et eXplain, Benjamin Griveaux a préféré choisir Décidim et Quorum avant d’abandonner la course aux municipales. Mais quelle que soit la spécialité de ces différentes startups, toutes fonctionnent sur le même principe, en plusieurs phases.

 

Dans un premier temps, il s’agit de construire son programme. Pour cela, les équipes de campagnes font appel à des plateformes de démocratie participative qui permettent la prise de décisions collective autour des sujets d’intérêt général. Les réponses émanent notamment de citoyens qui n’auraient pas franchi le seuil d’une réunion publique.

 

Dans un second temps intervient la phase de l’organisation de la campagne. Si l’exploitation des data permet de localiser les réserves de voix, elle permet également de gérer les équipes de militants. Grâce à une application mobile, la collecte des données est facilitée, ce qui permet de structurer le travail et de remonter les informations du terrain plus rapidement.

 

Ces logiciels de stratégies électorales ne sont pas seulement présents dans les élections municipales à Paris : on peut également les retrouver dans plusieurs grandes villes de France, comme Angers ou encore Montpellier.

 

Un usage qui a ses limites en France

 

Si les Américains participent activement au développement de ces stratégies, au point d’opter pour des idées peu éthiques comme l’achat des données personnelles via des courtiers en données auprès d’entreprises privées, ces Big Data sont bien plus contrôlées en France, rendant ce « copiage » difficile.

 

Dans ce pays, malgré une communication libre sur internet, une loi du 19 juillet 1977 indique que toute publication d’un sondage ou d’une enquête d’opinion qui serait susceptible d’influencer le vote, publiée la veille ou le jour du vote, est interdite. Quant au reste, c’est à la CNIL de poser des limites. En 2016, elle a pointé du doigt l’entreprise NationBuilder pour avoir développé une fonctionnalité permettant d’enrichir sa base de données avec des informations issues des réseaux sociaux. Mais elle explique qu’ « aucun manquement grave aux textes de loi n’a été relevé ». Afin d’encourager cette dynamique positive, elle a développé un plan d’action pour les élections municipales de 2020, afin de contrôler cette nouvelle stratégie électorale. Ainsi, l’usage des Big Data en France est possible, à condition que les données traitées ne soient pas des données de vie mais des données dites « hyperlocales ».

 

Un second frein explique la présence de cette stratégie uniquement dans les grandes villes de France. En effet, si pour l’entreprise Quorum un minimum de 3000 habitants est demandé, ce n’est pas moins de 16 000 habitants minimum qu’exige l’entreprise eXplain. De plus, les coûts peuvent aller de 1000 à plusieurs dizaines de milliers d’euros en fonction du nombre de données à traiter, un budget qui n’est pas accessible à toutes les campagnes, qui ont souvent un petit budget dans le cadre d’élections municipales.

 

Si en France, la campagne reste aux mains des militants, l’Intelligence Artificielle pourrait dans quelques années changer la donne. Le centre de recherche d’IBM à Haïfa (Israël) pilote un programme sur le traitement du langage qui serait apte à produire des éléments d’argumentation et donc débattre avec des humains. Cet outil serait alors capable d’aider les équipes de campagnes à être bien plus efficaces or, comme le dirait Benjamin Franklin, « Time is money ».

 

Maéva Chanut

Sources :

 

AUCUN COMMENTAIRES

Désolé, les commentaires ne sont plus admis pour le moment.