đŻ Pourquoi lâimpact des rĂ©seaux sociaux et opinion est-il central aujourdâhui ?
LâĂ©mergence du Web 2.0 au dĂ©but du XXIe siĂšcle a provoquĂ© une rupture historique comparable Ă lâinvention de lâimprimerie en modifiant radicalement le rapport entre rĂ©seaux sociaux et opinion publique. Alors que les mĂ©dias traditionnels diffusaient lâinformation de maniĂšre verticale, les plateformes numĂ©riques ont imposĂ© une horizontalitĂ© inĂ©dite, transformant chaque citoyen en Ă©metteur potentiel. Cette rĂ©volution technologique a redĂ©fini les rĂšgles du jeu politique, offrant des outils de mobilisation puissants tout en fragilisant les dĂ©mocraties par la dĂ©sinformation massive.
đïž Dans cet article, tu vas dĂ©couvrir :
- đ La rĂ©volution du Web 2.0 et la fin des gardiens de lâinformation
- âïž Les mĂ©canismes techniques de lâinfluence et des bulles de filtres
- đłïž La transformation des campagnes Ă©lectorales et du militantisme
- đ DĂ©sinformation, fake news et lâĂšre de la post-vĂ©ritĂ©
- đ”ïžââïž Lâindustrialisation de la manipulation de lâopinion
- âïž Les dĂ©fis de la rĂ©gulation et lâavenir de la dĂ©mocratie
- đ§ Ă retenir
- â FAQ
- đ§© Quiz
đ Poursuivons avec le premier chapitre pour bien comprendre le contexte de ce thĂšme.
đ Chapitre 1 : Du mĂ©dia de masse au mĂ©dia des masses
đ La fin du monopole de la parole publique
Pendant la majeure partie du XXe siĂšcle, la formation de lâopinion publique Ă©tait structurĂ©e par ce quâon appelle les mĂ©dias de masse (radio, tĂ©lĂ©vision, presse Ă©crite). Ce modĂšle, souvent qualifiĂ© de « vertical » ou « descendant » (top-down), impliquait qu’un petit nombre d’Ă©metteurs, gĂ©nĂ©ralement des journalistes professionnels ou des figures politiques, s’adressaient Ă une audience large et passive. Comme nous l’avons vu dans l’analyse de De Gaulle et la tĂ©lĂ©vision, le contrĂŽle du canal de diffusion Ă©tait un enjeu de pouvoir majeur pour l’Ătat.
Cependant, l’arrivĂ©e d’Internet, et plus spĂ©cifiquement du Web 2.0 autour de 2004, a brisĂ© ce monopole historique en permettant l’interaction. L’utilisateur n’est plus un simple rĂ©cepteur qui consomme du contenu ; il devient un « produser » (producteur et utilisateur), capable de commenter, partager et crĂ©er sa propre information. Cette dĂ©mocratisation de la parole a initialement Ă©tĂ© perçue comme une promesse d’Ă©mancipation dĂ©mocratique, brisant les filtres traditionnels des rĂ©dactions journalistiques.
Ainsi, la relation entre rĂ©seaux sociaux et opinion s’est construite sur l’idĂ©e d’une libĂ©ration de la parole, rappelant par certains aspects l’effervescence des radios libres dans les annĂ©es 1980. Pourtant, cette absence de « gatekeepers » (gardiens de l’information qui vĂ©rifient les faits avant publication) a Ă©galement ouvert la porte Ă une circulation incontrĂŽlĂ©e des rumeurs et des fausses nouvelles. La hiĂ©rarchie de l’information s’est effondrĂ©e : sur un fil d’actualitĂ©, l’opinion d’un expert reconnu occupe visuellement la mĂȘme place que celle d’un internaute anonyme.
đ LâĂ©conomie de lâattention et la viralitĂ©
Le modĂšle Ă©conomique des plateformes comme Facebook, Twitter (devenu X), ou YouTube repose sur la publicitĂ©, et donc sur la captation du temps de cerveau disponible. Pour maximiser leurs profits, ces entreprises ont dĂ©veloppĂ© des interfaces conçues pour maintenir l’utilisateur connectĂ© le plus longtemps possible, un concept thĂ©orisĂ© sous le nom d’Ă©conomie de l’attention. Dans ce systĂšme, l’information n’est pas valorisĂ©e pour sa vĂ©racitĂ© ou son utilitĂ© civique, mais pour sa capacitĂ© Ă gĂ©nĂ©rer de l’engagement (likes, partages, commentaires).
Par consĂ©quent, les contenus les plus viraux sont souvent ceux qui suscitent des Ă©motions fortes et immĂ©diates, telles que l’indignation, la colĂšre, la peur ou le rire. Des Ă©tudes ont montrĂ© que l’information Ă©motionnelle se propage beaucoup plus vite que l’analyse rationnelle et nuancĂ©e, crĂ©ant un biais structurel dans la formation de l’opinion en ligne. C’est ici que le lien entre rĂ©seaux sociaux et opinion devient problĂ©matique : le dĂ©bat public est dictĂ© par l’Ă©motion plutĂŽt que par la raison.
Ce mĂ©canisme favorise le sensationnalisme et la polarisation des points de vue, car les nuances tendent Ă rĂ©duire l’engagement des utilisateurs. Contrairement Ă la presse pendant Mai 68, qui, bien que partisane, s’inscrivait dans des cadres idĂ©ologiques structurĂ©s, les rĂ©seaux sociaux fragmentent l’opinion en une multitude de rĂ©actions Ă©pidermiques. La viralitĂ© devient le nouvel Ă©talon de la pertinence, relĂ©guant souvent la vĂ©rification des faits au second plan.
âïž Chapitre 2 : Algorithmes et bulles de filtres, les architectes invisibles
đ Le fonctionnement des algorithmes de recommandation
Au cĆur de la relation entre rĂ©seaux sociaux et opinion se trouvent les algorithmes de recommandation, des codes informatiques complexes et souvent opaques. Leur fonction premiĂšre est de trier la masse gigantesque d’informations publiĂ©es chaque seconde pour proposer Ă chaque utilisateur un contenu personnalisĂ© susceptible de l’intĂ©resser. Contrairement Ă un journal tĂ©lĂ©visĂ© qui est identique pour tous les tĂ©lĂ©spectateurs, le fil d’actualitĂ© d’un rĂ©seau social est unique Ă chaque individu.
Ces algorithmes analysent nos comportements passĂ©s (ce qu’on a likĂ©, le temps passĂ© sur une vidĂ©o, nos recherches) pour prĂ©dire nos prĂ©fĂ©rences futures. En soi, cela peut sembler pratique pour dĂ©couvrir des contenus pertinents, mais en matiĂšre politique et sociale, cela crĂ©e un effet pervers redoutable. L’algorithme a tendance Ă nous enfermer dans ce que l’activiste Eli Pariser a nommĂ© en 2011 la « bulle de filtres ».
En ne nous montrant que des opinions qui confortent nos croyances prĂ©existantes, les algorithmes renforcent nos convictions sans jamais les remettre en question. C’est le biais de confirmation automatisĂ© : si vous ĂȘtes politiquement Ă gauche, vous verrez principalement des contenus critiquant la droite, et inversement. Cela conduit Ă une fragmentation de la rĂ©alitĂ© commune, oĂč chaque groupe social vit dans son propre univers informationnel, rendant le dĂ©bat dĂ©mocratique de plus en plus difficile.
đ La polarisation et la radicalisation des opinions
L’enfermement dans ces bulles de filtres a pour consĂ©quence directe une polarisation extrĂȘme de la sociĂ©tĂ©. Puisque nous ne sommes plus exposĂ©s aux arguments contradictoires de maniĂšre bienveillante, l’autre camp politique n’est plus perçu comme un adversaire lĂ©gitime avec qui dĂ©battre, mais comme un ennemi irrationnel ou malveillant. Les rĂ©seaux sociaux favorisent ainsi la formation de communautĂ©s homogĂšnes qui s’auto-radicalisent.
De plus, les algorithmes ont dĂ©couvert que les contenus extrĂȘmes gĂ©nĂšrent plus d’engagement que les contenus modĂ©rĂ©s. Par exemple, sur YouTube, le systĂšme de lecture automatique a longtemps eu tendance Ă proposer des vidĂ©os de plus en plus radicales pour garder le spectateur captif. Un utilisateur cherchant des informations sur la santĂ© pouvait ainsi se retrouver rapidement dirigĂ© vers des contenus anti-vaccins ou complotistes, simplement parce que ces vidĂ©os captent l’attention.
Cette dynamique transforme profondĂ©ment le paysage politique. Les partis traditionnels, habituĂ©s au consensus mou, peinent Ă exister face Ă des discours clivants qui performent mieux sur les plateformes. Pour approfondir ces mĂ©canismes, il est intĂ©ressant de consulter les ressources de Lumni sur l’Ă©ducation aux mĂ©dias, qui expliquent comment le design des plateformes influence nos choix.
đłïž Chapitre 3 : Lâarme politique du XXIe siĂšcle
đ De lâespoir dĂ©mocratique aux printemps arabes
Au dĂ©but des annĂ©es 2010, la vision dominante des liens entre rĂ©seaux sociaux et opinion Ă©tait encore trĂšs optimiste, voire utopique. On parlait de « technologie de libĂ©ration ». L’exemple le plus frappant fut le « Printemps arabe » en 2011, oĂč les manifestants en Tunisie et en Ăgypte ont utilisĂ© Facebook pour s’organiser et Twitter pour alerter le monde entier, contournant ainsi la censure des rĂ©gimes autoritaires en place.
Ces Ă©vĂ©nements ont accrĂ©ditĂ© l’idĂ©e que les rĂ©seaux sociaux Ă©taient intrinsĂšquement dĂ©mocratiques, donnant une voix aux sans-voix et permettant aux citoyens de renverser des dictatures. Ils permettaient une coordination horizontale rapide et peu coĂ»teuse, impossible avec les tracts ou le tĂ©lĂ©phone traditionnel. L’opinion internationale pouvait suivre les Ă©vĂ©nements en temps rĂ©el, exerçant une pression diplomatique immĂ©diate sur les gouvernements rĂ©presseurs.
Cependant, cet optimisme a dĂ» ĂȘtre nuancĂ© par la suite. Si les rĂ©seaux sociaux sont excellents pour mobiliser contre un ennemi commun et dĂ©truire un ordre Ă©tabli, ils se sont rĂ©vĂ©lĂ©s moins efficaces pour construire des structures politiques stables et durables. De plus, les rĂ©gimes autoritaires ont rapidement appris Ă utiliser ces mĂȘmes outils pour surveiller les opposants, diffuser de la propagande et noyer les contestations sous un flot de contre-informations.
đ Les nouvelles stratĂ©gies Ă©lectorales : lâexemple amĂ©ricain
Aux Ătats-Unis, l’usage politique des rĂ©seaux sociaux a franchi plusieurs Ă©tapes dĂ©cisives. La campagne de Barack Obama en 2008 est souvent citĂ©e comme la premiĂšre Ă avoir maĂźtrisĂ© le potentiel du web pour la levĂ©e de fonds et la mobilisation des jeunes Ă©lecteurs. Mais c’est surtout l’Ă©lection de Donald Trump en 2016 qui a marquĂ© un tournant brutal dans l’utilisation de ces plateformes, modifiant le rapport de force entre tĂ©lĂ©vision et Ă©lections.
Donald Trump a utilisĂ© Twitter pour contourner le filtre des mĂ©dias traditionnels, qu’il qualifiait d’ennemis du peuple, s’adressant directement Ă sa base Ă©lectorale avec un langage simple, agressif et Ă©motionnel. Cette stratĂ©gie de « dĂ©sintermĂ©diation » a rendu les journalistes impuissants : plus ils fact-checkaient ses tweets, plus ils leur donnaient de la visibilitĂ©. L’outrance est devenue une stratĂ©gie mĂ©diatique payante, car l’algorithme rĂ©compensait chaque polĂ©mique par une visibilitĂ© accrue.
En France, les mouvements comme les « Gilets jaunes » en 2018 ont Ă©galement dĂ©montrĂ© la puissance de Facebook dans la structuration de l’opinion. NĂ©s de groupes locaux et d’algorithmes favorisant les contenus de colĂšre, ce mouvement s’est organisĂ© hors des syndicats et partis traditionnels. Cela illustre parfaitement comment les rĂ©seaux sociaux peuvent faire Ă©merger des sujets dans le dĂ©bat public que les Ă©lites politiques n’avaient pas anticipĂ©s.
đ Chapitre 4 : Fake news et Ăšre de la post-vĂ©ritĂ©
đ La viralitĂ© du faux : pourquoi les fake news triomphent
L’expression « fake news » (infox) s’est popularisĂ©e mondialement en 2016, bien que le phĂ©nomĂšne de la fausse nouvelle soit aussi vieux que l’information elle-mĂȘme. La nouveautĂ© rĂ©side dans la vitesse de propagation et l’Ă©chelle industrielle de diffusion permise par le lien entre rĂ©seaux sociaux et opinion. Une Ă©tude du MIT publiĂ©e en 2018 a rĂ©vĂ©lĂ© que sur Twitter, les fausses nouvelles se diffusent six fois plus vite que les vraies informations.
Cette supĂ©rioritĂ© du faux s’explique par la nouveautĂ© et l’Ă©motion. Une fake news est souvent conçue pour ĂȘtre surprenante, choquante ou parfaitement alignĂ©e avec les prĂ©jugĂ©s d’un groupe cible. Ă l’inverse, la vĂ©ritĂ© est souvent complexe, nuancĂ©e, voire ennuyeuse. De plus, la « Loi de Brandolini » (ou principe d’asymĂ©trie du baratin) stipule que la quantitĂ© d’Ă©nergie nĂ©cessaire pour rĂ©futer une bĂȘtise est bien supĂ©rieure Ă celle nĂ©cessaire pour la produire.
Le fact-checking (vĂ©rification des faits) arrive souvent trop tard. Une fois qu’une fausse information a Ă©tĂ© vue par des millions de personnes et partagĂ©e Ă©motionnellement, le dĂ©menti, souvent plus austĂšre, ne touche qu’une fraction de cette audience. Le mal est fait, et l’opinion a Ă©tĂ© imprimĂ©e. Ce phĂ©nomĂšne est amplifiĂ© par l’aspect visuel : une photo dĂ©tournĂ©e ou une vidĂ©o tronquĂ©e a un impact cognitif bien plus fort qu’un texte explicatif.
đ LâĂšre de la post-vĂ©ritĂ© et le dĂ©clin de la confiance
Nous sommes entrĂ©s dans ce que certains sociologues appellent l’Ăšre de la « post-vĂ©rité ». Dans ce contexte, les faits objectifs ont moins d’influence sur la formation de l’opinion publique que les appels Ă l’Ă©motion et aux croyances personnelles. Il ne s’agit pas seulement de mentir, mais de rendre la distinction entre le vrai et le faux secondaire, voire impossible pour le citoyen lambda.
Cette confusion permanente nourrit le complotisme. Sur les rĂ©seaux sociaux, les thĂ©ories du complot (comme QAnon aux USA) trouvent un terrain fertile car elles offrent des explications simplistes Ă des Ă©vĂ©nements complexes. Elles flattent l’intelligence de l’internaute en lui donnant l’impression d’ĂȘtre « éveillé » face Ă une masse endormie (« les moutons »). Le lien avec l’article sur Internet et fake news est ici direct : la structure mĂȘme du rĂ©seau favorise la dĂ©fiance envers les institutions.
La consĂ©quence majeure est une crise de confiance gĂ©nĂ©ralisĂ©e. Si toutes les informations se valent et si les mĂ©dias traditionnels sont perçus comme menteurs, alors il n’existe plus de socle commun de rĂ©alitĂ© pour dĂ©battre. La dĂ©mocratie, qui repose sur la capacitĂ© Ă s’accorder sur des faits pour dĂ©battre des solutions, se trouve ainsi grippĂ©e dans ses fondements mĂȘmes.
đ”ïžââïž Chapitre 5 : Lâindustrialisation de la manipulation
đ Le scandale Cambridge Analytica : le micro-ciblage psychologique
L’affaire Cambridge Analytica, rĂ©vĂ©lĂ©e en 2018 par des lanceurs d’alerte, a mis en lumiĂšre la face sombre de l’utilisation des donnĂ©es personnelles pour influencer les rĂ©seaux sociaux et opinion. Cette entreprise britannique a aspirĂ© les donnĂ©es de 87 millions d’utilisateurs de Facebook sans leur consentement explicite pour construire des profils psychologiques extrĂȘmement prĂ©cis des Ă©lecteurs amĂ©ricains.
L’objectif n’Ă©tait pas de diffuser une propagande de masse uniforme, mais de pratiquer le « micro-ciblage » (micro-targeting). GrĂące Ă ces profils, l’entreprise pouvait envoyer des publicitĂ©s politiques personnalisĂ©es, invisibles pour le reste du public. Un Ă©lecteur craintif recevait un message sur l’insĂ©curitĂ©, tandis qu’un Ă©lecteur conservateur traditionnel recevait un message sur les impĂŽts. Cette technique fragmente le dĂ©bat public : chaque Ă©lecteur vote pour un candidat diffĂ©rent, façonnĂ© sur mesure par l’algorithme.
Ce scandale a dĂ©montrĂ© que les rĂ©seaux sociaux ne sont pas de simples miroirs de l’opinion, mais des outils actifs de modelage des comportements. En jouant sur les peurs intimes et les biais cognitifs identifiĂ©s par l’intelligence artificielle, il devient possible d’influencer des scrutins serrĂ©s, comme le rĂ©fĂ©rendum sur le Brexit ou l’Ă©lection prĂ©sidentielle amĂ©ricaine de 2016.
đ Les fermes Ă trolls et lâingĂ©rence Ă©trangĂšre
Au-delĂ des entreprises privĂ©es, des Ătats ont compris l’intĂ©rĂȘt stratĂ©gique des rĂ©seaux sociaux pour la guerre hybride. L’exemple le plus documentĂ© est celui de l’Internet Research Agency (IRA) situĂ©e Ă Saint-PĂ©tersbourg. Cette « ferme Ă trolls » emploie des centaines de personnes pour crĂ©er de faux comptes, infiltrer des groupes de discussion et diffuser des contenus clivants dans les pays occidentaux.
La stratĂ©gie n’est pas nĂ©cessairement de soutenir un candidat prĂ©cis, mais de semer le chaos, d’accentuer les divisions raciales ou sociales et d’Ă©roder la confiance dans le systĂšme dĂ©mocratique. C’est ce qu’on appelle l' »astroturfing » : donner l’impression d’un mouvement populaire spontanĂ© (grassroots) alors qu’il est entiĂšrement orchestrĂ© de maniĂšre artificielle. Ces opĂ©rations coordonnĂ©s noient les vrais dĂ©bats citoyens sous un bruit numĂ©rique incessant.
Pour comprendre l’ampleur de ces menaces cybernĂ©tiques et les rĂ©ponses des Ătats, on peut se rĂ©fĂ©rer aux analyses de Vie-publique.fr. Ces ingĂ©rences posent la question de la souverainetĂ© numĂ©rique : comment une dĂ©mocratie peut-elle protĂ©ger son dĂ©bat public lorsqu’il se dĂ©roule sur des plateformes privĂ©es Ă©trangĂšres manipulĂ©es par des puissances hostiles ?
âïž Chapitre 6 : DĂ©fis de la rĂ©gulation et avenir
đ ModĂ©ration, censure et libertĂ© dâexpression
Face aux dĂ©rives liant rĂ©seaux sociaux et opinion, la question de la rĂ©gulation est devenue centrale. Cependant, elle se heurte Ă un dilemme complexe : comment limiter la dĂ©sinformation et la haine sans porter atteinte Ă la libertĂ© d’expression ? Les plateformes, longtemps rĂ©fugiĂ©es derriĂšre le statut d’hĂ©bergeur technique (non responsable du contenu), sont dĂ©sormais contraintes d’agir comme des Ă©diteurs, en modĂ©rant les publications.
La modĂ©ration est une tĂąche titanesque, gĂ©rĂ©e par un mĂ©lange d’intelligence artificielle (souvent dĂ©faillante sur l’ironie ou le contexte) et de modĂ©rateurs humains travaillant dans des conditions difficiles. Les dĂ©cisions de bannir certains comptes influents, comme celui de Donald Trump aprĂšs l’assaut du Capitole en janvier 2021, ont soulevĂ© des questions sur la lĂ©gitimitĂ© de ces entreprises privĂ©es Ă dĂ©finir les limites du dĂ©bat public. Qui dĂ©cide de ce qui est vrai ou acceptable ? Mark Zuckerberg ou la Loi ?
La crainte d’une censure excessive est rĂ©elle. Si les plateformes suppriment trop de contenus, elles sont accusĂ©es de biais politique. Si elles n’en font pas assez, elles sont accusĂ©es de complicitĂ© de violence. Cet Ă©quilibre prĂ©caire est au cĆur des dĂ©bats actuels sur la gouvernance d’Internet.
đ La rĂ©ponse lĂ©gislative : le DSA et lâĂ©ducation aux mĂ©dias
L’Union europĂ©enne a pris une longueur d’avance dans la rĂ©gulation avec le RGPD (protection des donnĂ©es) puis le Digital Services Act (DSA), entrĂ© pleinement en vigueur en 2023 et 2024. Ce rĂšglement impose aux gĂ©ants du numĂ©rique (les GAFAM) des obligations strictes : transparence des algorithmes, protection des mineurs, lutte active contre les contenus illicites et la dĂ©sinformation. C’est une tentative de reprise en main de la souverainetĂ© dĂ©mocratique sur l’espace numĂ©rique.
Mais la loi ne suffit pas. L’enjeu fondamental reste l’Ă©ducation des citoyens. Face Ă la sophistication des manipulations, le dĂ©veloppement de l’esprit critique et de l’Ăducation aux MĂ©dias et Ă l’Information (EMI) est crucial, dĂšs le collĂšge. Apprendre Ă vĂ©rifier une source, Ă comprendre le fonctionnement d’un algorithme et Ă repĂ©rer un deepfake (vidĂ©o truquĂ©e par IA) devient une compĂ©tence civique de base au XXIe siĂšcle.
En conclusion, les rĂ©seaux sociaux ont irrĂ©versiblement transformĂ© la formation de l’opinion. Ils ne sont ni un enfer ni un paradis dĂ©mocratique, mais un terrain de lutte. L’avenir de nos dĂ©mocraties dĂ©pendra de notre capacitĂ© collective Ă dompter ces outils pour qu’ils servent le dĂ©bat d’idĂ©es plutĂŽt que la guerre des tranchĂ©es numĂ©riques. Pour aller plus loin sur les enjeux globaux, le site de l’UNESCO propose des pistes de rĂ©flexion intĂ©ressantes.
đ§ Ă retenir sur rĂ©seaux sociaux et opinion
- L’Ă©mergence du Web 2.0 (annĂ©es 2000) a mis fin au modĂšle vertical des mĂ©dias de masse, permettant Ă chacun de devenir Ă©metteur d’information.
- Les algorithmes de recommandation créent des bulles de filtres qui enferment les utilisateurs dans leurs opinions et favorisent la polarisation politique.
- Les fake news se diffusent plus vite que la vĂ©ritĂ© car elles jouent sur l’Ă©motion et l’Ă©conomie de l’attention (viralitĂ©).
- Le scandale Cambridge Analytica (2018) a rĂ©vĂ©lĂ© l’usage du micro-ciblage et des donnĂ©es personnelles pour manipuler les Ă©lections.
- L’Union europĂ©enne tente de rĂ©guler ces dĂ©rives avec le Digital Services Act (DSA), mais l’Ă©ducation aux mĂ©dias reste la meilleure dĂ©fense.
â FAQ : Questions frĂ©quentes sur rĂ©seaux sociaux et opinion
đ§© Les algorithmes sont-ils politiquement neutres ?
Non, pas totalement. MĂȘme s’ils ne sont pas programmĂ©s pour ĂȘtre « de droite » ou « de gauche », ils sont programmĂ©s pour maximiser l’engagement (temps passĂ©, clics). Or, les contenus polĂ©miques ou extrĂȘmes gĂ©nĂšrent plus d’engagement. De fait, les algorithmes ont tendance Ă sur-reprĂ©senter les opinions radicales, ce qui n’est pas une neutralitĂ©.
𧩠Quelle est la différence entre désinformation et mésinformation ?
La nuance rĂ©side dans l’intention. La dĂ©sinformation est une fausse information créée et diffusĂ©e volontairement pour nuire ou manipuler (c’est un mensonge stratĂ©gique). La mĂ©sinformation est une fausse information partagĂ©e par erreur par quelqu’un qui la croit vraie (c’est une erreur de bonne foi).
𧩠Est-ce que les réseaux sociaux ont vraiment fait élire Trump ?
C’est un facteur majeur, mais pas unique. Les rĂ©seaux sociaux ont permis Ă Trump de contourner les mĂ©dias traditionnels et de mobiliser sa base avec un coĂ»t trĂšs faible. L’affaire Cambridge Analytica a aussi montrĂ© l’efficacitĂ© du ciblage publicitaire. Cependant, le contexte Ă©conomique et social des Ătats-Unis reste la cause profonde de son Ă©lection.
