Il se forme à partir d’expériences personnelles, de références culturelles, mais aussi d’influences extérieures comme le milieu social, l’éducation, l’environnement ou le contexte historique. L’autonomie esthétique de l’individu repose sur un équilibre fragile entre ses choix personnels et différents degrés de contrôle ou d’orientation exercés de l’extérieur.
Avec l’essor du numérique, cet équilibre a été profondément bouleversé. En 1998, Larry Page et Sergey Brin développent l’algorithme PageRank, qui structure le web en hiérarchisant les pages selon leur popularité et leur pertinence. Internet, espace autrefois composé de pages isolées, devient progressivement un système organisé, où certaines informations sont mises en avant tandis que d’autres sont reléguées à l’arrière-plan. Ce tournant marque le début d’un filtrage algorithmique de l’information : les choix humains cèdent la place à des formules mathématiques capables de décider, à grande échelle, ce qui mérite notre attention.
Ce modèle s’est ensuite étendu à l’ensemble des plateformes culturelles et médiatiques. Les algorithmes ont profondément transformé notre rapport à la culture, souvent de manière invisible. S’ils facilitent l’accès à une grande quantité de contenus, ils réduisent paradoxalement le champ de ce que nous sommes réellement susceptibles de découvrir. En cherchant à optimiser la satisfaction immédiate de l’utilisateur, ils tendent à appauvrir et à uniformiser les goûts ainsi que les formes d’expression culturelle.
Les plateformes analysent en permanence les comportements des utilisateurs : temps de visionnage, clics, likes, partages ou historiques de recherche. Netflix, par exemple, a développé plus de mille catégorisations pour classer ses contenus en une multitude de micro-genres extrêmement précis, combinant des critères de genre, de narration, de rythme ou de tonalité émotionnelle. Cette segmentation permet d’établir une cartographie fine des préférences individuelles. Selon une étude publiée chez MIT Press en 2017 par Ed Finn, l’algorithme de recommandation de Netflix influencerait entre 75 et 80 % de l’activité des spectateurs, démontrant à quel point ces systèmes orientent les pratiques culturelles.
Les algorithmes semblent s’adapter à nos goûts, mais ceux-ci sont en réalité largement façonnés par des logiques d’optimisation de l’engagement. Les contenus proposés ressemblent majoritairement à ceux déjà consommés, limitant les possibilités de découverte, de surprise et de confrontation à l’altérité. Ce mécanisme enferme progressivement l’utilisateur dans une boucle de recommandations, rendant plus difficile l’élargissement des horizons esthétiques et intellectuels.
Ce fonctionnement ne se limite pas aux plateformes culturelles : il est aussi au cœur des modèles économiques de Google, Meta ou TikTok. Les données collectées permettent de positionner chaque individu dans un espace culturel, social et idéologique précis, afin de lui proposer des contenus, des produits ou des idées supposés correspondre à ses attentes. Cette personnalisation extrême induit une homogénéisation des goûts et réduit le libre arbitre face à des choix présentés comme naturels ou évidents.
La personnalisation renforce ce que nous aimons déjà, mais elle comporte un risque majeur : celui de l’isolement idéologique. Le politologue Cass Sunstein a théorisé le concept de « chambre d’écho », désignant un environnement informationnel où les individus sont majoritairement exposés à des contenus confirmant leurs opinions préexistantes. Cette répétition sans contradiction favorise la polarisation, renforce les biais cognitifs et affaiblit le débat démocratique.
Ces enjeux ont été mis en évidence par les travaux du mathématicien et chercheur au CNRS David Chavalarias. En 2022, il a étudié l’influence des réseaux sociaux sur le discours public à l’approche de l’élection présidentielle française. Ses recherches montrent que les algorithmes peuvent favoriser certains acteurs politiques, amplifier les discours extrêmes et accélérer la diffusion de fausses informations, comme lors du mouvement des gilets jaunes en 2019, lorsqu’un post vu par 3,5 millions de personnes montrait des images de manifestants gravement blessés par la police, alors qu’en réalité les clichés avaient été saisis lors de manifestations près de Madrid. Ainsi, loin d’être neutres, les algorithmes participent activement à la structuration de l’espace public et à la formation des opinions, posant des questions fondamentales sur la liberté de choix, la diversité culturelle et la responsabilité des plateformes numériques.