Qui est la plus belle?
Lorsque tu regardes ton écran,
ton écran te regarde
L’industrie du chewing-gum est en crise. Depuis plusieurs années, ses ventes sont littéralement en chute libre, notamment en France qui est le deuxième plus gros consommateur au monde de cette friandise – derrière les États-Unis. Comment en est-on arrivés là ?
Pour le comprendre, il faut savoir que cette confiserie figure rarement sur la liste des courses. Il s’agit plutôt d’un achat impulsif de dernière minute, que nous faisons lorsque nous sommes contraints de faire la queue aux caisses. C’est une dimension que les vendeurs de chewing-gum ont parfaitement intégrée puisqu’ils ont installé des centaines de kilomètres de présentoirs autour des caisses des supermarchés. Or, l’apparition des caisses automatiques ne leur est pas favorable car les présentoirs y sont plus petits et les marques de chewing-gum ont perdu en quelques années vingt kilomètres d’exposition. Mais ce n’est pas tout. Nos enfants nous sollicitent moins qu’avant pour acheter ces friandises (une bonne façon de les faire patienter parfois, lorsqu’on attend pour régler ses achats) et nous-mêmes n’en avons pas toujours l’idée car notre attention est attirée par autre chose.
Dans un passé récent, et parce que l’attente est un état qui peut être douloureux pour un être humain, nous regardions un peu partout autour de nous : le visage de ceux qui faisaient la queue à la caisse voisine, les produits amoncelés dans les chariots à proximité… enfin, parfois, nous jetions un coup d’œil sur les confiseries mises en tête de caisse et nous laissions éventuellement tenter. Aujourd’hui, nos enfants ou nous-mêmes avons le visage rivé sur nos téléphones ou tablettes : notre attention est détournée de l’éditorialisation du monde que les vendeurs de confiserie avaient conçu pour nous. L’attente – et donc notre disponibilité mentale – rendait ces emplacements stratégiques mais pour ces raisons mêmes, ils sont devenus contre-productifs. En effet, le modeste appel à notre attention que nous lancent ces présentoirs de confiserie ne saurait concurrencer celui que nous propose notre smartphone.
La bataille est inégale car la vraie question est : qu’est-ce qui peut concurrencer les écrans dans ce domaine ? Ceux-ci, toutes les enquêtes de par le monde le disent, sont devenus des monstres attentionnels. Ils dévorent notre temps de cerveau disponible plus que n’importe quel autre objet présent dans notre univers. En 2010 déjà, l’Insee soulignait qu’en France, la moitié du temps mental disponible (c’est-à-dire, rappelons-le : le temps qui n’est consacré ni aux besoins physiologiques, ni au travail, ni aux tâches domestiques, ni au transport) était capté par les écrans. Le terme « écran » désigne indifféremment la télévision, les ordinateurs ou les téléphones. Si l’on y regarde de plus près, on voit que, dès 2010, les plus jeunes sont en train de migrer de la télévision vers Internet. Chez les 15-24 ans, la télévision est déjà largement dépassée par les écrans d’ordinateur et le phénomène s’amplifie aujourd’hui.
Ce siphonage de notre attention est en cours chez les plus jeunes. En dix ans, c’est 30 % supplémentaires de la disponibilité mentale des 2-4 ans qui ont été absorbés par les écrans. En d’autres termes, les tout-petits, et notamment aux États-Unis, sont captivés en moyenne près de 3 heures par jour par ces pièges à attention47. Ce temps d’écran journalier atteint 4 h 40 à douze ans. Les adolescents ne s’arrêtent pas en si bon chemin et vont atteindre pour leurs dix-huit ans 6 h 40 de consommation journalière moyenne de temps d’écran ! Pour bien montrer la puissance de cette captation, Michel Desmurget (2019, p. 197) rappelle que chez ceux qui s’approchent de l’âge adulte, ce temps correspond sur une année à 100 jours complets, soit 2,5 années scolaires, ou encore « la totalité du temps consacré de la sixième à la terminale, pour un élève de filière scientifique, à l’enseignement du français, des mathématiques et des sciences de la vie et de la terre ».
Exprimée de cette façon, la digestion de notre disponibilité mentale par les écrans est assez éloquente car, en la matière, c’est la logique des vases communicants qui s’impose : ce qui est pris ici n’est pas investi là. On pourrait se dire qu’il se passe des choses passionnantes sur ces écrans et que ces jeunes esprits en formation peuvent y trouver du matériel intellectuel aussi satisfaisant que dans un livre ou dans un cours. Non, car ce temps est réparti comme suit : 43 % pour la télévision, 22 % pour les jeux vidéo, 24 % pour les médias sociaux et 11 % pour parcourir Internet. La lecture pâtit particulièrement de cette concurrence pour siphonner notre attention puisque les données montrent qu’en France, le temps qui lui est consacré (y compris celle des journaux sur Internet) a diminué d’un tiers depuis 1986.
L’outil le plus pertinent pour approcher ce transfert d’attention est sans doute le smartphone. D’abord, parce qu’en dix ans, le nombre de ces appareils vendus dans le monde a décuplé pour atteindre près de 1 600 millions d’unités achetées chaque année. Ensuite, parce que le temps moyen que nous y consacrons est en constante évolution. Les humains passent désormais 3,7 heures par jour sur leur téléphone. Les Français, plus pondérés dans leur utilisation (2,3 heures), ont néanmoins vu leur consommation progresser de 27 % en deux ans (2018-2019). Enfin, parce que la taille de ces téléphones nous permet de les emporter et de les consulter sans arrêt. Au moindre temps mort : temps de transport, salle d’attente, marche dans la rue, nous jetons un coup d’œil sur nos portables. Tandis que nos amis nous parlent, lorsque nous sommes en réunion ou plus généralement durant notre temps de travail, ces outils s’invitent sans cesse à la table de notre temps de cerveau disponible. C’est pourquoi, aujourd’hui, certains calculent l’occupation de notre temps de cerveau en constatant que cette interpénétration entre nos activités usuelles et la consultation incessante des mondes numériques aboutit à des journées de 30 heures et plus. Ainsi Patino (2019, p. 86), en observant de cette façon maximaliste le nombre de fois où nous tournons nos yeux et notre esprit vers les écrans, considère qu’ils finissent par absorber, aux États-Unis tout du moins, la moitié de la totalité de nos vies !
Cette infiltration des écrans dans tous les interstices de notre vie quotidienne est patente. Il paraît révolu, le temps où les transports en commun étaient l’occasion d’échanges de regards de simple complicité ou de parade amoureuse. Il devient plus difficile de croiser un regard, concentrés que nous sommes sur la consultation de nos mails ou sur une partie de Candy Crush. Que l’on se rassure, l’amour peut tout aussi bien se nouer sur nos écrans par l’intermédiaire de Tinder ou Meetic, puisqu’une étude états-unienne48 montre que les couples hétérosexuels49 se rencontrent désormais plutôt grâce à des applications en ligne. C’est un fait nouveau car, dans ce pays, jusqu’en 2013, les couples se formaient selon la méthode traditionnelle : rencontre par l’intermédiaire d’amis, de la famille ou du travail. Aujourd’hui, le monde numérique célèbre quatre couples sur dix outre-Atlantique. Au XXe siècle, un tiers des amours se nouaient grâce à la famille. Cette intermédiation ne représente plus que 7 % des cas. La France n’en est pas à ce stade mais un quart de nos concitoyens se sont déjà inscrits sur un site de rencontre et ce chiffre a doublé depuis douze ans50.
D’une autre façon, le professeur des universités que je suis a vu débarquer ces écrans dans les amphithéâtres. Les choses sont allées rapidement : d’abord quelques-uns, puis bientôt presque tous se sont mis à suivre les cours avec leurs ordinateurs portables. J’évite de monter les marches de l’amphithéâtre comme je le faisais auparavant, sous peine de m’apercevoir que la plupart des étudiants sont sur Facebook. Je le suppute, mais préfère ne pas être témoin de cette interpénétration incessante de la vie numérique et de mon cours.
Gérald Bronner.
L’apocalypse cognitive.
PUF, 2021.