Les médias sociaux nous rendent stupides, mais nous pouvons y remédier

Les médias sociaux nous rendent stupides, mais nous pouvons y remédier

Nous sommes ravis de présenter Transform 2022 en personne le 19 juillet et virtuellement du 20 au 28 juillet. Rejoignez les leaders de l’IA et des données pour des discussions approfondies et des opportunités de réseautage passionnantes. Inscrivez-vous aujourd’hui!


J’ai passé une grande partie de ma carrière à étudier comment la technologie peut amplifier les capacités humaines, de l’amélioration de la dextérité physique à l’amélioration des capacités cognitives. Ces dernières années, je me suis concentré sur la façon dont la technologie peut aider à rendre les groupes humains plus intelligents, des petites équipes aux grandes populations. Et ce que j’ai découvert, c’est que les plateformes de médias sociaux font par inadvertance le contraire, nuisant activement à notre intelligence collective.

Non, je ne parle pas de la prévalence du contenu de mauvaise qualité qui insulte notre intellect. Je ne parle même pas de l’utilisation généralisée de la désinformation et de la mésinformation qui nous trompe délibérément. Après tout, ce ne sont pas de nouveaux problèmes ; le contenu imparfait a existé tout au long de l’histoire, des idées fausses idiotes aux mensonges éhontés et à la propagande.

Au lieu de cela, je parle de quelque chose de plus fondamental : une fonctionnalité de médias sociaux qui nuit à notre intelligence, que le contenu soit factuel ou frauduleux. Pour expliquer cela, je dois prendre du recul et aborder certains points concernant la cognition humaine. Alors, voilà…

Nous, les humains, sommes des machines de traitement de l’information, nous passons notre vie à observer notre monde et nous utilisons ces observations pour construire des modèles mentaux détaillés. Nous commençons dès le moment de la naissance, explorant et percevant notre environnement, testant et façonnant nos expériences, jusqu’à ce que nous soyons capables de prédire avec précision comment nos actions et celles des autres affecteront notre avenir.

Prenons cet exemple : un enfant laisse tomber un jouet et le regarde tomber par terre ; après l’avoir fait plusieurs fois avec le même résultat, le cerveau de l’enfant généralise le phénomène, construisant un modèle mental de la gravité. Ce modèle mental permettra à l’enfant de naviguer dans son monde, en prédisant comment les objets se comporteront lorsqu’ils seront renversés, lâchés ou projetés en l’air.

Cela fonctionne bien jusqu’à ce que le bébé fasse l’expérience d’un ballon à hélium pour la première fois. Ils sont stupéfaits lorsque leur modèle de gravité échoue et que leur cerveau doit s’adapter en tenant compte de ces objets rares. De cette façon, nos modèles mentaux deviennent de plus en plus sophistiqués au fil du temps. C’est ce qu’on appelle l’intelligence.

Et pour que l’intelligence fonctionne correctement, nous, les humains, devons effectuer trois étapes de base :

(1) Ressentez notre monde,

(2) Généraliser nos expériences,

(3) Construire des modèles mentaux.

Le problème est que les plateformes de médias sociaux sont entrées dans ce processus critique, déformant ce que signifie « percevoir notre monde » et « généraliser nos expériences », ce qui incite chacun de nous à commettre des erreurs importantes lors de la « construction de modèles mentaux » au plus profond de notre cerveau.

Non, je ne parle pas de la façon dont nous façonnons le monde physique de la gravité. Je parle de la façon dont nous façonnons le monde social des gens, de nos communautés locales à notre société mondiale. Les politologues appellent ce monde social « la sphère publique » et le définissent comme l’arène où les individus se réunissent pour partager des questions importantes, échangeant des points de vue par la discussion et la délibération. C’est au sein de la sphère publique que la société élabore collectivement un modèle mental d’elle-même. Et en utilisant ce modèle, nous sommes en mesure de prendre de bonnes décisions concernant notre avenir commun.

Maintenant, voici le problème : les médias sociaux ont déformé la sphère publique au-delà de la reconnaissance, donnant à chacun de nous un modèle mental profondément défectueux de nos communautés. Cela déforme notre intelligence collective, ce qui rend difficile pour la société de prendre de bonnes décisions. Mais ce n’est PAS le contenu lui-même sur les réseaux sociaux qui est à l’origine de ce problème ; c’est la machine de distribution.

Laisse-moi expliquer.

Nous, les humains, avons évolué au cours de millions d’années pour croire que nos expériences quotidiennes fournissent une représentation précise de notre monde. Si la plupart des objets que nous rencontrons tombent au sol, nous généralisons et construisons un modèle mental de la gravité. Si certains objets flottent dans le ciel, nous les modélisons comme des exceptions – des événements rares qu’il est important de comprendre mais qui représentent une petite tranche du monde en général.

Un modèle mental efficace est celui qui nous permet de prédire notre monde avec précision, en anticipant les événements courants à un rythme beaucoup plus fréquent que les événements rares. Mais les médias sociaux ont fait dérailler ce processus cognitif en modérant de manière algorithmique les informations que nous recevons sur notre société. Pour ce faire, les plateformes nous fournissent individuellement des actualités, des messages, des annonces et des publications organisés qui, selon nous, font partie de l’expérience de chacun, mais ne peuvent être rencontrés que par des segments restreints de l’audience.

En conséquence, nous croyons tous que nous vivons « la sphère publique » alors qu’en réalité, nous sommes tous piégés dans une représentation déformée de la société créée par les entreprises de médias sociaux. Cela nous fait généraliser notre monde de manière incorrecte. Et si nous ne parvenons pas à généraliser correctement, nous construisons des modèles mentaux imparfaits. Cela dégrade notre intelligence collective et nuit à notre capacité à prendre de bonnes décisions pour notre avenir.

Et parce que les entreprises de médias sociaux nous ciblent avec un contenu qui est plus susceptible de résonner, nous surestimons la prévalence de nos points de vue et sous-estimons la prévalence des points de vue contradictoires. Cela déforme la réalité pour nous tous, mais ceux qui sont ciblés par des contenus marginaux peuvent être trompés en leur faisant croire que certaines notions très extrêmes sont communément acceptées par la société dans son ensemble.

Veuillez comprendre, je ne dis PAS que nous devrions tous avoir les mêmes opinions et valeurs. Je dis que nous avons tous besoin d’être exposés à une représentation précise de la façon dont les opinions et les valeurs sont réparties dans nos communautés. C’est la sagesse collective. Mais les médias sociaux ont brisé la sphère publique en un patchwork de minuscules chambres d’écho, tout en masquant le fait que les chambres existent.

Par conséquent, si j’ai une perspective marginale sur un sujet particulier, je ne réalise peut-être pas que la grande majorité des gens trouvent mon point de vue extrême, offensant ou tout simplement absurde. Cela m’incitera à construire un modèle mental imparfait de mon monde, en jugeant mal comment mes opinions s’inscrivent dans la sphère publique.

Ce serait comme un scientifique maléfique élevant un groupe d’enfants dans un monde factice où la plupart des objets sont remplis d’hélium et seuls quelques-uns s’écrasent au sol. Ces enfants généraliseraient leurs expériences et développeraient un modèle de réalité profondément défectueux. C’est ce que les médias sociaux nous font tous en ce moment.

Cela me ramène à ma déclaration fondamentale : le plus gros problème avec les médias sociaux n’est pas le contenu lui-même, mais le mécanisme de distribution ciblée, car il nuit à notre capacité à construire des modèles mentaux précis de notre propre société. Et sans bons modèles, nous ne pouvons pas naviguer intelligemment dans notre avenir.

C’est pourquoi de plus en plus de gens achètent des théories du complot absurdes, doutent de faits scientifiques et médicaux bien prouvés, perdent confiance dans des institutions respectées et perdent confiance dans la démocratie. Les médias sociaux rendent de plus en plus difficile pour les gens de faire la distinction entre quelques rares ballons à hélium flottant et le monde des objets solides qui reflètent notre réalité commune.

Personnellement, je pense que nous devons faire pression pour la « transparence dans le ciblage » en exigeant que les plateformes divulguent clairement les paramètres de ciblage de tout le contenu des médias sociaux afin que les utilisateurs puissent facilement faire la distinction entre le matériel qui est largement consommé et le matériel qui est archivé de manière algorithmique. . Et la divulgation doit être présentée aux utilisateurs en temps réel lorsqu’ils interagissent avec le contenu, permettant à chacun de nous de considérer le contexte lorsque nous formons nos modèles mentaux sur notre monde.

Actuellement, Twitter et Facebook permettent aux utilisateurs d’accéder à une petite quantité de données sur des publicités ciblées. Pour obtenir ces informations, vous devez cliquer plusieurs fois, auquel cas un message étrangement dispersé tel que « Vous pouvez voir cette annonce car la société X veut toucher les personnes qui sont ici : les États-Unis » s’affiche. Ce n’est pas du tout éclairant. Nous avons besoin d’une véritable transparence, et pas seulement pour les publicités, mais aussi pour les flux d’actualités et tous les autres contenus partagés diffusés via des algorithmes de ciblage.

L’objectif doit être d’obtenir des informations visuelles claires qui mettent en évidence à quel point une partie importante ou restreinte de l’audience reçoit actuellement tout contenu de médias sociaux qui apparaît sur nos écrans. Et les utilisateurs ne devraient pas avoir à cliquer pour obtenir ces informations ; il devrait apparaître automatiquement lors de l’interaction avec le contenu de quelque manière que ce soit. Cela pourrait être aussi simple qu’un graphique à secteurs montrant quel pourcentage d’un échantillon aléatoire du grand public pourrait potentiellement recevoir le contenu via les algorithmes utilisés pour le diffuser.

Si un contenu que je reçois est distribué dans une tranche de 2 % du grand public, cela devrait me permettre de généraliser correctement son intégration dans la société en ce qui concerne le contenu partagé dans une tranche de 60 %. Et si un utilisateur clique sur le graphique indiquant un ciblage de 2 %, des données démographiques détaillées sur la définition de ce 2 % doivent lui être présentées. Le but n’est pas de supprimer le contenu, mais de rendre le mécanisme de diffusion le plus visible possible, permettant à chacun d’apprécier quand on est délibérément enfermé dans une chambre d’écho bien définie et quand on ne l’est pas.

Avec une transparence dans le ciblage, chacun de nous devrait pouvoir construire un modèle mental plus précis de notre société. Bien sûr, je pourrais encore résonner avec du contenu marginal sur certains sujets, mais au moins je saurai que ces sentiments particuliers sont rares dans la sphère publique. Et je ne me laisserai pas berner en pensant que l’idée extrême que j’ai eue hier soir à propos des lézards qui dirigent ma chaîne de restauration rapide préférée est un sentiment largement accepté et partagé par le grand public.

En d’autres termes, les plateformes de médias sociaux peuvent encore m’envoyer un grand nombre de ballons à l’hélium, et j’apprécierais peut-être d’acheter ces ballons, mais avec la transparence du ciblage, je ne serai pas induit en erreur en pensant que le monde entier est rempli d’hélium. . Ou des gens de lézard.

Louis Rosenberg est un pionnier dans les domaines de la réalité virtuelle, de la réalité augmentée et de l’IA. Il y a trente ans, il a développé le premier système fonctionnel de réalité augmentée pour l’US Air Force. Il a ensuite fondé la première société de réalité virtuelle Immersion Corporation (1993) et la première société de réalité augmentée Outland Research (2004). Il est actuellement PDG et scientifique en chef d’Unanimous AI, une entreprise qui amplifie l’intelligence des groupes humains. Il a obtenu son doctorat de l’Université de Stanford, a été professeur à l’Université d’État de Californie et a obtenu plus de 300 brevets pour son travail en réalité virtuelle, réalité augmentée et intelligence artificielle.

DataDecisionMakers

Bienvenue dans la communauté VentureBeat !

DataDecisionMakers est l’endroit où les experts, y compris les ingénieurs de données, peuvent partager des informations et des innovations liées aux données.

Si vous souhaitez lire des idées de pointe et des informations à jour, les meilleures pratiques et l’avenir des données et de la technologie des données, rejoignez-nous sur DataDecisionMakers.

Vous pourriez même envisager de contribuer votre propre article!

En savoir plus sur DataDecisionMakers

Laisser un commentaire