https://pixabay.com/fr/photos/une-biblioth%c3%a8que-paradis-des-oiseaux-425730/

https://pixabay.com/fr/photos/une-biblioth%c3%a8que-paradis-des-oiseaux-425730/

      «  Est-ce qu'on peut lui faire confiance pour toujours écrire la vérité ? Eh bien, tout dépend de ce que vous pensez être la vérité ! ». Cette frappante affirmation prononcée par Sanger Larry, directeur des systèmes d’information de l’encyclopédie en ligne Everipedia, se voit être le reflet d’inquiétudes, quant à la véhiculassions des informations sur un site que vous connaissez tous : Wikipédia

Aujourd’hui, la dépendance à Internet n’est alors plus qu’une constatation. Que ce soit pour faire ses devoirs, une recherche de dernière minute, prendre un rendez-vous et même déclarer ses impôts, Internet semble prendre la place du Graal de la connaissance ! Mais, qu’est-ce que la connaissance ? Elle est partagée entre les apparences et la réalité, entre l’opinion et la science. Elle est le fruit de la compréhension d’un sujet donné, mais ne peut pas s’avérer absolue. La connaissance peut évoluer, diverger, car elle est subordonnée à l’information perçue. Internet est un outil informatique mondial comprenant un flux de données conséquent. Un simple clic le rend accessible à tous, que ce soit pour l’enrichir ou le consulter. Ainsi, va être placée sur le devant de la scène la question de la validité des contenus s’y trouvant. Développer un savoir revient alors à réunir un ensemble d’éléments, et à les approfondir pour en connaître davantage. Alors, comment développer un savoir, si celui-ci est fondé sur une connaissance qui peut être biaisée ?

L’avènement d’Internet trouve son origine à partir des années 1990. Les informations piochées antérieurement à ces dates illustrent, par ailleurs, parfaitement la nécessité de trier les données consultées, en raison de la diversité des versions rencontrées sur le Net. Créé dans des laboratoires d’universités américaines dans les années 1960 sous le nom d’Arpanet (Advanced Research Projects Agency Network), sa conception initiale a reposé sur le reliage de systèmes informatiques et de réseaux. L’essence de sa conception avait, cependant, pour objectif initial, le maintien d’un réseau militaire dans un contexte de guerre froide. Dès 1968, Lickider et Taylor, précurseurs de son invention, semblaient avoir déjà connaissance de l’ampleur que cela aurait dans les décennies à venir. Comme évoqué, Internet s’est vu sujet à une montée en puissance phénoménale durant les trente dernières années. Utopie de l’accessibilité à des connaissances sans effort réel, cet engouement a fait de lui le nouvel eldorado de l’économie mondiale. Son ascension fulgurante a permis, non plus de simplement rechercher et trouver, mais de communiquer, discuter, et partager.

C’est par la facilité de son utilisation qu’il a engendré la démultiplication de contenus et de partages. Internet s’est alors transformé en un support alimenté par ses utilisateurs. Aujourd’hui, les buts de sa création se sont progressivement commercialisés et ont ainsi permis à d’importants acteurs d’accéder, à leur tour, aux données personnelles de ses usagers. Le flot continu de données augmente, à tel point qu’il est de plus en plus facile de s’y perdre. En somme, c’est devenu le carrefour entre l’information réelle, commerciale, contrôlée et subjective.

Internet, en ce qu’il est le support d’un flux d’informations toujours plus important, se place alors au cœur des préoccupations dans l’établissement du savoir. Ce même flux est à l’origine d’une incertitude qui entache les données, ou plutôt, celles qui sont mises en avant. En effet, par des procédés aussi novateurs que élaborés, l’information perçue par l’utilisateur lui sera propre. La connaissance ainsi développée ne sera plus le fruit d’une information objective et commune à l’ensemble des consommateurs d’Internet, mais bien d’une transmission personnalisée de données.

La portée et la finalité de ces procédés doivent faire l’objet d’une évaluation, pour ainsi comprendre l’avenir qui est réservé à la conception actuelle du savoir.

De ce fait, il peut être pertinent de se demander en quoi la qualité du savoir peut-elle être altérée par la facilité d’accès à une abondance d’informations ?

Internet est par essence le lieu vers lequel il faut se tourner pour effectuer une recherche de dernière minute. La facilité d’accès à l’information est alors la caractéristique phare du Web. En quelques instants, il est possible de toucher du bout des doigts une abondance d’informations qui, contrairement à ce que son apparence pourrait laisser penser, est parfaitement organisée, planifiée et structurée, pour répondre à des besoins clairement identifiés. Cependant, l’information, en ce qu’elle est triée pour des raisons qui dépassent sa validité, ne perd-elle pas son sens ? Vers quel horizon le savoir peut-il se tourner, s’il se fonde sur des données non objectives ? Quel avenir le flux d’informations laisse-t-il à la connaissance ?

INTERNET, UNE MAÎTRISE DE L’INFORMATION À PROFUSION

 

La multiplicité des résultats apparaissant à l’écran en réponse à quelques mots-clefs inscrits sur un moteur de recherche, illustre l’abondance des informations se trouvant sur la partie visible du Net. Le fruit d’une recherche est toutefois variable selon les individus, en raison de procédés complexes. Les données ainsi présentées sont l’aboutissement d’une analyse de l’utilisateur, de ses goûts, désirs et préférences, l’information ainsi traitée n’est-elle pas biaisée ?

 

Un flux d’informations accessible en libre-service

 

Internet était à l’époque un réseau gratuit destiné uniquement aux chercheurs et aux enseignants. L’approche classique d’Internet se faisait par la diffusion de l’information du haut vers le bas (top down). L’idée qu’Internet puisse être accessible à tous et diffusé dans le monde entier était alors insoupçonnable. Internet, dans sa conception libertarienne, a été le fruit d’un imaginaire futuriste où se mêlent accessibilité et abondance d’informations. La volonté de créer un monde interconnecté a été telle, que l’approche de l’information est devenue, progressivement, plus moderne. Cette volonté va de pair avec la démocratisation des nouvelles technologies de l’information et de la communication (NTIC) dans les années 2000. 

L’utilisation de ces outils technologiques se développe alors à un rythme effréné. Il a fallu donc repenser l’accessibilité et la diffusion de l’information sur Internet, afin de permettre une diffusion et toucher un maximum d’utilisateurs dans le monde. L’accès à Internet a alors été remanié, afin de permettre une diffusion de l’information du bas vers le haut (bottom up). Autrement dit, tout individu peut diffuser une information sur Internet. Cette nouvelle forme de diffusion de l’information est à l’origine du changement de civilisation qu’a connu l’humanité ces dernières décennies. L’information est désormais diffusable par tous et accessible aux quatre coins du monde, aussi bien dans les zones urbaines que dans les zones rurales. Internet devient alors le dépositaire d’un pan entier de la connaissance, qui était jusque-là inaccessible pour le commun des mortels.

Néanmoins, comment s’y retrouver face à un tel foisonnement d’informations ? Il n’est pas toujours aisé de faire la distinction entre une opinion, une information scientifique ou encore une publicité dissimulée. La hiérarchisation de l’information nécessite pour l’utilisateur en ligne de prendre du recul face à un tel flux d’informations.

Or, les individus, notamment les jeunes, ne sont pas tous égaux quant au comportement à adopter face à l’absorption de l’information sur Internet. La question du recueillement et du traitement de l’information sur Internet se pose également, notamment lorsque celle-ci a un caractère personnel.

Le terme « d’infobésité » prend alors tout son sens. Ce terme, issu de la contraction des termes “information” et "obésité", désigne l’excès d’information présent sur Internet. Cette surconsommation de l’information se fait alors parfois au détriment de l’utilisateur, qui sans le savoir, est confronté à un risque d’utilisation de ses données personnelles. En outre, cette collecte d’informations permet souvent d’orienter une recherche Internet, sans le consentement préalable de l’utilisateur. Mais qu’en est-il réellement de cette collecte et de ce traitement des données sur Internet ?

Les intérêts de l’utilisateur au cœur de la différenciation de l’information 

 

Visiter un site Web, télécharger une application, regarder une publicité… Les actions effectuées sur Internet ne sont pas sans conséquence, et la Commission nationale de l’informatique et des libertés (CNIL) est là pour les réguler. En effet, Internet est décrit comme la porte du savoir, et son rôle est de permettre à tout un chacun d’accéder à l’information dont il a besoin. Néanmoins, pourquoi les résultats obtenus divergent entre les individus lorsque sont effectuées les mêmes recherches ? Comment Internet peut-il hiérarchiser l’accessibilité à des données en fonction de chaque utilisateur ? Peu nombreuses sont les personnes ayant pleinement conscience de la collecte de données personnelles qui se crée lorsqu’elles surfent sur le Net. Entreprendre de visiter un site, par exemple, ou de télécharger, c’est se mettre en relation avec un grand nombre de sociétés qui vont, pour la plupart, acheter les informations des utilisateurs. L’outil Cookieviz, développé par la CNIL, permet par ailleurs d’observer le phénomène de cette collecte, dont la portée est exponentielle.

En réalité, l’impact en résultant n’est pas moindre. En plus de ne pas être informé du but des données saisies, le savoir de l’individu utilisateur peut être altéré. Cela découle du simple fait qu’une opération de personnalisation de l’information recherchée est effectuée, dès lors que les préférences dudit utilisateur sont déterminées. En effet, les résultats trouvés sur le Web dépendent notamment de tout ce qui a pu être enregistré quant aux orientations de chacun.

C’est pour cette raison que deux personnes réalisant la même recherche n’auront pas nécessairement les mêmes propositions. Tout est alors orienté, et l’objectivité se perd. Tout le monde peut en réalité le constater, simplement par l’extrême et étonnante personnalisation de certaines publicités, qui “tombent à pic” et correspondent aux recherches qui les précèdent.

Les informations recueillies alors en masse, leur vente ou alors la simple acceptation de cookies par les utilisateurs ne peuvent que conduire à l’obtention de données biaisées. Souvent, ces dernières vont même conforter les individus dans leurs prénotions, obstacles alors à la recherche pleine et totale de la neutralité. Mais alors dans ce cas, est-il réellement possible et comment accéder à un savoir objectif, impartial ?

La réponse, définie par la conception même de la connaissance et du savoir, est floue. Cependant, le flux continu de ventes d’informations accentue l’influence que vont avoir les réseaux, les sites, les vidéos et même les médias auxquels sont assujettis les individus. Internet prend alors ses utilisateurs en proie, et tend à s'imposer petit à petit à eux. D’une part par le biais d’informations attractives, et d’autre part par la création de contenus qui les maintient dans cette relation de dépendance naissante et grandissante.

INTERNET, UNE SOURCE DE CRAINTE D’UN DÉCLIN DE LA CONNAISSANCE

 

Le Web représente, pour tout utilisateur, la possibilité de consulter des données, ou de contribuer à leur élaboration : c’est cette capacité de participation qui est à l’essence même d’Internet. Cependant, cette coopération des internautes ne viendrait-elle pas altérer l’information ? L’information court alors un risque de perdre sa nature, si d’autres questions viennent se greffer à elle. Entre abondance et marge d’erreur importante, le savoir s’en trouve impacté. 

 

Une participation active des internautes à l’alimentation du système d’information

 

Les internautes qui naviguent sur le Web ont accès à une multitude d’informations, qui correspondent à leurs recherches. Seulement, une vérification active des sources de publication sur Internet est de rigueur, car les individus effectuant ses recherches ont aussi le pouvoir de publier du contenu. C’est le cas de la célèbre encyclopédie en ligne Wikipédia, qui est alimentée par des volontaires.

De ce fait, les publications, même si elles sont vérifiées a posteriori , ne sont pas divulguées par des professionnels, ce qui engendre un manque de sûreté vis-à-vis de l’information. Les qualités concernant celles-ci sont donc remises en question avec une participation active des internautes. Ce qui représente une liberté d’expression, mais qui ne garantit pas une information fiable.

La prise de parole en ligne est donc facilitée et se démocratise, à l’origine d’une abondance d'informations qui sont donc difficiles à contrôler. Comment est-il possible d’avoir la capacité d’établir un savoir véritable avec un tel processus propice à la désinformation ? Le manque de contrôle sur certaines plateformes constitue, dans certaines situations, une tromperie à l’égard de l’individu qui va croire avoir trouvé une réponse exacte à ses recherches. De surcroît, les phénomènes liés à la désinformation sont les plus fréquemment présents sur les réseaux sociaux. À titre d’exemple, en 2012, un internaute annonce la mort de la chanteuse Rihanna sur Facebook, ce qui a provoqué une vague de réaction de la part des fans. Toutefois, le Code pénal n'est pas resté muet face à la diffusion de fausses nouvelles avec son article 322-14 qui dispose : « Le fait de communiquer ou de divulguer une fausse information dans le but de faire croire qu'une destruction, une dégradation ou une détérioration dangereuse pour les personnes va être ou a été commise est puni de deux ans d'emprisonnement et de 30 000 euros d'amende ». Afin de constater cette infraction, il est nécessaire de réunir quatre critères relevés par l’article 27 de la loi du 29 juillet 1881. La publicité ou la publication d’un fait mensonger, erroné ou inexact avec une intention coupable qui provoquent un trouble à la paix publique.

Par conséquent le savoir des individus peut se retrouver biaisé. Ils peuvent être trompés si ces derniers ne sont pas assez attentifs à la qualité de l’information récoltée. Cependant, la recherche d’information est aussi encadrée par des plateformes telles que les bibliothèques en ligne. Celles-ci vont recueillir le même savoir et les mêmes informations que dans une bibliothèque classique, mais de manière dématérialisée. Cela constitue une nouvelle manière d'accéder au savoir et à l'information, pour de nombreuses personnes. Sur des sites tels que la Bibliothèque Nationale de France (BNF) les sources sont sûres. Les bibliothèques s’adaptent à ce grand changement de recherche de l’information en incluant ses sources, en ligne.

Ainsi, le savoir est aisément accessible, mais il est important de le préserver et de le protéger pour que des dérives ne soient pas perpétrées. Il est préférable que les informations et le savoir ne soient pas des notions corrompues.

Une banalisation de l’information, un consumérisme source de la corruption du savoir

 

Le flux, en raison de l’abondance des données diffusées, et du fait que n’importe quel utilisateur est en mesure de contribuer à l’étendu du contenu en ligne, transforme la manière de concevoir l’information. En effet, cette dernière, en plus de perdre son objectivité, ne semble plus revêtir la même fonction.

La diffusion d’information n’est-elle pas désormais un outil de commercialisation ? À titre d’exemple, certaines sociétés assurent la diffusion gratuite d’informations sur Internet, et trouvent leur rémunération à travers des annonceurs publicitaires. En théorie, cela ne représente aucun problème particulier, jusqu’à un certain point. Effectivement, la montée en puissance des nouvelles technologies ne s’est pas fait attendre au sein du milieu de la presse en ligne. C’est ici le cas de la méta-information publicitaire : il s’agit de la fabrication d'articles par des algorithmes. L’objectif est clair : créer le plus rapidement possible des condensés d’informations, pour les publier à destination d’utilisateurs ciblés. L’intérêt n’est plus de faire de l’information un moyen d’établir une connaissance véritable, permettant l’acquisition et le développement d’un savoir, mais bien d’approvisionner le Web d’informations. Le lecteur croule sous dans cette abondance de renseignements, qui n’ont plus pour but de l’informer, mais de lui proposer un contenu qui l'intéresse. La finalité est alors d’attirer les utilisateurs sur le site de l’entreprise à la tête de ces articles rédigés en masse, faisant du lecteur la source de revenus de cette dernière.

Cependant, la question de la validité de l’information dans la presse n’a pas attendu Internet pour se poser. Sans parler de réelle désinformation ou de pur mensonge, une simple prise de position politique dans un article, sans l’indiquer, est source d’incertitude quant à la connaissance produite de cette information. Le problème avec la méta-information, et plus généralement le flux de données sur Internet, c’est que l’information n’est plus utilisée pour éveiller la curiosité du lecteur, ou bien le tenir au courant d’un fait ou d’une notion. Les enjeux commerciaux n’étant plus les mêmes avec la montée en puissance d’Internet : un glissement semble s’être opéré. L’information, dans ce cadre bien précis d’abondance, sans pertinence ni contrôle de validité, n’est plus celle qui souhaite vendre, mais devient elle-même le produit.

Alors, quel avenir pour le savoir ? Si l’information est ciblée, subjectivement altérée pour correspondre aux désirs du lecteur, ce dernier est-il contraint de faire lui-même ses recherches pour développer des connaissances objectives ? La législation actuelle est-elle toujours fondée à parler de droit à l’information, quand bien même cette dite information abondante n’est qu’un produit, dont le destinataire est le lecteur en quête de renseignements ? Le savoir est-il voué à se noyer dans ce déluge d’informations, dont la finalité n’est plus d’apprendre, mais d’être au cœur d’un processus commercial.

 

Auteurs : Yassine DHIFALLAH, Victor LACLEF, Arnaud LANCKBEEN, Pablo MARTINEZ, Andréa VENTURA

 

BIBLIOGRAPHIE

 

Ouvrages

BENGHOZI (P-J.), BERGADAÀ (M.), « La curation Web, un remède à l’infobésité », p. 27-40., in BENGHOZI (P-J.), BERGADAÀ (M.) dir., Les savoirs du Web, De Boeck Supérieur, Louvain-la-Neuve, 2012, 180 p. [en ligne]https://www.cairn.info/les-savoirs-du-web--9782804170936-page-27.htm

BRETON (P.), « Internet. La communication contre la parole ? », in Études[MF17] , vol. 394, N°6, 2001, p. 775-784. [en ligne] https://www.cairn.info/revue-etudes-2001-6-page-775.htm

LITTRÉ (É.), Dictionnaire de la langue française, [en ligne] https://www.littre.org/

LEONETTI (X.), « Après la « Junk Food » de l’agroalimentaire, voici la « Junk Thought » des réseaux sociaux : Bienvenue dans le nouveau monde ! », in Dalloz IP/IT, 2022, p. 187-191. 

NIEL (X.), ROUX (D.), « La révolution Internet », in NIEL (X.), Les 100 mots de l’internet. Presses Universitaires de France, 2010, p. 3-10.

RODRIGUES DOS SANTOS (J.), « La notion de savoir en anthropologie », in DESPRINGRE (A.-D.), LESTEL (D.) (dir.), Journal des anthropologues, Anthropologie et cognition, n°70, 1997, p. 17-39.

SAUVAJOL-RIALLAND (C.), « Infobésité, gros risques et vrais remèdes », dans L’Expansion Management Review, 2014/1, n°152, p. 110-118. [en ligne] https://www.cairn.info/revue-l-expansion-management-review-2014-1-page-110.htm

 

Cours magistral

SÉGUR (P.), Droit de la personne et Internet, Master 1 Administration publique, Université de Perpignan via Domitia, Perpignan, année universitaire 2022-2023.

 

Articles

BABINET (G.), LENOIR (T.), « Être souverain en 2030 : la gouvernance des infrastructures numériques », in Revue internationale et stratégique, 2020/2, n°118, p. 147-153. [en ligne] https:// www-cairn-info.ezproxy.univ-perp.fr/revue-internationale-et-strategique-2020-2-page-147.htm

BADOUARD (R.), « La régulation des contenus sur Internet à l’heure des « fake news » et des discours de haine », in Communications, 2020/1, n°106, p. 161-173. [en ligne] https://www-cairn-info.ezproxy.univ-perp.fr/revue-communications-2020-1-page-161.htm

FERCHAUD (B.), « Quels modèles gagnants pour le marché de l’information sur Internet ? », dans Documentaliste-Sciences de l’information, 2001/2, vol. 38, p. 132-135. [en ligne] https://www-cairn-info.ezproxy.univ-perp.fr/revue-documentaliste-sciences-de-l-information-2001-2-page-132.htm

 

Sites officiels 

CNIL, « quels enjeux pour la protection des données personnelles ? », in Cnil [en ligne] https:// www.cnil.fr

MUSÉE INFORMATIQUE, « Comment le Web a évolué de sa conception à aujourd’hui ? », in Musée informatique [en ligne] https://www.museeinformatique.fr/evolution-web

Retour à l'accueil