Les réseaux sociaux sont devenus des applications qui font partie de notre quotidien et : "Que ce soit la pression sociale ou un besoin d’appartenance nous en utilisons presque tous au moins un." [1].
L'intelligence artificielle est utilisée dans les réseaux sociaux afin de surveiller et modérer les millions de données échangées tous les jours sur les plateformes. Ainsi l'I.A. sert, pour YouTube a supprimer automatiquement certaine vidéo jugée violente ou cruelle, pour Instagram a surveiller et modérer les commentaires, pour Facebook a surveiller le contenu et personnaliser le fil d'actualité entre autres, pour Twitter a analyser les fake news. [1]
Les réseaux sociaux sont une mine d'informations pour les entrepises qui graçe à eux peuvent même déterminer notre type de personnalité : "Cette détection de la personnalité a de nombreuses utilités, non seulement pour les entreprises privées, mais également pour l’amélioration de la compréhension du comportement humain." [2].
Les réseaux socaux analysent les messages ou les profils afin de déterminer la personnalité de leurs utilisateurs : "Pour pouvoir détecter la personnalité des utilisateurs, l’ordinateur se base sur des micro-indicateurs, aussi appelés « traits », que les gens laissent souvent de manière inconsciente dans leurs écrits ou dans leurs profils en général."[2].
Une étude de l’Université de Cambridge : "montre qu’un algorithme entraîné sur les « J’aime » d’une personne sur Facebook arrive à déterminer sa personnalité aussi efficacement qu’un partenaire de vie.", et il en va de même pour les photos ou les vidéos : "Pour les réseaux sociaux tels Instagram et YouTube, une extraction de traits provenant directement des images et des vidéos est possible, par exemple en se basant sur les objets présents dans les photos et les vidéos." [2].
Ce genre d'expérience d'utilisation de l'I.A. pour analyser l'utilisation des réseaux sociaux pourrait être utilsé dans les ressources humaines : "Cette capacité de l’ordinateur pourrait améliorer la compréhension du comportement humain et les techniques des ressources humaines, en dispensant du besoin de faire un test de personnalité, ce qui est souvent long et parfois coûteux." [2].
Les réseaux sociaux sont la cible des marques et des entreprises, elles utilisent l'I.A. pour prospecter des clients et développer leurs parts de marché, ainsi : "Son rôle principal est la prise de décision sur l'affichage d'un contenu pertinent ou non auprès des utilisateurs : tout ce que vous voyez, entendez, lisez, achetez sur Internet, est filtré par des algorithmes avant d'arriver devant votre écran." [3].
L'I.A. sert donc, sur les réseaux sociaux, à analyser tous vos faits et gestes : "En analysant vos réactions personnelles, ils s'assurent de vous proposer du contenu pertinent et intéressant. Pour le cas de Facebook, ses algorithmes regardent à la loupe les pages, les profils, les commentaires et les groupes que vous consultez. Toutes vos interactions sont analysées." [3].
Cette constante filtration de nos activités par les algorithmes rend les réseaux sociaux source de cloisonnement et n'est donc pas neutre : "Tout d'abord, les algorithmes peuvent indirectement être à l'origine de " bulles de filtres ". (...) le phénomène de bulles de filtres cloisonne l'internaute dans une sphère où l'information est axée autour de ses centres d'intérêt, de son réseau, et bien d'autres facteurs. Cette bulle entraîne une hyper individualisation des pratiques culturelles. " [3].
Le déterminisme des algorithmes fausse donc notre vie sociale sur les réseaux sociaux : "Avec l'ensemble des contenus poussés par les algorithmes, l'utilisateur n'a plus tellement la possibilité de se perdre et échapper au déterminisme. Les algorithmes entraînent ainsi un risque de la réduction de la liberté de choix. L'utilisateur aura moins tendance à découvrir ce qu'il ne connaît pas encore, aimer ce qu'il n'a jamais testé et s'ouvrir à des opinions différentes des siennes." [3].
Internet : le business des fermes à clics - France 2
Nos interactions sur les réseaux sociaux sont donc complètement biaisées, et on peut déterminer :"trois sources de biais liées à des dimensions cognitives, statistiques et économiques." [3].
Face à la masse d'information, les utilisateurs sont exposés aux biais cognitifs : "Les biais cognitifs sont des mécanismes de pensée à la base du fonctionnement du cerveau. Ils lui permettent de traiter rapidement de nombreuses informations sans faire appel à la pensée logique et rationnelle qui lui demande davantage de ressources." [3].
Les biais statistiques sont générés par la masse d'informations vraies ou fausses (fake news) orientées sur base des analyses faites par l'I.A. au service des publicitaires, de campagnes de désinformation, etc., ainsi : "L'encadrement des algorithmes, ainsi que le contrôle de l'information sur les réseaux sociaux, vont devenir dans les années qui viennent un enjeu majeur pour les gouvernements et les entreprises." [3].
Les réseaux sociaux ont des avantages comme la facilité de faire des rencontres ou des contacts qu'ils soient privés ou professionnels, mais ils nous enferment dans des catégories, des cases préformatées en nous proposant des informations et des relations qui correspondent à nos attentes, attentes déterminées par l'I.A. et confortées par les contenus qu'elle nous propose.
Nos rapports sociaux et nos activités sociales sur les réseaux sociaux sont donc imprégnés d'un déterminisme algorithmique qui ne favorise pas le développement de nos capacités à découvrir, explorer, se risquer à autre chose que ce que des algorithmes prédictifs de notre personnalité, mais surtout contributeur à la croissance économique d'entreprises commerciales, ne "pensent" être ce qui devrait nous convenir comme information, relation, loisir, etc.
[1] Batiste Montoux, "Exemples d’intelligence artificielle avec les réseaux sociaux", https://www.mailabs.fr/intelligence-artificielle/exemples-intelligence-artificielle/exemples-dintelligence-artificielle-pour-les-reseaux-sociaux/ [2] Frédéric Piedboeuf, in "Détecter la personnalité sur les réseaux sociaux", https://www.ficsum.com/dire-archives/hiver-2020/societe-detecter-la-personnalite-sur-les-reseaux-sociaux/ [3] Danielle BILONGO, "Les réseaux sociaux et médias à l'ère des algorithmes", https://www.chefdentreprise.com/Thematique/marketing-vente-1027/marketing-2048/reseaux-sociaux-3157/Breves/Les-reseaux-sociaux-medias-ere-algorithmes-344712.htm
Robots
Un nouvel intervenant arrive dans notre vie sociale, c'est le robot.
Bientôt nous aurons comme ami, confident, conseillé, ou simple compagnie, ces nouveaux personnages de la vie sociale que sont les robots.
Les robots ne seront plus, comme on en a l'image habituellle, de simple machine sans émotions, sans empathie, sans humour, sans compassion.
Les informaticiens et autres ingénieurs de la robotique travaillent à créer un certain type de robots qui ont pour finalité de faire partie intégrante de notre vie sociale et affective. Ils deviendront nos amis, confidents, conseillés, compagnons de demain : "Une branche de la robotique se focalise sur la façon de rendre notre cohabitation avec ces robots plus aisée : c’est ce qu’on appelle l’informatique ou la robotique affective, ou bien encore la robotique sociale." [1].
Nous aurons donc de nouvelles interactions dans un avenir proche avec cette nouvelle forme d'interlocuteur que sont les robots sociaux, ainsi : "La façon dont nous intégrerons ces nouvelles technologies dans notre quotidien influencera nos rapports entre humains." [2].
Ainsi, les robots vont avoir une influence sur nos façons de vivre et nos relations, qu'elles soient individuelles ou en collectivité, et les concepteurs de ceux-ci cherchent à créer des machines les plus familières possible que ce soit dans leurs apparences ou dans leurs comportements : "Le but à terme est de leur permettre de se synchroniser avec leur utilisateur humain : copie de nos mimiques, de nos façons de parler, de nos attitudes, récolte d’informations sur nos repas, notre entourage, nos loisirs… Grâce à ce profilage permanent et évolutif opéré par une intelligence artificielle, nos robots seront capables de se caler sur nos attentes, mais surtout de les anticiper." [2].
Ces nouveaux partenaires, avec qui nous auront de nouvelles interactions sociales ne devraient être rien d'autre qu'un partenaire idéal. Dès lors : "En associant cette double familiarité, dans l’apparence et le comportement, les robots créeront un climat de confiance établi qui nous incitera à nous sentir à l’aise avec eux et à leur faire partager tous les aspects de nos vies, jusqu’aux détails les plus intimes. Le but étant de nous faire croire qu’ils sont autre chose que des objets programmés pour simuler." [2].
Tout comme avec les réseaux sociaux, nos relations avec les robots risquent d'être déterministes et préformatées à notre propre personnalité, nos propres centres d'intérêts, nos propres attentes émotionnelles, ainsi : "Nous pourrons vite croire que nous avons une « vraie » personne en face de nous, et développer un attachement très fort envers eux. (...) Tout le monde ne les utilisera pas de la même façon, certains y verront un animal de compagnie, d’autres un compagnon amoureux ou amical, d’autres encore les considéreront un peu comme des animaux de boucherie, interchangeables à souhait, ne devant répondre qu’à un certain besoin pour une action particulière, sans affect." [3].
Le risque de se tourner vers la compagnie des robots plutôt que de rechercher les contacts humains est grand car : "Il sera plus facile de s’acheter un robot qui soit un agréable compagnon que de rencontrer une vraie personne – avec tous les efforts que cela comporte. Cette machine pourra satisfaire tous nos désirs : être un-e partenaire de jeu, un-e cuisinier-ère pour partager ses repas, un sex toy ultra performant, etc." [3].
Les aspects psychologiques dans notre relation aux robots sont donc très importants et sont un risque : "Il est dangereux d’idéaliser les robots, car cela nous fait sous-estimer le travail mental que nous devrons effectuer pour ne pas nous tromper sur eux (...) Le risque est de penser le robot comme une image souhaitable de l’humain et d’attendre des hommes les mêmes qualités d’efficacité et de fiabilité." [3].
Mais le robot sera-t-il capable de réelles interactions sociales dynamiques car : " un robot, humanoïde ou non, possède avant tout le statut d’un objet technologique qui se laisse utiliser et attribue au sujet humain le rôle d’usager." [4].
Le statut du robot est donc variable, et la question qui se pose est de savoir quel mode de relation entre l'homme et la machine allons nous développer : "D’objet, le robot peut alors devenir un quasi-sujet, investi d’une valeur sensible, voire émotionnelle, tandis que le sujet passe, quant à lui, du simple rôle d’usager à celui de co-agent sinon de « compagnon »." [4].
Le robot social, qui est pour l'instant cantonné à être une aide aux personnes âgées ou aux personnes handcapées, a pour fonction sociale d'être : "partenaire social chargé d’accompagner les utilisateurs et d’assurer la médiation entre les différents acteurs de la société.", et il se doit comme acteur social de : "donner l’impression, voire le sentiment, d’être en relation avec un autre, et cela moyennant une interaction affective." [4].
Nos relations sociales avec des robots ne doivent donc pas nous leurrer. Ces relations ne sont que de nature anthropomorphique, c'est-à-dire que le robot ne fait qu'être une simulation de nos propres réactions : "l’anthropomorphisme consiste à rendre intelligibles les comportements des machines ou des animaux en ramenant ces comportements à notre propre condition et à nos propres caractéristiques comportementales. Dès lors, l’anthropomorphisme n’est pas de nature empathique." [4].
Nous n'aurons donc pas de relation empathique et d'échange émotionnel bidirectionnelle, à l'heure actuelle, avec un robot social, car : "L’empathie en revanche implique un changement de perspective : percevoir les choses du point de vue d’autrui. L’empathie suppose une réorganisation de la perception et la découverte d’un nouveau point de vue." [4].
[1] Marguerite Pometko, "L'informatique affective, ou la naissance des robots sociaux", https://www.echosciences-grenoble.fr/communautes/monstrueux/articles/l-informatique-affective-ou-le-jour-ou-les-robots-sont-devenus-sociaux [2] Hélène Molinari, "Robophobe, robophile : quelles relations aurons-nous avec nos robots ?", https://www.numerama.com/sciences/273412-robophobe-robophile-quelles-relations-aurons-nous-avec-nos-robots.html [3] Serge Tisseron, in Hélène Molinari, Idem. [4] Audrey Moutat, "Robotique humanoïde et interaction sociale: utopie ou réalité ?", https://www.unilim.fr/actes-semiotiques/6132
On se freine
Nos interactions sociales sur les réseaux sociaux nous ont conduites à nous rendre compte de leur exploitation commerciale et du trackage qui est était fait.
Dès lors, nous opérons ce que Tijmen Schep, critique des technologies, appelle du "social cooling" : "« Le refroidissement social » désigne la retenue que chacun exercerait dans ses activités en ligne, allant jusqu’à une forme d’autocensure afin de préserver sa réputation." [1].
Notre vie sociale sur le Net est donc soumise à un phénomène de retenue qui est amplifié par la collecte incessante de nos données pour alimenter le Big Data, ainsi : "L’économie des données « endommage l’environnement social », prévient Tijmen Schep" [1].
Comment le web est devenu social ? 1/2 - pixees Scienceparticipative
Comment le web est devenu social ? 2/2 - pixees Scienceparticipative
La récolte de ces données par les réseaux sociaux et autres acteurs du Net a pour objectif de produire des modèles, des catégories, des tendances, de mettre en chiffre nos activités sur le Net. Pour cibler les publicités, pour orienter les recherches d'informations, pour proposer des produits commerciaux adaptés, etc.
En utilisateur averti du risque de manipulation et d’entrave à nos choix et à notre liberté : "nous serions obligés de nous conformer à une « bonne » réputation en ligne, en adaptant nos comportements afin de ne pas être « mal jugés »." [1].
La société du Big Data a, selon Tijmen Schep, trois effets pervers sur notre société :
Le conformisme : par l’effet de dissuasion lié au potentiel jugement de nos actions;
L'évitement du risque : par l'effet de notation de nos actions, nous dissuadant de prendre des risques;
La rigidité sociale accrue : par l'effet de pression sociale freinant la contestation.
L'activité sur le Net est donc sujette à un effet d'intimidation où, dans certaines circonstances ou en fonction de certains évenements, nous allons freiner nos comportements sur la Toile par crainte de la surveillance qui en est faite, ainsi : "Chercheur à l’université de Toronto, Jon Penney avait ainsi mis en lumière la baisse du nombre de consultations d’articles dans la version anglophone de Wikipédia faisant allusion, d’une façon ou d’une autre, au terrorisme dans les deux mois qui ont suivi. Le constat est le même pour des requêtes effectuées dans le moteur de recherche Google à partir de mots-clés « sensibles ». Les travaux de recherche de l’Américaine Elizabeth Stoycheff ont également contribué à démontrer un phénomène d’autocensure lié à la révélation de programmes de surveillance en ligne, agissant au détriment des opinions minoritaires." [1].
[1] Françoise Laugée, "Refroidissement social - Social cooling", https://la-rem.eu/2018/07/refroidissement-social/
Influence
L'intelligence artificielle engendre la standardisation de part son approche statistique. Cette effet se fait remarquer dans le domaine de la beauté. En effet, Amazon, avec sa caméra connectée Echo Look propose de conseiller ses utilisateurs sur les tenues vestimentaires qui sont le plus en vogue sur les réseaux sociaux, ainsi : "Plus qu’un styliste personnel, l’intelligence artificielle dicte ce qui est de bon goût ou non." [1].
Les modes vestimentaires qui étaient plutôt déterminées par les médias, les artistes du hit-parade ou les publicitaires, le sont maintenant par les algorithmes des réseaux sociaux, ainsi : "Nourris par nos données, ces algorithmes nous incitent à modifier nos habitudes de consommation et à nous conformer aux standards des plateformes sociales." [1].
Les nouveaux canons de beauté sont donc construits artificiellement, comme ils l'étaient déjà par les publicistes, mais : "L’ère digitale semble n’avoir fait qu’accélérer la conformisation et la consolidation des « canons » traditionnels." [1].
Pour un numérique humain et critique - Conférence de Dominique Cardon - PointCulture TV
L'effet avatar, ou le "moi virtuel", compense un peu cette tendance de conformisation par l'extravageance que l'on peut lui donner avec les filtres et autres effets mis à disposition sur les réseaux sociaux, de sorte que : "On a à peine le temps de prendre conscience de notre corps physique qu’il faut déjà s’occuper de notre corps numérique. Désormais, nos avatars ont une identité à part entière, et il faut les traiter comme des individus réels." [1].
L'avatar permet donc : "de jouer avec les représentations standardisées de la beauté, voire d’en inventer de nouvelles" [1].
Comme on peut le remarquer, notre vie sociale sur le Net est à la fois source de conformismes sociaux, et à la fois source de libération personnelle. Il est donc primordiale de trouver un équilibre entre son image numérique et la réalité, au risque de s'enfermer dans un univers imaginaire pathogène pour notre santé mentale.
[1] Ladn.eu ,"Les réseaux sociaux, nouveaux juges de beauté", https://www.ladn.eu/nouveaux-usages/nouveaux-futurs/reseaux-sociaux-nouveaux-juges-beaute/
Vie virtuelle
L'intelligence artificielle s'invite dans notre vie numérique pour en éviter les exces. Par exemple les plateformes de réseaux sociaux mettent en place des dispositifs de prévention des suicides qui peuvent aller jusqu'à l'intervention réelle dans la vie de l'utilisateur : "Lorsqu’un message d’alerte est détecté et que son score est supérieur à 6, ils tentent de contacter la famille de la personne en danger ou les secours." [1].
Ce genre de dispositif repose la question entre la vie privée et la vie numérique. En effet, il ne peut être mis en place qu'en scrutant les activités des utilsateurs avec des robots explorateurs. En Europe, les systèmes sont bridés du fait de l'application de la RGPD, ainsi sur Facebook : "S’il repère des termes appartenant au champ lexical du suicide, un pop-up s’ouvre et propose de l’aide à l’utilisateur." [1].
Notre vie sociale, sur le Net dans des univers numériques et avec l'arrivé des technologies de réalité viruelle, est soumise à des manipulations par les choix des contenus qui vous sont proposés et le type d'informations diffusées.
Dans les échanges virtuels, il existe aussi un biais entre la réalité et le monde numérique : "Si vous vous livrez à une conversation en réalité virtuelle, les traits du visage, les expressions, les gestes, l’apparence corporelle et bien d’autres éléments peuvent être modifiés par le logiciel sans même que vous le sachiez." [2].
La réalité virtuelle va modifier encore un peu plus nos rapports sociaux sur le Net et nous faire entrer encore plus dans un monde déconnecté de la réalité : "Si bien qu’une impossibilité physique devient virtuellement une possibilité." [2].
Cette porte ouverte à la réalisation de choses impossibles dans la réalité pose la question de la manipulation, certe cette nouvelle possibilité va libérer notre imaginaire et notre créativité sur le Net : "Mais il y aura toujours des gens pour récupérer un outil et s’en servir éventuellement en vue d’un acte néfaste.". (Nouvelobs.com, Ibidem)
Nous avons vu l'effet de l'intelligence artificielle sur les choix vestimentaires, et bien : "La recherche a démontré que notre apparence et celle des autres dans le monde virtuel risquent de nous influencer dans le monde réel." [2].
Dans une conversation virtuelle par exemple : "Si quelqu’un mime l’expression corporelle d’une autre personne, au cours d’une conversation, alors la personne imitée sera mieux disposée à son égard. Dans la réalité virtuelle, ce procédé est facile à effectuer dans la mesure où l’on repère les gestes de chaque personne. Et l’avatar pourra imiter la personne sans que celle-ci n’en prenne conscience." [2].
L'intelligence articielle dans nos interactions sociales sur le Net n'est donc pas forcement neutre, et les logiciels peuvent facilement "améliorer le confort" de nos interactions virtuelles : "Plusieurs études de l’université Stanford ont établi que si les traits d’une personnalité politique étaient modifiés, même légèrement, afin de ressembler à chaque électeur, l’un après l’autre, cela pourrait alors avoir une incidence significative sur la façon dont votent les gens." [2].
L'influence du virtuelle sur le réelle n'est donc pas négligeable. La virtualisation de la réalité, c'est-à-dire sa création artificielle, montre déjà ses effets manipulatoire dans les tromperies des notations sur les sites de commerces en ligne. La réalité virtuelle va encore plus loin dans ces possibilités de dérives : "Ce qui se passe dans le monde virtuel ne demeure pas dans le domaine virtuel. Nous devons donc faire attention : une fois entrés dans ce nouveau royaume, ce que nous avons sous les yeux n’est pas forcément ce que nous avions prévu." [2].
[1] Jean-Yves Alric, "Cette IA peut prévenir les suicides à partir de messages postés sur les réseaux sociaux", https://www.presse-citron.net/cette-ia-peut-prevenir-les-suicides-a-partir-de-messages-postes-sur-les-reseaux-sociaux/ [2] Nouvelobs.com, "Comment la réalité virtuelle peut manipuler votre esprit", https://www.nouvelobs.com/rue89/rue89-tech/20160905.RUE3751/comment-la-realite-virtuelle-peut-manipuler-votre-esprit.html
Bienvenue sur Cybersociety - La société cybernétique
Ce site utilise des cookies. En poursuivant votre visite, vous acceptez leur utilisation. Accepter Refuser Fermer