La commissaire européenne à la concurrence Margrethe Vestager a déclaré mardi à l'occasion d'une interview que le démantèlement de Facebook pourrait prendre « des années » et que les dirigeants devraient agir rapidement avant que la plateforme ne fasse plus de dégâts.
Les démocraties doivent « s'unir » contre Facebook
Lorsqu'il lui a été demandé si Facebook était trop grand et trop puissant pour que des changements puissent être imposés de l'extérieur, Vestager a répondu « pas pour notre démocratie ».
Elle a déclaré que les démocraties solidaires peuvent apporter de réels changements à la façon dont Facebook gère ses plateformes, et a estimé que les réglementations devaient être renforcées lorsqu'elles traitaient avec des entreprises qui pourraient exercer une « immense influence » sur la démocratie et sur la santé mentale des gens.
« Si nous sommes solidaires, alors nous pouvons apporter de vrais changements », a affirmé Vestager. « Emmener Facebook à évaluer le risque qu'ils pourraient poser pour la santé mentale des jeunes et avoir des personnes externes qui examinent cette évaluation pour voir si les choses ont été corrigées serait déjà un pas en avant important ».
« Nous devons également réglementer beaucoup plus étroitement si nous avons affaire à quelqu'un qui peut avoir une immense influence à la fois sur la santé mentale, mais aussi sur le développement de notre démocratie », a-t-elle ajouté, expliquant que la Commission européenne avait préparé une législation qui équilibre la nécessité de préserver liberté d'expression, mais de se débarrasser des choses qui sont illégales hors ligne », comme l'incitation à la violence.
Des batailles judiciaires sans fin
Vestager a toutefois admis que toute bataille juridique avec Facebook serait prolongée.
La grande enseigne des médias sociaux « nous poursuivrait en justice pendant des années sans fin », a-t-elle déclaré. Mais elle espérait que si l'UE pouvait « prendre des mesures maintenant pour que les choses changent », alors « les petites entreprises pourraient avoir un accès complet au marché », et les grandes enseignes des médias sociaux comme Facebook devraient assumer la responsabilité des dommages qu'ils ont causés.
Des commentaires qui arrivent dans un contexte où Facebook fait l'objet d'un examen minutieux. Plus tôt ce mois-ci, la dénonciatrice Frances Haugen a détaillé les façons dont Facebook savait qu'il était utilisé pour promouvoir la violence et la discorde et n'a rien fait pour l'arrêter.
Lundi, une mine de documents internes divulgués par Frances Haugen a montré que Facebook a donné la priorité à sa propre croissance plutôt qu'aux problèmes de sécurité publique.
Les allégations vont de la signature personnelle du PDG Mark Zuckerberg sur un plan d'entreprise visant à censurer les critiques du gouvernement vietnamien à la demande du parti communiste au pouvoir, à la mise en évidence auprès des actionnaires d'une baisse du nombre d'adolescents utilisant l'application.
Zuckerberg a soutenu que les allégations étaient sélectives et ont présenté l'entreprise sous un mauvais jour.
« Les critiques de bonne foi nous aident à nous améliorer, mais mon point de vue est que ce que nous voyons est un effort coordonné pour utiliser de manière sélective des documents divulgués pour brosser une fausse image de notre entreprise », a déclaré Zuckerberg lors d'un appel téléphonique avec les actionnaires faisant suite à la publication des résultats trimestriels de Facebook.
Les allégations n'ont pas freiné les revenus de Facebook. Les résultats montrent que le bénéfice a atteint 9,2 milliards de dollars, soit une augmentation de 17 % par rapport au trimestre précédent. Le nombre d'utilisateurs a bondi à 2,91 milliards.
Les dirigeants de Facebook ont ​​déclaré que la société aurait probablement fait encore mieux si Apple n'avait pas mis à jour son système d'exploitation qui empêche les annonceurs de diffuser des publicités sur les utilisateurs sans leur autorisation.
« Dans l'ensemble, sans les changements apportés à iOS 14 par Apple, nous aurions connu une croissance positive des revenus d'un trimestre à l'autre », a déclaré Sherly Sandberg, directrice des opérations de Facebook, selon l'agence de presse AFP.
Haugen témoigne devant les législateurs britanniques
Haugen, l'ancienne employée Facebook devenue lanceuse d'alerte, a témoigné lundi devant une commission parlementaire britannique. La commission examine un projet de loi destiné à sévir contre les contenus en ligne préjudiciables.
« Facebook n'a pas voulu accepter que même de petits éclats de profit soient sacrifiés pour la sécurité, et ce n'est pas acceptable », a déclaré Haugen aux législateurs.
Elle a ajouté que les algorithmes de Facebook poussaient les gens à voir le contenu à des extrêmes politiques. « Donc, si quelqu'un est de gauche, il sera poussé à voir du contenu de la gauche radicale, si quelqu'un est de droite, il sera exposé au contenu de la droite radicale ».
Frances Haugen avait déjà témoigné devant un panel du Sénat, recommandant une liste de changements pour freiner l'entreprise, y compris une refonte de l'article 230 qui tiendrait le géant des médias sociaux pour responsables de ses algorithmes qui promeuvent le contenu en fonction de l'engagement qu'il reçoit dans le fil d'actualité des utilisateurs :
« Si nous avions une surveillance appropriée ou si nous réformions [l'article] 230 pour rendre Facebook responsable des conséquences de leurs décisions de classement intentionnelles, je pense qu'ils se débarrasseraient du classement basé sur l'engagement », a déclaré Haugen. « Parce que cela expose les adolescents à plus de contenu anorexique, cela sépare les familles, et dans des endroits comme l'Éthiopie, cela attise littéralement la violence ethnique ».
Haugen s'est assuré de faire la distinction entre le contenu généré par les utilisateurs et les algorithmes de Facebook, qui priorisent le contenu dans les fils d'actualité et stimulent l'engagement. Elle a suggéré que Facebook ne devrait pas être responsable du contenu que les utilisateurs publient sur ses plateformes, mais qu'il devrait être tenu responsable une fois que ses algorithmes commencent à prendre des décisions sur le contenu que les gens voient.
Cette suggestion reflète un projet de loi, le Protecting Americans from Dangerous Algorithms Act, qui a été présenté à la Chambre.
Pourtant, malgré l'appel à la réforme de l'article 230, Haugen a également averti que la réforme à elle seule ne suffirait pas à surveiller de manière adéquate la large portée de l'entreprise. « La gravité de cette crise exige que nous rompions avec les cadres réglementaires précédents », a-t-elle déclaré. « Les modifications apportées aux protections de la vie privée obsolètes ou les modifications apportées à la section 230 ne seront pas suffisantes. »
L'article 230 de la Communications Decency Act (CDA) est un texte de loi adopté en 1996 lorsque l'internet en était encore à ses débuts qui protège largement les entreprises de toute responsabilité vis-à-vis des publications des utilisateurs. L'article 230 a initialement été adopté dans le cadre de la loi sur la décence en matière de communication, afin de protéger les sites web contre les poursuites judiciaires concernant le contenu que leurs utilisateurs ont publié. Il a été adopté pour encourager les sites web à s'engager dans la modération de contenu en supprimant le risque qu'ils puissent être poursuivis en tant qu'éditeur s'ils contrôlaient activement ce que leurs utilisateurs publiaient.
Plus récemment, la loi a été attaquée par Donald Trump et les républicains qui se plaignaient du fait que les grandes enseignes de la technologie telles que Facebook, Twitter et Google censurent leurs opinions. Une partie des propositions du ministère de la Justice a abordé cette question litigieuse, en faisant valoir que l'article 230 devrait inclure une définition de la conduite « de bonne foi » des plateformes.
En fait, le ministère américain de la Justice a fait des propositions visant à l'affaiblir dans l'optique de forcer les plateformes en ligne telles que Facebook, Twitter et Google à se justifier au cas où elles supprimeraient le contenu des utilisateurs (si elles souhaitent conserver l'immunité) et de supprimer le texte de loi qui permet aux sites web de modérer les contenus « choquants ».
Des rapports préjudiciables à l'image de l'entreprise ont été publiés
Des dizaines de documents Facebook examinés par le Wall Street Journal ont montré que des employés Facebook ont tiré la sonnette d'alarme sur la façon dont ses plateformes sont utilisées dans les pays en développement, où sa base d'utilisateurs est énorme et en expansion. Les employés ont signalé que des trafiquants d'êtres humains au Moyen-Orient utilisaient les plateformes pour proposer des « femmes de ménage à vendre » qui étaient présentées comme du personnel corvéable à merci, sans contrat de travail ni protection sociale et dont le passeport avait été confisqué.
Apple a dû menacer le réseau social de retirer ses applications de l'App Store pour qu'il s'engage à réprimer cette pratique.
Pourtant, une note interne a révélé que Facebook était au courant de la pratique avant même cette date : un chercheur de Facebook a écrit dans un rapport daté de 2019, « ce problème était-il connu de Facebook avant l'enquête de la BBC et l'escalade d'Apple ? », selon le journal.
Sous la question se lit : « Oui. Tout au long de 2018 et du premier semestre 2019, nous avons mené l'exercice de compréhension global afin de bien comprendre comment la servitude domestique ne se manifeste pas sur notre plateforme tout au long de son cycle de vie : recrutement, facilitation et exploitation ».
À maintes reprises, montrent les documents, les chercheurs de Facebook ont identifié les effets néfastes de la plateforme. À maintes reprises, malgré les audiences du Congrès, ses propres engagements et de nombreux exposés médiatiques, la société ne les a pas corrigés. Les documents offrent peut-être l'image la plus claire à ce jour de l'étendue de la connaissance des problèmes de Facebook au sein de l'entreprise, jusqu'au directeur général lui-même.
À la lecture des documents internes, des employés de Facebook ont averti que des groupes armés en Éthiopie utilisaient le site pour inciter à la violence contre les minorités ethniques. Ils ont envoyé des alertes à leurs patrons sur l'utilisation des plateformes pour la vente d'organes, la pédopornographie et l'action du gouvernement contre la dissidence politique. Les documents ont montré également la réponse de l'entreprise, qui dans de nombreux cas est inadéquate ou inexistante. Un porte-parole de Facebook a déclaré que la société avait déployé des équipes mondiales, des partenariats locaux et des vérificateurs de faits tiers pour assurer la sécurité des utilisateurs.
Source : interview de Margrethe Vestager
Voir aussi :
Facebook sait qu'Instagram est toxique pour de nombreuses adolescentes, selon les documents de l'entreprise
Mark Zuckerberg propose des réformes limitées de la Section 230 avant son audition devant le Congrès, les entreprises ne bénéficieraient de cette loi que si elles suivent les meilleures pratiques
Margrethe Vestager : « nous devons agir maintenant contre Facebook ». La commissaire européenne à la concurrence convie les dirigeants à agir
Avant que la plateforme ne fasse plus de dégâts
Margrethe Vestager : « nous devons agir maintenant contre Facebook ». La commissaire européenne à la concurrence convie les dirigeants à agir
Avant que la plateforme ne fasse plus de dégâts
Le , par Stéphane le calme
Une erreur dans cette actualité ? Signalez-nous-la !