iolce

Human : a new agenda for tech

Quelques mots sur le conférencier

Tristan Harris est un ancien ingénieur éthicien de Google qui mène un combat dirigé contre les entreprises de la Silicon Valley et leurs pratiques. Depuis plusieurs années, il met le monde en alerte sur les dérives de la technologie.

Photo de Tristan Harris
Tristan Harris, le conférencier

Humane : new agenda for tech

Conférence dévoilée à San francisco en 2019, elle est le fruit de six années de travail qui cherche à aligner la technologie sur le bien-être de l’homme. Elle a été présentée par les deux co-fondateurs du Centre for Humane Technology, Tristan Harris et Aza Raskin.

Illustration de la conférence
Illustration d'introduction de la conférence

Emprise technologique

Nous pouvons représenter notre société par trois aspects. Les émotions primitives de l’Homme, une institution médiévale ainsi qu’une technologie surpuissante. La technologie évolue de manière tellement exponentielle que l’humain et ses institutions n’arrivent plus suivre. Le monde se dirige vers ce qui retient son attention.

L’économie de l’attention

Lorsque nous utilisons nos téléphones, nous provoquons des pics de dopamine qui nous rendent accros. Des applications comme Instagram ou encore Facebook, sont faites pour provoquer ces pics de dopamine lorsque nous recevons des likes, etc. Ces pics peuvent devenir des dépendances, causant une grande augmentation des dépressions chez les femmes ( 17 % en 1991, 21 % en 2013, 29 % en 2017). D'après Jean Twenge (un psychologue), si l’on régule le temps des réseaux sociaux des jeunes filles, entre 10 et 14 ans en particulier, cela réduit leur besoin d’attention et d’identité sur les réseaux sociaux.

Graphique Facebook
Graphique démontrant les effets négatifs de Facebook sur les jeunes utilisateurs.
Graphique Instagram
Graphique démontrant les effets négatifs d’Instagram sur les jeunes utilisateurs

Décadence humaine

Saviez vous qu’environ 70 % des vidéos vues par jour sont en fait des vidéos mise en avant par vos recommandations ? Sans prendre conscience, nous laissons notre libre arbitre de côté et nous somme dirigé non pas vers nos choix mais vers les choix de l’IA qui recommande des vidéos pour nous. Il y a donc une grosse perte de volonté de recherche. Il y a aussi des risques de fausses informations. Youtube, par exemple, se met en accord avec notre historique de visionnage et de recherche et ce, même si les termes recommandés ne sont pas sains pour une personne normale. Concernant Facebook, le but n’est pas de connecter mais de rapprocher tout le monde, ce qui pourrait très bien nous diriger vers des groupes néfastes ou dangereux. Les médias sociaux se sont bien rendus compte de ces problèmes et arrivent peu à peu à les régler.

Décadence, théorie de l’évolution
L'évolution en décadence

Domination des systèmes sociaux artificiels

Notre nature humaine est actuellement détournée et dominée par des systèmes sociaux artificiels. Le tout est basé sur cette économie de l’attention dominante dans notre société. Nous améliorons nos IA tandis que nous diminuons notre humanité.

Comment résoudre le problème ?

L’idée de solution la plus simple serait de désactiver nos notifications, mais ce n’est malheureusement pas suffisant. Cela reviendrait à combattre le réchauffement climatique simplement en interdisant les pailles en plastiques. C’est une bonne idée qui participe à la solution, mais ne résout pas le problème.

An interface is humane if it is responsive to human needs and considerate of human frailties.

—Jeff Raskin

Afin de changer les choses, il faudrait commencer par revoir notre façon de concevoir en fonction des faiblesses et des besoins humains pour réaliser des interfaces ergonomiques et tirer parti de nos forces.

La Silicon Valley, siège de grosses entreprises comme Google, Apple et Facebook, ont beau être avancée technologiquement parlant, on ne peut pas dire qu’elle soit sophistiquée concernant la nature humaine.

Modèle socio ergonomique

Nous pouvons retrouver 3 points qui nous amènent à cette décadence humaine :

  • Les systèmes sociaux artificiels qui détournent notre esprit.
  • Les IA envahissantes qui surpassent la nature humaine.
  • Les incitations à la distraction. Pour passer à un système plus humain nous devons changer ces 3 problématiques.

Et comment faire ? En recentrant le design sur l’homme et l’aider. Et éviter de centrer l’idée que l’Homme est responsable des bugs. Il devient important de développer un système social ergonomique pour l’Homme en se regardant dans un miroir et en se questionnant correctement sur notre nature.

Prendre conscience

Si de base nous étions censés utiliser les IA comme des outils, peu à peu les rôles s’inversent. Les IA prédisent et nous manipulent. Laisser faire les choses revient à dégrader totalement notre qualité de vie. Cependant, il reste possible d’en prendre conscience et de se mobiliser pour changer les choses et accélérer le mouvement.

En savoir plus sur la conférence : https://humanetech.com/newagenda/