Tristan Harris quiere revertir los efectos nocivos que cree que la tecnología ha tenido en todos nosotros.
Harris, un ex especialista en ética del diseño de Google, se hizo consciente por primera vez a nivel nacional después de una presentación que hizo en Google en 2013 en toda la industria. En él, argumentó que muchos productos tecnológicos fueron diseñados para ser adictivos, haciendo que las personas pasen demasiado tiempo con ellos y distrayéndolos de vivir sus vidas. Instó a los diseñadores a alterar su enfoque.
Harris pasó más de dos años impulsando el cambio dentro de Google, pero dice que no pudo obtener tracción. Así que renunció y comenzó un movimiento llamado Time Well Spent, que eventualmente empujó a compañías como Apple y Google a construir métricas y herramientas de uso del tiempo de pantalla en sus teléfonos.
Desde entonces, ha ampliado su enfoque, habiendo decidido que muchos problemas que enfrenta la sociedad actual están realmente conectados y se pueden rastrear, al menos en parte, al diseño de tecnologías que usamos todos los días.
El objetivo de su organización, el Centro de Tecnología Humana, es revertir la «degradación» humana, o la idea de que la tecnología está acortando nuestra capacidad de atención, empujando a las personas hacia puntos de vista más extremos y haciendo que sea más difícil encontrar un terreno común. En resumen: la tecnología ha empeorado la humanidad, y Harris quiere ayudar a solucionarlo.
Harris habló recientemente con Associated Press sobre su trabajo, el progreso de la industria tecnológica hasta ahora y por qué no se pierde toda esperanza. Esta entrevista ha sido condensada y editada para mayor claridad.
P: ¿Podría contarnos las ideas importantes de su trabajo?
No se trata de adicción, no se trata de tiempo. Se trata de lo que llamamos «degradación humana». Es una frase que se nos ocurrió para describir algo que no creemos que las personas reconozcan como un sistema conectado.
La tecnología está causando un conjunto de cosas aparentemente desconectadas: acortamiento de los períodos de atención, polarización, indignación de la cultura, narcisismo de masas, ingeniería electoral, adicción a la tecnología. Estos parecen problemas separados, y en realidad estamos diciendo que todas estas son consecuencias predecibles de una carrera entre compañías de tecnología para descubrir cómo sacar la atención de su cerebro.
P: ¿Dónde está el lugar central para combatir este problema multifacético que ha descrito?
R: Al igual que usted dice: «¿Cómo resuelve el cambio climático?» ¿Hace que la gente apague sus bombillas? No. ¿Pasas alguna política? Sí. ¿Pero es eso suficiente? No. ¿Tiene que trabajar en colaboración con las compañías petroleras para cambiar lo que están haciendo? Sí. ¿Tiene que aprobar leyes, mandatos y prohibiciones?
Tienes que hacer todas estas cosas. Tienes que tener una conciencia cultural masiva. Tienes que hacer que todos se despierten.
Esto es como el cambio climático social de la cultura. Entonces, trabajar en la defensa interna y hacer que las personas dentro de las compañías tecnológicas se sientan, francamente, culpables y pregunten, «¿cuál es mi legado en esto que le está sucediendo a la sociedad?»
Trabajamos en la defensa interna. Trabajamos en presión pública y política.
P: ¿Cómo trabajas con las empresas y cómo te llevan a tu visión?
R: Hacerlo desde el interior no hizo nada cuando la actualización cultural no estaba allí. Pero ahora, en un mundo posterior a Cambridge Analytica, después del éxito de Time Well Spent, después de que más denunciantes salen y hablan sobre el problema, tenemos conversaciones con personas internas que creo que aceptan o respetan a regañadientes esta perspectiva.
Creo que puede haber cierta frustración de algunas de las personas que están en YouTubes y Facebook del mundo cuyos modelos de negocios están completamente en contra de las cosas por las que abogamos. Pero también hemos conseguido que Facebook, Instagram, YouTube, Apple y Android lancen funciones de Time Well Spent a través de algún tipo de defensa con ellos.
P: ¿Hay alguna ruta que intente ayudar a trazar para estas compañías?
A: No lo harán voluntariamente. Pero con mucha presión externa, activismo de los accionistas, un público que se da cuenta de que las compañías les han mentido, todo comienza a cambiar.
Existen múltiples modelos de negocio: la suscripción es una.
¿Pagarías $ 8 por mes a un Facebook que no tenía ningún interés en manipular tu cerebro, básicamente haciéndote lo más vulnerable posible a los anunciantes, que son sus verdaderos clientes? Creo que la gente podría pagar por eso.
Entonces, nuestra agenda política es hacer que el modelo comercial actual sea más costoso y hacer que las alternativas sean menos costosas.
P: Washington está ahora en un gran debate sobre privacidad y datos y desinformación. ¿Ese proceso tratará las causas que le interesan por defecto?
R: De hecho, me preocupa que sigamos tan despreocupadamente que la manada de privacidad y datos es la principal preocupación cuando las cosas reales que afectan el sentido de su vida y dónde pasa su tiempo, dónde va su atención, dónde va la democracia, donde va la salud mental de los adolescentes, donde va la indignación. Esas cosas son mucho más importantes para los resultados de las elecciones y la cultura.
Esos problemas relacionados entre sí deben ser nombrados como un área de impacto de la tecnología. Tiene que haber una regulación que aborde eso.
Mi preocupación acerca de cómo va el debate político es que todos están enojados con Big Tech. Y eso no es realmente productivo, porque no es solo la grandeza el problema. Tenemos que nombrar que el modelo de negocio es el problema.
P: ¿Las personas no tienen agencia individual? ¿Estamos realmente en la esclavitud de las compañías tecnológicas y su software?
R: Existe esta opinión de que deberíamos tener más autocontrol o que las personas son responsables de lo que ven.
Eso esconde una asimetría de poder. Al igual que cuando piensas: «Voy a ir a Facebook solo para ver esta publicación de un amigo», y luego te encuentras desplazándote durante dos horas.
En ese momento, Facebook despierta una versión vudú de muñeca en una supercomputadora. Tu muñeca vudú se basa en todos los clics que has hecho, todos los gustos que has hecho, todas las cosas que has visto. La idea es que a medida que esto se convierta en un modelo mejor y más preciso de ti, te conozco mejor que tú mismo.
Siempre tomamos prestado esto de EO Wilson, el sociobiólogo: el problema de los humanos es que tenemos cerebros paleolíticos, instituciones medievales y tecnología divina. Nuestras instituciones medievales solo pueden mantener el control de lo que sucede a una velocidad de reloj lenta de cada cuatro años. Nuestros cerebros primitivos están siendo secuestrados y son súper primitivos en comparación con la tecnología divina.
P: ¿Sientes que hay conciencia (dentro de las compañías tecnológicas) de que no habrías pensado que existía hace dos años?
A: Ha habido un cambio radical. Durante cuatro años, estuve observando cómo nadie estaba realmente aceptando o trabajando o abordando ninguno de estos problemas. Y luego, de repente, en los últimos dos años, por el escándalo de Cambridge Analytica, por «60 minutos», por el libro de Roger McNamee «Zucked». Nunca hubiera sospechado que Chris Hughes, cofundador de Facebook, sería diciendo que es hora de romper Facebook.
He visto una enorme cantidad de cambios en los últimos tres años y solo puedo confiar en el hecho de que el clip en el que las cosas comienzan a cambiar se está acelerando. Solo quiero darle la esperanza de que nunca hubiera esperado tanto para comenzar a cambiar que ahora está cambiando. Y solo necesitamos esa presión para continuar.