ENTREVISTA

Shoshana Zuboff: "Vivimos en una distopía accidental"

¿Alguna vez tras una búsqueda en Google sobre un producto acto seguido ha aparecido una publicidad de ese mismo producto en redes sociales? O... ¿has comprado a través de Instagram o de Facebook? Este tipo de consumo por internet, adaptado tan perfectamente a sus gustos y necesidades, es posible gracias a todos los datos que las empresas tecnológicas recopilan de sus usuarios. Y también es uno de los aspectos de lo que Shoshana Zuboff ha denominado el «capitalismo de la vigilancia». Zuboff es la autora de tres importantísimos libros, todos adelantados a su época. Su libro es ‘La era del capitalismo de la vigilancia‘, en el que relata cómo la información de las personas se ha convertido en la base para un nuevo orden económico mundial que amenaza la democracia.

Sociedad 30/05/2023 Hora: 22:00
Pixabay
Pixabay

El capitalismo de la vigilancia ha sido adoptado por las gigantes tecnológicas, por las aseguradoras médicas y hasta por los concesionarios de autos. Según la aclamada autora, Shoshana Zuboff, se trata de “la institución económica que domina nuestros tiempos”. ¿Pero cómo funciona el capitalismo de la vigilancia? ¿Y representa una amenaza para las sociedades? En esta entrevista Shoshana Zuboff responde  a estas y otras preguntas.

Shoshana Zuboff / Créditos: CC/WikiCommons/Stuart Isett for Fortune/flickr

 

«La institución económica dominante de nuestros tiempos». Es así como describís el «capitalismo de la vigilancia». ¿No es eso una exageración?

Quisiera que sí fuese una exageración. El capitalismo se ha transformado, algo que ocurre más o menos cada siglo. Pero ahora, en este siglo digital, lo que tenemos es una situación extraordinaria en la cual toda la estructura del capitalismo está basada en la comercialización del comportamiento humano. Eso nunca antes había sido posible. Yo digo que vivimos en una distopía accidental, pues hemos llegado a un punto al que nadie nunca hubiese escogido llegar y al que nadie quería llegar. Y aun así, aquí estamos. Vivimos en un mundo en el que todo lo que hacemos está monitoreado. Nuestras acciones son transformadas en datos, que son propiedad de las grandes empresas del capitalismo de la vigilancia [como lo son Google, Meta o Amazon]. A partir de esos datos, estas empresas pronostican nuestro comportamiento. Luego venden esos pronósticos. Todo el mundo terminará ganando más dinero si logran reducir la incertidumbre en sus negocios sabiendo con mucha certeza cómo vamos a comportarnos. ¿No es genial para las compañías de seguros médicos saber qué enfermedades vamos a contraer? ¿No es excelente para las aseguradoras de automóviles saber cómo conduciremos? Conocer las respuestas a preguntas como si pagaremos nuestro alquiler, o nuestra hipoteca o nuestras tarjetas de crédito son ahora las fuentes de ingresos para estas compañías. Y nuestros datos son vendidos al sector financiero, al de salud, y así poco a poco, se han dispersado por toda la economía.

Pero existen miles de millones de personas que parecen no querer ningún cambio. Escuchan música en Spotify, ven muy contentos el contenido que Netflix les recomienda y le dejan saber a Amazon exactamente lo que les gusta y cómo quieren comprarlo. Esas personas se sorprenderán por tu alarmismo porque están felices viviendo sus vidas, sabiendo que tienen nuevas herramientas que antes no existían y que es muy cómodo todo esto.

PUBLICIDAD

Y tienen razón. De hecho, esa es la gran injusticia. Pues nos merecemos estos servicios, nos merecemos los datos y el conocimiento que generan estos servicios. Deberían enriquecernos como individuos, familias, ciudades, naciones y, sobre todo, como una creciente civilización de información global. Pero eso no es lo que está pasando. Un documento filtrado de Facebook, empresa que ahora se conoce como Meta, demostró que para 2018 su centro de inteligencia artificial estaba procesando billones de datos al día para producir alrededor de 6 millones de pronósticos de comportamiento. Esa es la magnitud de la que estamos hablando. Y es algo muy difícil de comprender para cualquiera de nosotros.

Puede que te guste Spotify, Netflix, Google e incluso Facebook, pero estos procesos [de extracción de datos y de desarrollo de pronósticos] están diseñados para permanecer escondidos para los usuarios. Y es por eso por lo que hemos tardado tanto en darnos cuenta del problema. Es nuestra responsabilidad aprender sobre lo que está pasando y la de nuestros legisladores para así idear e implementar políticas que puedan prohibir estos procesos. La meta no es que dejen de existir estos servicios maravillosos, sino que todos los datos y el conocimiento profundo que generan nos pertenezcan, le pertenezcan a los líderes electos y a las instituciones que debemos crear para regular el ámbito digital. Hay mucho trabajo por hacer. Pero si no lo hacemos, la distopía accidental de hoy se convertirá en la realidad que domine este siglo.

«En este siglo digital, toda la estructura del capitalismo está basada en la comercialización del comportamiento humano»

 

Recientemente argumentaste que podemos tener una sociedad democrática o una sociedad de vigilancia, pero no las dos.

Cuando consideras cómo el capitalismo de la vigilancia se ha desarrollado en los últimos 20 años, es evidente que está destruyendo la democracia y debilitando tanto nuestras instituciones como nuestras habilidades colectivas e individuales. Por ejemplo, pensábamos que teníamos derecho al conocimiento, o lo que yo llamo «derechos epistémicos». William Douglas, quien fue juez de la Corte Suprema de los EE.UU., dijo hace muchos años que, según la Carta de Derechos de la nación, todo ciudadano estadounidense tiene la libertad de elegir qué se puede saber de ellos y qué debe permanecer privado.

Este es un planteamiento muy interesante porque demuestra que el capitalismo de la vigilancia se basa en la usurpación de derechos que siempre hemos considerado esenciales para vivir una vida libre, individual y moderna. Hemos llegado al punto en que necesitamos codificar estos derechos epistémicos. [Es decir, convertirlos en derechos jurídicos que puedan ser defendidos en nuestros tribunales y sistemas legales]. De lo contrario, un pequeño grupo de compañías seguirá teniendo todos los derechos sobre el conocimiento. Nos están arrebatando la idea de que las personas podemos elegir cómo se gobierna, con qué valores e ideales, con qué aspiraciones y derechos y bajo qué leyes. Los futuros que ofrecen el capitalismo de la vigilancia y la democracia no son compatibles. Estos dos órdenes institucionales están en un duelo a muerte. Ambos no pueden coexistir. Nos toca decidir cuál ganará. Y eso es lo que me preocupa tanto.

Dijiste que Facebook ha transformado la esfera pública. ¿A qué te referís?

Tenemos a una compañía que controla los principales espacios de comunicación social en todo el mundo y la información que circula en ellos. Es decir, controla lo que se supone que sea nuestra esfera pública. Pero en realidad lo que tenemos ahora es un lugar donde la información de calidad está inversamente correlacionada con las ganancias. Mientras más corrupta es la información que circula en sus plataformas, más dinero gana la empresa Meta –antes conocida como Facebook–. En 2018, esta compañía transformó la manera en la que presentaba contenido a sus usuarios. Se comenzaron a basar en pronósticos sobre el tipo de contenido con el que las personas iban a interactuar. Los algoritmos empezaron a promover y a diseminar la información más corrupta, descabellada e inflamatoria, porque esa era la que obtendría más interacción. La interacción, por supuesto, impulsa la extracción de más datos, lo cual lleva al desarrollo de más pronósticos sobre nuestro comportamiento, lo cual lleva a mayores ganancias. Es como funciona. Y es por eso que ya no tenemos una esfera pública. Hasta que no logremos recuperar nuestros espacios de comunicación, debemos encontrar formas de cambiar estas compañías de manera fundamental o de hacerlas obsoletas. Así podremos reconstruir espacios que verdaderamente nos permitan comunicarnos libremente como una sociedad abierta y con los valores y el sentido común que a todos nos interesa.

Argumentás que los algoritmos de las grandes compañías no solo están diseñados para aumentar sus ganancias o moldear nuestro comportamiento individual, sino también para controlar nuestro comportamiento colectivo.

Vemos que estas compañías están siendo capaces de controlar nuestro comportamiento colectivo. Facebook es quizá el ejemplo paradigmático de esta tendencia, pero no es un caso único. Estas empresas pueden determinar, por ejemplo, si las personas de una sociedad se enojan o se polarizan con más frecuencia, si el discurso político se inclina más hacia el odio y hacia lo inflamatorio o si se vuelve más moderado. Y también pueden determinar si más personas van a vivir o morir. Hay investigaciones detalladas que demuestran que la manera cómo la información falsa sobre el covid-19 sobrepasó la información legítima en las redes sociales llevó a un mayor número de muertes durante la pandemia. Este fenómeno se volvió tan poderoso que el Dr. Robert Califf, quien dirige la Administración de Drogas y Alimentos de los EE. UU., afirmó que la desinformación se había vuelto la principal causa de muerte en el país.  Así que cuando pienso en un personaje como el dueño de Meta, Mark Zuckerberg, lo imagino en el cielo jugando con un teclado celestial. Si oprime unas teclas particulares, más personas en el mundo se enfadan. Si oprime otras teclas, más personas mueren.

«La información falsa sobre el covid-19 sobrepasó la información legítima en las redes sociales y llevó a un mayor número de muertes durante la pandemia»

Sos una de las 25 personas que pertenecen a lo que se conoce como «La verdadera junta de supervisión de Facebook». ¿Qué es eso y qué has logrado hacer allí?

En 2019, Facebook anunció que crearía una junta de supervisión. Se trataba de un grupo de personas seleccionadas y remuneradas por la empresa para supervisar las decisiones relacionadas a la moderación del contenido. Los líderes de lo que en ese momento era Facebook aseguraron que escucharían a los miembros de la junta, pero estos simplemente hablaban de cómo mantener y proteger la autorregulación en internet. Y la autorregulación es precisamente lo que nos llevó a este gran caos. Por otro lado, los reglamentos de esta operación no obligaban a Facebook a seguir ninguna de esas recomendaciones. Entonces, se trataba de una pieza de teatro gubernamental, que no tenía nada que ver con la transformación real. Es así como, liderados por Carole Cadwalladr, una de las periodistas británicas que destapó el escándalo de Cambridge Analytica, decidimos [crearla]. Somos un grupo de expertos. No tenemos ningún interés personal. Pero cada uno de nosotros sabe mucho sobre Facebook y cómo opera y creemos que nuestras críticas tendrán mayor impacto en el esfuerzo por mantener a esta empresa honesta que la junta de supervisión que ellos crearon. Así que monitoreamos las grandes decisiones de Facebook, hablamos con la prensa, publicamos opiniones y a veces organizamos eventos. Intentamos mantener la presión pública.

Una crítica que has recibido es que tus diagnósticos y tus críticas son muy detalladas, pero las soluciones que ofreces son muy genéricas. ¿Cómo reaccionás a esa acusación?

Siempre es frustrante. Porque cuando me propuse escribir El capitalismo de la vigilancia, mi meta era describir un fenómeno que nunca antes había sido descrito. Lo estábamos viviendo, nos estábamos ahogando en él, pero no había sido comprendido en detalle. Y no hay muchas personas, incluso entre los académicos, que estén dispuestas a pasar el número de años que yo pasé estudiando cada pedacito de evidencia para poder ofrecer un panorama claro de lo que es el capitalismo de la vigilancia y cómo funciona. Y habiendo hecho eso, terminé escribiendo 525 páginas. De hecho, la primera versión del libro tenía más de 1000 páginas. Pero tuve que tomar decisiones [sobre qué incluir y qué dejar fuera]. Sabía que, si ofrecía al público una comprensión detallada del capitalismo de la vigilancia, eso sería más poderoso que cualquier solución que pudiese ofrecer en ese momento. Desde que terminé el libro, he dedicado casi todo mi tiempo a conversar con legisladores y políticos en todo el mundo, a organizar eventos, a dar entrevistas y charlas y a escribir columnas de opinión. Acabo de terminar de escribir un ensayo muy amplio con el propósito de ir formalmente hacia la próxima etapa, que es «qué hacer y cómo hacerlo». Eso siempre fue parte de la agenda. Creo que no hay manera de contener un fenómeno si no se puede nombrar, si no se tiene un lenguaje para ello y si no se entiende a profundidad. Así que esa era la primera parte de mi trabajo y este continúa.

Si un genio te concediera el poder de hacer una sola cosa para mejorar esta situación, ¿qué decisión tomarías?

Detener la extracción masiva y silenciosa de datos personales, y decretarla ilícita. Desde cualquier punto de vista –moral, político o económico–, esa extracción es fundamentalmente injusta y malintencionada. En cualquier otro contexto, se le llamaría robo. Así que se cataloga como un robo y se detiene. En el momento que hagamos eso, algo mágico sucederá porque habremos acabado con el depredador. Los miles de millones de compañías que quieren entrar en el mundo digital y operar de formas que promueven los valores democráticos, por fin podrán competir en un entorno justo. Así que tenemos una oportunidad para recuperar el siglo digital y eso comienza con el exilio, la eliminación, la erradicación de ese poder que descaradamente asumieron las empresas sin preguntar. Pues es ese poder que les permite convertir nuestras vidas en productos para aumentar sus ganancias y su influencia.

 
Este contenido fue emitido en formato audiovisual por el programa de televisión ‘Efecto Naím’, una producción de Naím Media y NTN24. Forma parte de un acuerdo de colaboración de este programa con la revista Ethic.

 

Aporte Solidario

Tu contribución nos ayuda a seguir construyendo un periodismo distinto de calidad y autogestión.
Contribuir ahora
Comentar esta nota