imagen-entrevista-marta-peirano

“Obligar a ByteDance a vender TikTok a una empresa estadounidense fue la idea más genial de Trump”

MARTA PEIRANO, periodista especializada en tecnología

A estas alturas, es muy probable que el nombre de Marta Peirano te resulte familiar. Nadie sabe más que ella en España sobre privacidad y seguridad en internet. Ha sido la primera voz en castellano en revelarnos cómo y, sobre todo, para qué están diseñadas las redes sociales. Nos crean adicción, nos espían y trafican con nuestros datos. Nos lo contó todo en El enemigo conoce el sistema, una de las sorpresas editoriales de 2019 —la edición en español de The New York Times lo incluyó entre los mejores libros en castellano— porque el tema que aborda es de una actualidad ineludible y porque despliega el talento didáctico necesario para entender el complejo modelo sobre el que sustenta la economía de la atención. Seguimos inmersos en el capitalismo de plataformas que nos describe en su ensayo, pero hemos querido preguntarle qué podría cambiar en 2021.

Ha pasado más de un año desde la publicación de El enemigo conoce el sistema. ¿Crees que, en general, la gente es mucho más consciente del peligro que implica compartir sus datos en las redes sociales?

Sí. Me encantaría pensar que mi libro ha influido en ello, pero lo cierto es que se publicó en un momento en el que salieron a la luz las investigaciones sobre la injerencia rusa en las elecciones de Estados Unidos de 2016. Casi al mismo tiempo, llegó el escándalo de Cambridge Analytica. La gente ya sabía que las redes sociales, y que el gobierno de Estados Unidos a través de las redes sociales, les espiaban, porque fue lo que demostró Edward Snowden en 2013, pero pensaban que era sólo para dos cosas: para venderles productos que les interesaban, es decir, si quiero comprarme un coche, mejor que me enseñen publicidad de coches; o por terrorismo, porque todo este aparato de vigilancia masiva en realidad crece de forma desproporcionada después del ataque a las Torres Gemelas.

Existía un poco esa idea de vale, me espían, pero como no soy terrorista y no estoy haciendo nada, me da igual. Pero, tras el escándalo de Cambridge Analytica y las elecciones estadounidenses de 2016, se descubrió que también se utilizan para difundir ideas, expandir el odio como proyecto o lanzar una campaña de deshumanización contra un colectivo específico, y eso tiene efecto muy intenso en la comunidad en la que vives. Por eso creo que sí, que ahora hay mucha mayor consciencia de que existe un peligro y una manipulación.

Este nuevo año va a ser interesante ver qué pasará con las demandas abiertas en Estados Unidos contra Facebook y Google por monopolio. Lo que está en juego es la privacidad de los usuarios ya que, en ausencia de un mercado competitivo en el que otras plataformas puedan ofrecer un servicio distinto, las garantías de protección de la privacidad decrecen. ¿Crees que finalmente las obligarán a renunciar a esa posición monopolística?

La verdad es que depende. Ahora mismo, solo en Estados Unidos Google tiene tres procesos abiertos y Facebook tiene otros dos. Las demandas, además, las suscriben la mayor parte de los estados. Que a estas empresas hay que ponerlas en su sitio es lo único que ha puesto de acuerdo a republicanos y demócratas en los últimos años. Y luego, por otra parte, hace unos días el gobierno chino anunció que iba a abrir un proceso de investigación antimonopolio contra Alibaba, que es la gran plataforma china, algo que me ha parecido muy sorprendente. También es verdad que el dueño de Alibaba es el hombre más rico de China y que a lo mejor de repente el gobierno chino le quiere parar un poco los pies.

¿Y qué pasa en Europa?

En Europa se han anunciado dos paquetes de regulaciones de internet, los primeros en 20 años, como si no hubiera pasado nada en 20 años, que están diseñados específicamente para regular a las plataformas digitales. Esta es la pelota que tenemos ahora mismo.

Pienso que en sitios distintos nos encontramos con problemas distintos. Todos estos procesos los empezó la administración Trump y no sabemos si la administración Biden, que tiene un vínculo con las tecnológicas bastante más positivo que el que tenía Trump, y cuya segunda, Kamala Harris, ha sido senadora por California y todas sus campañas han estado fuertemente financiadas por las grandes tecnológicas, terminarán alargándolos y suavizándolos.

Y en Europa tenemos el problema de que, como no somos Estados Unidos, resulta muy difícil regular y, sobre todo, monitorizar a las grandes plataformas estadounidenses. Hace dos años y medio que existe el Reglamento General de Protección de Datos, pero nos resulta prácticamente imposible monitorizar que se cumpla porque no tenemos acceso a los servidores de esas empresas ni sabemos cómo operan, y aún en el caso de que tuviéramos acceso, no disponemos del personal ni de los recursos suficientes para poder hacer ese seguimiento.

Haría falta una suerte de anti-Google para controlar a Google…

Exactamente, porque son empresas con una cantidad de procesos tan grande que yo creo que ni siquiera hay más de 40 o 50 personas en Google que sepan cómo funciona Google. Por eso, la posibilidad de que Austria, o España, o los pequeños reguladores de que disponemos, como la Agencia de Protección de Datos, hagan un seguimiento continuado de cómo operan, es remota. Tendrían, además, que recurrir a la ingeniería inversa, porque en realidad no tienen acceso. Es como querer regular una carretera que está cubierta por un túnel al que no puedes entrar; solo puedes ver lo que sale y sacar conclusiones acerca de lo que ha pasado dentro.

Si no se puede acceder al algoritmo, a la hora de, por ejemplo, atajar la desinformación o ciertos discursos de odio, solo nos quedaría regular el contenido. ¿Pero cómo se regula el contenido?

Una de las cosas que más me interesan de todos estos procesos regulatorios es que lo que parece que sí va a cambiar, al menos en Europa, es que hasta ahora las plataformas digitales no eran legalmente responsables de los contenidos que publicaban, en Estados Unidos por la sección 230 de la ley de Decencia de las Comunicaciones y en España por el artículo 17 de la Ley de Servicios de la Sociedad de la Información y de Comercio Electrónico (LSSI). Y no lo son porque no son proveedores de contenidos, como por ejemplo un periódico, sino que son proveedores de servicios, como por ejemplo una operadora. Desde el punto de vista administrativo, pueden seguir publicando lo que quieran.

Ahora eso va a cambiar, pero entonces una de dos: o nos fiamos de que toman las decisiones adecuadas a través de una combinación de algoritmos que reconozcan las noticias falsas, de moderadores que tomen decisiones posteriores a los algoritmos y de famoso Tribunal Superior de Justicia que ha montado Mark Zuckerberg para tomar las grandes decisiones, digamos, legislativas, o lo hacemos nosotros, pero para hacerlo nosotros tenemos que entrar a ver cómo funcionan esos algoritmos y averiguar por qué priorizan unas cosas por encima de otras y cómo gestionan la información que ve cada usuario.

 

«Que a Facebook y a Google hay que ponerlas en su sitio es lo único que ha puesto de acuerdo a republicanos y demócratas en Estados Unidos en los últimos años»

 

¿Está entonces en peligro su modelo de negocio?

Sus algoritmos están diseñados para hacer una sola cosa. Su objetivo nunca ha sido informar, conectarnos y hacernos felices, sino extraer datos de la gente de la forma más eficiente posible. Y para eso estos algoritmos han ido evaluando de forma automática qué contenidos generan más datos. Es decir, qué contenidos generan más atención y qué contenidos generan más interacción. Y ocurre que por la manera como funciona el cerebro humano, nos llaman más la atención contenidos que nos asustan o que nos enfadan, que son los que generan más atención porque tendemos a denunciarlos. Los algoritmos se han ido optimizando, dando prioridad a contenidos que no nos sientan bien como sociedad. Cambiar su algoritmo contradice su objetivo principal, su modelo de negocio, ya que supondría eliminar aquellos contenidos generan más interacción.

Tendrían que cambiar de modelo de negocio, pero yo creo que están en un punto en el que estas empresas no recogen datos solo para vender cosas, sino también para alimentar algoritmos predictivos e inteligencia artificial. Esos algoritmos predictivos son la gallina de los huevos de oro, y nadie más los tiene. Los tienen la media docena de empresas, la mitad china y la mitad estadounidense, que han estado explotando nuestros datos desde hace años.

Ahora ya tienen esos algoritmos, que se están empleando en todo tipo de cosas, desde el diseño de coches hasta la redacción de legislación y la toma de decisiones respecto a quién sale de la cárcel o quién recibe un riñón. Si nosotros éramos la gallina de los huevos de oro, el huevo del oro es esa inteligencia artificial.

Creo que estamos entrando en una era en la que claramente la industria en general, no sólo la tecnológica, se va a dividir entre los que tienen acceso a esa clase de inteligencia artificial y los que no. Es decir, que igual no necesitan explotar tanto nuestros datos y se pueden acomodar a otro tipo de algoritmos socialmente menos perjudiciales. En cambio, se dedicarán más a explotar esos sistemas de inteligencia artificial que han sido alimentados sin parar con nuestros datos durante los últimos 16 años.

Este año también veremos un mayor despliegue del 5G, lo que implica una mayor velocidad, más datos, más vigilancia…

Para mí el 5G plantea dos problemas. El primero es un problema de soberanía, es decir, es una plataforma gigante de extracción de datos que, a diferencia del 3G o del 4G, está gestionada por la misma empresa, lo que denominan una solución end to end, de extremo a extremo. Y eso significa que la información cifrada no circulará entre varios actores del mercado. En cambio, viene Huawei, por hablar de la empresa que prácticamente se ha inventado el concepto de 5G, y nosotros montamos toda nuestra infraestructura digital del siglo XXI sobre una plataforma que procesa una empresa que básicamente pertenece a un gobierno no democrático que está completamente fuera de nuestra jurisdicción. A mí me parece muy irresponsable.

Si, pero es un tren al que todo el mundo está dispuesto a subirse…

Claro, lo que pasa es que tanto países, como ciudades, empresas y ciudadanos pensamos que, si no desplegamos la fibra, si no tenemos un teléfono de última generación, si no estamos al tanto de todo lo que publica Twitter, Facebook, Instagram o lo que sea, te quedas fuera. Es una percepción que estas empresas y los medios de comunicación han ido alimentando.

El 5G lo único que hace es acortar la distancia entre las antenas y reducir la latencia, permitiendo que la información circule con mayor rapidez; es, simplemente, una ampliación del ancho de banda. Esto en teoría, porque en realidad el 5G todavía no existe. Todas las redes que se anuncian como 5G son en realidad un 4G un poco más acelerado. De momento, el 5G es una quimera, pero una quimera que ya ha facilitado que una sola empresa controle ella solita toda la carretera. Ese túnel del que hablábamos antes lo gestiona solo ella.

Suena demasiado terrible, ¿existen propuestas o planes para que los países tengan un mayor control de sobre esas infraestructuras?

En este sentido, Donald Trump ha tenido la que para mí ha sido su idea más genial, por muy controvertido que pueda parecer. Después de que, a través de TikTok, le reventaran su primer mitin tras el comienzo de la pandemia, decidió que lo más probable era que esta red social estuviera espiando a ciudadanos estadounidenses para del gobierno chino —en virtud de la Ley de Ciberseguridad Nacional China de 2017, que obliga a todas las empresas a ceder datos al gobierno— y firmó una orden ejecutiva que obligaba a Byte Dance, su propietaria, a vender la aplicación a una empresa estadounidense. Luego se lo pensó mejor y firmó una segunda orden ejecutiva, en la que le obligaba a vendérsela a Oracle, cuyo fundador ha sido uno de los grandes financiadores de las campañas de Trump, pero todo esto está aún por ver. En realidad, no parece que vaya a suceder, pero soy muy fan de esa idea porque resuelve muchos problemas de una sentada: resuelves el problema de no tener que renunciar a una tecnología y a una infraestructura que ya existe y que la gente ya usa; resuelves el problema de mantener tu soberanía tecnológica sobre una infraestructura que es cada vez más crítica, y resuelves el problema de poder implementarla para las cosas que a ti te interesan, para lo que le interesa a Europa o a España, para lo que le interesa a tu empresa o a tu ciudad.

Pero fíjate que Europa podría haber hecho lo mismo. Tras el ataque a las Torres Gemelas, se aprobó la Ley Patriota en Estados Unidos, renovada recientemente, que también obliga a las empresas tecnológicas a ceder datos correspondientes a cualquier investigación, de la NSA por ejemplo, al gobierno estadounidense. Trump dio por sentado que TikTok estaba espiando a ciudadanos estadounidenses, pero es que nosotros sabemos que Facebook, Google y Microsoft espían a ciudadanos europeos porque tenemos los documentos que lo demuestran.

Y con respecto a Huawei, que efectivamente supone un problema porque ya domina gran parte de las infraestructuras 4G en Europa, se podría plantear un poco la misma solución, es decir: no te expropiamos la empresa, pero declaramos que todas las infraestructuras críticas son de seguridad nacional y que es imperativo que Europa tenga la soberanía sobre ellas. La idea de Trump es muy buena idea.

 

«La siguiente pandemia ya está ocurriendo. La vacuna no corrige las condiciones que hacían inevitable la situación actual»

 

¿Nos podrías hacer una predicción positiva y una negativa para en año entrante?

La positiva es que hemos descubierto que, cuando están motivadas y bien financiadas, las farmacéuticas son capaces de hacer en ocho meses lo que antes tardaban diez años. Creo que nos encontramos ante un renacimiento de la industria farmacéutica porque la solución basada en el ARN que se ha utilizado para crear las vacunas contra el coronavirus probablemente sirva para erradicar un montón de enfermedades más.

También es muy positiva la innovación farmacéutica condicionada por la inversión pública. Me parece un modelo que habíamos abandonado y que deberíamos volver a implementar. Es decir, que haya una responsabilidad pública por parte de estas empresas, que se gestione de manera pública y que implementen procesos de transparencia para demostrar que es así.

La predicción negativa es que la siguiente pandemia ya está ocurriendo ahora mismo en un campo de refugiados en Asia, o en un mercado de animales vivos del Congo, o en un hospital de Venezuela… La vacuna no corrige las condiciones que hacían inevitable esta pandemia. Lo hemos apostado todo a que una tecnología para que nos salve en el último minuto, y parece que nos ha salido bien, pero no nos ha salido bien.

¿Mucha predicción y poca prevención?

La paradoja de nuestro tiempo es que mientras que las empresas más poderosas del mundo se dedican a la predicción del futuro, hemos dejado de escuchar a los epidemiólogos, que llevaban diciéndonos desde 2003 que se avecinaba una pandemia horrible y que cada vez se daban más las condiciones para que fuera peor, especialmente tras la crisis de 2008, que también ha sido una crisis sanitaria porque la mayor parte de los servicios sanitarios han perdido recursos. Es decir que, cuanto más lo necesitábamos, menos preparados estábamos, a pesar de que se supone que esta es la era de los datos, la era de las previsiones y tal. Mucho dato y poco cerebro.

MARTA PEIRANO, periodista especializada en tecnología

A estas alturas, es muy probable que el nombre de Marta Peirano te resulte familiar. Nadie sabe más que ella en España sobre privacidad y seguridad en internet. Ha sido la primera voz en castellano en revelarnos cómo y, sobre todo, para qué están diseñadas las redes sociales. Nos crean adicción, nos espían y trafican con nuestros datos. Nos lo contó todo en El enemigo conoce el sistema, una de las sorpresas editoriales de 2019 —la edición en español de The New York Times lo incluyó entre los mejores libros en castellano— porque el tema que aborda es de una actualidad ineludible y porque despliega el talento didáctico necesario para entender el complejo modelo sobre el que sustenta la economía de la atención. Seguimos inmersos en el capitalismo de plataformas que nos describe en su ensayo, pero hemos querido preguntarle qué podría cambiar en 2021.

Ha pasado más de un año desde la publicación de El enemigo conoce el sistema. ¿Crees que, en general, la gente es mucho más consciente del peligro que implica compartir sus datos en las redes sociales?

Sí. Me encantaría pensar que mi libro ha influido en ello, pero lo cierto es que se publicó en un momento en el que salieron a la luz las investigaciones sobre la injerencia rusa en las elecciones de Estados Unidos de 2016. Casi al mismo tiempo, llegó el escándalo de Cambridge Analytica. La gente ya sabía que las redes sociales, y que el gobierno de Estados Unidos a través de las redes sociales, les espiaban, porque fue lo que demostró Edward Snowden en 2013, pero pensaban que era sólo para dos cosas: para venderles productos que les interesaban, es decir, si quiero comprarme un coche, mejor que me enseñen publicidad de coches; o por terrorismo, porque todo este aparato de vigilancia masiva en realidad crece de forma desproporcionada después del ataque a las Torres Gemelas.

Existía un poco esa idea de vale, me espían, pero como no soy terrorista y no estoy haciendo nada, me da igual. Pero, tras el escándalo de Cambridge Analytica y las elecciones estadounidenses de 2016, se descubrió que también se utilizan para difundir ideas, expandir el odio como proyecto o lanzar una campaña de deshumanización contra un colectivo específico, y eso tiene efecto muy intenso en la comunidad en la que vives. Por eso creo que sí, que ahora hay mucha mayor consciencia de que existe un peligro y una manipulación.

Este nuevo año va a ser interesante ver qué pasará con las demandas abiertas en Estados Unidos contra Facebook y Google por monopolio. Lo que está en juego es la privacidad de los usuarios ya que, en ausencia de un mercado competitivo en el que otras plataformas puedan ofrecer un servicio distinto, las garantías de protección de la privacidad decrecen. ¿Crees que finalmente las obligarán a renunciar a esa posición monopolística?

La verdad es que depende. Ahora mismo, solo en Estados Unidos Google tiene tres procesos abiertos y Facebook tiene otros dos. Las demandas, además, las suscriben la mayor parte de los estados. Que a estas empresas hay que ponerlas en su sitio es lo único que ha puesto de acuerdo a republicanos y demócratas en los últimos años. Y luego, por otra parte, hace unos días el gobierno chino anunció que iba a abrir un proceso de investigación antimonopolio contra Alibaba, que es la gran plataforma china, algo que me ha parecido muy sorprendente. También es verdad que el dueño de Alibaba es el hombre más rico de China y que a lo mejor de repente el gobierno chino le quiere parar un poco los pies.

¿Y qué pasa en Europa?

En Europa se han anunciado dos paquetes de regulaciones de internet, los primeros en 20 años, como si no hubiera pasado nada en 20 años, que están diseñados específicamente para regular a las plataformas digitales. Esta es la pelota que tenemos ahora mismo.

Pienso que en sitios distintos nos encontramos con problemas distintos. Todos estos procesos los empezó la administración Trump y no sabemos si la administración Biden, que tiene un vínculo con las tecnológicas bastante más positivo que el que tenía Trump, y cuya segunda, Kamala Harris, ha sido senadora por California y todas sus campañas han estado fuertemente financiadas por las grandes tecnológicas, terminarán alargándolos y suavizándolos.

Y en Europa tenemos el problema de que, como no somos Estados Unidos, resulta muy difícil regular y, sobre todo, monitorizar a las grandes plataformas estadounidenses. Hace dos años y medio que existe el Reglamento General de Protección de Datos, pero nos resulta prácticamente imposible monitorizar que se cumpla porque no tenemos acceso a los servidores de esas empresas ni sabemos cómo operan, y aún en el caso de que tuviéramos acceso, no disponemos del personal ni de los recursos suficientes para poder hacer ese seguimiento.

Haría falta una suerte de anti-Google para controlar a Google…

Exactamente, porque son empresas con una cantidad de procesos tan grande que yo creo que ni siquiera hay más de 40 o 50 personas en Google que sepan cómo funciona Google. Por eso, la posibilidad de que Austria, o España, o los pequeños reguladores de que disponemos, como la Agencia de Protección de Datos, hagan un seguimiento continuado de cómo operan, es remota. Tendrían, además, que recurrir a la ingeniería inversa, porque en realidad no tienen acceso. Es como querer regular una carretera que está cubierta por un túnel al que no puedes entrar; solo puedes ver lo que sale y sacar conclusiones acerca de lo que ha pasado dentro.

Si no se puede acceder al algoritmo, a la hora de, por ejemplo, atajar la desinformación o ciertos discursos de odio, solo nos quedaría regular el contenido. ¿Pero cómo se regula el contenido?

Una de las cosas que más me interesan de todos estos procesos regulatorios es que lo que parece que sí va a cambiar, al menos en Europa, es que hasta ahora las plataformas digitales no eran legalmente responsables de los contenidos que publicaban, en Estados Unidos por la sección 230 de la ley de Decencia de las Comunicaciones y en España por el artículo 17 de la Ley de Servicios de la Sociedad de la Información y de Comercio Electrónico (LSSI). Y no lo son porque no son proveedores de contenidos, como por ejemplo un periódico, sino que son proveedores de servicios, como por ejemplo una operadora. Desde el punto de vista administrativo, pueden seguir publicando lo que quieran.

Ahora eso va a cambiar, pero entonces una de dos: o nos fiamos de que toman las decisiones adecuadas a través de una combinación de algoritmos que reconozcan las noticias falsas, de moderadores que tomen decisiones posteriores a los algoritmos y de famoso Tribunal Superior de Justicia que ha montado Mark Zuckerberg para tomar las grandes decisiones, digamos, legislativas, o lo hacemos nosotros, pero para hacerlo nosotros tenemos que entrar a ver cómo funcionan esos algoritmos y averiguar por qué priorizan unas cosas por encima de otras y cómo gestionan la información que ve cada usuario.

 

«Que a Facebook y a Google hay que ponerlas en su sitio es lo único que ha puesto de acuerdo a republicanos y demócratas en Estados Unidos en los últimos años»

 

¿Está entonces en peligro su modelo de negocio?

Sus algoritmos están diseñados para hacer una sola cosa. Su objetivo nunca ha sido informar, conectarnos y hacernos felices, sino extraer datos de la gente de la forma más eficiente posible. Y para eso estos algoritmos han ido evaluando de forma automática qué contenidos generan más datos. Es decir, qué contenidos generan más atención y qué contenidos generan más interacción. Y ocurre que por la manera como funciona el cerebro humano, nos llaman más la atención contenidos que nos asustan o que nos enfadan, que son los que generan más atención porque tendemos a denunciarlos. Los algoritmos se han ido optimizando, dando prioridad a contenidos que no nos sientan bien como sociedad. Cambiar su algoritmo contradice su objetivo principal, su modelo de negocio, ya que supondría eliminar aquellos contenidos generan más interacción.

Tendrían que cambiar de modelo de negocio, pero yo creo que están en un punto en el que estas empresas no recogen datos solo para vender cosas, sino también para alimentar algoritmos predictivos e inteligencia artificial. Esos algoritmos predictivos son la gallina de los huevos de oro, y nadie más los tiene. Los tienen la media docena de empresas, la mitad china y la mitad estadounidense, que han estado explotando nuestros datos desde hace años.

Ahora ya tienen esos algoritmos, que se están empleando en todo tipo de cosas, desde el diseño de coches hasta la redacción de legislación y la toma de decisiones respecto a quién sale de la cárcel o quién recibe un riñón. Si nosotros éramos la gallina de los huevos de oro, el huevo del oro es esa inteligencia artificial.

Creo que estamos entrando en una era en la que claramente la industria en general, no sólo la tecnológica, se va a dividir entre los que tienen acceso a esa clase de inteligencia artificial y los que no. Es decir, que igual no necesitan explotar tanto nuestros datos y se pueden acomodar a otro tipo de algoritmos socialmente menos perjudiciales. En cambio, se dedicarán más a explotar esos sistemas de inteligencia artificial que han sido alimentados sin parar con nuestros datos durante los últimos 16 años.

Este año también veremos un mayor despliegue del 5G, lo que implica una mayor velocidad, más datos, más vigilancia…

Para mí el 5G plantea dos problemas. El primero es un problema de soberanía, es decir, es una plataforma gigante de extracción de datos que, a diferencia del 3G o del 4G, está gestionada por la misma empresa, lo que denominan una solución end to end, de extremo a extremo. Y eso significa que la información cifrada no circulará entre varios actores del mercado. En cambio, viene Huawei, por hablar de la empresa que prácticamente se ha inventado el concepto de 5G, y nosotros montamos toda nuestra infraestructura digital del siglo XXI sobre una plataforma que procesa una empresa que básicamente pertenece a un gobierno no democrático que está completamente fuera de nuestra jurisdicción. A mí me parece muy irresponsable.

Si, pero es un tren al que todo el mundo está dispuesto a subirse…

Claro, lo que pasa es que tanto países, como ciudades, empresas y ciudadanos pensamos que, si no desplegamos la fibra, si no tenemos un teléfono de última generación, si no estamos al tanto de todo lo que publica Twitter, Facebook, Instagram o lo que sea, te quedas fuera. Es una percepción que estas empresas y los medios de comunicación han ido alimentando.

El 5G lo único que hace es acortar la distancia entre las antenas y reducir la latencia, permitiendo que la información circule con mayor rapidez; es, simplemente, una ampliación del ancho de banda. Esto en teoría, porque en realidad el 5G todavía no existe. Todas las redes que se anuncian como 5G son en realidad un 4G un poco más acelerado. De momento, el 5G es una quimera, pero una quimera que ya ha facilitado que una sola empresa controle ella solita toda la carretera. Ese túnel del que hablábamos antes lo gestiona solo ella.

Suena demasiado terrible, ¿existen propuestas o planes para que los países tengan un mayor control de sobre esas infraestructuras?

En este sentido, Donald Trump ha tenido la que para mí ha sido su idea más genial, por muy controvertido que pueda parecer. Después de que, a través de TikTok, le reventaran su primer mitin tras el comienzo de la pandemia, decidió que lo más probable era que esta red social estuviera espiando a ciudadanos estadounidenses para del gobierno chino —en virtud de la Ley de Ciberseguridad Nacional China de 2017, que obliga a todas las empresas a ceder datos al gobierno— y firmó una orden ejecutiva que obligaba a Byte Dance, su propietaria, a vender la aplicación a una empresa estadounidense. Luego se lo pensó mejor y firmó una segunda orden ejecutiva, en la que le obligaba a vendérsela a Oracle, cuyo fundador ha sido uno de los grandes financiadores de las campañas de Trump, pero todo esto está aún por ver. En realidad, no parece que vaya a suceder, pero soy muy fan de esa idea porque resuelve muchos problemas de una sentada: resuelves el problema de no tener que renunciar a una tecnología y a una infraestructura que ya existe y que la gente ya usa; resuelves el problema de mantener tu soberanía tecnológica sobre una infraestructura que es cada vez más crítica, y resuelves el problema de poder implementarla para las cosas que a ti te interesan, para lo que le interesa a Europa o a España, para lo que le interesa a tu empresa o a tu ciudad.

Pero fíjate que Europa podría haber hecho lo mismo. Tras el ataque a las Torres Gemelas, se aprobó la Ley Patriota en Estados Unidos, renovada recientemente, que también obliga a las empresas tecnológicas a ceder datos correspondientes a cualquier investigación, de la NSA por ejemplo, al gobierno estadounidense. Trump dio por sentado que TikTok estaba espiando a ciudadanos estadounidenses, pero es que nosotros sabemos que Facebook, Google y Microsoft espían a ciudadanos europeos porque tenemos los documentos que lo demuestran.

Y con respecto a Huawei, que efectivamente supone un problema porque ya domina gran parte de las infraestructuras 4G en Europa, se podría plantear un poco la misma solución, es decir: no te expropiamos la empresa, pero declaramos que todas las infraestructuras críticas son de seguridad nacional y que es imperativo que Europa tenga la soberanía sobre ellas. La idea de Trump es muy buena idea.

 

«La siguiente pandemia ya está ocurriendo. La vacuna no corrige las condiciones que hacían inevitable la situación actual»

 

¿Nos podrías hacer una predicción positiva y una negativa para en año entrante?

La positiva es que hemos descubierto que, cuando están motivadas y bien financiadas, las farmacéuticas son capaces de hacer en ocho meses lo que antes tardaban diez años. Creo que nos encontramos ante un renacimiento de la industria farmacéutica porque la solución basada en el ARN que se ha utilizado para crear las vacunas contra el coronavirus probablemente sirva para erradicar un montón de enfermedades más.

También es muy positiva la innovación farmacéutica condicionada por la inversión pública. Me parece un modelo que habíamos abandonado y que deberíamos volver a implementar. Es decir, que haya una responsabilidad pública por parte de estas empresas, que se gestione de manera pública y que implementen procesos de transparencia para demostrar que es así.

La predicción negativa es que la siguiente pandemia ya está ocurriendo ahora mismo en un campo de refugiados en Asia, o en un mercado de animales vivos del Congo, o en un hospital de Venezuela… La vacuna no corrige las condiciones que hacían inevitable esta pandemia. Lo hemos apostado todo a que una tecnología para que nos salve en el último minuto, y parece que nos ha salido bien, pero no nos ha salido bien.

¿Mucha predicción y poca prevención?

La paradoja de nuestro tiempo es que mientras que las empresas más poderosas del mundo se dedican a la predicción del futuro, hemos dejado de escuchar a los epidemiólogos, que llevaban diciéndonos desde 2003 que se avecinaba una pandemia horrible y que cada vez se daban más las condiciones para que fuera peor, especialmente tras la crisis de 2008, que también ha sido una crisis sanitaria porque la mayor parte de los servicios sanitarios han perdido recursos. Es decir que, cuanto más lo necesitábamos, menos preparados estábamos, a pesar de que se supone que esta es la era de los datos, la era de las previsiones y tal. Mucho dato y poco cerebro.

MARTA PEIRANO, periodista especializada en tecnología

A estas alturas, es muy probable que el nombre de Marta Peirano te resulte familiar. Nadie sabe más que ella en España sobre privacidad y seguridad en internet. Ha sido la primera voz en castellano en revelarnos cómo y, sobre todo, para qué están diseñadas las redes sociales. Nos crean adicción, nos espían y trafican con nuestros datos. Nos lo contó todo en El enemigo conoce el sistema, una de las sorpresas editoriales de 2019 —la edición en español de The New York Times lo incluyó entre los mejores libros en castellano— porque el tema que aborda es de una actualidad ineludible y porque despliega el talento didáctico necesario para entender el complejo modelo sobre el que sustenta la economía de la atención. Seguimos inmersos en el capitalismo de plataformas que nos describe en su ensayo, pero hemos querido preguntarle qué podría cambiar en 2021.

Ha pasado más de un año desde la publicación de El enemigo conoce el sistema. ¿Crees que, en general, la gente es mucho más consciente del peligro que implica compartir sus datos en las redes sociales?

Sí. Me encantaría pensar que mi libro ha influido en ello, pero lo cierto es que se publicó en un momento en el que salieron a la luz las investigaciones sobre la injerencia rusa en las elecciones de Estados Unidos de 2016. Casi al mismo tiempo, llegó el escándalo de Cambridge Analytica. La gente ya sabía que las redes sociales, y que el gobierno de Estados Unidos a través de las redes sociales, les espiaban, porque fue lo que demostró Edward Snowden en 2013, pero pensaban que era sólo para dos cosas: para venderles productos que les interesaban, es decir, si quiero comprarme un coche, mejor que me enseñen publicidad de coches; o por terrorismo, porque todo este aparato de vigilancia masiva en realidad crece de forma desproporcionada después del ataque a las Torres Gemelas.

Existía un poco esa idea de vale, me espían, pero como no soy terrorista y no estoy haciendo nada, me da igual. Pero, tras el escándalo de Cambridge Analytica y las elecciones estadounidenses de 2016, se descubrió que también se utilizan para difundir ideas, expandir el odio como proyecto o lanzar una campaña de deshumanización contra un colectivo específico, y eso tiene efecto muy intenso en la comunidad en la que vives. Por eso creo que sí, que ahora hay mucha mayor consciencia de que existe un peligro y una manipulación.

Este nuevo año va a ser interesante ver qué pasará con las demandas abiertas en Estados Unidos contra Facebook y Google por monopolio. Lo que está en juego es la privacidad de los usuarios ya que, en ausencia de un mercado competitivo en el que otras plataformas puedan ofrecer un servicio distinto, las garantías de protección de la privacidad decrecen. ¿Crees que finalmente las obligarán a renunciar a esa posición monopolística?

La verdad es que depende. Ahora mismo, solo en Estados Unidos Google tiene tres procesos abiertos y Facebook tiene otros dos. Las demandas, además, las suscriben la mayor parte de los estados. Que a estas empresas hay que ponerlas en su sitio es lo único que ha puesto de acuerdo a republicanos y demócratas en los últimos años. Y luego, por otra parte, hace unos días el gobierno chino anunció que iba a abrir un proceso de investigación antimonopolio contra Alibaba, que es la gran plataforma china, algo que me ha parecido muy sorprendente. También es verdad que el dueño de Alibaba es el hombre más rico de China y que a lo mejor de repente el gobierno chino le quiere parar un poco los pies.

¿Y qué pasa en Europa?

En Europa se han anunciado dos paquetes de regulaciones de internet, los primeros en 20 años, como si no hubiera pasado nada en 20 años, que están diseñados específicamente para regular a las plataformas digitales. Esta es la pelota que tenemos ahora mismo.

Pienso que en sitios distintos nos encontramos con problemas distintos. Todos estos procesos los empezó la administración Trump y no sabemos si la administración Biden, que tiene un vínculo con las tecnológicas bastante más positivo que el que tenía Trump, y cuya segunda, Kamala Harris, ha sido senadora por California y todas sus campañas han estado fuertemente financiadas por las grandes tecnológicas, terminarán alargándolos y suavizándolos.

Y en Europa tenemos el problema de que, como no somos Estados Unidos, resulta muy difícil regular y, sobre todo, monitorizar a las grandes plataformas estadounidenses. Hace dos años y medio que existe el Reglamento General de Protección de Datos, pero nos resulta prácticamente imposible monitorizar que se cumpla porque no tenemos acceso a los servidores de esas empresas ni sabemos cómo operan, y aún en el caso de que tuviéramos acceso, no disponemos del personal ni de los recursos suficientes para poder hacer ese seguimiento.

Haría falta una suerte de anti-Google para controlar a Google…

Exactamente, porque son empresas con una cantidad de procesos tan grande que yo creo que ni siquiera hay más de 40 o 50 personas en Google que sepan cómo funciona Google. Por eso, la posibilidad de que Austria, o España, o los pequeños reguladores de que disponemos, como la Agencia de Protección de Datos, hagan un seguimiento continuado de cómo operan, es remota. Tendrían, además, que recurrir a la ingeniería inversa, porque en realidad no tienen acceso. Es como querer regular una carretera que está cubierta por un túnel al que no puedes entrar; solo puedes ver lo que sale y sacar conclusiones acerca de lo que ha pasado dentro.

Si no se puede acceder al algoritmo, a la hora de, por ejemplo, atajar la desinformación o ciertos discursos de odio, solo nos quedaría regular el contenido. ¿Pero cómo se regula el contenido?

Una de las cosas que más me interesan de todos estos procesos regulatorios es que lo que parece que sí va a cambiar, al menos en Europa, es que hasta ahora las plataformas digitales no eran legalmente responsables de los contenidos que publicaban, en Estados Unidos por la sección 230 de la ley de Decencia de las Comunicaciones y en España por el artículo 17 de la Ley de Servicios de la Sociedad de la Información y de Comercio Electrónico (LSSI). Y no lo son porque no son proveedores de contenidos, como por ejemplo un periódico, sino que son proveedores de servicios, como por ejemplo una operadora. Desde el punto de vista administrativo, pueden seguir publicando lo que quieran.

Ahora eso va a cambiar, pero entonces una de dos: o nos fiamos de que toman las decisiones adecuadas a través de una combinación de algoritmos que reconozcan las noticias falsas, de moderadores que tomen decisiones posteriores a los algoritmos y de famoso Tribunal Superior de Justicia que ha montado Mark Zuckerberg para tomar las grandes decisiones, digamos, legislativas, o lo hacemos nosotros, pero para hacerlo nosotros tenemos que entrar a ver cómo funcionan esos algoritmos y averiguar por qué priorizan unas cosas por encima de otras y cómo gestionan la información que ve cada usuario.

 

«Que a Facebook y a Google hay que ponerlas en su sitio es lo único que ha puesto de acuerdo a republicanos y demócratas en Estados Unidos en los últimos años»

 

¿Está entonces en peligro su modelo de negocio?

Sus algoritmos están diseñados para hacer una sola cosa. Su objetivo nunca ha sido informar, conectarnos y hacernos felices, sino extraer datos de la gente de la forma más eficiente posible. Y para eso estos algoritmos han ido evaluando de forma automática qué contenidos generan más datos. Es decir, qué contenidos generan más atención y qué contenidos generan más interacción. Y ocurre que por la manera como funciona el cerebro humano, nos llaman más la atención contenidos que nos asustan o que nos enfadan, que son los que generan más atención porque tendemos a denunciarlos. Los algoritmos se han ido optimizando, dando prioridad a contenidos que no nos sientan bien como sociedad. Cambiar su algoritmo contradice su objetivo principal, su modelo de negocio, ya que supondría eliminar aquellos contenidos generan más interacción.

Tendrían que cambiar de modelo de negocio, pero yo creo que están en un punto en el que estas empresas no recogen datos solo para vender cosas, sino también para alimentar algoritmos predictivos e inteligencia artificial. Esos algoritmos predictivos son la gallina de los huevos de oro, y nadie más los tiene. Los tienen la media docena de empresas, la mitad china y la mitad estadounidense, que han estado explotando nuestros datos desde hace años.

Ahora ya tienen esos algoritmos, que se están empleando en todo tipo de cosas, desde el diseño de coches hasta la redacción de legislación y la toma de decisiones respecto a quién sale de la cárcel o quién recibe un riñón. Si nosotros éramos la gallina de los huevos de oro, el huevo del oro es esa inteligencia artificial.

Creo que estamos entrando en una era en la que claramente la industria en general, no sólo la tecnológica, se va a dividir entre los que tienen acceso a esa clase de inteligencia artificial y los que no. Es decir, que igual no necesitan explotar tanto nuestros datos y se pueden acomodar a otro tipo de algoritmos socialmente menos perjudiciales. En cambio, se dedicarán más a explotar esos sistemas de inteligencia artificial que han sido alimentados sin parar con nuestros datos durante los últimos 16 años.

Este año también veremos un mayor despliegue del 5G, lo que implica una mayor velocidad, más datos, más vigilancia…

Para mí el 5G plantea dos problemas. El primero es un problema de soberanía, es decir, es una plataforma gigante de extracción de datos que, a diferencia del 3G o del 4G, está gestionada por la misma empresa, lo que denominan una solución end to end, de extremo a extremo. Y eso significa que la información cifrada no circulará entre varios actores del mercado. En cambio, viene Huawei, por hablar de la empresa que prácticamente se ha inventado el concepto de 5G, y nosotros montamos toda nuestra infraestructura digital del siglo XXI sobre una plataforma que procesa una empresa que básicamente pertenece a un gobierno no democrático que está completamente fuera de nuestra jurisdicción. A mí me parece muy irresponsable.

Si, pero es un tren al que todo el mundo está dispuesto a subirse…

Claro, lo que pasa es que tanto países, como ciudades, empresas y ciudadanos pensamos que, si no desplegamos la fibra, si no tenemos un teléfono de última generación, si no estamos al tanto de todo lo que publica Twitter, Facebook, Instagram o lo que sea, te quedas fuera. Es una percepción que estas empresas y los medios de comunicación han ido alimentando.

El 5G lo único que hace es acortar la distancia entre las antenas y reducir la latencia, permitiendo que la información circule con mayor rapidez; es, simplemente, una ampliación del ancho de banda. Esto en teoría, porque en realidad el 5G todavía no existe. Todas las redes que se anuncian como 5G son en realidad un 4G un poco más acelerado. De momento, el 5G es una quimera, pero una quimera que ya ha facilitado que una sola empresa controle ella solita toda la carretera. Ese túnel del que hablábamos antes lo gestiona solo ella.

Suena demasiado terrible, ¿existen propuestas o planes para que los países tengan un mayor control de sobre esas infraestructuras?

En este sentido, Donald Trump ha tenido la que para mí ha sido su idea más genial, por muy controvertido que pueda parecer. Después de que, a través de TikTok, le reventaran su primer mitin tras el comienzo de la pandemia, decidió que lo más probable era que esta red social estuviera espiando a ciudadanos estadounidenses para del gobierno chino —en virtud de la Ley de Ciberseguridad Nacional China de 2017, que obliga a todas las empresas a ceder datos al gobierno— y firmó una orden ejecutiva que obligaba a Byte Dance, su propietaria, a vender la aplicación a una empresa estadounidense. Luego se lo pensó mejor y firmó una segunda orden ejecutiva, en la que le obligaba a vendérsela a Oracle, cuyo fundador ha sido uno de los grandes financiadores de las campañas de Trump, pero todo esto está aún por ver. En realidad, no parece que vaya a suceder, pero soy muy fan de esa idea porque resuelve muchos problemas de una sentada: resuelves el problema de no tener que renunciar a una tecnología y a una infraestructura que ya existe y que la gente ya usa; resuelves el problema de mantener tu soberanía tecnológica sobre una infraestructura que es cada vez más crítica, y resuelves el problema de poder implementarla para las cosas que a ti te interesan, para lo que le interesa a Europa o a España, para lo que le interesa a tu empresa o a tu ciudad.

Pero fíjate que Europa podría haber hecho lo mismo. Tras el ataque a las Torres Gemelas, se aprobó la Ley Patriota en Estados Unidos, renovada recientemente, que también obliga a las empresas tecnológicas a ceder datos correspondientes a cualquier investigación, de la NSA por ejemplo, al gobierno estadounidense. Trump dio por sentado que TikTok estaba espiando a ciudadanos estadounidenses, pero es que nosotros sabemos que Facebook, Google y Microsoft espían a ciudadanos europeos porque tenemos los documentos que lo demuestran.

Y con respecto a Huawei, que efectivamente supone un problema porque ya domina gran parte de las infraestructuras 4G en Europa, se podría plantear un poco la misma solución, es decir: no te expropiamos la empresa, pero declaramos que todas las infraestructuras críticas son de seguridad nacional y que es imperativo que Europa tenga la soberanía sobre ellas. La idea de Trump es muy buena idea.

 

«La siguiente pandemia ya está ocurriendo. La vacuna no corrige las condiciones que hacían inevitable la situación actual»

 

¿Nos podrías hacer una predicción positiva y una negativa para en año entrante?

La positiva es que hemos descubierto que, cuando están motivadas y bien financiadas, las farmacéuticas son capaces de hacer en ocho meses lo que antes tardaban diez años. Creo que nos encontramos ante un renacimiento de la industria farmacéutica porque la solución basada en el ARN que se ha utilizado para crear las vacunas contra el coronavirus probablemente sirva para erradicar un montón de enfermedades más.

También es muy positiva la innovación farmacéutica condicionada por la inversión pública. Me parece un modelo que habíamos abandonado y que deberíamos volver a implementar. Es decir, que haya una responsabilidad pública por parte de estas empresas, que se gestione de manera pública y que implementen procesos de transparencia para demostrar que es así.

La predicción negativa es que la siguiente pandemia ya está ocurriendo ahora mismo en un campo de refugiados en Asia, o en un mercado de animales vivos del Congo, o en un hospital de Venezuela… La vacuna no corrige las condiciones que hacían inevitable esta pandemia. Lo hemos apostado todo a que una tecnología para que nos salve en el último minuto, y parece que nos ha salido bien, pero no nos ha salido bien.

¿Mucha predicción y poca prevención?

La paradoja de nuestro tiempo es que mientras que las empresas más poderosas del mundo se dedican a la predicción del futuro, hemos dejado de escuchar a los epidemiólogos, que llevaban diciéndonos desde 2003 que se avecinaba una pandemia horrible y que cada vez se daban más las condiciones para que fuera peor, especialmente tras la crisis de 2008, que también ha sido una crisis sanitaria porque la mayor parte de los servicios sanitarios han perdido recursos. Es decir que, cuanto más lo necesitábamos, menos preparados estábamos, a pesar de que se supone que esta es la era de los datos, la era de las previsiones y tal. Mucho dato y poco cerebro.