Algoritmos de Facebook son potencialmente peligrosos

por | Oct 30, 2017 | Tecnología

Mucho ruido se ha hecho sobre el papel que Facebook jugó en las elecciones presidenciales de 2016 en Estados Unidos. Los críticos han señalado una campaña publicitaria dirigida por grupos rusos como prueba de que la compañía con sede en Menlo Park no se ocupaba de la tienda, y alegaron que el desastre siguió como resultado.

Pero ese argumento pasa por alto un punto clave: al mostrar “anuncios oscuros” a los usuarios, Facebook estaba haciendo exactamente lo que estaba diseñado para hacer. El mayor problema no son estos anuncios específicos de Rusia (que Facebook se niega a revelar al público), o incluso que Donald Trump fue elegido presidente, sino el mismo sistema sobre el que se basa la compañía.

El plan de Mark Zuckerberg para aumentar la transparencia en los anuncios políticos, aunque es bienvenido, cae en la misma trampa. Sí, más divulgación es buena, pero ¿cuál es el remedio cuando la arquitectura subyacente en sí es gangrenosa?

Zeynep Tufekci, autor de Twitter y Tear Gas y profesor asociado de la Universidad de Carolina del Norte en Chapel Hill, dejó esto muy claro en una charla TED de septiembre en la que habló de la forma en que los mismos algoritmos diseñados para brindar mejores anuncios en plataformas como Facebook, tienen la capacidad de ser desplegados para fines mucho más oscuros.

“Entonces, la capitalización bursátil de Facebook se acerca a medio billón de dólares”, dijo Tufekci a la multitud reunida. “Es porque funciona muy bien como una arquitectura de persuasión. Pero la estructura de esa arquitectura es la misma ya sea que estés vendiendo zapatos o si estás vendiendo política. Los algoritmos no conocen la diferencia. Los mismos algoritmos que ofrecen hacernos más flexibles para los anuncios también están organizando nuestros flujos de información política, personal y social, y eso es lo que tiene que cambiar”.

Tufekci argumentó además que cuando el aprendizaje automático entra en juego, los humanos pueden perder la pista de exactamente cómo los algoritmos trabajan.

Y, continuó, “no comprender completamente cómo funciona el sistema tiene consecuencias potencialmente aterradoras, como publicitar viajes de Vegas a personas que están a punto de entrar en una fase maníaca”.

Esta preocupación es real. Facebook ahora puede inferir todo tipo de datos sobre sus usuarios, desde sus puntos de vista políticos, a sus afiliaciones religiosas, a la inteligencia y mucho más. ¿Qué sucede cuando ese poder está disponible para cualquier persona con un pequeño presupuesto publicitario? O, peor aún, ¿un gobierno opresivo?

“Imagine lo que un estado puede hacer con la inmensa cantidad de datos que tiene sobre sus ciudadanos”, señaló Tufekci. “China ya está utilizando la tecnología de detección de rostros para identificar y arrestar personas. Y aquí está la tragedia: estamos construyendo esta infraestructura de autoritarismo de vigilancia simplemente para que la gente haga clic en los anuncios”.

Facebook se considera a sí mismo como una empresa que se esfuerza por acercar “al mundo “, pero la verdad del asunto es muy diferente. Es, por supuesto, un sistema diseñado para recopilar una cantidad infinita de datos sobre sus usuarios con el objetivo de empujarnos hacia cualquier comportamiento que la compañía considere que es lo mejor para él: comprar un artículo publicitado, votar o estar en un estado de ánimo particular.

Ese es un problema fundamental que afecta a la esencia misma de Facebook, y no es algo que una nueva política de divulgación publicitaria política vaya a arreglar.