Ante el avance de la mecanización del universo, William Blake escribió: “Líbranos, Dios, de la visión simplista y del sueño de Newton”, tal vez sin saber que el propio Creador, apesadumbrado por la inmensidad de la tarea, usaría las ideas del matemático (y alquimista) inglés como manual para construir el universo. Pero esa es una historia para otro momento. Ahora, en cambio, algún indignado podría remixar a Blake después del Facebookgate y escribir: “Líbranos, Dios, de la comunidad simplista y del sueño de Zuckerberg”. El problema es que el sueño de Zuckerberg, como remarcaron los senadores y congresistas norteamericanos durante la audiencia que tuvo al CEO de Facebook como invitado, es el american dream, y que al final de todo sueño hay un monstruo.
¿Por qué nos molestó tanto el Facebookgate? ¿Qué fue lo que cambió?
En cierta manera, los sueños son una yuxtaposición de imágenes a las que después de despertar el soñador puede otorgarles un sentido y una cohesión, una “narrativa” capaz de crear una historia vinculada a deseos, frustraciones y fantasías personales. Michael Gazzaniga, uno de los fundadores de la neurociencia cognitiva, explica que el hombre es un narrador natural de historias, y es a partir de ellas que entiende al mundo y se entiende a sí mismo. Entonces, ¿hasta qué punto “el sueño de Mark Zuckerberg” influye en la forma en que se narran hoy las historias personales de los usuarios de Facebook? En las redes sociales el usuario solo existe cuando es percibido: por supuesto que puede controlar lo que quiere mostrar, pero el poder está en el otro, aquel que decide si va a darle alguna notoriedad a esa exhibición o no. La pérdida de la autovaloración, por otro lado, llevó a las “burbujas de filtros”: para asegurarse una buena recepción, el usuario empezó a comportarse y consumir únicamente lo que se esperaba de él. Al principio ese sesgo se definía por los otros usuarios, y luego el poder lo tomaron los “algoritmos”, una palabra de moda y al mismo tiempo vacía, porque ¿qué quiere decir que los “algoritmos tomaron el poder”?
Lentamente, Silicon Valley creaba un mundo que a diferencia del mundo analógico se adecuaba rápido a la historia particular de cada uno.
De manera gradual, al comienzo se creía que, de acuerdo a factores demográficos y ciertos comportamientos digitales concretos —likes, retweets, películas vistas, canciones escuchadas, palabras buscadas—, un programa de data mining podía identificar contenidos, ya fueran pagos o gratuitos, que estadísticamente el usuario iba a tender a consumir. En otras palabras, nada nuevo bajo el sol: la automatización del marketing y la publicidad. Y al principio, también, eso nos gustó. Lentamente, Silicon Valley creaba un mundo que a diferencia del mundo analógico se adecuaba rápido a la historia particular de cada uno. Nosotros solo teníamos que dar nuestros datos y éramos felices, aun cuando hubo algunas voces que advirtieron la paulatina pérdida de privacidad, como Edward Snowden. Entonces, ¿por qué nos molestó tanto el Facebookgate? ¿Qué fue lo que cambió? La respuesta es sencilla: Facebookgate nos molestó porque nos enteramos de que Facebook había dejado de crear una realidad a imagen y semejanza de lo que queríamos mostrar y, en cambio, empezó a mostrarnos un mundo más acorde a nuestra verdadera identidad. Esta diferencia se vuelve más sensible si recordamos que Facebook no borra nada: podemos sacar los datos de la interfaz, pero no podemos eliminarlos de la plataforma. Beth Gautier, un portavoz de Facebook, lo explicó en una charla con el Times: “Cuando borrás algo, nosotros lo sacamos para que no sea visible o accesible en Facebook”. Es decir, si borrás una conversación, una foto o un posteo, esos datos dejan de ser “accesibles” para otros usuarios, pero siguen siendo accesible para Facebook. Y, por supuesto, siguen siendo útiles también para los anunciantes que financian a Mark Zuckerberg a través de las campañas que deseen. Esto es algo que tal vez no sabías: Facebook, de hecho, guarda todo lo que tecleás, incluso si nunca llegaste a publicarlo. Facebook, por ejemplo, sabe si te ibas a encarar a una chica y no lo hiciste por miedo al rechazo (con precisión milimétrica, incluyendo la hora, el lugar y el contexto de la conversación) y sabe si le ibas a pedir plata a un amigo aunque al final te dio vergüenza. Facebook también guarda todos los comentarios envenenados que, por suerte, no te atreviste a publicar, y recuerda todo el odio y el miedo que alguna vez tecleaste. Ah, y también tiene ese nude que no enviaste por pudor a no lucir como la mujer de la publicidad que te muestra Facebook. Nada de lo que hacés o decís se pierde como lágrimas en la lluvia: todo queda para siempre en una nube de servidores, cables, routers, antenas y bloques de refrigeración.
Nada de lo que hacés o decís se pierde: todo queda en una nube de servidores, cables, routers, antenas y bloques de refrigeración.
El otro gran problema es que Facebook no solo guarda los datos de sus usuarios, sino que también crea perfiles de personas que nunca han dado su consentimiento ni han estado de acuerdo con los términos de usuario, ni han posteado ni comentado ni aceptado ninguna interacción con la red social porque, simplemente, nunca han tenido cuenta en Facebook. Para poder acceder a esos datos, tendrían que hacerse usuarios de Facebook, irónicamente otorgando permiso a la empresa para tener la misma información que ha estado guardando sin permiso. ¿Pero cómo lo hace? Muy fácil, con los millones de cookies, plugins y partners que tiene esparcido por toda la red. En todos los lugares donde hay un logo de Facebook hay trackers, y estos trackers acumulan datos para los perfiles de Facebook aunque el visitante no haga click en el logo de Facebook, no esté logueado a Facebook y ni siquiera tenga una cuenta en Facebook.
Los algoritmos no reconocen ideologías, y creo que esta es la razón por la cual las utopías de internet murieron.
Al principio, entonces, nos preguntamos cuál iba a ser el monstruo al final túnel. Y la respuesta, por supuesto, es que somos nosotros: los usuarios. Facebook no creó a Donald Trump, ni provocó el Brexit, ni agitó los resurgimientos del antisemitismo, la xenofobia o el racismo que preocupa tanto en Europa. Todo eso siempre estuvo ahí, escondido, hasta que un algoritmo pudo leerlo y nos devolvió la fantasía correcta para desnudarlo. Pero si Facebook sabe todo acerca de los 4021 millones de personas conectadas a internet, ¿por qué vivimos en un mundo que parece estar destinado a la catástrofe, con crisis ecológicas, refugiados y una guerra civil en Siria que va convirtiéndose lentamente en una guerra indirecta entre Rusia y los Estados Unidos? Al fin y al cabo, además de miedos y odios, también tenemos sueños, amor y bondad. Tal vez podamos encontrar una respuesta en las palabras de Isaiah Berlin y su análisis de la ideología nazi en el célebre Mensaje al siglo XXI. “Si uno está verdaderamente convencido de que existe una solución para todos los problemas humanos, de que uno es capaz de concebir una sociedad ideal a la cual el hombre puede acceder si tan solo hace lo necesario para alcanzarla, entonces mis seguidores y yo debemos creer que ningún precio es demasiado alto para abrir las puertas de semejante paraíso”. Desde ya, esta no es otra que la lógica que permite que se cometan crímenes terribles en nombre del orden, “el paraíso”, la igualdad o la justicia.
El «optimismo moral» está comenzando a retroceder en el mundo digital, y esto a se debe a que muchas ideas inviables en los espacios habituales de discusión de las sociedades analógicas ahora encuentran un terreno fértil en la red.
El problema, por lo tanto, es mucho mayor que Facebook. De lo que se trata es del Zeigest de la época, algo que puede resumirse en cierta epidemia de “optimismo moral” donde la tecnología y su potencialidad se proponen como solución a todos los problemas, sin tiempo que perder criticando la estructura política y económica de la sociedad en la que esos problemas existen. En otras palabras, estamos obligados a creer que vamos a encontrar todas las soluciones, simplemente falta que nos pongamos manos a la obra. Pero la pregunta, en este punto, podría ser distinta. ¿Qué vino primero? ¿Facebook y el resto de las redes? ¿O el “optimismo moral”? Es difícil, pero creo que vino primero el optimismo y luego el auge de las redes. Ciertamente, el «optimismo moral» está comenzando a retroceder en el mundo digital, y esto a se debe a que muchas ideas extremas, inviables en los espacios de discusión de las sociedades analógicas, ahora encuentran un terreno fértil en la red. Los algoritmos no reconocen ideologías, y creo que esta es la razón por la cual las utopías de internet murieron. Y si empiezo a escribir en primera persona es porque también creo que es tiempo de terminar, y antes de hacerlo quiero dejar el estéril e inocuo plural académico. Creo que somos narradores de historias, pero también creo que esas historias solo son las sombras de nuestras vidas. Las redes sociales, por su lado, alargan estas sombras. Y lo hacen de una manera tal que ganan cada vez mayor corporeidad y en la caverna del celular parecen reales/////PACO