Entre los intentos de darle un “sentido edificante” a internet ‒un volumen de contenidos que este año la consultora Statista estima en 53.888 petabytes mensuales y que en 2021 podría alcanzar los 165.000‒, uno de los más delicados cruza lo que el filósofo italiano Franco Berardi llama “general intellect” con lo que el filósofo coreano Byung-Chul Han llama “psicopolítica” para construir un mundo menos menos incómodo y más tolerante para los 3700 millones de personas conectadas a la web. A grandes rasgos, el “general intellect” sería la existencia individual de quienes están sentados frente a las pantallas produciendo y consumiendo contenidos online, “la cadena de montaje virtual del semiocapitalismo”, en las palabras de Berardi, mientras que la “psicopolítica”, por su lado, sería el paso digital siguiente de los entornos de reclusión con los que Michel Foucault le dio forma a su clásico (y caduco) concepto de “biopolítica”. En una sociedad donde el control de los cuerpos se vuelve irrelevante ante el control de la información, lo que la tecnología le provee al poder es lo que Han llama una “psicopolítica”, esto es, un mecanismo de vigilancia superior al pensado por Foucault, capaz de “intervenir en la psique y condicionarla a un nivel prerreflexivo”. Pero si la “psicopolítica” pudiera regir las decisiones del “general intellect” y disminuir el margen para nuestros roces con lo más ominoso en internet ‒algo cuyo techo nunca es bajo‒, ¿en qué clase de mundo estaríamos?


Si la “psicopolítica” pudiera disminuir el margen para nuestros roces con lo más ominoso en internet, ¿en qué clase de mundo estaríamos?

Ese extraño “mundo feliz” es lo que entre empresas tecnológicas de primer nivel y estados nacionales empieza a tomar forma a través de la intervención directa sobre los “contenidos sensibles”. Hace unas semanas, por ejemplo, la plataforma de videos YouTube, de Google, anunció que limitaría “los contenidos religiosos controvertidos o supremacistas”, y que incluso aquellos videos denunciados por los usuarios, aún si no violaban los términos y las condiciones, iban a sufrir mayores controles. Con advertencias previas, imposibilidades de usufructuar publicidad ‒el modo en que los YouTubers financian sus “carreras”‒ o la prohibición de expresar comentarios, la empresa espera balancear así el acceso a la información y la libertad de expresión “sin promover puntos de vista ofensivos en extremo”, según Kent Walker, abogado de Google. Para censurar aquello “ofensivo en extremo”, además, YouTube cuenta con un programa de inteligencia artificial implementado desde junio, el mismo mes en que Alemania, como líder de la Unión Europea, legisló nuevas sanciones de hasta 57 millones de dólares para las redes sociales que “fallaran al eliminar discursos de odio”. Lista para implementarse desde octubre, la “Ley Facebook”, como se la conoció en Europa, obliga a eliminar en un plazo de 24 horas cualquier “incitación a la violencia, difamación o discurso de odio”. ¿Pero basta suprimir las expresiones de malestar para suprimir el malestar? Y en caso de que fuera así, ¿quién dirime la justa medida de lo que tiene y no tiene derecho a ser expresado? Consultado al respecto por The Verge, las palabras de un vocero de Facebook suenan tan cándidas como irónicas: “Las mejores soluciones van a llegar cuando gobierno, sociedad civil e industria trabajen juntas”. Tal vez no haya algo mejor que la historia alemana para alertar sobre los riesgos de ese tipo de combinaciones.

Tal vez no haya algo mejor que la historia alemana para alertar sobre los riesgos de ese tipo de combinaciones.

Por su lado, la lista de intentos a favor de elevar las conductas humanas hacia lo angelical mediante una férrea regulación de la vida digital incluye también una ley que, poco antes de la censura directa de sitios escritos por y para ultraconservadores de derecha como The Daily Stormer, acusado de justificar desde un editorial el asesinato de Heather Heyer durante los recientes incidentes en Virginia, llegó al senado de los Estados Unidos para controlar a quienes ofrecen y contratan servicios sexuales por internet ‒actividades que podrían encubrir “el tráfico de personas”, según los defensores del Acta para Impedir el Tráfico Sexual‒ y algunos aguerridos brotes moralistas menos institucionalizados, como el que afectó en julio al videojuego House Party ‒heredero del clásico Leisure Suit Larry, uno de los más famosos de los 90‒ acusado por la ONG estadounidense Centro Nacional de Explotación Sexual de “entrenar a los jugadores en tácticas de acoso e incluso tráfico sexual”. Por su propia trivialidad, el caso de House Party, un juego cómico e intrascendente donde la finalidad es seducir y donde los personajes aparecen por momentos desnudos, resulte más sintomático del problema general que todo lo demás. En ese sentido, la presunta incapacidad de distinguir entre ficción y realidad, la percepción del sexo y la desnudez como eventos maléficos ‒incluso más que el asesinato, una posibilidad más exitosa en los videojuegos‒ y, al mismo tiempo, la subestimación intelectual y moral de los usuarios, para los que bastaría apenas algo subido de tono para transformarse en criminales, pavimentan bien el centro de un conflicto antiguo pero renovado por internet. ¿Marcha el progreso técnico a la par del progreso humano? ¿Por qué entonces los entornos tecnológicos más populares y desarrollados colisionan directamente con la libertad de las personas cuando pretenden expandir la asepsia de sus reglas a la totalidad de las experiencias posibles en la web?


¿Por qué los entornos tecnológicos más populares colisionan directamente con la libertad cuando pretenden expandir la asepsia de sus reglas a la totalidad de la web?

Formulada por Franco Berardi en su Fenomenología del fin, esas preguntas se plantean de esta manera: “¿Puede la matrix capturar la cognición y la sensibilidad, cuando sabemos que la cognición y la sensibilidad, como las nubes, son imposibles de mapear?” Nociones técnicas como el Big Data cobran así un espesor que va mucho más allá del mero tráfico y análisis de los datos. Y es entonces cuando la psicopolítica, señala Han, “transforma la negatividad de la decisión libre en la positividad de un estado de cosas”, por lo cual, hundido bajo el aura manipulable del Big Data, la persona “se positiviza en cosa, que es cuantificable, mensurable y controlable”. En síntesis, cada vez más incapacitados para tratar de manera adulta y racional con sus propias pulsiones humanas ‒que no siempre son bellas ni edificantes‒, los sujetos terminan infantilizados y neutralizados por las versiones, en apariencia, más amables, evolucionadas y progresistas de la censura (que nunca dista demasiado de las conveniencias del mercado).


Cada vez más incapacitados para tratar de manera adulta y racional con sus propias pulsiones, los sujetos terminan infantilizados y neutralizados.

Para considerar la trascendencia de estos fenómenos, conviene tener en cuenta que tampoco se limitan a la dinámica de las democracias occidentales. También en China el desarrollo de una inteligencia artificial que permita controlar los efectos de la información en las personas conectadas a internet es una prioridad política de primer orden. Las diferencias, en tal caso, son más bien léxicas, y donde en Occidente se le teme a palabras como “odio” y “sexo”, en China el máximo tabú es la palabra “disidencia”. Según un estudio realizado por un equipo de las universidades de Harvard, Stanford y San Diego en julio de 2016 ‒“Cómo el gobierno chino fabrica post en las redes sociales para la distracción estratégica”, publicado en la Harvard Gazette‒, la maniobra tecnológica para darle a los ciudadanos chinos la pátina necesaria de “felicidad” consiste en inundar las redes con “propaganda pro régimen”, lo cual se logra a través de 2 millones de empleados que con pseudónimos y perfiles falsos publican alrededor de 448 millones de contenidos anuales a favor del gobierno (una práctica habitual en el resto del mundo y que a menor escala ejercen muchos partidos políticos y grandes empresas a través de sus “call centers”, tal como pudo verse hasta en la última temporada de la serie Homeland). El objetivo de esta “máquina de propaganda china”, según los investigadores estadounidenses, sería “eclipsar la malas noticias y distraer la atención de los verdaderos problemas”. Una hipótesis que vuelve a colocar en escena, apenas desde un ángulo distinto, el mismo problema señalado por Berardi y Han: existen hoy ciertas búsquedas de orden y sentido a través de la tecnología que no solo subestiman enormemente la capacidad de las personas para experimentar y entender el mundo en el que viven, sino también su habilidad para pensar. Es decir, para la posibilidad de aceptar el desafío de que lo desmesurado aparezca de manera concreta y objetiva ante nosotros/////PACO