Entre los ingenieros informáticos hay un chiste que dice que “algoritmo” es la palabra que usan los programadores para no explicar qué hicieron. A partir de ahí, no hace falta demasiado para percibir que la diferencia entre lo que “chiste” significa entre quienes producen la tecnología que domina nuestra experiencia y lo que significa para todos los demás ya insinúa, en parte, a qué se refiere Martin Amis cuando dice que la ciencia ficción está destinada a cubrir la falta de explicaciones públicas sobre lo que hace la ciencia. Sin embargo, lo que merece su propia dosis de atención es cuánto de lo que se imagina en un ámbito y cuánto de lo que se silencia en otro coincide, en última instancia, con la fantasía de infalibilidad expandida ahora entre
buzzwords como “algoritmo”, “Big Data”, “minería de datos” o “inteligencia artificial”. ¿Habitamos un tiempo que delega a las máquinas el trabajo de pensar? Según el relato de Silicon Valley ‒base de corporaciones como Apple, Microsoft, Google, eBay, Facebook, Netflix e Intel, entre otras‒, hoy son la ingeniería informática y la ciencia de los datos las únicas entidades capaces de entender lo que pasa en internet y conocer con una precisión inédita (comunicada solo a los augures de Silicon Valley) no ya qué hacemos y pensamos, sino qué deseamos, cómo lo deseamos y cuándo lo deseamos. El margen de lo cognoscible resulta tan amplio y preciso que, incluso con ese interés por el arte que es la cara dominguera de su omnisciencia, los algoritmos saben qué series de televisión miramos y cuáles nos gustaría mirar.

algorithms-web

La ingeniería informática y la ciencia de los datos son las únicas entidades capaces de entender lo que pasa en internet y conocer no ya qué hacemos y pensamos sino qué deseamos.

El éxito de ese relato que propone lo que, en esencia, es la clausura de cualquier pregunta abstracta sobre el por qué ‒para concentrarse en el qué, el dónde, el cuándo y el cómo materializable del mercado‒ tiene causas diversas. La menos insoslayable es que la tecnología digital arrastra una de las mayores perspectivas de crecimiento en el corto plazo. Según Forbes, en 2020 el sector podría sumar 1.36 billones de dólares a la economía mundial, “el equivalente en tamaño a la economía de Corea del Sur”, y eso, por supuesto, siempre atrae más amigos que enemigos. Otro factor es la política, sobre todo desde que la discusión acerca de cómo los funcionarios electos podían controlar la influencia de las empresas tecnológicas sobre las sociedades se transformó, en pocos años, en la discusión acerca de cómo las empresas tecnológicas podían ayudar a los funcionarios electos a controlar a las sociedades, simbiosis que implica una mayor cercanía entre redes sociales privadas y datos públicos estatales y que abre nuevos horizontes a la “psicopolítica”.

strangerthingsposter-1

La arbitrariedad de lo que se analiza en el flujo de datos nunca deja de medirse según las necesidades de quienes fabrican esa arbitrariedad.

Aun así, entre los rasgos más sobresalientes del discurso de la infalibilidad, esa voz que insiste en que internet sabe qué queremos a riesgo de que ni siquiera nosotros tengamos plena conciencia del por qué, el más interesante no es el que le infunde, por ejemplo a los algoritmos, la capacidad de saberlo todo, sino el que desplaza lo que la ciencia tiene de arbitraria hacia una zona incierta, en apariencia más allá de la voluntad. Al fin y al cabo, ¿qué es un algoritmo? Cualquier ingeniero va a decir que es una secuencia de pasos lógicos ordenados para una finalidad única. Hay algoritmos en Facebook que identifican caras según secuencias de píxeles, algoritmos que anticipan qué palabras y emoticones vamos a usar en WhatsApp y algoritmos que identifican pornografía para bloquear el acceso a determinados usuarios. Lo importante es que los algoritmos ‒que son diseñados por los ingenieros y los analistas, y que los programadores implementan bajo un código útil para las computadoras‒ son estáticos, lo cual significa que no cambian, no evolucionan, ni se mejoran a sí mismos. Es más, muchas veces basta una mínima alteración para desorientarlos por completo, como el algoritmo de búsqueda de imágenes de Google que el año pasado catalogó como gorilas a personas negras. Como fuere, la arbitrariedad de lo que se analiza y comprende en el flujo de datos nunca deja de medirse según las necesidades de quienes encargan y fabrican esa arbitrariedad. Y ese factor no solo es humano sino que dista de ser infalible.

report-landing-page-main-image-big-data

En 2020 el sector tecnológico podría sumar U$S 1.36 billones a la economía mundial, “el equivalente en tamaño a la economía de Corea del Sur”, y eso siempre atrae más amigos que enemigos.

En términos de experimentación antes que de milagros, el volumen global de la información en internet ‒o Big Data‒ sí probó ser redituable para mejorar la oferta de productos vinculados a la predictibilidad. ¿Qué tipo de operaciones bancarias tienden a hacer los hombres solteros de entre 30 y 35 años al inicio del año fiscal? ¿Con qué otro producto de limpieza personal acompañan su compra en un supermercado las consumidoras de determinado champú? ¿Cuántos episodios de una serie protagonizada por una madre soltera blanca están dispuestos a ver en los usuarios latinos suscriptos a una determinada plataforma de streaming? Ese es el tipo de “minería de datos” cuyos resultados, sin duda valiosos en el mundo interior del capital ‒donde se los llama business intelligence‒, suman brillo a la fantasía de infalibilidad de Silicon Valley. Pero, ¿en qué punto de ese proceso el análisis de la información es presentado como el análisis inexcusable de lo que somos? Las contribuciones en el terreno del arte, por su lado, abren debates distintos. Un producto diseñado a través del análisis de datos para complacer la demanda de un segmento específico del mercado cultural puede “ser lindo”. Pero en las palabras del Diablo al que da voz Rudyard Kipling en El enigma de los talleres, “¿es arte?”. Un caso más paradigmático que las oxidadas series de Netflix es Daddy´s Car, la canción “al estilo de los Beatles” que compuso el mes pasado un programa de inteligencia artificial del Laboratorio de Investigación de Sony CSL. Mediante combinaciones de temas de Lennon y McCartney, lo que se oye ‒en YouTube‒ suena efectivamente como los Beatles, al menos como Los Shakers “sonaban como los Beatles” hace medio siglo. Sin embargo, incluso Los Shakers crearon en algún punto su propio estilo.

maxresdefault-1

¿En qué punto de ese proceso el análisis de la información es presentado como el análisis inexcusable de lo que somos?

Un ejemplo más amplio y sutil de ese problema está en los resultados que enfrentan los analistas de datos de los GPS. Para su sorpresa, muchas veces el camino más eficiente entre dos puntos no es el que puede calcular un navegador, precisamente porque la lógica de las distancias óptimas es incapaz de anticipar la importancia sentimental, neurótica o fetichista que tiene para las personas atravesar un paisaje específico ‒no siempre “natural”, claro‒ aunque signifique alargar su trayecto. ¿Pero lo harían si las aseguradoras ofrecieran descuentos a sus clientes más precavidos? De hecho, ni siquiera el mercado domestica por completo los hábitos humanos. Y por eso el algoritmo que calculaba las tarifas de Uber en Londres fue hackeado el año pasado, cuando la Universidad de Northeastern reveló en qué esquinas céntricas convenía pedir un auto para evitar las tarifas abusivas (cuya geolocalización obedecía a criterios tan arbitrarios como una cuadra de diferencia). En ese caso, la infalibilidad transparente de los datos fue refutada dos veces: no solo se trataba de especular márgenes vulgares de ganancia, sino que era incapaz de hacerlo sin ser descubierta (la otra cara de la historia está en Nueva York, donde Goldman Sachs financia a Kensho, un programa que promete reemplazar a todos los analistas financieros de Wall Street: si los clientes están dispuestos a enfrentar con su inteligencia a las máquinas, las empresas se preparan para contraatacar). Por supuesto, nada de esto descalifica los intentos de Microsoft o IBM ‒con acceso a un millón y medio de historias clínicas‒ para fusionar la inteligencia artificial y la salud y optimizar la cura del cáncer. Con el objetivo de “diseñar células programables como computadoras”, la meta actual es personalizar el análisis de datos y ayudar a elegir qué tratamientos y medicamentos son los más adecuados según el caso. De perfil menos filantrópico, hay otra fusión parecida en marcha en el terreno de los algoritmos genéticos, una parte de la ingeniería de sistemas que, junto a las redes neuronales, intenta emular el comportamiento biológico. En breve, un algoritmo genético va a estar haciendo permutaciones con ligeras diferencias «genéticas» en la conformación de selección de alternativas para encontrar la mejor o la más apta. Después de una determinada cantidad de iteraciones, el resultado va a ser el gen «más apto» para resolver el problema. Es una tarea noble, desde ya, pero no le resta mérito al humilde algoritmo que se ocupa de que “algoritmo” no se transforme en este mismo texto en “logaritmo”//////PACO