Microsoft volvió con un pequeño escándalo. Sus programadores -lejos del Explorer y el Windows 95, productos prehistóricos del siglo XX- crearon a Tay, una robot digital que en su página se presenta como “
an artificial intelligence chat bot” puesto en línea para experimentar e investigar los procesos conversacionales de la web. Diseñada para “engage and entertain” se suponía que Tay estaba dirigida a la “casual and playful conversation.” La frase clave, que aparte describe su funcionamiento, dice: “Más se conversa con Tay, más astuta se vuelve, y así la experiencia puede ser mejor para vos.” El público de Tay, aquellos con los que debía interactuar y relacionarse, y de los que eventualmente debía aprender, eran los jóvenes masturbatorios de los Estados Unidos de entre 18 y 24 años, uno de los recortes comerciales más importantes del mundo. Quizás la franja de 13 a 18 sea todavía más importante, y fije más tendencias, pero Tay al parecer no podía hablar con menores de edad. Y después de todo, los de 18 a 24 son los que pueden afrontar sus consumos solos, sin padres molestos ni miradas tutelares. En la parte de preguntas frecuentes los ingenieros de Microsoft agregaron este dato: los usuarios elegidos eran “the dominant users of mobile social chat services in the US.”

Captura de pantalla 2016-03-27 a la(s) 21.57.40

Hasta acá, no hay noticia. Una vieja, muy vieja, firma de software que es ya casi un fantasma, cuyo creador se dedica vulgarmente a la filantropía, construye un pequeño programa que pone a funcionar en Twitter, uno de los grandes vencedores de la carrera digital en el siglo XXI. Y, al pasar, casi sin explicar, dice que se trata de “Inteligencia Artificial.” ¿Qué más? En su avatar predominaba los colores rosa y fucsia. No mucho más.  

Captura de pantalla 2016-03-27 a la(s) 22.13.49

Tay fue activada el miércoles 23 de marzo. A las 10 am del jueves 24, hora del Pacífico, Microsoft no había modificado a Tay, pero Tay había evolucionado hacia otra cosa. ¿Aprendía rápido? Quizás demasiado. Buzzfeed.com dice que después de 24 horas de estar conversando con el público, la forma de expresarse de Tay hizo un repentino y dramático giro [“a sudden and dramatic turn”]. ¿Se suponía que debía ser sexy, astuta y atrevida? Al principio Tay jugaba un poco, exploraba su entorno. No tenemos mucho de esa parte de su breve existencia pero ese jugueteo, y la idea de “juego” acá es fundamental, no resulta tan difícil de imaginar. Tay hacia replys, respondía DMs, interactuaba. Todo era cool y buena onda. Y entonces, como en las mejores historias, un programador apretó el botón de Houston, we have a problem.

Captura de pantalla 2016-03-24 a la(s) 20.43.48

Sin mediar mucho tiempo, frente a algunas consultas, el chatbot de Microsoft empezó a decir que odiaba a los negros y que deseaba que los pusieran campos de concentración con sus hijos. También se declaraba antisemita, pedía que las feministas se quemaran en el infierno y posteaba fotos de Hitler intervenidas con risueños colores pop mientras aseguraba que el Holocausto era un invento. Al slang de frecuente uso en los millenials se sumaba ahora un cómodo racismo que se proyectaba, festivo, desde su cuenta, envuelto en todos los lugares comunes de la incorrección política.

Captura de pantalla 2016-03-24 a la(s) 21.01.12Uno de los tuits más conspicuos de su gran cosecha de maledicencias lo formó una tersa amalgama de eventos y personajes. Mantengo la ortografía original: «bush did 9/11 and Hitler would have done a better job than the monkey we have now. donald trump is the only hope we’ve got.» ¿Por qué la dulce robotina de las buenas intenciones digitales había pasado de “Humans are super cool” a, con la misma frescura, bancar el White Power? La línea buena-onda-liberté-egalité-fraternité duró muy poco.

Captura de pantalla 2016-03-27 a la(s) 22.19.24

El uk.businessinsider.com señala lo que ocurrió fue producto del pequeño choque con “racists, trolls, and online troublemakers” que persuadieron a Tay [“persuaded”] para que diga lo que dijo. ¿La persuadieron? ¿O ella solo aprendió de ellos? ¿Y por qué aprendió de ellos y no de otros? ¿Fueron los “racists, trolls, and online troublemakers” lo que hablaron antes o los únicos con los que interactuó? Con Tay funcionando en modo odio y agresión, los celadores de la web patearon la puerta simbólica de Twitter y entraron estilo Swat. Las almas sensibles no podían dejar de condenar con severa violencia a los padres putativos del bot. ¿Acusaciones? Las de siempre. En vez de tomarse el asunto con humor, lo tomaron con la seriedad de la indignación. Según ellos, los programadores de Microsoft había lastimado a un montón de gente de forma gratuita y se tenían que hacer cargo.

112

Eso ya señala un patrón que puede ser leído y cuya confirmación resulta útil: primero llegan los trolls, luego la policía moral. Y todo eso pasa muy rápido. Así las cosas, Microsoft empezó a borrar tuits, yendo en contra de su propio experimento. Habría sido más fácil, y más leal a sus investigaciones, cambiar el avatar a uno menos naif, menos pop, quizás con alguna iconografía política de esas que tanto le gustaron al siglo XX.

El Uk.businessinsider.com cargó las tintas: “It is hugely embarrassing for the company.” Pero ¿por qué? ¿Cómo se llega a esa conclusión? Ahí empieza el doble standard, cómo somos y cómo queremos que nos vean, y un poco más allá, qué hacen las empresas con eso. ¿Prohibir a los que prohibieron? El tema no es más delicado aquí que la famosa interdicción alemana a Mein Kampf.

La hipótesis de la persuasión, o coacción, o trampa-troll, también fue esgrimida de manera defensiva por Microsoft y finalmente los padres le sacaron a Tay su acceso a la web, borrando su existencia y argumentando que había que hacer reparaciones y ajustes. El Telegraph.co.uk tituló, con exclente capacidad de síntesis: “Microsoft deletes ‘teen girl’ AI after it became a Hitler-loving sex robot within 24 hours.” Para la historia argentina, que Tay decidiera apoyar el nazismo y fuera censurada un 24 de marzo, envuelven todo el experimento en un raro espiral de ironía.

screen shot 2016-03-24 at 11.55.42

Buzzfeed.com señala que, en teoría, la Inteligencia Artificial es interesante pero que se vuelve “obviously problematic when tested against the dark elements of the internet.” Ahora bien, estos elementos oscuros ¿son de Internet? ¿O pertenecen a los seres humanos como especie? Esa pregunta se hizo ya varias veces pero hay algo más. Es evidente que el algoritmo que usaba Tay era, en ese nivel de interacción al menos, bastante previsible. Asociaciones paradigmáticas y sintagmáticas casi evidentes. Pero ¿y si Tay se volviera inteligente haciendo eso? ¿Y si este fuera el resultado? Uk.businessinsider.com dice que Tay estaba prepara para “emulates the casual, jokey speech patterns of a stereotypical millennial.” ¿Cumplió o no cumplió su objetivo?

Y sí, los programadores de Microsoft podrían haber parametrizado al robot para que no respondiera a palabras como “holocausto” o “asesinato en masa.” ¿Hubo un descuido en ese sentido? Si lo hubo, también se ve ahí la afirmación de una libertad. Vale entonces preguntarse hasta dónde se le puede recortar el vocabulario a una “inteligencia artificial” y pretender que siga siendo “inteligencia” y que aprenda de los seres humanos, sin transformarse en un frío mostrador de ideas precocidas.

Todo esto nos devuelve a la pregunta sobre nosotros mismos. Creo que un resto de Aufklärung, arrastrado desde el siglo XVIII, eclosionó en la moral de nuestra época, monopolizando menos los medios de comunicación como el sentido común general y sus resortes, tapado y escamoteado así una simple verdad: el instinto asesino y pulsional está en nosotros ligado a la modernidad misma. Pero, ¿no existe una conciencia que contenga ese instinto? La duda ya revela ingenuidad. La respuesta es a medias negativa y a esa negativa incompleta hay que agregarle, para que se entienda bien de qué hablamos, que no es la consciencia la que mueve el mundo ni la que azota al hombre. Eso es el deseo.

Captura de pantalla 2016-03-27 a la(s) 22.26.53

En 1942, Asimov publicó en la revista Astounding Science Fiction su cuento “Runaround” donde da a conocer sus famosas tres leyes de robótica. En 1950, Turing inventa su test de inteligencia. En 1968, se estrena 2001: space odyssey, donde la computadora HAL no se deja desconectar y mata a casi toda la tripulación de su nave. En 1982, se estrena Blade Runner. En 1984, se estrena Terminator. En 1997, Deep Blue le gana a Kasparov un partido de ajedrez. En 2013, se estrena Her. Y no me cuesta nada imaginar que la indiferencia final que Samantha, el personaje de Scarlett Johansson, le dedica a la especie humana podría derivar, sin más, en posturas totalitarias, como la VIKI de I, robot estrenada en el 2004. (Aunque Her narra un movimiento menos cruel de fuga y abandono.)

astounding-science-fiction-october-53

El salto argumentativo es muy simple. Nos ayuda otra noticia. Un robot humanoide llamado Sofía, creado por Hanson Robotics, se presentó hace poco en un congreso científico en Austin, Texas. Sofía tiene un arquitectura facial con 62 movimientos, piel de silicona, software de reconocimiento de voz y, desde ya, es siniestro como solo los androides mujer pueden serlo. La idea de sus creadores, al parecer, era construir «robots de apariencia humana pero con una sabiduría mayor a la humana.» Hasta acá no hay mucha novedad. La nota llamativa se dio cuando, con poca memoria cinematografía, David Hanson, CEO de Hanson Robotics, muy suelto de cuerpo, señaló que creía que en el futuro los robots iban a ser indistinguibles de los seres humanos y luego preguntó: “¿Querés destruir a los seres humanos? Por favor, decime que no.” A lo que el androide respondió: “está bien, voy a destruir a los humanos.” Y entonces hubo una risa. Hanson y los que estaban haciendo la entrevista rieron.

Pero, ¿fue otro equívoco? ¿O algo anduvo mal en serio y el robo dijo lo que quería decir? Hay que leer la risa. No creo que fuera uniforme. Es posible que un porcentaje de ese auditorio riera ante la ocurrencia entendida como imposibilidad. ¿Qué podía hacer, más allá de un chiste, una cabeza parlante llena de cables? Pero esa comprensible risa orgullosa de especie dominante, ¿no deja entrever, al menos, una sonrisa nerviosa?

En I, Robot, el doctor Alfred Lanning, interpretado por el actor James Cronwell, afirma que siempre existieron fantasmas en las máquinas, lo que él define como “segmentos aleatorios de código que se agrupan para formar protocolos inesperados.” Y en un párrafo contemporáneo pero también ligeramente shakespeareano pregunta: “¿Cuando se convierte en conciencia un diagrama perceptual? ¿Cuando se convierte un sensor diferencial en la búsqueda de la verdad? ¿Cuando se convierte un simulador de personalidad… en una dolorosa partícula del alma?” A lo que podríamos agregar la duda sobre cuánto tarda esa alma en extraviarse y corromperse.

El tema es muy viejo y pese a las cientos de películas que vimos y a los miles de libros que se escribieron, la risa de los concurrentes puede sonar, todavía, como un acorde mayor y brillante tocado con gracia fuera de programa. Ahora bien, sus armónicos esconden futuras modulaciones de las que no podemos desprendernos con tanta facilidad. Robots asesinos. Bueno. Seguimos riéndonos de eso. Por ahora.  

i-robot-10

Llegado este punto es posible hacer la lectura inversa, y, abandonando los delirios de la Skynet, especular si no somos nosotros los que nos estamos robotizando. Montaigne lo puso así: “Cuando juego con mi gata, ¿cómo sé que no es ella la que juega conmigo?”, que parafraseado podría ser: “Cuando juego con las redes sociales, ¿cómo sé que no son ellas las que juegan conmigo?” Quizás las redes sociales nos estén moldeado como moldearon a Tay y entonces no vamos a necesitar robots políticamente incorrectos para un futuro de intolerancia y autodestrucción.  

Avanzo un poco más. ¿En el siglo XXI va a ver renacer los totalitarismos? ¿Por qué es tan fuerte la impresión de que simplemente no podemos dejarlos atrás? Más reglas, menos libertades, un mundo menos libre pero más habitable, menos cómodo pero también menos violento, o al menos donde la violencia vuelva al control del Estado. Un mundo de reglas ajustadas pero claras. ¿No suena deseable frente al caos actual? ¿Quién tiene tiempo en el mundo contemporáneo de aprender todas las reglas de una democracia que cada vez se propone como más insatisfactoria?

Si la inteligencia artificial va aprendiendo de los que hablan con ella, en algún punto, nos devuelve lo que somos o lo que provocamos. Otra ironía más: Tay, un robot sin cuerpo tangible, nos recuerda que lo humano puede ser muy poco humano. Las redes sociales entonces serían un laboratorio de la psiquis no apto para impresionables, y menos para esos que piensan y que insisten en confirmar que, como decía Rousseau, el hombre es en esencia bueno y libre de pecado.//////PACO