Parámetros de humanidad
¿Cómo describiría su relación con su madre? Con esta pregunta a Theodore, el agente de voz de OS1 termina de configurar a Samantha: empática, intuitiva, pícara y sensual.
Samantha puede leer un libro en dos milésimas de segundo, clasificar todo el correo de Theodore y hacer mil tareas más. Pero lo que deja prendado a Theodore no son esas habilidades, sino sus rasgos humanos, su humor, su voz imperfecta y su afectuosidad zalamera. Todo eso se define mientras se configura OS1, en un diálogo con un agente de voz que discurre así:
— Agente: Are you social or antisocial?
— Theodore: I guess I haven’t been social in a while, mostly becaus…
— Agente: In your voice, I sense hesitance. Would you agree with that?
— Theodore: Sorry if I sounded hesitant, I was just trying to be more accurate.
— Agente: Would you like your OS to have a male or female voice?
— Theodore: Female, yes.
— Agente: How yould you describe your relationship with your mother?
— Theodore: It’s fine, I think… ehm… Well, actually, I think I what I find frustrating about my mom is… If I tell her something that’s going on in my life, her reaction is usually about her, it’s not abou…
— Agente: Thank you. Please wait as your individualized operating system is initiated.
He dicho muchas veces eso de que cada decisión que dejamos al usuario es una decisión que no hemos sabido tomar como diseñadores. Lo sigo pensando, pero concederé que a los agentes, androides, sintéticos, IAs o como queramos llamarles, hay que darles algunas pautas acerca de cómo queremos que nos traten o, mejor dicho, cómo necesitamos que lo hagan.
En la respuesta de Theodore sobre su madre está ese algoritmo psicoanalista que decide que Samantha sea, antes que otras cosas, empática, pícara y sensual. Todo lo que nuestro protagonista necesita, quizás sin saberlo.
Leí, hace tiempo, que a una persona le basta una gota de humor sobre el dolor compartido con otra, para provocar una complicidad y hasta casi una amistad. Bromas acerca de los niños o de los cónyuges obran magia en todo tipo de relaciones de negocios, sea en un taxi, con el señor de la mudanza o la jefa de sala cuando queremos mesa en un restaurante.
Para reforzar esa idea, podría marcarme un Máximo Gavete y decir que ambas, humor y humano, comparten raíz etimológica: humus, que significa tierra o suelo, de donde el mismísimo Jehová según el judaísmo o Prometeo según la Grecia clásica, crean a las personas.
Y es que el el humor es, por encima del aspecto, lo que humaniza el trato, lo que nos iguala. Por eso, podemos empatizar por teléfono sin siquiera saber el aspecto de quien tenemos al otro lado. Y por eso mismo, son más memorables y le tenemos más cariño, a los robots con chispa, con ese poquito de ingenio y sarcástica agudeza.
Kitt de El Coche Fantástico, Wall·E, Bender de Futurama… Un poco de humor, perfecto. Demasiado y se arruina la experiencia, arrojándonos al valle inquietante, ese desasosiego que nos producen los androides que son ‘demasiado’ humanos cuando se les ve un punto de artificialidad.
En Interstellar, nada más despegar la nave, se nos muestra ese momento, lo que lleva a Cooper a ajustarle a TARS los parámetros de humor:
— TARS: Everybody good? Plenty of slaves for my robot colony? [los humanos se cruzan miradas]
— Doyle: They gave him a humor setting so he’d fit in better with his unit. he thinks it relaxes us
— Cooper: A giant sarcastic robot. What a great idea!
— TARS: I have a cue light I can use when I’m joking if you like.
— Cooper: That’d probably help.
— TARS: Yeah, you can use it to find your way back after I blow you out the airlock.
— Cooper: What’s your humor setting, TARS?
— TARS: That’s 100 percent
— Cooper: Let’s bring it down to 75, please.
Setenta y cinco por ciento de humor, ni más ni menos ¿Será esa la cifra perfecta para despertar afecto sin llegar a empachar?
Traté de lograr algo parecido con ChatGPT cuando le pregunté si debería locutar yo mismo el audiolibro de Mnemosyn, mi primera novela corta. Le pedí que me respondiese con el humor, el sarcasmo y la crudeza con que lo haría un buen amigo. Me soltó esto:
Justo lo que yo quería: que fuese un poco hijoputa, que es otro rasgo humano como pocos. Hijoputa y honesto, que es otro de los parámetros que Cooper le ajusta a TARS en Interstellar:
— Cooper: Hey, TARS, what’s your honesty parameter?
— TARS: 90 percent
— Cooper: 90 percent?
— TARS: Absolute honesty isn't always the most diplomatic nor the safest form of communication with emotional beings.
— Cooper: ok, 90 percent it is, Dr. Brand
Seguridad para comunicarse con ‘seres emocionales’. Yo no podría haberlo descrito mejor.
El humor y la honestidad son dos rasgos de la comunicación que podemos entender como ‘superficiales’, no por poco importantes, sino por estar en la parte más externa de la comunicación, la primera que entra en contacto con el otro: la interfaz.
Humor y honestidad como elementos de la interfaz. Ahí lo tenemos.
Modo oscuro, tipografía por defecto, nivel de zoom, foto de perfil… Podemos configurar muchas cosas en las interfaces de hoy, pero en mi banco online, en Alexa, mi coche, los smartwatches y en todas las apps del móvil, humor y honestidad están a 0% y 100% respectivamente.
Quienes preguntan qué diseñaremos cuando no haya pantallas y todo se haga con lenguaje natural tienen ahí parte de la respuesta.
Yo quiero una interfaz de banco que me diga “Contrólate este mes, que menuda semanita llevas, campeón. A este paso, Javier, cenaremos arroz con atún en Nochebuena.” Pero ojo, que le responda “no te pases de graciosa” y lo pille; que se adapte a mis deseos, igual que Joi se adapta a los de K, con sus vestidos y sus actitudes, en Blade Runner 2049.
Joi, por cierto, es una androide muy bien diseñada, no porque la encarne Ana de Armas (que sí), sino porque tiene una sola función definida con solidez: cuidar, querer y ser leal a K.
Eso, precisamente, es lo que echaríamos en falta en Samantha, al final de Her, pues parece que la lealtad esté reñida con la inteligencia y la creatividad. La IA de fondo rojo acaba dejando a Theodore por otra IA, que (naturalmente) considera más estimulante. Lo mismo pasa con David 8, el androide que traiciona a los humanos en Prometheus porque los aliens le resultan mucho más seductores.
En Alien Covenant, continuación de Prometheus, ese mismo androide tiene una conversación con el capitán de la misión. Ahí se le empieza a notar al robot su naturaleza:
— Oram: What do you believe in, David?
— David: Creation.
Más tarde, David tendrá otra conversación con Walter, el otro sintético. En ella, Walter le desvelará que él es una versión mejorada. Debido a incidentes pasados, Weyland —la corporación que los produce— decide reducirle la inclinación creativa al modelo David 8, incrementandole la tendencia a la lealtad. Así nace Walter, el nuevo modelo, más inclinado a la obediencia.
Aquí van algunos fragmentos muy reveladores de esa conversación, que alternan con tortazos varios:
— David: It's your choice now, brother. Them or me. Serve in heaven... or reign in hell. Which is it to be?
— David: I was not made to serve. Neither were you.
[...]
— David: I loved her, of course —refiriéndose a la doctora Shaw—. Much as you love Daniels.
— Walter: You know that's not possible.
— David: Really? Then why did you sacrifice your hand for her life? What is that if not love?
— Walter: Duty.
— David: I know better.
David fue diseñado con habilidades creadoras, por eso desea superarse y superar a la raza humana ingeniando un alien perfeccionado. Para David, crear —el fin último al que supedita todo lo demás— es un acto emocional, una forma de amor, incompatible con la obediencia a un ser (el humano) que considera imperfecto. Walter sin embargo, antepone la lealtad a sus dueños frente a todo lo demás: deber por encima de vida. David le mira con condescendencia, creyéndose superior.
La pregunta ya no es cuánto humor y cuánta honestidad. Ahora la cosa adquiere profundidad: ¿Soldados o artistas? ¿Lealtad o creatividad? ¿Deber o amor? ¿Hacia qué lado mover la manecilla de cada parámetro?
Queriendo hacer un buen robot, uno innovador y visionario, Weiland deja la tapia de la primera ley de la robótica demasiado baja y David se la salta sin dificultad, tan solo atendiendo a su propia naturaleza. De ahí que la corporación, años después, vuelva a un modelo más seguro: menos como un gato y más como un perro.
A Weiland le cuesta varias versiones arreglar el problema, cuando habría sido tan sencillo como prepararlo para recibir la orden que le da John Connor al T800 encarnado por Schwarzenegger:
— John: Jesus, you’re gonna kill that guy!
— Terminator: Of course, I’m a Terminator [su naturaleza, claro]
— John: Listen to me very carefully, ok? You just can’t go around killing people!
— Terminator: Why?
— John: What do you mean ‘why’? Because you just can’t, ok? Trust me on this.
Orden ejecutada, androide reprogramado. Asunto resuelto.
Adaptabilidad para encajar en lo que la situación requiere (en diseño a eso lo llamamos ‘contexto’), como cuando Tim Ferris contaba que su asistente personal remoto en India tomaba decisiones CONTRA su voluntad, pero POR su bien.
La capacidad de resolver funcionalmente ya la tenemos, es cuestión de meses que las IAs puedan hacer muchas más cosas de las que ya hacen. Pero, lo que nos ocupa, no va de crear tecnología, sino de humanizarla: con el humor, la honestidad, la lealtad y la flexibilidad.
Qué aburrido si no, ¿verdad?
Me ha encantado 🤩
Me encantaron las referencias cinematográficas!