QUE TAN AVANZADOS ESTAMOS EN LA TECNOLOGIA DE INTELIGENCIA ARTIFICIAL

Si has visto las películas Her, Ex Machina o el programa Westworld, quizá te has preguntado: ¿Realmente queremos que los robots y su inteligencia artificial actúen como humanos, con sentimientos, emociones y dilemas morales?

Esa misma pregunta se están haciendo en la actualidad muchos de los expertos que trabajan en áreas de la tecnología como la robótica o la inteligencia artificial. ¿Importa que los robots entiendan las emociones? ¿La inteligencia artificial debe reconocer sentimientos como el odio o la alegría? Y, ¿queremos que esta tecnología tenga emociones?

Actualmente, la inteligencia artificial asume formas y funciones variadas: desde los asistentes virtuales como Alexa, Siri o Google Assistant que responden a búsquedas, te recuerdan citas y se sincronizan con tu hogar inteligente, hasta robots que ayudan en el aeropuerto o en las tareas domésticas, y robots que satisfacen fantasías sexuales.

A medida que se va desarrollando esta tecnología, las opiniones de los expertos se dividen frente al dilema sobre si los robots deben sentir emociones. En un extremo están quienes consideran que la inteligencia artificial debe ser capaz de identificar los sentimientos humanos para que nos entiendan mejor, para que se comuniquen de forma más coloquial con nosotros y anticipen problemas; en el otro están quienes piensan que el dotar de emociones a los robots los volvería ineficientes.

Según Jeff Heaton, profesor de deep learning (aprendizaje profundo) en la Universidad de Washington en San Luis, Missouri, una vida artificial tiene una serie de atributos que se le han programado, que podría evolucionar con base en su interacción con los humanos que la rodean a medida que pasa el tiempo. Es lo que los científicos llaman “aprendizaje de las máquinas contextual”. Así es cómo las asistentes digitales como Siri de Apple o Cortana de Microsoft cambian según nos conocen más, al aprender de nuestro comportamiento y contexto para ofrecer respuestas más acertadas.

Dice el colombiano Juan Carlos Niebles, investigador principal del laboratorio de inteligencia artificial de la Universidad de Stanford en California, “la inteligencia artificial, por ahora, no es tan inteligente”. De hecho, dice, “las llamamos inteligentes porque soñamos que algún día sean más inteligentes, pero realmente son bien tontas: asocian patrones y los relacionan entre ellos” nada más, afirma.

Un ejemplo de estas limitaciones proviene del campo de especialización de Niebles, la visión por computadora. En esta área, los robots se alimentan de una abstracción estadística: según una inmensidad de ocurrencias “normales”, se deduce que determinados patrones son los predecibles. El algoritmo entiende cuando algo se aleja de la regla, pero no comprende la acción específica que observa, ni puede juzgarla, y mucho menos expresar una emoción hacia ella.

“En la actualidad, no existe un sistema capaz de distinguir estas sutilezas emocionales, pero eventualmente se logrará”, termina Niebles, que agrega que hoy en día estos modelos computacionales sirven para “guiar” la decisión humana, en vez de reemplazarla.

Carlos Bunay