¿Por qué debería temernos la IA?

La inteligencia artificial se está acercando gradualmente a la nuestra. Los algoritmos de IA ahora pueden vencernos consistentemente en ajedrez, póquer y videojuegos multijugador, generar imágenes de rostros humanos indistinguibles de los reales, escribir artículos de noticias (¡no este!) E incluso historias de amor y conducir autos mejor que la mayoría de los adolescentes.

Pero la IA aún no es perfecta, si Woebot es un indicador. Woebot, como escribió Karen Brown esta semana en Science Times, es una aplicación de teléfono inteligente impulsada por inteligencia artificial que tiene como objetivo brindar asesoramiento de bajo costo, utilizando el diálogo para guiar a los usuarios a través de las técnicas básicas de la terapia cognitivo-conductual. Pero muchos psicólogos dudan de que un algoritmo de IA pueda expresar el tipo de empatía necesaria para que la terapia interpersonal funcione.

«Estas aplicaciones realmente socavan el ingrediente esencial que, según muestra mucha evidencia, es lo que ayuda en la terapia, que es la relación terapéutica», dijo Linda Michaels, terapeuta de Chicago que es copresidenta de Psychotherapy Action Network, un grupo profesional, dijo a The Times.

La empatía, por supuesto, es una calle de dos vías, y los humanos no mostramos mucho más de eso a los bots que los bots a nosotros. Numerosos estudios han encontrado que cuando las personas se encuentran en una situación en la que pueden cooperar con una IA benévola, es menos probable que lo hagan que si el bot fuera una persona real.

«Algo parece faltar en la reciprocidad», me dijo Ophelia Deroy, filósofa de la Universidad Ludwig Maximilian de Munich. «Básicamente, trataríamos a un perfecto extraño mejor que a la IA»

En un estudio reciente, la Dra. Deroy y sus colegas neurocientíficos han comenzado a comprender por qué esto es así. Los investigadores emparejaron sujetos humanos con compañeros invisibles, a veces humanos ya veces IA; Luego, cada pareja jugó uno de una serie de juegos económicos clásicos: Confianza, El dilema del prisionero, Caza de gallinas y ciervos, así como uno que crearon llamado Reciprocidad, diseñado para evaluar y recompensar la cooperación.

Nuestra falta de reciprocidad con respecto a la IA se ve comúnmente como un reflejo de una falta de confianza. Después de todo, es hiperracional e insensible, ciertamente solo por sí mismo, es poco probable que coopere, entonces, ¿por qué deberíamos hacerlo? La Dra. Deroy y sus colegas llegaron a una conclusión diferente y quizás menos reconfortante. El estudio encontró que las personas eran menos propensas a cooperar con un bot, incluso cuando el bot estaba interesado en cooperar. No es que no confiemos en el bot, sino más bien: el bot tiene la garantía de ser benévolo, un tonto con una S mayúscula, así que lo explotamos.

Esta conclusión fue confirmada por informes posteriores de los participantes del estudio. «No solo tendían a no corresponder a las intenciones cooperativas de los agentes artificiales», dijo el Dr. Deroy, «sino que cuando básicamente traicionaron la confianza del bot, no informaron de culpa, mientras que los humanos sí». Ella agregó: «Puede simplemente ignorar el bot y no sentirá que ha roto ninguna obligación mutua».

Esto podría tener implicaciones en el mundo real. Cuando pensamos en IA, tendemos a pensar en los Alexas y Siris de nuestro mundo futuro, con quienes podemos formar algún tipo de relación falsa-íntima. Pero la mayoría de nuestras interacciones serán encuentros únicos, a menudo sin palabras. Imagínese conduciendo por una autopista y un automóvil quiere ponerse frente a usted. Si descubre que su automóvil no tiene conductor, es mucho menos probable que lo deje entrar. Y si la IA no tiene en cuenta su mala conducta, puede ocurrir un accidente.

“Lo que apoya la cooperación en la sociedad a cualquier escala es el establecimiento de ciertas normas”, dijo Deroy. “La función social de la culpa es precisamente hacer que las personas sigan las normas sociales que las llevan a comprometerse, a cooperar con los demás. Y no evolucionamos para tener normas sociales o morales para criaturas insensibles y bots. «

Esto, por supuesto, es la mitad de la premisa de «Westworld». (Para mi sorpresa, el Dr. Deroy no había oído hablar de la serie de HBO). Pero un paisaje sin culpa puede tener consecuencias, señaló: “Somos criaturas de hábitos. Entonces, ¿qué asegura que el comportamiento que se repite, y en el que muestra menos cortesía, menos obligación moral, menos cooperación, no manchará ni manchará el resto de su comportamiento cuando interactúe con otro ser humano? «

También hay consecuencias similares para la IA. «Si la gente los trata mal, están programados para aprender de lo que experimentan», dijo. «Una IA que se ha puesto en marcha y programada para ser benévola debe empezar a no ser tan buena para los humanos, porque de lo contrario se quedará atrapada en el tráfico para siempre». (Esa es la otra mitad de la premisa de «Westworld», básicamente).

Ahí lo tienes: la verdadera prueba de Turing es la furia al volante. Cuando un automóvil autónomo comienza a tocar la bocina locamente por detrás porque lo apagaste, sabrás que la humanidad ha alcanzado la cima del logro. Para entonces, con suerte, la terapia de inteligencia artificial será lo suficientemente sofisticada como para ayudar a los autos sin conductor a resolver sus problemas de manejo de la ira.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *