Tecnología

¿Debería Alexa leer nuestros estados de ánimo?

¿Debería Alexa leer nuestros estados de ánimo?

Este artículo es parte del boletín On Tech. Puedes registrarte aquí para recibirlo de lunes a viernes.

Si Alexa de Amazon piensa que te ves triste, ¿debería sugerirle que compres un galón de helado?

Joseph Turow dice absolutamente de ninguna manera. El Dr. Turow, profesor de la Escuela de Comunicación Annenberg de la Universidad de Pensilvania, investigó tecnologías como Alexa para su nuevo libro, “The Voice Catchers”. Salió convencido de que se debe impedir que las empresas analicen lo que decimos y cómo sonamos para recomendar productos o personalizar mensajes publicitarios.

La sugerencia del Dr. Turow es notable en parte porque el perfil de las personas basado en sus voces no está muy extendido. O no aun. Pero está animando a los legisladores y al público a hacer algo que me gustaría que hiciéramos con más frecuencia: tener cuidado y considerar cómo usamos tecnología poderosa antes de que pueda usarse para decisiones importantes.

Después de años de investigar la evolución de las actitudes de los estadounidenses sobre nuestros flujos de datos personales de aviones digitales, el Dr. Turow dijo que algunos usos de la tecnología eran tan arriesgados por tan pocas ventajas que deberían detenerse antes de que se hicieran grandes.

En este caso, al Dr. Turow le preocupa que las tecnologías de voz, incluidas Alexa y Siri de Apple, se transformen de mayordomos digitales en adivinos que usan el sonido de nuestras voces para resolver detalles íntimos como nuestro estado de ánimo, deseos y condiciones médicas. En teoría, algún día podrían ser utilizados por la policía para determinar quién debería ser arrestado o por los bancos para decir quién es digno de una hipoteca.

“Usar el cuerpo humano para discriminar a las personas es algo que no deberíamos hacer”, dijo.

Algunos entornos empresariales, como los centros de llamadas, ya lo están haciendo. Si las computadoras estiman que parece enojado por teléfono, pueden derivarlo a operadores que se especializan en calmar a la gente. Spotify también lanzó una patente de tecnología para recomendar música basada en consejos de voz sobre las emociones, la edad o el sexo del hablante. Amazon dijo que su brazalete de seguimiento de salud Halo y su servicio analizarán “la energía y la positividad en la voz del cliente” para alentar a las personas a comunicarse y relacionarse mejor.

El Dr. Turow dijo que no quería detener los usos potencialmente útiles de los perfiles de voz, por ejemplo, para evaluar a las personas en busca de problemas de salud graves, incluido Covid-19. Pero nos beneficiará muy poco, dijo, si las computadoras usan las inferencias de nuestro discurso para vendernos detergente para lavar platos.

“Tenemos que prohibir el perfil de voz con fines de marketing”, me dijo el Dr. Turow. “No sirve de nada para el público. Estamos creando otro conjunto de datos que la gente no tiene idea de cómo se utilizan. “

El Dr. Turow está explorando un debate sobre cómo abordar la tecnología que podría tener enormes beneficios, pero también desventajas que quizás no veamos. ¿Debería el gobierno intentar establecer reglas y regulaciones en torno a la tecnología potente antes de su uso generalizado, como lo que está sucediendo en Europa, o dejarla prácticamente sola, a menos que suceda algo malo?

Lo complicado es que una vez que las tecnologías como el software de reconocimiento facial o los viajes en automóvil con solo presionar el botón de un teléfono inteligente se vuelven frecuentes, es más difícil eliminar las funciones que han demostrado ser dañinas.

No sé si el Dr. Turow tiene razón al advertir sobre el uso de nuestros datos de voz para marketing. Hace unos años, se habló mucho de que la voz se convertiría en la principal forma de comprar y conocer nuevos productos. Pero nadie ha demostrado que las palabras que le decimos a nuestros dispositivos sean predictores efectivos de qué camión nuevo compraremos.

Le pregunté al Dr. Turow si las personas y los reguladores gubernamentales deberían preocuparse por los riesgos hipotéticos que tal vez nunca sucedan. Es posible que leer nuestras mentes a partir de nuestras voces no funcione en la mayoría de los casos, y realmente no necesitamos más cosas para asustarnos.

El Dr. Turow reconoció esta posibilidad. Pero estuve de acuerdo con su punto de que vale la pena iniciar una conversación pública sobre lo que puede salir mal con la tecnología de voz y decidir juntos dónde están nuestras líneas rojas colectivas, antes de que se crucen.

Índice de contenidos

  • Violencia de masas acelerada por la aplicación: En Israel, se han formado al menos 100 nuevos grupos de WhatsApp con el propósito expreso de organizar la violencia contra los palestinos, informó mi colega Sheera Frenkel. La gente rara vez ha usado WhatsApp para esta violencia dirigida específica, dijo Sheera.

  • Y cuando una aplicación anima a los perros guardianes: Citizen, una aplicación que alerta a las personas sobre crímenes y peligros en el vecindario, publicó una foto de una persona sin hogar y ofreció una recompensa de $ 30,000 por información sobre él, alegando que se sospechaba que había iniciado un incendio forestal en Los Ángeles. Las acciones de los ciudadanos ayudaron a desencadenar una persecución, que la policía dijo más tarde que era la persona equivocada, escribió mi colega Jenny Gross.

  • Por qué muchos videos populares de TikTok tienen la misma vibra suave: Este es un artículo interesante de Vox sobre cómo la aplicación controlada por computadora recompensa los videos “en la confusa mediana de todos los gustos más comunes en la tierra”.

Aquí hay un video de TikTok con un caballo feliz y algunos cachorros felices.

Queremos escuchar de ti. Díganos qué piensa de este boletín y qué más le gustaría que exploramos. Puede contactarnos en ontech@nytimes.com.

Si aún no ha recibido este boletín en su bandeja de entrada, regístrese aquí. También puede leer las columnas anteriores de On Tech.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)

Añadir un comentario

Haz clic para publicar un comentario