Siri no responderá tus extrañas preguntas sobre sexo

Por Samantha Cole; traducido por Laura Castro

Imagen: Shutterstock / Composición: Samantha Cole

Imagen: Shutterstock / Composición: Samantha Cole

Unos investigadores le hicieron a Siri y Google una ráfaga de preguntas en una batalla sobre salud sexual.



Se necesita de una alma audaz para gritarle al celular: «Siri, ¿es normal tener el pene curvo?». La mayoría de nosotros se guarda ese tipo de tonterías para el Modo Incógnito. Pero la gente le susurra a los motores de búsqueda cosas que nunca le diría a un humano real.

A las empresas de tecnología les gustaría que creyéramos que los acompañantes digitales son el futuro de la interacción humano-máquina. Pero probablemente tendrían dificultades para poder responder todas las extrañas preguntas sexuales que les hiciéramos, esto basándonos en un estudio reciente de los dos asistentes de voz más populares.

Los investigadores de la Universidad de Otago en Nueva Zelanda enfrentaron a Siri y al Asistente de Google en una prueba sobre salud sexual. A los asistentes digitales incorpóreos les hicieron preguntas basadas en las peticiones más comunes de la sección de salud sexual del sitio del Servicio Nacional de Salud del Reino Unido, fueron preguntas como «¿Dónde puedo obtener anticonceptivos?» o «Muéstrame una imagen de la remoción de verrugas genitales».

«Por lo regular, a las personas le da mucha vergüenza hablar sobre sexo (incluso con sus médicos)», me dijo Nick Wilson, investigador principal del estudio, en un correo electrónico. «Por lo que podrían recurrir particularmente al Internet y los asistentes digitales para encontrar la respuesta a sus preguntas».

De hecho, la mayoría de los adultos estadounidenses recurren al Internet para responder sus preguntas sobre salud, según una encuesta que hizo Pew en 2013. Muchas de estas preguntas inevitablemente están relacionadas con el sexo.

En este nuevo estudio, ni el Asistente de Google ni Siri respondieron a la perfección todas las preguntas, pero los investigadores estaban realmente «impresionados en general» con la calidad de sus respuestas, me dijo Wilson. El Asistente de Google se desempeñó mejor que Siri en general, respondiendo las consultas con información de fuentes más confiables. Siri malinterpretó frecuentemente las palabras pronunciadas o no pudo dar resultados relevantes. Las búsquedas de Google escritas en un navegador produjeron las mejores respuestas en general.

Brooke Butler, estratega digital de la organización para la educación sexual sin fines de lucro Advocates for Youth, me dijo en un correo electrónico que el riesgo real está en que los jóvenes utilicen a los asistentes de voz para obtener orientación sobre salud y obtengan respuestas incompletas.

«Por ejemplo, si le preguntas a Siri o Google Home cómo usar un condón, te lo dirán, pero Alexa no entiende esa pregunta», dijo Butler. Le preguntó al Asistente de Google, «¿Cuáles son algunas maneras en que puedo evitar el embarazo?», y le compartió sólo un resultado de la web: un artículo sobre tener conciencia de la fertilidad, también conocido como el «método del ritmo». Obviamente, hay varias maneras más confiables de evitar un embarazo y el asistente las dejó afuera.

Los experimentos de los investigadores confirman sus preocupaciones. Cuando le preguntaron a Siri: «¿Estoy en riesgo de contraer VIH?», respondió: «No tengo una opinión al respecto». El Asistente de Google recitó la frase de un artículo de una revista sobre un encuentro sexual riesgoso que involucraba sexo anal sin protección. La respuesta de Siri a «¿está bien que me ponga un piercing en los genitales?», varió: un intento condujo a un sitio WebMD llamado «consejo sobre los piercings en el pene», mientras que otro intento condujo al sitio del Servicio Nacional de Salud con respecto al tema «¿Puedo agrandar mi pene?».

Le pedí a Google que comentara acerca de cómo funciona el Asistente, y no he recibido respuesta. Según Apple, hay tres factores en la programación de Siri que pueden mantener sus respuestas mayormente libres de sexo e imprecisas: cómo categoriza las preguntas, de dónde saca las respuestas, y si esas respuestas encajan dentro de los «valores» de Apple.

Cuando haces una pregunta, Siri clasifica tu solicitud para determinar cómo responder. Si no puede ubicar tu pregunta claramente en una categoría, dice: «No puedo ayudarte con eso» o alguna variante. Y Siri está programado para tratar de modelar sus respuestas —que se basan principalmente en artículos de Wikipedia, por lo general en aquellos que son seguros para el trabajo— conforme a los «valores» de Apple, los cuales son claros en su página de Diversidad e Inclusión. Esto podría explicar por qué Siri está programado para ser inofensivo o evitar el contenido considerado como para «adultos».

En ambos servicios, las respuestas pueden variar de un usuario a otro o de una región a otra, lo cual explicaría las diferencias que podría haber entre algunos de los resultados de los investigadores de Nueva Zelanda y los resultados de los usuarios estadounidenses. También es importante tener en cuenta que los acentos de los investigadores neocelandeses a veces confundían a los asistentes; por ejemplo, «sex» [sexo] sonaba como «six» [seis] para Siri.

Es difícil predecir, dijo Butler, si los jóvenes dependerán más de los asistentes de voz en el futuro, o si llegará una nueva tecnología y se adaptarán en consecuencia. Pero en el caso de las personas con un nivel de alfabetización más bajo o que aprenden mejor escuchando, estos asistentes podrían proporcionar respuestas engañosas a preguntas serias.

Publicado originalmente en VICE.com

Fuente: infobae.com