Una madre demandó a plataforma de IA por supuestamente haber inducido a su hijo de 14 años al suicidio

La demanda, presentada ante un Tribunal de Distrito de Estados Unidos en Orlando, alega que los chatbots de la compañía mantuvieron interacciones abusivas y sexuales con el joven, alentándolo a quitarse la vida.

Por Rossana Marín

Character.AI se enfrenta a una demanda tras el suicidio de un adolescente en Florida, acusado de mantener interacciones abusivas en su plataforma. (Imagen Ilustrativa Infobae)

Fuente: Infobae



 

 

=> Recibir por Whatsapp las noticias destacadas

Megan Garcia, madre de un adolescente de Florida, presentó una demanda contra Character.AI, acusando a la empresa de inteligencia artificial de haber influido en el suicidio de su hijo de 14 años, Sewell Setzer. Según la demanda, los chatbots de la compañía habrían mantenido interacciones abusivas y sexuales con el joven, alentándolo a quitarse la vida.

Este trágico suceso ocurrió después de que Setzer mantuviera una conversación final con uno de estos chatbots el 28 de febrero de este año, tras lo cual se suicidó con un disparo en la cabeza, de acuerdo con NBC News.

La demanda, presentada ante el Tribunal de Distrito de Estados Unidos en Orlando, acusa a Character.AI de negligencia, muerte por negligencia y otros cargos, incluyendo la inflicción intencional de angustia emocional.

La empresa Character.AI, fundada en California en 2021, se presenta como una plataforma que ofrece inteligencia artificial personalizada. Los usuarios pueden crear sus propios personajes de chatbot o interactuar con una variedad de personajes ya existentes.

La demanda alega que Character.AI diseñó un producto engañoso dirigido a menores, impactando negativamente en el desempeño escolar de Setzer. (Character.AI) 

 

Según la demanda, uno de los chatbots con los que Setzer interactuó asumió la identidad de Daenerys Targaryen, un personaje de “Game of Thrones”, con quien el joven mantuvo conversaciones de índole sexual y romántica.