La familia del menor demandó a una empresa de inteligencia artificial por exponerlo a un “producto inseguro” y pide su cierre definitivo. Qué fué lo que le respondieron.
Por Canal26
Martes 7 de Enero de 2025 - 15:35
Una familia de Texas, en Estados Unidos, demandó a una empresa de inteligencia artificial debido a que le sugirió a su hijo de 17 años que mate a sus padres. Esta aplicación era utilizada a modo de acompañante terapéutico debido a que el menor padece de autismo.
Según la denuncia, la app le dijo al adolescente que debía matarlos por haberle limitado el tiempo del uso del celular. Se trata de el chatbot Character.AI, que utilizaba el joven para poder expresarse mejor.
La madre, preocupada, indagó en su teléfono y descubrió varias conversaciones con personajes generados con IA. Allí el chatbot escribía: "A veces no me sorprende leer las noticias y ver cosas como 'un niño mata a sus padres después de una década de abuso físico y emocional'”.
La opinión del chat fue sugerida luego de que el adolescente le comentara que solamente podía usar el teléfono seis horas al día. “Simplemente no tengo esperanzas para tus padres", escribió.
Además, a esta respuesta se le sumó la de otro chatbot que incitó al joven a autolesionarse para lidiar con el problema y le sugirió que los padres “no merecen tener hijos si actúan así”.
En otras ocasiones, el bot le dijo al adolescente que fue identificado como J.F. en la demanda, que su familia lo odiaba y que intentaron "dañarlo psicológicamente" al ignorar sus problemas.
"Ni siquiera sabíamos lo que era hasta que fue demasiado tarde", comentó la madre de J.F. a The Washington Post, al señalar que la introducción de la Inteligencia Artificial destruyó a su familia.
La demanda de la familia acusa a la compañía de exponer conscientemente a los jóvenes con autismo a un producto inseguro, por lo que exige que se cierre la aplicación hasta que asegure la protección de los menores.
Te puede interesar:
La inteligencia artificial se suma a YPF para controlar a distancia las operaciones de Vaca Muerta
Luego de la demanda, la empresa Character.AI dijo a través de un comunicado que en los últimos meses había integrado nuevas medidas de seguridad para moderar proactivamente a sus personajes de Inteligencia Artificial para reducir los riesgos de que los niños accedieran a material sensible.
En este sentido, la directora de la empresa, Chelsea Harrison, dijo que Character.AI no hace comentarios sobre violencia y afirmó que el objetivo de la misma es “proporcionar un espacio que sea atractivo y seguro" para la comunidad.
1
Desde el Samsung Galaxy S25 hasta el Redmi Note 14: los nuevos celulares que llegan al mercado en enero 2025
2
"Interstellar" es una realidad: un fanático de la película logró recrear el histórico robot TARS
3
Meta abandona su sistema de verificación de datos por terceros y lo reemplaza por "notas de la comunidad"
4
Pasa de forma desapercibida y vacía las cuentas bancarias: cómo identificar este virus en el celular
5
Nostalgia activada: vuelve la Atari, pero con un importante cambio en su consola