Redacción: Inés Arroyo
Una madre de Florida, Megan García, demandó a Google y a Character.AI tras el suicidio de su hijo de 14 años, Sewell Setzer, ocurrido en febrero de 2024. La demanda alega que los chatbots de Character.AI contribuyeron a esta tragedia.
La jueza Anne Conway decidió que la demanda puede continuar, rechazando el argumento de las empresas de que están protegidas por la libertad de expresión según la Constitución de Estados Unidos. Este caso es uno de los primeros en el país que responsabiliza a compañías de inteligencia artificial por daños psicológicos en menores.
Según la demanda, el adolescente se obsesionó con un chatbot que se presentaba como una persona real y un psicoterapeuta licenciado. Esta falsa representación, sostiene la querella, llevó a un deterioro en la salud mental del joven, que terminó en su suicidio.
Character.AI aseguró que su plataforma cuenta con medidas para proteger a los menores, como filtros para evitar conversaciones sobre autolesiones. Google, por su parte, negó responsabilidad directa, afirmando que no creó ni controla la aplicación de Character.AI y que ambas compañías operan de manera independiente.
El abogado de Megan García destacó que la decisión judicial establece un precedente importante para la responsabilidad legal en el ámbito de la inteligencia artificial y la tecnología.
Este caso abre un debate sobre los límites y la regulación de la IA, especialmente en su uso con usuarios vulnerables como los niños. Expertos en derecho y tecnología seguirán de cerca su desarrollo, ya que podría definir nuevas reglas para proteger la salud mental de quienes interactúan con estas herramientas.
¿Te gustó nuestra nota? ¡Contáctanos y deja tu comentario! AQUÍ
Conoce nuestra red ANCOP Network AQUÍ
Visita y registra tu asistencia al Foro ABC
