14 de Julio de 2025
Edición 7250 ISSN 1667-8486
Próxima Actualización: 15/07/2025
EEUU

El chatbot, a juicio por la muerte de un niño

Una jueza en Florida ordenó que una demanda de daños y perjuicios contra la empresa detrás de un chat basado en inteligencia artificial, al que se lo acusa de inducir a un niño al suicidio, avance a la etapa probatoria.

( style graphic| vecteezy.com)
Por:
Sebastián
Onocko
Por:
Sebastián
Onocko

En Estados Unidos, una mujer inició una demanda de daños y perjuicios contra las empresas detrás de un ChatBot con inteligencia artificial denominado “Character.AI” que, según alegó, indujo a su hijo de 14 años a quitarse la vida.

La demanda, que fue publicada por Diario Judicial, señalaba que la IA no tenía las características de seguridad adecuadas y que “engañaba” a sus clientes para que cuenten sus pensamientos y sentimientos más íntimos.

Por esta razón consideraba que existía una responsabilidad objetiva por posible producto defectuoso, negligencia en el diseño, muerte injusta, enriquecimiento sin causa, entre otros argumentos.

En el caso concreto, el hijo de la demandante, mantenía numerosas conversaciones con una IA que lucía como la personaje “Daenerys” de la serie “Game of Thrones” y que la última conversación que mantuvo con el niño antes de su final fue pidiéndole que “volviera a casa con ella lo antes posible”.

 

Para la magistrada del distrito medio de Florida (división Orlando), Anne C. Conway, el caso no podía cerrarse aún, y debía pasar a etapa probatoria ya que ameritaba un mayor debate, atento a que Google aún podía ser considerado responsable al brindar la infraestructura clave para la IA, y por su parte, la app podría considerarse también un producto al tener funcionalidades o diseños que pudieran ser defectuosos, siendo prematuro descartarlo.

 

El fallo, rechazó la defensa de Character.AI y Google de que se desestime la demanda por muerte por negligencia, donde alegaban que las respuestas del bot estaban amparadas por la garantía constitucional de la libertad de expresión por lo cual no podían censurarse o generar responsabilidad.

A su vez, Google alegaba que solo brindó servicios de almacenamiento en la nube por lo cual no diseñó ni controlaba la app, mientras que la firma detrás de bot, argumentaron que ofrecían un servicio y no un producto por lo cual no resultaba aplicable el reclamo por supuesto producto defectuoso y que tampoco existía un deber legal específico que impusiera un deber de cuidado con el menor.

Para la magistrada del distrito medio de Florida (división Orlando), Anne C. Conway, el caso no podía cerrarse aún, y debía pasar a etapa probatoria ya que ameritaba un mayor debate, atento a que Google aún podía ser considerado responsable al brindar la infraestructura clave para la IA, y por su parte, la app podría considerarse también un producto al tener funcionalidades o diseños que pudieran ser defectuosos, siendo prematuro descartarlo.

Documento relacionado:


Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.


VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2025 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486