En Estados Unidos, una mujer inició una demanda de daños y perjuicios contra las empresas detrás de un ChatBot con inteligencia artificial denominado “Character.AI” que, según alegó, indujo a su hijo de 14 años a quitarse la vida.
La demanda, que fue publicada por Diario Judicial, señalaba que la IA no tenía las características de seguridad adecuadas y que “engañaba” a sus clientes para que cuenten sus pensamientos y sentimientos más íntimos.
Por esta razón consideraba que existía una responsabilidad objetiva por posible producto defectuoso, negligencia en el diseño, muerte injusta, enriquecimiento sin causa, entre otros argumentos.
En el caso concreto, el hijo de la demandante, mantenía numerosas conversaciones con una IA que lucía como la personaje “Daenerys” de la serie “Game of Thrones” y que la última conversación que mantuvo con el niño antes de su final fue pidiéndole que “volviera a casa con ella lo antes posible”.
Para la magistrada del distrito medio de Florida (división Orlando), Anne C. Conway, el caso no podía cerrarse aún, y debía pasar a etapa probatoria ya que ameritaba un mayor debate, atento a que Google aún podía ser considerado responsable al brindar la infraestructura clave para la IA, y por su parte, la app podría considerarse también un producto al tener funcionalidades o diseños que pudieran ser defectuosos, siendo prematuro descartarlo.
El fallo, rechazó la defensa de Character.AI y Google de que se desestime la demanda por muerte por negligencia, donde alegaban que las respuestas del bot estaban amparadas por la garantía constitucional de la libertad de expresión por lo cual no podían censurarse o generar responsabilidad.
A su vez, Google alegaba que solo brindó servicios de almacenamiento en la nube por lo cual no diseñó ni controlaba la app, mientras que la firma detrás de bot, argumentaron que ofrecían un servicio y no un producto por lo cual no resultaba aplicable el reclamo por supuesto producto defectuoso y que tampoco existía un deber legal específico que impusiera un deber de cuidado con el menor.
Para la magistrada del distrito medio de Florida (división Orlando), Anne C. Conway, el caso no podía cerrarse aún, y debía pasar a etapa probatoria ya que ameritaba un mayor debate, atento a que Google aún podía ser considerado responsable al brindar la infraestructura clave para la IA, y por su parte, la app podría considerarse también un producto al tener funcionalidades o diseños que pudieran ser defectuosos, siendo prematuro descartarlo.