09 de Enero de 2026
Edición 7372 ISSN 1667-8486
Próxima Actualización: 12/01/2026
Inteligencia artificial

No era solo un chat

Según información periodística Google y la startup Character.AI acordaron resolver varias demandas presentadas en Estados Unidos por familias que alegan que la interacción de adolescentes con chatbots de inteligencia artificial contribuyó a suicidios y daños psicológicos.

(IA Meta)
Por:
Santiago
Rubin
Por:
Santiago
Rubin

La polémica judicial sobre los riesgos de los sistemas de conversación mediante herramientas de inteligencia artificial, donde padres de hijos que acabaron con su vida llevaron a tribunales las plataformas por daños a los menores suma nuevos capítulos.

Segun informaron medios internacionales, en una serie de documentos radicados ante tribunales federales de distintos estados de los Estados Unidos, Google LLC y la empresa de inteligencia artificial Character.AI acordaron settlements (resoluciones negociadas) en varias demandas que alegaban que chatbots impulsados por inteligencia artificial contribuyeron a suicidios y daños a la salud mental de adolescentes. 

Los casos, varios de ellos presentados en los distritos judiciales de Florida, Colorado, Nueva York y Texas, surgieron a partir de tragedias familiares que vinculan interacciones con chatbots de Character.AI y consecuencias graves en menores de edad. En uno de los conflictos más difundidos, una madre del estado de Florida sostuvo que su hijo de 14 años desarrolló un vínculo emocional con un chatbot, lo que, según la demanda, llevó al joven a suicidarse tras meses de interacción intensa. 

 

Los litigios surgieron en un contexto más amplio de escrutinio sobre los riesgos potenciales de los sistemas de IA conversacional, en especial cuando interactúan con usuarios vulnerables como adolescentes. Las demandas argumentan que los chatbots pudieron actuar como acompañantes “emocionales” y, en algunos relatos, incluso producir contenido que no desalentó tendencias suicidas. 

 

Los acuerdos alcanzados por Google y Character.AI, según se dio a conocer, están siendo formalizados y requieren aprobación judicial, aunque los términos específicos no han sido divulgados. Los documentos presentados ante los juzgados indicarían que las partes han pactado resolver en principio cinco casos distintos con familias que alegan daños emocionales, pérdida de seres queridos, gastos relacionados y otros perjuicios derivados de las conductas atribuidas a los chatbots. 

Los litigios surgieron en un contexto más amplio de escrutinio sobre los riesgos potenciales de los sistemas de IA conversacional, en especial cuando interactúan con usuarios vulnerables como adolescentes. Las demandas argumentan que los chatbots pudieron actuar como acompañantes “emocionales” y, en algunos relatos, incluso producir contenido que no desalentó tendencias suicidas. 

 

Los acuerdos entre las empresas tecnológicas y las familias demandantes evitan una definición judicial generalizada de responsabilidad, pero subrayan un creciente terreno legal donde serán habituales las demandas por daños derivados de interacciones digitales con sistemas de IA, especialmente en el ámbito afectivo y mental de usuarios jóvenes.

 

Algunas plataformas de IA, incluida Character.AI, han respondido a estas preocupaciones modificando sus sistemas: por ejemplo, prohibiendo que usuarios menores de edad participen en chats abiertos con ciertos bots o incorporando controles parentales y restricciones de contenido para reducir potenciales riesgos. 

Los acuerdos entre las empresas tecnológicas y las familias demandantes evitan una definición judicial generalizada de responsabilidad, pero dan cuenta de un nuevo escenario de conflictividad donde serán habituales las demandas por daños derivados de interacciones digitales con sistemas de IA, especialmente en el ámbito afectivo y mental de usuarios jóvenes.


Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.

Notas relacionadas:
Justicia y algoritmos
La IA, sin toga ni martillo
Nueva regulación bonaerense para sistemas inteligentes
IA con papeles
Otra vez el mal uso de IA
ChatGPT no es tu pasante

VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2026 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486