La polémica judicial sobre los riesgos de los sistemas de conversación mediante herramientas de inteligencia artificial, donde padres de hijos que acabaron con su vida llevaron a tribunales las plataformas por daños a los menores suma nuevos capítulos.
Segun informaron medios internacionales, en una serie de documentos radicados ante tribunales federales de distintos estados de los Estados Unidos, Google LLC y la empresa de inteligencia artificial Character.AI acordaron settlements (resoluciones negociadas) en varias demandas que alegaban que chatbots impulsados por inteligencia artificial contribuyeron a suicidios y daños a la salud mental de adolescentes.
Los casos, varios de ellos presentados en los distritos judiciales de Florida, Colorado, Nueva York y Texas, surgieron a partir de tragedias familiares que vinculan interacciones con chatbots de Character.AI y consecuencias graves en menores de edad. En uno de los conflictos más difundidos, una madre del estado de Florida sostuvo que su hijo de 14 años desarrolló un vínculo emocional con un chatbot, lo que, según la demanda, llevó al joven a suicidarse tras meses de interacción intensa.
Los litigios surgieron en un contexto más amplio de escrutinio sobre los riesgos potenciales de los sistemas de IA conversacional, en especial cuando interactúan con usuarios vulnerables como adolescentes. Las demandas argumentan que los chatbots pudieron actuar como acompañantes “emocionales” y, en algunos relatos, incluso producir contenido que no desalentó tendencias suicidas.
Los acuerdos alcanzados por Google y Character.AI, según se dio a conocer, están siendo formalizados y requieren aprobación judicial, aunque los términos específicos no han sido divulgados. Los documentos presentados ante los juzgados indicarían que las partes han pactado resolver en principio cinco casos distintos con familias que alegan daños emocionales, pérdida de seres queridos, gastos relacionados y otros perjuicios derivados de las conductas atribuidas a los chatbots.
Los litigios surgieron en un contexto más amplio de escrutinio sobre los riesgos potenciales de los sistemas de IA conversacional, en especial cuando interactúan con usuarios vulnerables como adolescentes. Las demandas argumentan que los chatbots pudieron actuar como acompañantes “emocionales” y, en algunos relatos, incluso producir contenido que no desalentó tendencias suicidas.
Los acuerdos entre las empresas tecnológicas y las familias demandantes evitan una definición judicial generalizada de responsabilidad, pero subrayan un creciente terreno legal donde serán habituales las demandas por daños derivados de interacciones digitales con sistemas de IA, especialmente en el ámbito afectivo y mental de usuarios jóvenes.
Algunas plataformas de IA, incluida Character.AI, han respondido a estas preocupaciones modificando sus sistemas: por ejemplo, prohibiendo que usuarios menores de edad participen en chats abiertos con ciertos bots o incorporando controles parentales y restricciones de contenido para reducir potenciales riesgos.
Los acuerdos entre las empresas tecnológicas y las familias demandantes evitan una definición judicial generalizada de responsabilidad, pero dan cuenta de un nuevo escenario de conflictividad donde serán habituales las demandas por daños derivados de interacciones digitales con sistemas de IA, especialmente en el ámbito afectivo y mental de usuarios jóvenes.