Los recientes veredictos dictados en Estados Unidos en el marco de litigios por daños derivados del uso de redes sociales por menores introducen un cambio en la discusión sobre la responsabilidad de las plataformas digitales. En particular, en los autos iniciados por la demandante, identificada como K.G.M., contra Meta Platforms y Google, en relación con su servicio YouTube, tramitados ante el Tribunal Superior del Condado de Los Ángeles, donde se resolvió declarar la responsabilidad de las empresas por los daños ocasionados en la salud mental de la actora durante su infancia y adolescencia.
El proceso, de naturaleza civil por daños personales, tuvo como eje los efectos del uso intensivo de plataformas digitales desde temprana edad. La demandante sostuvo que comenzó a utilizar redes sociales a los seis años, desarrollando posteriormente cuadros de ansiedad, depresión y dismorfia corporal. Durante el juicio se examinó el funcionamiento de las plataformas, en particular herramientas como reproducción automática, notificaciones constantes y desplazamiento continuo de contenidos, que, según la tesis de la actora, incrementaban el tiempo de exposición y la dependencia del usuario.
El planteo de la parte actora no se dirigió a responsabilizar a las empresas por contenidos de terceros, sino por decisiones propias vinculadas a la arquitectura del sistema.
La cuestión jurídica central giró en torno a la posibilidad de imputar responsabilidad a las plataformas por el diseño de sus productos, superando el alcance tradicional de la inmunidad prevista en la Sección 230 de la Communications Decency Act. En ese sentido, el planteo de la parte actora no se dirigió a responsabilizar a las empresas por contenidos de terceros, sino por decisiones propias vinculadas a la arquitectura del sistema. En el análisis del caso se sostuvo que las plataformas no operaban como meros intermediarios, sino que intervenían activamente en la organización y priorización del contenido, lo que incide en la experiencia del usuario.
El jurado concluyó que las empresas incurrieron en negligencia, al entender que existía un deber de cuidado respecto de usuarios menores y que determinadas características de diseño contribuían a generar patrones de uso problemático. En ese marco, se consideró que “las herramientas algorítmicas influyen en la experiencia del usuario y no pueden ser consideradas neutrales”, lo que permitió desplazar la discusión fuera del ámbito exclusivo de la inmunidad legal. La decisión fijó una indemnización cercana a los seis millones de dólares, distribuida entre las demandadas, y dejó abierta una instancia posterior para evaluar la eventual aplicación de daños punitivos.
Desde la práctica profesional, el precedente introduce un elemento relevante: el desplazamiento del análisis desde el contenido hacia el diseño algorítmico. Esto abre la puerta a nuevas estrategias litigiosas basadas en la arquitectura de las plataformas y en la evaluación de sus decisiones técnicas como fuente de responsabilidad.
Los fundamentos también incluyeron la valoración de elementos probatorios vinculados al conocimiento interno de las empresas sobre los efectos del uso intensivo de sus plataformas en menores. En ese contexto, se sostuvo que “la protección normativa no alcanza a decisiones empresariales que estructuran la forma en que el contenido es presentado y consumido”, marcando un criterio que distingue entre contenido generado por terceros y diseño del producto.
El caso se inscribe en una serie de litigios en curso en Estados Unidos que cuestionan el alcance de la responsabilidad de las plataformas tecnológicas. Algunos de estos procesos ya han derivado en acuerdos extrajudiciales, mientras que otros avanzan hacia instancias de juicio. En paralelo, los veredictos recientes anticipan un escenario de mayor litigiosidad, con posibles revisiones en instancias superiores que podrían redefinir el alcance de la Sección 230.
Desde la práctica profesional, el precedente introduce un elemento relevante: el desplazamiento del análisis desde el contenido hacia el diseño algorítmico. Esto abre la puerta a nuevas estrategias litigiosas basadas en la arquitectura de las plataformas y en la evaluación de sus decisiones técnicas como fuente de responsabilidad. A su vez, plantea interrogantes sobre la eventual recepción de estos criterios en otros sistemas jurídicos, donde la responsabilidad de intermediarios digitales se analiza a partir de principios generales de responsabilidad civil y normativa de consumo.
Desde la perspectiva del Derecho Informático, el eje del debate ya no puede centrarse únicamente en la conducta visible de los usuarios o en los contenidos en sí mismos, sino en la arquitectura tecnológica que condiciona esas conductas. El cambio de paradigma es claro: las herramientas algorítmicas dejaron de ser meros canales neutrales para convertirse en actores que moldean activamente la experiencia digital, priorizan contenidos, inducen comportamientos y amplifican riesgos. En este contexto, la neutralidad tecnológica se vuelve una ficción jurídica difícil de sostener.
Dichos litigios, centrados en los riesgos de la inteligencia artificial sobre la integridad de los menores, ya habían sido materia de análisis por parte de Diario Judicial.
Desde la perspectiva del Derecho Informático, el eje del debate ya no puede centrarse únicamente en la conducta visible de los usuarios o en los contenidos en sí mismos, sino en la arquitectura tecnológica que condiciona esas conductas. El cambio de paradigma es claro: las herramientas algorítmicas dejaron de ser meros canales neutrales para convertirse en actores que moldean activamente la experiencia digital, priorizan contenidos, inducen comportamientos y amplifican riesgos. En este contexto, la neutralidad tecnológica se vuelve una ficción jurídica difícil de sostener.