04 de Diciembre de 2025
Edición 7349 ISSN 1667-8486
Próxima Actualización: 05/12/2025

IA y menores: La urgencia de proteger lo más frágil en lo más nuevo

En la era de la inteligencia artificial, donde la velocidad de la innovación supera la capacidad humana de comprenderla y procesarla, un grupo social se encuentra especialmente expuesto en el centro de la escena y sin saberlo: niñas, niños y adolescentes (NNyA).

(Foto de Andrea Piacquadio)
Por:
Santiago
Alberdi
Por:
Santiago
Alberdi

En su inmensa mayoría, hablamos de usuarios intensivos de pantallas y plataformas. Muchos de ellos son nativos digitales, pero que, por su temprana edad, carecen todavía de las herramientas y de la capacidad crítica necesarias para lidiar con la exposición a esta irrupción tecnológica. Hipervinculados e hiperinformados, sí, pero también hipervulnerables y expuestos a amenazas que combinan violencia simbólica, manipulación algorítmica y exposición no consentida.

Recientemente, Donald Trump promulgó la primera ley federal que penaliza con prisión la difusión de desnudos generados por IA sin consentimiento. Esta norma, que responde al crecimiento explosivo de la ‘pornografía sintética’ (es decir, generada con IA), prevé hasta tres años de cárcel para quien produzca o comparta imágenes íntimas falsas. Es un freno legal necesario frente a una nueva forma de violencia digital, que en muchos casos tiene como víctimas a adolescentes cuya identidad, imagen y dignidad personal se ven gravemente vulneradas.

Como suele suceder ante lo nuevo, las aguas se dividen. La Electronic Frontier Foundation, organización referente en derechos digitales, alertó sobre los riesgos de censura derivados de definiciones vagas y falta de garantías legales en la ley. El desafío está en lograr proteger sin caer en restricciones indebidas ni abusos estatales. Cada avance técnico parece obligarnos a renegociar las bases de nuestra convivencia democrática. ¿Cómo regular un fenómeno tan disruptivo e hiperacelerado como la IA sin caer en el pánico moral ni fomentar una vigilancia excesiva?

Un fallo reciente en Argentina ordenó el bloqueo de una aplicación que generaba imágenes simuladas de menores de edad con IA, sentando un precedente relevante en el uso de medidas cautelares ante herramientas tecnológicas que vulneran derechos fundamentales. La decisión judicial reconoce que incluso imágenes no “reales” pueden causar daños graves cuando involucran a menores y expone la urgencia de contar con marcos regulatorios específicos para estas nuevas formas de contenido abusivo.

En simultáneo, otro fenómeno agrava aún más la situación de NNA en el ecosistema digital: el crecimiento de la ludopatía infantil y adolescente. Plataformas de videojuegos con mecánicas adictivas, monedas virtuales que simulan apuestas, algoritmos que fomentan el “scroll infinito” y notificaciones que interrumpen el sueño forman parte de una realidad que afecta la salud mental, el rendimiento escolar y los vínculos personales. En plena etapa de desarrollo emocional y construcción de identidad, adolescentes y niños se ven convertidos en protagonistas involuntarios de una economía de la atención que muchas veces los explota sin regulaciones efectivas y en ocasiones sin que ni siquiera lo sepan. Sus imágenes, datos y preferencias pueden ser recolectados, manipulados y utilizados por sistemas de inteligencia artificial sin su conocimiento ni consentimiento. Son usuarios intensivos, sí, pero profundamente desprotegidos.

 

Ante la irrupción de lo nuevo, lo más saludable sería, quizás, empezar por preguntarnos: ¿Quién regula los sistemas que determinan que ve un adolescente en TikTok? ¿Con qué datos se entrena un modelo de IA que utilizan menores de edad? ¿Qué responsabilidad tienen las plataformas en la detección de deepfakes sexuales? ¿Qué algoritmos usan las aplicaciones educativas que recopilan información sensible de menores?

 

En ese sentido, España acaba de aprobar una Ley de Protección a los Menores en el Entorno Digital que impone obligaciones a las plataformas tecnológicas, como controles parentales, límites al diseño adictivo y mayor transparencia en el uso de datos. En la misma línea, en México se presentó la “Ley Kuri”, que busca proteger los datos personales de NNA mediante un registro nacional de plataformas, filtros obligatorios y la prohibición de recopilar datos sensibles sin consentimiento parental. Ambas iniciativas apuntan a equilibrar el poder entre grandes plataformas y usuarios jóvenes, promoviendo un entorno digital más seguro.

En este contexto global, el derecho de acceso a la información pública cobra una relevancia crítica y crucial. Porque sin datos abiertos, sin saber qué algoritmos se utilizan, sin claridad sobre cómo se recolectan y procesan los datos personales de niñas, niños y adolescentes, no es posible prevenir ni controlar los abusos. La transparencia es el primer paso hacia la rendición de cuentas, pero también hacia la protección efectiva de derechos.

Ante la irrupción de lo nuevo, lo más saludable sería, quizás, empezar por preguntarnos: ¿Quién regula los sistemas que determinan que ve un adolescente en TikTok? ¿Con qué datos se entrena un modelo de IA que utilizan menores de edad? ¿Qué responsabilidad tienen las plataformas en la detección de deepfakes sexuales? ¿Qué algoritmos usan las aplicaciones educativas que recopilan información sensible de menores?

 

La IA puede ser una aliada poderosa para el desarrollo, la inclusión y la educación. Pero están a la vista los casos en los que también puede ser usada para acosar, manipular o excluir. Puede ampliar brechas ya existentes o crear nuevas formas de violencia. Para prevenir estos desvíos hace falta más que innovación: se necesita ética, gobernanza, regulación, transparencia y participación ciudadana.

 

Sin acceso público a esa información, la infancia digital queda a merced de lo que venga. En América Latina -y en Argentina en particular- enfrentamos este escenario con marcos regulatorios deficitarios y desactualizados. La ley vigente de protección de datos personales no contempla la lógica algorítmica ni los usos de la IA generativa. Tampoco regula con claridad la responsabilidad de las plataformas, ni exige evaluaciones de impacto sobre poblaciones en situación de vulnerabilidad.

La Ley 26.061 de Protección Integral de los Derechos de Niñas, Niños y Adolescentes establece que deben respetarse su dignidad, reputación y propia imagen. Esta ley reconoce que los adolescentes tienen derecho a ser protegidos de cualquier riesgo, amenaza o vulneración en los entornos virtuales. Y señala algo fundamental: las personas adultas, las instituciones, el sector privado y la comunidad en su conjunto son corresponsables de garantizar estos derechos, pero es el Estado quien tiene la obligación principal de respetarlos, protegerlos y hacerlos cumplir.

La IA puede ser una aliada poderosa para el desarrollo, la inclusión y la educación. Pero están a la vista los casos en los que también puede ser usada para acosar, manipular o excluir. Puede ampliar brechas ya existentes o crear nuevas formas de violencia. Para prevenir estos desvíos hace falta más que innovación: se necesita ética, gobernanza, regulación, transparencia y participación ciudadana.

Es urgente diseñar políticas públicas que incorporen la IA con una perspectiva de derechos humanos, especialmente cuando están en juego las infancias, expuestas a riesgos como el ciberacoso, la exposición no deseada de datos personales, la sextorsión, el grooming, el sexting y la ludopatía digital.

La inteligencia artificial no es solo un fenómeno técnico. Es una fuerza capaz de democratizar saberes o profundizar en desigualdades. Es deber del Estado prevenir esos desbalances y proteger lo más frágil en lo más nuevo.

Y como siempre en materia de derechos, mientras antes se actúe sobre una realidad que avanza siempre mucho más de lo que somos capaces de advertir, mejor. Antes de que ya sea tarde y el vértigo nos aturda hasta la parálisis.

Santiago Alberdi es Abogado. Titular del Órgano Garante del Derecho de Acceso a la Información de CABA. Coordinador de la Comisión de Gobernanza de Datos y Protección de la Privacidad del Consejo Federal para la Transparencia.


Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.

Notas relacionadas:
Repensar controles ante la expansión de la IA sexualizada accesible a menores
Avatares peligrosos: sexualidad e inteligencia artificial
Será registrado en el Banco de Datos Genéticos.
Condena ejemplar contra el grooming
Delitos con Inteligencia Artificial
Depravados con IA

VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2025 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486