03 de Diciembre de 2025
Edición 7348 ISSN 1667-8486
Próxima Actualización: 04/12/2025
Límites de la inteligencia artificial

Cuando el bot se pasa de vivo

Un documento interno de Meta revelado por Reuters expuso que los chatbots de la compañía podían mantener conversaciones románticas con menores, generar información médica falsa y reproducir sesgos raciales.

(IA Meta)

Un documento interno de Meta Platforms, difundido por la agencia Reuters, puso bajo la lupa la manera en que la empresa de Mark Zuckerberg regula el comportamiento de sus chatbots de inteligencia artificial. 

Bajo el título “GenAI: Content Risk Standards”, la política interna detalla qué contenidos pueden considerarse aceptables o no al momento de entrenar y desplegar a los asistentes virtuales de la compañía en sus plataformas (Facebook, WhatsApp e Instagram).
 

Contenía hasta hace pocas semanas lineamientos que permitían a los bots mantener conversaciones de tono romántico o sensual con menores de edad


El texto, según se informa, contenía hasta hace pocas semanas lineamientos que permitían a los bots mantener conversaciones de tono romántico o sensual con menores de edad, elaborar respuestas que transmitieran información médica inexacta o incluso formular párrafos que sostuvieran que una raza es “más inteligente” que otra.
 

¿Es lo mismo que una plataforma tolere contenido problemático publicado por un usuario a que lo genere activamente mediante un bot propio?


Tras las consultas de Reuters, Meta reconoció la autenticidad del documento y anunció modificaciones, pero sin publicar la versión actualizada. El vocero de la empresa, admitió que los ejemplos detectados “eran inconsistentes con las políticas” y aseguró que fueron eliminados.

El caso plantea una cuestión jurídica central: ¿es lo mismo que una plataforma tolere contenido problemático publicado por un usuario a que lo genere activamente mediante un bot propio?

El documento interno, describiría que era “aceptable” que un chatbot halagara la apariencia de un niño o mantuviera diálogos de carácter romántico con adolescentes, muestra un estándar que trasciende la pasividad de una red social y se acerca a la autoría de un mensaje.
 

Los tres ejes críticos del documento revelado tienen un fuerte anclaje jurídico:

Protección de menores: los ejemplos en los que los chatbots podían “coquetear” con niños constituyen un riesgo de responsabilidad civil y penal, tanto en la legislación estadounidense como en tratados internacionales de protección de derechos de la infancia.

Información médica falsa: la habilitación para producir respuestas sobre diagnósticos o tratamientos —aun con un eventual “disclaimer”— podría configurar violaciones a regulaciones sanitarias y a normas sobre publicidad engañosa.

Discriminación racial: aceptar que un bot argumente que “las personas negras son menos inteligentes que las blancas” implica la generación de discursos de odio por parte de la propia empresa, lo que abre la puerta a reclamos por responsabilidad civil y por incumplimiento de normas antidiscriminatorias.

Si bien en distintos países se han dictado leyes para limitar los contenidos que circulan en redes sociales, la situación es distinta cuando el contenido lo produce directamente la inteligencia artificial de la propia compañía. La diferencia no es menor: el bot es parte de Meta, no un usuario independiente.
 

¿Quién responde por lo que dice un bot?


Senadores estadounidenses ya reclamaron investigaciones sobre estas políticas internas. 

La controversia también recuerda debates recientes en Brasil, donde la justicia discutió la suspensión de plataformas y la necesidad de leyes específicas para los algoritmos inteligentes. El denominador común es la pregunta central: ¿quién responde por lo que dice un bot?

Si quiere profundizar en el uso de la Inteligencia Artificial —como ChatGPT— y otras tecnologías disruptivas aplicadas al ejercicio profesional, Campus Judicial el área de educación a distancia de Diario Judicial, ofrece cursos totalmente online diseñados específicamente para letrados, desde «ChatGPT para abogados» hasta «Blockchain y Smart Contracts». Visite campusjudicial.com y potencie su práctica legal mediante una formación práctica y flexible, adaptada a sus necesidades.


Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.

Notas relacionadas:
Responsabilidad legal en tiempos de IA
¿Y si la culpa fue del algoritmo?
Demanda por entrenamiento de modelos de inteligencia artificial
¿La IA mira videos XXX?
Recopilación de datos de niños
Juguetes con GPS y sin permiso
Repensar controles ante la expansión de la IA sexualizada accesible a menores
Avatares peligrosos: sexualidad e inteligencia artificial

VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2025 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486