Un documento interno de Meta Platforms, difundido por la agencia Reuters, puso bajo la lupa la manera en que la empresa de Mark Zuckerberg regula el comportamiento de sus chatbots de inteligencia artificial.
Bajo el título “GenAI: Content Risk Standards”, la política interna detalla qué contenidos pueden considerarse aceptables o no al momento de entrenar y desplegar a los asistentes virtuales de la compañía en sus plataformas (Facebook, WhatsApp e Instagram).
Contenía hasta hace pocas semanas lineamientos que permitían a los bots mantener conversaciones de tono romántico o sensual con menores de edad
El texto, según se informa, contenía hasta hace pocas semanas lineamientos que permitían a los bots mantener conversaciones de tono romántico o sensual con menores de edad, elaborar respuestas que transmitieran información médica inexacta o incluso formular párrafos que sostuvieran que una raza es “más inteligente” que otra.
¿Es lo mismo que una plataforma tolere contenido problemático publicado por un usuario a que lo genere activamente mediante un bot propio?
Tras las consultas de Reuters, Meta reconoció la autenticidad del documento y anunció modificaciones, pero sin publicar la versión actualizada. El vocero de la empresa, admitió que los ejemplos detectados “eran inconsistentes con las políticas” y aseguró que fueron eliminados.
El caso plantea una cuestión jurídica central: ¿es lo mismo que una plataforma tolere contenido problemático publicado por un usuario a que lo genere activamente mediante un bot propio?
El documento interno, describiría que era “aceptable” que un chatbot halagara la apariencia de un niño o mantuviera diálogos de carácter romántico con adolescentes, muestra un estándar que trasciende la pasividad de una red social y se acerca a la autoría de un mensaje.
Los tres ejes críticos del documento revelado tienen un fuerte anclaje jurídico:
Protección de menores: los ejemplos en los que los chatbots podían “coquetear” con niños constituyen un riesgo de responsabilidad civil y penal, tanto en la legislación estadounidense como en tratados internacionales de protección de derechos de la infancia.
Información médica falsa: la habilitación para producir respuestas sobre diagnósticos o tratamientos —aun con un eventual “disclaimer”— podría configurar violaciones a regulaciones sanitarias y a normas sobre publicidad engañosa.
Discriminación racial: aceptar que un bot argumente que “las personas negras son menos inteligentes que las blancas” implica la generación de discursos de odio por parte de la propia empresa, lo que abre la puerta a reclamos por responsabilidad civil y por incumplimiento de normas antidiscriminatorias.
Si bien en distintos países se han dictado leyes para limitar los contenidos que circulan en redes sociales, la situación es distinta cuando el contenido lo produce directamente la inteligencia artificial de la propia compañía. La diferencia no es menor: el bot es parte de Meta, no un usuario independiente.
¿Quién responde por lo que dice un bot?
Senadores estadounidenses ya reclamaron investigaciones sobre estas políticas internas.
La controversia también recuerda debates recientes en Brasil, donde la justicia discutió la suspensión de plataformas y la necesidad de leyes específicas para los algoritmos inteligentes. El denominador común es la pregunta central: ¿quién responde por lo que dice un bot?
Si quiere profundizar en el uso de la Inteligencia Artificial —como ChatGPT— y otras tecnologías disruptivas aplicadas al ejercicio profesional, Campus Judicial el área de educación a distancia de Diario Judicial, ofrece cursos totalmente online diseñados específicamente para letrados, desde «ChatGPT para abogados» hasta «Blockchain y Smart Contracts». Visite campusjudicial.com y potencie su práctica legal mediante una formación práctica y flexible, adaptada a sus necesidades.