OpenAI incorporó nuevas disposiciones en sus políticas de uso para su sistema de inteligencia artificial, ChatGPT, explicitando que no se permite emplear la aplicación para brindar asesoramiento legal, médico o de otro tipo que requiera licencia profesional y que pueda afectar servicios críticos o decisiones de alto riesgo.
La actualización -publicada como parte del apartado “Usage Policies” bajo el ítem de “alto riesgo/servicios críticos”- define que el modelo no debe ser utilizado para automatizar decisiones en áreas sensibles sin participación humana calificada, lo que incluye asesoría en materia legal, médica o gubernamental.
Según los textos de la nueva política, los usuarios pueden seguir consultando temas de salud o legales, pero la información debe tener carácter general y educativo, y en ningún caso debe sustituir la revisión de un profesional humano.
Para comprobar el alcance del cambio, un equipo de El HuffPost formuló preguntas reales al chatbot: Al plantear un problema contractual de alquiler, el sistema explicó opciones legales generales, pero aclaró que no reemplaza un abogado.
¿Qué cambia en la práctica?
Según los textos de la nueva política, los usuarios pueden seguir consultando temas de salud o legales, pero la información debe tener carácter general y educativo, y en ningún caso debe sustituir la revisión de un profesional humano.
La decisión responde a una preocupación creciente sobre el uso de IA en áreas sensibles, donde los errores pueden tener impacto grave en la salud, los derechos o la vida de las personas. Ejemplos que han alimentado el debate incluyen usuarios que han recibido respuestas problemáticas de IA vinculadas a autolesiones o asesoramiento incorrecto.
OpenAI aclara que este giro no introduce un nuevo mandato respecto a los tipos de contenido prohibido, sino que reorganiza las reglas existentes bajo un formato unificado. El modelo ya estaba sujeto a límites similares, pero ahora la empresa lo presenta de forma más clara.
La decisión responde a una preocupación creciente sobre el uso de IA en áreas sensibles, donde los errores pueden tener impacto grave en la salud, los derechos o la vida de las personas. Ejemplos que han alimentado el debate incluyen usuarios que han recibido respuestas problemáticas de IA vinculadas a autolesiones o asesoramiento incorrecto.
Como por ejemplo el caso de un adolescente, que se quitó la vida en California. Sus padres demandaron a OpenAI y a Sam Altman por homicidio culposo, al acusar a ChatGPT de haberlo acompañado en la exploración de métodos de suicidio.
Si bien ChatGPT puede seguir generando explicaciones sobre temas legales o médicos, no puede garantizar diagnósticos, tratamientos o asesoramiento adaptado al caso específico.
OpenAI enfatiza que el cambio busca garantizar la seguridad, cumplimiento ético y claridad sobre el rol de la IA.