06 de Noviembre de 2025
Edición 7331 ISSN 1667-8486
Próxima Actualización: 07/11/2025
Inteligencia artificial y Derecho

“Antes que regular, mejor alfabetizar”

Sebastián Chumbita explora cómo el “Prompt Engineering” redefine la interacción humano-máquina, los desafíos éticos y jurídicos que plantea la IA generativa y el papel insustituible del pensamiento crítico en la nueva era digital.

Sebastián Chumbita
Por:
Analía
Zygier.
Directora
de
Diario
Judicial.
Por:
Analía
Zygier.
Directora
de
Diario
Judicial.

¿Qué ocurre cuando el derecho se cruza con la inteligencia artificial? Con una mirada lúcida y anticipatoria, Sebastián Chumbita —director del Laboratorio de Innovación Tecnológica de la Facultad de Derecho de la UNLZ y del Área de Derecho en el Laboratorio de Innovación e Inteligencia Artificial de la UBA— señala que la inteligencia artificial no solo exige nuevas normas, sino una nueva comprensión. En esta entrevista, el autor de Prompt Engineering analiza el papel del pensamiento humano frente a las máquinas, los riesgos jurídicos emergentes y la alfabetización como clave para un uso responsable. En diálogo con Diario Judicial explica por qué el pensamiento crítico será la verdadera competencia del futuro y advierte: “antes que regular, hay que alfabetizar”.


Diario Judicial: El término “Prompt Engineering” tiene apenas unos años y ya parece estar redefiniendo la forma en que pensamos la interacción con la inteligencia artificial. ¿Qué te llevó a escribir sobre esto antes de que el tema se volviera mainstream?

Sebastián Chumbita: Vengo escribiendo sobre el tema desde el año 2023, casi en forma inmediata a la irrupción de ChatGPT en noviembre de 2022. En ese tiempo, publiqué el primer artículo sobre “Legal Prompt Engineering”. Me pareció fundamental comenzar a hablar de la nueva era de interacción con las máquinas, en donde el pensamiento crítico es lo que define la calidad de las respuestas. Nunca antes nos habíamos relacionado con la tecnología de esa forma y eso merecía una investigación seria que traduzca todo ese tecnicismo al idioma común.
 

Dju: En el título hablás de “uso estratégico y responsable de la IA generativa”. ¿Creés que hoy predomina el uso estratégico, el uso irresponsable o una mezcla caótica de ambos?

SCH: En términos generales, todavía falta una alfabetización sólida que nos permita contar con una base común de conocimiento. Sin esa base, es difícil evaluar con precisión el impacto de esta tecnología. Al mismo tiempo, la facilidad para generar contenido genera conclusiones apresuradas sobre sus capacidades, escasa supervisión y muchas expectativas desmedidas. Por eso creo que hoy convivimos con una suerte de caos, como mencionás: estrategias bien pensadas, usos irresponsables, etc.
 

Dju: Si tu libro se leyera dentro de veinte años, ¿qué parte te gustaría que siga siendo vigente?

SCH: Sin lugar a dudas, la que resalta que el pensamiento crítico es la base de cualquier interacción, desde la elección de una tecnología hasta la supervisión de la misma. El concepto de “human in command” (humano supervisando) es el que nos va a permitir evolucionar como especie. Contrario a lo que se piensa, los grandes modelos de lenguaje natural son una tecnología que nos puede ayudar muchísimo a ampliar nuestras capacidades.
 

Dju: ¿Te parece que el prompt engineer es una figura transitoria, como un puente entre la era del texto y la del pensamiento asistido por IA, o que llegó para quedarse como una profesión estable?

SCH: Como mencionaba, el prompting es mucho más que realizar una indicación a un agente conversacional. Pasa por conocer la tecnología, seleccionar la plataforma indicada, los modelos con los que se trabaja, la gestión de los tokens, la gobernanza de los datos que se utilizan para promptear, la validación del contenido, etc. Por lo tanto, no creo que sea una moda sino que es una nueva habilidad. Tanto es así que hoy ya está marcando el índice de empleabilidad a nivel mundial.
 

Dju: ¿Qué riesgos jurídicos creés que están siendo subestimados en el uso cotidiano de herramientas de IA generativa por abogados, jueces y periodistas?

SCH: Creo que hoy, en la era de plataformas de uso general/comercial como ChatGPT, Gemini, NotebookLM, etc., tanto la inclusión de los datos personales como la ausencia de validación de las respuestas creo que son los riesgos más subestimados o, tal vez, en donde menos se está reparando. De hecho, los recientes fallos que se han dado a conocer, están haciendo hincapié en estas cuestiones.
 

Dju: Muchos juristas hablan de la necesidad de “regular la inteligencia artificial”. ¿Qué aspectos deberían regularse primero: los modelos, los datos o los usos?

SCH: Estoy convencido que antes que regular, mejor alfabetizar. La mayoría de los principios o normas jurídicas tradicionales, resultan aplicables a la hora de definir “el deber de diligencia” para con estas máquinas. Por supuesto que circunstancias asociadas a conductas delictivas requieren de una tipicidad definida pero si hablamos de uso ético y responsable, encontramos normas que pueden hoy cubrir un sinnúmero de situaciones. Muchas regulaciones pecan de prohibitivas cuando -en definitiva- es tecnología que facilita los quehaceres y, encima, a bajo costo.
 

Dju: ¿Podemos hablar de autoría compartida entre humano y máquina en la redacción jurídica?

SCH: Materialmente hablando, si. Desde siempre, las máquinas asistieron a las personas en los procesos productivos. Ahora esta, que se involucra desde el punto de vista cognitivo en ideación, predicción, etc., mucho más. Pero hay que ver en cada caso el nivel de injerencia que tiene. Ahora, si lo tomamos desde el punto de vista del derecho, todavía no se reconoce jurídicamente a la IA como coautora, por eso la responsabilidad -y los derechos- recaen siempre en las personas.
 

Dju:Si un juez usara un modelo de lenguaje para redactar una sentencia, ¿cuál sería el límite ético o técnico para que siga siendo un acto jurisdiccional humano?

SCH: Desde el punto de vista jurisdiccional, al ser indelegable este poder estatal, va a seguir siendo humano el acto, salvo que se otorgue a las máquinas personalidad. Sin embargo, es razonable pensar que estos grandes modelos de lenguaje pueden hacer -en ciertos casos- la tarea de un juez o una jueza. En ese sentido, es necesario discriminar el tipo de asistencia que brinda porque aún en el caso de la toma de la “decisión final” puede tener incidencia cuando resume u organiza la información. Por lo tanto, creo que el único límite es perder el control de la toma de la decisión, independientemente de la asistencia tecnológica que reciba, tal como hoy sucede con la asistencia humana de los pares o colaboradores.
 

Dju: ¿Qué aprendiste sobre el lenguaje humano al estudiar cómo responde una IA a los prompts?

SCH: Muchísimo. Para poder hablar de prompteo, entendido como una emulación del diálogo entre personas humanas, se puede recurrir a la denominada teoría de “los juegos de la conversación” y repasar cómo en la dinámica de intercambio de información tiene incidencia el significado literal del lenguaje, la intención de quien habla, el efecto comunicativo, las reacciones y las respuestas. En ese escenario, es evidente que si fracasamos al querer comunicarnos entre iguales ¿cómo pretendemos hacerlo bien con una cosa que justamente no es persona y carece de muchas capacidades?
 

Dju: ¿Qué distingue a un buen prompt de uno mediocre en el ámbito jurídico?

SCH: Un prompt debe ser evaluado según las expectativas de las personas usuarias. No existe el prompt perfecto si no se mide el resultado en términos de intención de búsqueda. Sin embargo, aquellos que brinden mayor precisión en el pedido, a través de claves como contexto, tarea, objetivo, rol, formato, etc.; van a estar más cerca de encontrar la respuesta más útil y en el menor tiempo posible.
 

Dju: ¿Cuáles son los usos más sorprendentes o creativos que viste de la IA en el mundo jurídico o académico?

SCH: Hay de todo. De hecho, las empresas que desarrollan estas plataformas suelen dar a conocer los casos de uso de la gente porque hasta ellas se sorprenden de la utilidad que se les puede brindar. Si me tengo que quedar con aquellos más disruptivos que he visto, puedo mencionar al diseño de “perfilado” de jueces o abogados que hacen para poder anticiparse a situaciones o responder con mayor precisión ante un escrito. Esto es, brindarle instrucciones a la IA (puede ser con un Agente GPT) para que “se comporte” como lo haría una persona determinada.
 

Dju: ¿Cómo fue el proceso de escritura de un libro sobre una tecnología que cambia mientras la describís?

SCH: Durísimo. Hicimos ajustes hasta el último día previo a la impresión. Pero el libro no pretende ser un manual que tenga la última actualización de cada plataforma, sino brindar herramientas para comprender el fenómeno de manera holística. La lógica interactiva de estas tecnologías no va a cambiar su esencia en el corto tiempo. Podrá volverse más intuitiva y accesible, pero mantendrá su base. Justamente por eso, el libro no va a quedar obsoleto, aunque por supuesto tendrá su actualización cuando lo amerite.
 

Dju: ¿Qué tipo de lector imaginaste: un técnico, un abogado curioso o un público más general?

Público general. El libro es amigable tanto en su contenido como en redacción. Además, incluye material infográfico y audiovisual que permite a las personas que carecen de todo conocimiento, introducirse fácilmente al tema; y para aquellas que ya tienen nociones, profundizar en cuestiones que no suelen ser mencionadas o reflexionadas, mucho menos explicada en un lenguaje claro y accesible. Así que invito a que lo descubran por su cuenta.

El libro “Prompt Engineering. Teoría y práctica para el uso adecuado, estratégico y responsable de la IA generativa”, de Sebastián C. Chumbita, se presentará el lunes 3 de noviembre, en el auditorio del Senado de la Nación. Durante el encuentro se compartirán las últimas novedades sobre inteligencia artificial y derecho, habrá un espacio de intercambio entre participantes y, al cierre, se realizarán sorteos de ejemplares. Inscríbase en bit.ly/libroprompting


Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.

VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2025 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486