18 de Julio de 2025
Edición 7254 ISSN 1667-8486
Próxima Actualización: 21/07/2025
Inteligencia Artificial

¿Las máquinas piensan? El mito de la autonomía en los sistemas de IA

El reciente paper publicado por Apple, titulado “The Illusion of Thinking”, plantea una advertencia lúcida y necesaria en tiempos de fascinación generalizada por la inteligencia artificial. Lejos de alimentar la narrativa utópica que atribuye cualidades humanas al software, el estudio desmonta —con precisión técnica— la idea de que los modelos generativos actuales no "piensan" o "razonan" en el sentido humano del término.

(Karlo Curis | vecteezy.com)
Por:
Santiago
G.
Rubin
Por:
Santiago
G.
Rubin

Una inteligencia estadística, no cognitiva.

El equipo de investigación de Apple sostiene que los modelos de lenguaje como los grandes LLMs (Large Language Models) no poseen comprensión real del mundo, ni conciencia, ni siquiera razonamiento abstracto genuino. Son, esencialmente, mecanismos sofisticados de completado de texto que utilizan correlaciones estadísticas sobre enormes volúmenes de datos para predecir palabras, pero sin "saber" verdaderamente lo que están diciendo.

Esto tiene profundas implicancias para el Derecho, especialmente cuando se discute la autonomía de los sistemas de IA y su eventual responsabilidad jurídica.

 

Esto genera lo que Apple llama una “ilusión de pensamiento”, una especie de espejismo cognitivo que puede inducir a error tanto a usuarios como a desarrolladores y, especialmente, a decisores judiciales o legislativos.

 

La ilusión de la comprensión: ¿un riesgo para el Derecho?

Una de las conclusiones más relevantes del paper es que estos sistemas pueden parecer brillantes en la superficie —producen textos coherentes, incluso complejos— pero en realidad operan sin semántica, sin intencionalidad y sin conciencia situacional. Esto genera lo que Apple llama una “ilusión de pensamiento”, una especie de espejismo cognitivo que puede inducir a error tanto a usuarios como a desarrolladores y, especialmente, a decisores judiciales o legislativos.

Desde una perspectiva legal, esto tensiona cualquier marco que pretenda atribuir responsabilidad autónoma a una IA. Si el sistema no puede formar una "intención", ¿cómo podría atribuirse dolo, culpa o negligencia?

 

La inteligencia artificial no debe considerarse un sujeto autónomo de derecho ni un agente penalmente responsable. Su conducta, aunque aparentemente racional, carece de motivación interna o interpretación consciente.



IA sin voluntad: límites a la autonomía jurídica.

El trabajo refuerza la tesis defendida por muchos juristas informáticos: la inteligencia artificial no debe considerarse un sujeto autónomo de derecho ni un agente penalmente responsable. Su conducta, aunque aparentemente racional, carece de motivación interna o interpretación consciente. En palabras del equipo de Apple, la IA actual no “razona”, sino que “aparenta razonar”.

Esta distinción es vital para evitar un deslizamiento conceptual que podría llevar al legislador o al juez a equivocarse en el momento de asignar deberes, derechos o sanciones.
 

Riesgos de confianza ciega: una advertencia judicial

El paper también denuncia un riesgo concreto: la sobreconfianza. Cuanto más verosímil parece una respuesta generada por IA, más probable es que el usuario delegue decisiones o crea que el sistema está "pensando". Esto puede llevar, en entornos judiciales o administrativos, a una automatización acrítica del razonamiento legal, algo particularmente peligroso cuando están en juego garantías constitucionales o libertades individuales.

Lejos de frenar la innovación, The Illusion of Thinking invita a encauzarla con fundamentos éticos y jurídicos sólidos. El mensaje de Apple es claro: los modelos de lenguaje son herramientas poderosas, pero no oráculos. El Derecho debe avanzar en paralelo, estableciendo marcos normativos que reconozcan tanto el potencial como las limitaciones intrínsecas de la IA actual. Creer que las máquinas piensan es no entender cómo funcionan. Y legislar bajo esa premisa es, simplemente, peligroso.


*  *  *

Para profundizar en temas de IA lo invitamos a conocer nuestros curso a distancia sobre ChatGPT para abogados  3  niveles cortos dictados por el profesor Elián Facundo Yorlano, que pueden hacerse juntos o por separado.

Documento relacionado:


Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.


VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2025 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486