Una inteligencia estadística, no cognitiva.
El equipo de investigación de Apple sostiene que los modelos de lenguaje como los grandes LLMs (Large Language Models) no poseen comprensión real del mundo, ni conciencia, ni siquiera razonamiento abstracto genuino. Son, esencialmente, mecanismos sofisticados de completado de texto que utilizan correlaciones estadísticas sobre enormes volúmenes de datos para predecir palabras, pero sin "saber" verdaderamente lo que están diciendo.
Esto tiene profundas implicancias para el Derecho, especialmente cuando se discute la autonomía de los sistemas de IA y su eventual responsabilidad jurídica.
Esto genera lo que Apple llama una “ilusión de pensamiento”, una especie de espejismo cognitivo que puede inducir a error tanto a usuarios como a desarrolladores y, especialmente, a decisores judiciales o legislativos.
La ilusión de la comprensión: ¿un riesgo para el Derecho?
Una de las conclusiones más relevantes del paper es que estos sistemas pueden parecer brillantes en la superficie —producen textos coherentes, incluso complejos— pero en realidad operan sin semántica, sin intencionalidad y sin conciencia situacional. Esto genera lo que Apple llama una “ilusión de pensamiento”, una especie de espejismo cognitivo que puede inducir a error tanto a usuarios como a desarrolladores y, especialmente, a decisores judiciales o legislativos.
Desde una perspectiva legal, esto tensiona cualquier marco que pretenda atribuir responsabilidad autónoma a una IA. Si el sistema no puede formar una "intención", ¿cómo podría atribuirse dolo, culpa o negligencia?
La inteligencia artificial no debe considerarse un sujeto autónomo de derecho ni un agente penalmente responsable. Su conducta, aunque aparentemente racional, carece de motivación interna o interpretación consciente.
IA sin voluntad: límites a la autonomía jurídica.
El trabajo refuerza la tesis defendida por muchos juristas informáticos: la inteligencia artificial no debe considerarse un sujeto autónomo de derecho ni un agente penalmente responsable. Su conducta, aunque aparentemente racional, carece de motivación interna o interpretación consciente. En palabras del equipo de Apple, la IA actual no “razona”, sino que “aparenta razonar”.
Esta distinción es vital para evitar un deslizamiento conceptual que podría llevar al legislador o al juez a equivocarse en el momento de asignar deberes, derechos o sanciones.
Riesgos de confianza ciega: una advertencia judicial
El paper también denuncia un riesgo concreto: la sobreconfianza. Cuanto más verosímil parece una respuesta generada por IA, más probable es que el usuario delegue decisiones o crea que el sistema está "pensando". Esto puede llevar, en entornos judiciales o administrativos, a una automatización acrítica del razonamiento legal, algo particularmente peligroso cuando están en juego garantías constitucionales o libertades individuales.
Lejos de frenar la innovación, The Illusion of Thinking invita a encauzarla con fundamentos éticos y jurídicos sólidos. El mensaje de Apple es claro: los modelos de lenguaje son herramientas poderosas, pero no oráculos. El Derecho debe avanzar en paralelo, estableciendo marcos normativos que reconozcan tanto el potencial como las limitaciones intrínsecas de la IA actual. Creer que las máquinas piensan es no entender cómo funcionan. Y legislar bajo esa premisa es, simplemente, peligroso.
* * *
Para profundizar en temas de IA lo invitamos a conocer nuestros curso a distancia sobre ChatGPT para abogados 3 niveles cortos dictados por el profesor Elián Facundo Yorlano, que pueden hacerse juntos o por separado.