03 de Diciembre de 2025
Edición 7348 ISSN 1667-8486
Próxima Actualización: 04/12/2025
Inteligencia artificial con injurias

Buscar para alucinar

La alucinación de la IA va a juicio y un fallo argentino podría tener la respuesta: Una empresa en EEUU demandó a Google por su función "IA Overview" que creó un resumen con información errónea. ¿Qué dijeron los tribunales argentinos en un fallo reciente sobre la "naturaleza dinámica de los algoritmos"?

(Siraphol Siricharattak| vecteezy.com)
Por:
Sebastián
Onocko
Por:
Sebastián
Onocko

Una compañía en EEUU demandó a Google por su función “AI Overview” que sirve para dar “resúmenes” generados por inteligencia artificial sobre lo que se está buscando, a raíz de que en varias ocasiones la IA había alucinado brindando información falsa sobre la empresa.

La empresa “Wolf River” dedicada a la comercialización de paneles solares, presentó su demanda ante la Corte del distrito de Minnesota, alegando que, en septiembre de 2024, empleados de la firma descubrieron que Google brindaba información falsa al público sobre una supuesta violación de leyes que habría cometido su compañía, nada de lo cual era real.

En los resúmenes generados por la IA del buscador, se indicaba que la empresa enfrentaba una demanda por brindar información falsa a sus consumidores, e incluir costos ocultos, pero todo era una alucinación del programa, que en la realidad se tradujo en la pérdida de clientes potenciales.

 

En los resúmenes generados por la IA del buscador, se indicaba que la empresa enfrentaba una demanda por brindar información falsa a sus consumidores, e incluir costos ocultos, pero todo era una alucinación del programa, que en la realidad se tradujo en la pérdida de clientes potenciales.

 

La demanda explicó que las fuentes utilizadas en el resumen, daban cuenta de que en realidad eran otras las empresas acusadas, sin embargo, el compendio de la IA los ligaba a ellos.

Por lo tanto, se reclamaron daños y perjuicios, así como costas y costos, en lo que será uno de los primeros casos contra esta nueva tecnología de Google basada en inteligencia artificial.

Si bien el buscador ya ofrecía una función de “autocompletar”, que ya fue llevada a tribunales en numerosas ocasiones, con precedentes inclusive en Argentina, esta nueva herramienta, da una respuesta más larga y compleja, generada por inteligencia artificial, lo que será motivo de discusión en torno a la responsabilidad de Google.

 

En Argentina aún no se ha discutido la herramienta “AI Overview” en los tribunales, pero la respuesta podría ir de la mano de un reciente precedente de abril de este año, donde un médico cirujano demandó contra el buscador por la función “autocompletar” que lo asociaba con el término “mala praxis” cuando se lo buscaba, sin que el mismo haya tenido nunca ninguna acusación al respecto.

 

En Argentina aún no se ha discutido la herramienta “AI Overview” en los tribunales, pero la respuesta podría ir de la mano de un reciente precedente de abril de este año, donde un médico cirujano demandó contra el buscador por la función “autocompletar” que lo asociaba con el término “mala praxis” cuando se lo buscaba, sin que el mismo haya tenido nunca ninguna acusación al respecto.

En esa ocasión, la Cámara Civil y Comercial Federal hizo lugar al recurso del actor, representado por el abogado Martín Leguizamón Peña, revocó la sentencia de primera instancia, acogió el planteo del médico e instó a Google retirar de las “Búsquedas relacionadas” la asociación entre su nombre —o la fórmula “dr” seguida de su apellido— y la frase “mala praxis”. Según el tribunal, la “neutralidad algorítmica” que el buscador esgrime, basada en la reiteración de consultas de otros usuarios, no autoriza a que el profesional vea menoscabada su reputación.

Al fundamentar la medida, los camaristas Florencia Nallar, Juan Perozziello Vizier y Fernando A. Uriarte señalaron: que "la sugerencia impugnada resulte de la interacción del algoritmo con búsquedas anteriores de los usuarios no obliga al afectado a soportar pasivamente sus consecuencias, sobre todo cuando la demandada puede evitar la continuidad del daño suprimiendo esa referencia lesiva”.

El fallo había apuntado que los datos en cuestión no estaban almacenados “para ser objeto de tratamiento o procesamiento”, sino que “son el resultado de una interacción dinámica entre el algoritmo de la demandada y las acciones de los usuarios”

Lo cierto es que el problema de la alucinación de la IA es actual y comienza a ser estudiado por los tribunales, como por ejemplo en un caso paralelo, donde se generó calumnias e injurias contra una persona que inició una demanda contra ChatGPT en el Estado de Georgia en EEUU.

Documento relacionado:


Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.


VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2025 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486