26.8 C
Caracas
martes, noviembre 11, 2025

Deloitte, Obligada a Devolver Dinero por Informe Falso: ¿La IA es Culpable de Fraude Normativo?

La firma consultora Deloitte se ha visto obligada a aceptar el reembolso parcial del último pago de un contrato firmado con el gobierno australiano, luego de admitir que utilizó inteligencia artificial generativa en la elaboración de un informe oficial que estaba plagado de errores y citas inexistentes. Aunque el monto exacto del pago final no fue especificado, el contrato total ascendía a 440,000 dólares australianos (equivalentes a 290,000 dólares estadounidenses). Este incidente subraya las preocupaciones sobre la diligencia debida y la confiabilidad legal en los servicios de consultoría que utilizan herramientas automatizadas.

El Mandato Legal y la Revisión Normativa

El origen del conflicto radica en un encargo contractual iniciado en diciembre de 2024 por el Departamento de Empleo y Relaciones Laborales (DEWR) de Australia. El objetivo central del estudio de Deloitte era revisar el marco de cumplimiento y el sistema informático que aplica sanciones automáticas dentro del programa de bienestar australiano.

Desde una perspectiva legal, el estudio era crucial: debía evaluar si el diseño de dicho sistema coincidía con la legislación vigente. El informe identificó problemas serios, incluyendo deficiencias en la trazabilidad entre las reglas operativas y su fundamento legal, además de concluir que el sistema estaba «impulsado por supuestos punitivos de incumplimiento de los participantes».

Las “Alucinaciones” y la Tergiversación de la Ley

Los problemas surgieron tras la publicación de la primera versión del informe el 4 de julio de 2025. El investigador Christopher Rudge de la Universidad de Sídney fue quien inicialmente señaló las inconsistencias, describiéndolas como «alucinaciones» asociadas al uso de modelos de inteligencia artificial, donde el sistema genera información falsa para llenar vacíos.

Los errores no se limitaron a simples faltas ortográficas; atacaron directamente la credibilidad legal del documento. Entre los hallazgos documentados por el Australian Financial Review y corroborados por los académicos, se encontró:

  1. Referencias Falsas a Expertos: Citas incorrectas atribuidas a profesores de derecho y expertos de universidades en Sídney y Suecia. Se encontró, por ejemplo, una atribución incorrecta a una profesora de derecho público y constitucional sobre un libro inexistente y fuera de su especialidad. Rudge sugirió que el trabajo de sus colegas académicos fue usado como «fichas de legitimidad» sin haber sido realmente leído.
  2. Cita Judicial Inventada: El error más grave en el contexto legal fue una cita falsa sobre una resolución judicial del caso Deanna Amato v Commonwealth, un procedimiento relevante relacionado con el sistema automatizado robodebt. En la versión revisada del informe, Deloitte tuvo que añadir una nota para enmendar el resumen de este procedimiento que «contenía errores».

Según Rudge, citar incorrectamente a un juez es un error más serio que las inexactitudes académicas, ya que constituye una «tergiversación de la ley al gobierno australiano en un informe en el que confían». Este incumplimiento en la diligencia legal fue el catalizador para la acción gubernamental.

El Reembolso como Sanción Parcial

A pesar de que Deloitte incorporó una declaración formal sobre el uso de un modelo de lenguaje grande (Azure OpenAI GPT-4o) en una parte del documento, la firma negó que la IA fuera la causa directa de los errores. Sin embargo, la consultora reconoció ante el DEWR que algunas notas y referencias eran incorrectas, y acordó el reembolso del último pago.

Políticamente, la decisión fue vista como una sanción necesaria. La senadora laborista Deborah O’Neill, preocupada por el rol de la IA en los procesos de contratación pública, declaró que «un reembolso parcial parece una disculpa parcial por trabajo por debajo del estándar». Otra legisladora, Barbara Pocock, portavoz de los Verdes Australianos para el sector público, argumentó que Deloitte debería haber reembolsado el total de los 440,000 dólares, señalando que la firma «abusó de la IA y la usó de manera muy inapropiada».

La senadora O’Neill también instó a las instituciones públicas a exigir transparencia sobre quién elabora los informes y a verificar la pericia humana y la no utilización de herramientas automatizadas en este tipo de trabajos, sugiriendo irónicamente que, de lo contrario, los contratantes deberían pagar directamente una suscripción a ChatGPT.

A pesar de los ajustes y la devolución del dinero, el DEWR y Deloitte insisten en que la sustancia, las conclusiones y las recomendaciones estructurales sobre deficiencias normativas del informe original siguen siendo válidas y relevantes para futuras reformas del sistema de bienestar.

spot_imgspot_img

Subscribe

Related articles

spot_imgspot_img