En 2025, Deloitte Australia entregó un informe valorado en aproximadamente USD 290.000 al Department of Employment and Workplace Relations (DEWR) del gobierno australiano, sobre un sistema de sanciones automatizado de bienestar social. Poco después, se descubrió que el documento contenía múltiples errores graves: citas académicas inexistentes, una sentencia judicial fabricada y referencias fraudulentas.
El hecho clave para la profesión de auditoría financiera es que el informe admitió haber sido generado —al menos en parte— con apoyo de un modelo de IA generativa (específicamente Azure OpenAI GPT‑4o) y que dicha “ayuda” no fue acompañada de controles de validación documental suficientes.
¿Qué puede aprender un auditor financiero?
- No delegues tu juicio al algoritmo
Los modelos de IA no “ponen sello de auditoría”. En este caso, la IA produjo contenido que parecía legítimo —pero estaba fabricado—: “alucinaciones” como citas falsas o sentencias atribuidas a jueces que nunca la emitieron.
Lección: Si entregas evidencia generada por IA sin validación humana crítica, estás aceptando una ruta de conveniencia, no de rigor.
- Exige trazabilidad completa
El equipo de auditoría debe conocer los siguientes elementos mínimos:
- Versión del modelo, prompt utilizado, fuentes de datos.
- Quién revisó los resultados y qué ajustes se hicieron.
- Registro documental que permita reproducir el proceso.
En el caso, la falta de estos elementos generó discusiones sobre quién era responsable de los errores.
- Ajusta el enfoque de tus pruebas
Cuando las estimaciones, conclusiones o revelaciones dependen de IA, la naturaleza y extensión de tu trabajo se amplían:
- Añade pruebas independientes que reproduzcan o validen parte del proceso.
- Evalúa supuestos clave y escenarios adversos.
- Aumenta documentación y revisiones.
Deloitte siendo una gran firma, fue puesta en evidencia pública por no hacerlo; tú debes prevenirlo.
- Refuerza la gobernanza del uso de la IA
La IA no es un “acelerador” sin freno. Las organizaciones deben contar con:
- Políticas de uso de IA: qué está permitido, qué no.
- Transparencia hacia el auditor (y hacia los usuarios de los informes).
- Registro de aprobaciones, revisiones y actuaciones de ajustes.
Este caso está siendo considerada como una alerta global para firmas de auditoría y consultoría.
- Comunica con claridad los límites y riesgos
Cuando el resultado de la auditoría se basa en IA, el usuario debe entender:
- Qué parte del informe fue asistida por IA.
- Qué validaciones se aplicaron.
- Cuáles son los supuestos relevantes.
En la ausencia de esta transparencia, la confianza del usuario puede verse seriamente erosionada.
Conclusión
El caso de Deloitte Australia no es solo una anécdota tecnológica. Es una lección profesional para auditores financieros: que la auditoría no delega su esencia al algoritmo. El auditor sigue siendo responsable último del juicio, de la evidencia, de la trazabilidad y del impacto de su opinión. La IA puede asistir, pero nunca sustituir el razonamiento crítico.
En resumen: si usas IA, documenta, valida y comunica. Si no, estás entregando conclusiones sin respaldo —y eso, en auditoría, nunca es aceptable.