Un fallo en la gobernanza de inteligencia artificial en Deloitte Australia obligó a la consultora a reembolsar parte de un contrato gubernamental por AU$440,000 US$290,000 tras incluir fabricaciones generadas por IA en un informe final, revelando vulnerabilidades que, según analistas, son sintomáticas de desafíos más amplios cuando las empresas aceleran la adopción de IA. Deloitte empleó OpenAI GPT-4o para ayudar a elaborar una revisión independiente de 237 páginas para el Departamento de Empleo y Relaciones Laborales de Australia DEWR, pero no detectó citas académicas inventadas ni referencias judiciales inexistentes antes de entregar el informe. Además, la firma no informó sobre el uso de IA hasta después de que se detectaran los errores.

El gobierno australiano comunicó a ComputerWorld que Deloitte confirmó que algunas notas al pie y referencias eran incorrectas y accedió a devolver la última cuota del contrato. La secretaria proporcionó una actualización indicando que se publicó una versión corregida de la declaración de garantía y del informe final. El monto del reembolso se hará público cuando se actualice el aviso del contrato en AusTender.

Analistas señalan que este incidente refleja cómo la rápida adopción de herramientas generativas suele superar los controles existentes, creando riesgos especialmente graves en sectores regulados y de alto impacto. Pese a los errores detectados, el DEWR indicó que el contenido esencial de la revisión independiente se mantiene y que no han cambiado las recomendaciones.

La detección de las fabricaciones se produjo gracias al conocimiento especializado de dominio. El doctor Christopher Rudge, investigador de la Universidad de Sydney especializado en derecho de la salud y bienestar, identificó las falsedades al revisar el informe, al reconocer a autores citados que son colegas suyos y que nunca escribieron las obras atribuidas. Rudge observó que las referencias parecían demasiado a medida y hechas a la perfección para el texto, lo que representó una señal de alarma.

Expertos de Forrester subrayan que el caso es un recordatorio oportuno de que la adopción empresarial de la IA generativa va por delante de la madurez de los marcos de gobernanza diseñados para gestionar sus riesgos. La presencia de citas fabricadas y referencias legales mal atribuidas plantea serias preguntas sobre la diligencia, la transparencia y la rendición de cuentas en trabajos entregados por consultoras.

Responsabilidad compartida en el control de calidad. Vendedores y clientes comparten la responsabilidad, según Sanchit Vir Gogia, analista jefe y CEO de Greyhound Research. Los clientes no pueden alegar sorpresa cuando herramientas utilizadas internamente aparecen en el flujo de trabajo de un proveedor. Por qué no se verificó eso antes de publicar el informe es una pregunta legítima. La versión revisada del informe, publicada posteriormente, incluyó una divulgación que no estaba en la versión original y reconoció que Deloitte había usado la herramienta de IA para abordar lagunas de trazabilidad y documentación. La divulgación posterior a los hechos erosiona las guías gubernamentales que exigen transparencia cuando la IA interviene en la toma de decisiones.

El incidente coincidió con el anuncio de Deloitte sobre una alianza con Anthropic para desplegar Claude entre sus casi 500,000 empleados a nivel global. Deloitte no respondió de inmediato a solicitudes de comentario.

Modernización de los contratos con proveedores. Las fallas de divulgación y los problemas de control de calidad en este caso ponen de manifiesto brechas fundamentales en cómo las organizaciones contratan a proveedores que usan herramientas de IA. Rudge y otros expertos argumentan que las organizaciones que despliegan IA deben institucionalizar la revisión por expertos en la materia como una puerta de calidad final obligatoria, incluso cuando la IA ofrezca ahorros significativos de tiempo y coste. La economía del conocimiento puede seguir favoreciendo la adopción de IA, pero la verificación por profesionales debe seguir siendo el estándar de oro.

Gogia añade que muchos acuerdos contractuales actuales aún asumen autoría exclusivamente humana, aunque la automatización sustenta gran parte del trabajo. Cuando algo falla, ambas partes suelen debatir quién asume la culpa —el consultor, el modelo o el revisor humano que aprobó el documento—. Los líderes tecnológicos deben preguntar explícitamente por la participación de IA, los pasos de validación y los procesos de manejo de errores, así como exigir claridad sobre la revisión humana, la verificación de fuentes y la responsabilidad por la exactitud factual antes de aceptar entregables.

Para mejorar la gobernanza, los analistas recomiendan marcos integrales que consideren la IA como un riesgo sistémico y que incluyan políticas formales y supervisión transversal. Las cláusulas contractuales deberían exigir la divulgación del uso de IA, estándares de aseguramiento de calidad, responsabilidad por errores de IA y derechos de auditoría. También se sugiere la alineación con marcos como NIST AI RMF o ISO/IEC 42001 para la gestión de riesgos. Un modelo emergente incluye juntas de revisión conjuntas con representantes del cliente y del proveedor que examinan el contenido producido por IA antes de su aprobación. La gobernanza en la era de la IA premiará la colaboración sobre la confrontación.

Cómo pueden ayudar empresas tecnológicas especializadas. En este contexto, Q2BSTUDIO ofrece una propuesta clara para minimizar riesgos y maximizar valor. Q2BSTUDIO es una empresa de desarrollo de software y aplicaciones a medida con experiencia en inteligencia artificial, ciberseguridad y servicios cloud AWS y Azure. Nuestros equipos diseñan software a medida y soluciones de IA para empresas, integrando agentes IA, automatización de procesos y controles de calidad humanos en los flujos de producción para garantizar trazabilidad, verificabilidad y responsabilidad. Si su proyecto requiere soluciones avanzadas de IA o integración de modelos con supervisión experta, podemos ayudar y acompañar el proceso desde el diseño hasta la puesta en producción, incluyendo pruebas y pentesting.

Ofrecemos desarrollo de aplicaciones personalizadas y plataformas robustas para organizaciones que buscan implantar IA sin comprometer seguridad ni cumplimiento. Con servicios que abarcan desde el desarrollo de aplicaciones multiplataforma hasta la implementación de pipelines de datos para inteligencia de negocio y Power BI, Q2BSTUDIO trabaja para que la adopción de IA sea segura y auditada. Conozca cómo implementamos proyectos de inteligencia artificial para empresas visitando nuestros servicios de inteligencia artificial y explore nuestras soluciones de desarrollo de aplicaciones en software y aplicaciones a medida.

Palabras clave relevantes: aplicaciones a medida, software a medida, inteligencia artificial, ciberseguridad, servicios cloud aws y azure, servicios inteligencia de negocio, ia para empresas, agentes IA, power bi.

Si su organización desea evitar incidentes similares, Q2BSTUDIO puede colaborar en la definición de controles de gobernanza, procesos de revisión de expertos en la materia, auditorías técnicas y contratos que incluyan cláusulas específicas sobre uso de IA, responsabilidad y derechos de auditoría. La combinación de tecnología, procesos y expertos humanos es la fórmula para desplegar IA de forma segura y responsable.