Компанія Deloitte Australia опинилася в центрі скандалу після того, як стало відомо, що під час підготовки звіту для Міністерства зайнятості та трудових відносин (DEWR) використовувалися інструменти генеративного штучного інтелекту. Документ вартістю $440 000, опублікований у липні 2025 року, виявився наповненим помилками, неточностями та посиланнями на неіснуючі джерела.
Дослідження показало, що значну частину звіту було створено за допомогою ШІ, а не фахівцями компанії. Після оприлюднення цих даних Deloitte провела внутрішню перевірку та переглянула документ. В оновленій версії звіту було видалено фіктивні посилання, виправлено виноски та оновлено список літератури. Крім того, компанія вперше офіційно зазначила, що використовувала генеративні моделі, включаючи Azure OpenAI GPT-4o.
Незважаючи на внесені зміни, скандал викликав широке обговорення у наукових та професійних колах Австралії. Професор Сіднейського університету Крістофер Радж зазначив, що помилки в документі є типовими для так званих галюцинацій штучного інтелекту. Він наголосив, що відсутність прозорості при використанні подібних інструментів ставить під сумнів достовірність рекомендацій, викладених у звіті.
Представники DEWR заявили, що ключові висновки звіту залишилися без змін, проте відмовилися уточнити, чи буде зобов'язана Deloitte повністю повернути кошти або продовжить співпрацю з відомством. Відомо лише, що компанія погодилася сплатити заключний внесок за контрактом, сума якого не розголошується.
Крім проблем із самим звітом, перевірка виявила внутрішні недоліки у системі DEWR. Серед них — помилки у процесах, слабка документація та надмірно суворі заходи контролю за дотриманням вимог. Ці висновки збіглися з більш раннім звітом омбудсмена Співдружності, де зазначалося, що багато випадків призупинення соціальних виплат були незаконними.
Експерти зазначають, що інцидент став тривожним сигналом щодо надійності та етичних аспектів використання штучного інтелекту у державних та корпоративних дослідженнях. Deloitte, яка активно застосовує ШІ у своїй роботі, тепер стикається з ризиком втрати довіри як з боку клієнтів, так і з боку громадськості.
Цей випадок став одним із перших, коли велика консалтингова компанія визнала, що штучний інтелект брав участь у підготовці офіційного урядового документа, що посилило громадську дискусію про межі відповідальності під час використання ШІ.