Tým Microsoftu pro umělou inteligenci udělal obrovskou chybu, když unikl 38 TB soukromých dat společnosti. Zpráva zjistila, že tato data obsahují důvěrné informace, jako jsou hesla ke službám společnosti Microsoft, tajné klíče a více než 30 000 interních zpráv od více než 350 zaměstnanců společnosti Microsoft, kteří používají Microsoft Teams.
Podle zprávy od společnosti Wiz tým AI tohoto technologického giganta zveřejnil sbírku tréninkových dat, která se skládá z otevřeného zdrojového kódu a modelů umělé inteligence používaných pro rozpoznávání obrázků. Poté byl těm, kteří navštívili úložiště Github, poskytnut odkaz z Azure, který lze použít ke stažení těchto modelů.
Čtěte také: Porušení CoWin: jaká citlivá data by mohla být součástí tohoto úniku?
Věci se pokazily, když odkaz poskytnutý týmem Microsoft AI poskytl náhodným lidem přístup nejen ke kontrole toho, co je na účtu úložiště Azure, ale také jim umožnil přístup k narušení systému, včetně možnosti provádět změny, jako je stahování, přepisování, nebo mazání souborů.
Zpráva navíc zjistila, že příčinou tohoto problému byly sdílené tokeny přístupového podpisu, což je funkce Azure. Poskytoval speciální odkazy, které bylo možné použít pro přístup k datům úložiště Azure, ale problém byl v tom, že tento konkrétní odkaz byl určen k poskytnutí úplného přístupu uživateli. Obecně mohou být v odkazech určitá omezení a omezení.
Čtěte také: Únik dat WhatsApp dává k prodeji 500 milionů informací na temném webu
Ve zprávě bylo také zmíněno, že soukromá data Microsoftu byla odhalena v roce 2020, ale profesionálové informovali společnost 22. června 2023. Následně byly tyto sdílené přístupové podpisové tokeny údajně zpracovány za dva dny. Podle zprávy byl problém plně opraven společností Microsoft v srpnu.
Microsoft také lidi ujistil, že neunikla žádná data soukromých zákazníků a firem.