Novinky / Hry

Riot Games a Ubisoft se spojily ve výzkumném projektu AI – používají protokoly hráčských chatů jako tréninková data

Riot Games a Ubisoft se spojily ve výzkumném projektu AI – používají protokoly chatu hráčů jako tréninková data

Ubisoft a Riot spolupracují na výzkumném projektu zaměřeném na antitoxicitu, který se zaměří na shromažďování logů chatu ve hře jako tréninkových dat pro algoritmy umělé inteligence. Očekává se, že obě společnosti zveřejní svá zjištění z těchto dat příští léto, kdy se rozhodne o dalších krocích.

Wesley Kerr, ředitel technologického výzkumu v Riotu, a Yves Jacquier, výkonný ředitel Ubisoft La Forge, se mnou mluvili prostřednictvím hovoru Zoom a oba sdíleli své dlouhodobé cíle a naděje v tento projekt. Oslavují to jako první svého druhu jako otevřenou výzkumnou spolupráci v oblasti umělé inteligence mezi dvěma herními společnostmi a doufají, že poznatky zveřejněné v příštím roce budou prvním krokem k efektivnímu využití umělé inteligence průmyslem jako nástroje ke snížení toxicity. .

Z nějakého důvodu byli hráči Udyr vždy extrémně jedovatí, když jsem hodně hrál League. Zajímalo by mě, jestli to platí i po jeho redesignu?

Podle Jacquiera má projekt tři hlavní cíle. Nejprve vytvořte síť sdílených datových sad naplněných plně anonymizovanými daty hráčů. Za druhé, vytvořit algoritmus AI, který může pracovat z těchto dat. A konečně, aby toto partnerství sloužilo jako „prototyp“ pro budoucí průmyslové iniciativy proti toxicitě, povzbuzování konkurence a nových pokroků v této oblasti.

Dává smysl, že Riot a Ubisoft jsou dvě společnosti, které investovaly do řešení tohoto problému, s ohledem na jeho oblíbené multiplayerové tituly. Rainbow Six: Siege se opravdu rychle zašpiní, jakmile zasáhne týmová kooperace a problémová dvojčata Riot, League of Legends a Valorant se namočí do toxického slizu.

Kerr i Jacquier během rozhovoru zdůrazňovali, že anonymita hráčů a dodržování regionálních zákonů a GDPR patří mezi jejich hlavní priority. Na otázku, zda jsou data hráčů sdílena mezi společnostmi, Kerr poukázal na to, že informace o vašem účtu League of Legends nebudou zaslány jiným společnostem bez souhlasu hráče. Místo toho by protokoly chatu byly zbaveny identifikačních informací dříve, než by je algoritmy mohly vybrat a vytěžit.

Nejbezprostřednějším problémem, který vás napadne, když slyšíte o toxicitě umělé inteligence, je vytrvalost hráčů, odhodlaných dát vám vědět, jak jste špatní. Vynález nových slov, měnící se lexikon nesmyslného jazyka, se v online komunitách neustále vyvíjí. Jak by na to umělá inteligence mohla reagovat? Trik je podle Jacquiera nespoléhat se na slovník a statické zdroje dat. Proto je užitečné používat aktuální protokoly chatu hráčů, které odrážejí aktuální meta toxicitu.

Pak je tu další obava ze selhání, zvláště v prostředí, kde mohou být součástí zážitku přátelské žertování mezi přáteli, náhodnými spoluhráči a dokonce i nepřátelskými hráči. Pokud hraji v League of Legends na nejvyšší lajně a svému soupeři v lajně 0/3 napíšu „dobrý přítel CS“, je to jen trochu vtip, ne? Pokud mi udělají totéž, je to povzbuzující. Nutí mě to vydělávat víc a umocňuje to zážitek. Jak může AI rozlišit mezi skutečnou škodlivou toxicitou a vtipy?

"Je to velmi obtížné," říká Jacquer. „Pochopit kontext diskuse je jednou z nejtěžších částí. Například když hráč ohrožuje jiného hráče. Pokud v Rainbow Six hráč řekne „ahoj, vezmu tě ven“, může to být součástí fantazie. Zatímco v jiných kontextech by to mohlo mít velmi odlišný význam. Kerr na to navázal některými výhodami videoher v tomto ohledu díky dalším faktorům.

Zvažování toho, s kým stojíte ve frontě, je podle něj příkladem faktoru, který by mohl pomoci umělé inteligenci určit skutečnou toxicitu legračních žeber. Teoreticky by vás nezasáhli toulaví psi, kdybyste v lobby Ligy nazvali svého celoživotního nejlepšího přítele hovno.

Pokud jde o budoucnost, všechny oči se upírají na výsledky zveřejněné v příštím roce. Prozatím se soustředí pouze na protokoly chatu, ale vzhledem k tomu, že Riot Games zvažují monitorování hlasové komunikace ve Valorantu, Kerr to odmítl vzít ze stolu jako budoucí oblast výzkumu, pokud bude spolupráce pokračovat dále. po roce 2023. Prozatím to je plán. První etapa dlouhé cesty, obě společnosti se zdají být předurčeny k cestování. Zatímco Kerr i Jacquier doufají, že výzkumný projekt přinese důležité výsledky a inspiruje další společnosti, aby následovaly jeho příkladu, nevěří, že umělá inteligence je hlavním a konečným řešením zmírňování toxicity.

„AI je nástroj, ale není to stříbrná kulka. Existuje mnoho způsobů, jak udržet hráče v bezpečí, takže myšlenkou je lépe pochopit, jak lze tento nástroj nejlépe využít k boji proti škodlivému obsahu.“

Nakonec je tento výzkum jen jedním kusem většího úsilí, ale v myslích Jacquiera a Kerra takový, který se snad v budoucnu ukáže jako zásadní. Teprve čas ukáže, zda mají pravdu, zda dokážou splnit svůj slib, že soukromí hráčů bude respektováno, a zda je umělá inteligence skutečně další hranicí v boji proti toxicitě.