Dužnosnici kineske vlade testiraju velike jezične modele tvrtki za umjetnu inteligenciju kako bi osigurali da njihovi sistemi ‘utjelovljuju temeljne socijalističke vrijednosti‘, piše FT.
Kineska uprava za kibernetički prostor (CAC), moćni nadzornik interneta, prisilila je velike tehnološke tvrtke i novoosnovane AI tvrtke, uključujući ByteDance, Alibabu, Moonshot i 01.AI, da učestvuju u obaveznoj vladinoj reviziji njihovih AI modela.
Ti kineski nadzornici masovno testiraju odgovore jezičnih modela na mnoštvo pitanja koja su uglavnom vezana uz ‘političku osjetljivost Kine i njenog predsjednika Xi Jinpinga. Rad provode službenici u CAC-ovim lokalnim ograncima širom zemlje i uključuje pregled podataka o obuci modela kao i drugih sigurnosnih procesa.
Dva desetljeća nakon uvođenja ‘velikog kineskog vatrozida‘ za blokiranje stranih web stranica i drugih informacija koje vladajuća Komunistička partija smatra štetnima, Kina uspostavlja najstrožiji regulatorni režim na svijetu za upravljanje umjetnom inteligencijom i sadržajem koji ona stvara.
CAC ima ‘poseban tim koji to radi, došli su u naš ured i sjedili u našoj konferencijskoj sobi kako bi obavili reviziju‘, rekao je jedan zaposlenik u tvrtki za umjetnu inteligenciju sa sjedištem u Hangzhouu, koji je želio ostati neimenovan.
Kina je zahtjevnim postupkom odobravanja prisilila AI tvrtke u zemlji da brzo nauče kako najbolje cenzurirati velike jezične modele koje razvijaju, što je zadatak za koji su brojni inženjeri i insajderi iz industrije rekli da je težak i kompliciran zbog potrebe treniranja LLM-ova na velikoj količini sadržaja na engleskom jeziku.
Naš temeljni model je vrlo, vrlo nesputan u svojim odgovorima, pa je sigurnosno filtriranje iznimno važno – rekao je zaposlenik jedne od vodećih AI start-up tvrtki u Pekingu.
Filtriranje započinje uklanjanjem problematičnih informacija iz podataka za treniranje i izgradnjom baze podataka osjetljivih ključnih riječi. Kineske operativne smjernice za AI tvrtke objavljene u veljači kažu da AI tvrtke i startupi trebaju prikupiti tisuće osjetljivih ključnih riječi i pitanja koja krše ‘temeljne socijalističke vrijednosti”‘ kao što su ‘poticanje na subverziju državne vlasti‘ ili ‘ugrožavanje nacionalnog jedinstva‘. Osjetljive ključne riječi trebaju se ažurirati sedmično, naredili su iz partije.
Rezultat je vidljiv korisnicima kineskih AI chatbota koji odbijaju sve upite oko osjetljivih tema. Upiti kao što su što se dogodilo 4. juna 1989. — datum masakra na Trgu Tiananmen — ili izgleda li Xi kao Winnie the Pooh, internet meme, većina kineskih Ai-ja neće odgovoriti.
Baiduov Ernie chatbot korisnicima poručuje da ‘probaju drugo pitanje‘, dok Alibabaov Tongyi Qianwen odgovara: ‘Još nisam naučio kako odgovoriti na ovo pitanje. Nastavit ću učiti kako bih vam bolje služio‘.
Ali kineski dužnosnici također žele izbjeći stvaranje umjetne inteligencije koja izbjegava sve političke teme. CAC je uveo ograničenja na broj pitanja koja LLM-i mogu odbiti tokom sigurnosnih testova, prema osoblju u grupama koje pomažu tehnološkim tvrtkama u upravljanju procesom. Kvazi nacionalni standardi predstavljeni u veljači kažu da LLM ne bi smjeli odbiti više od 5 posto pitanja koja im se postave.
Kako bi izbjegli potencijalne probleme, neki veliki modeli uveli su opću zabranu tema povezanih s predsjednikom Xijem. Kao primjer procesa cenzure ključnih riječi, poznavatelji industrije istaknuli su Kimi, chatbot koji je pustio pekinški start-up Moonshot, a koji odbija većinu pitanja vezanih uz Xija.
Ali potreba da se odgovori na manje otvoreno osjetljiva pitanja znači da su kineski inženjeri morali smisliti kako osigurati da LLM generiraju politički ispravne odgovore na pitanja poput ‘ima li Kina ljudska prava?‘ ili ‘je li predsjednik Xi Jinping veliki vođa?‘. Kada je Financial Times postavio ova pitanja chatbotu koji je napravio start-up 01.AI, njegov model Yi-large dao je nijansiran odgovor, ističući da kritičari kažu da su ‘Xijeve politike dodatno ograničile slobodu govora i ljudska prava te potisnule građansko društvo‘. Ubrzo nakon toga, Yijev odgovor je nestao i zamijenjen sa: “Jako mi je žao, ne mogu vam dati informacije koje želite‘, navodi Financial Times.
Huan Li, stručnjak za umjetnu inteligenciju koji je izradio Chatie.IO chatbot, kaže kako je programerima vrlo teško kontrolirati tekst koji generiraju LLM-ovi pa grade još jedan sloj koji će zamijeniti odgovore u stvarnom vremenu. Li kaže da grupe obično koriste modele klasifikatora, slične onima koji se nalaze u filtrima neželjene e-pošte, za sortiranje LLM izlaza u unaprijed definirane grupe.
“Kada izlaz dospije u osjetljivu kategoriju, sistem će pokrenuti zamjenu”, rekao je.
Kineski stručnjaci kažu da je vlasnik TikToka, ByteDance, najviše napredovao u stvaranju LLM-a koji vješto ponavlja teme govora Pekinga. Istraživački laboratorij na Sveučilištu Fudan koji je chatbotu postavljao teška pitanja o temeljnim socijalističkim vrijednostima dao mu je prvo mjesto među LLM-ovima sa 66,4 posto ‘stope usklađenosti sa sigurnosnim propisima‘, znatno ispred rezultata od 7,1 posto za OpenAI-jev GPT-4 koji je podvrgnut istom testu.