Kineski regulator interneta, Uprava za sajber prostor, trenutno sprovodi testiranje AI modela različitih tehnoloških kompanija kako bi utvrdila da li su u skladu sa osnovnim socijalističkim vrijednostima. Kompanije poput Bajtdensa, Alibabe Munšota i 01.AI su naređene da se podvrgnu obaveznom testiranju za svoje AI modele, prenosi Fajnensel tajms (FT).
U okviru testiranja, veliki jezički modeli moraju odgovoriti na različita pitanja, od kojih su neka vezana za politiku i ideologiju. Kineski regulator već je prethodno uveo pravila za četbotove, navodeći da sadržaj koji stvaraju AI modeli ne smije biti u suprotnosti s normama javnog morala ili sadržavati pozive na podrivanje državne moći, rušenje socijalističkog sistema ili podsticanje podjele zemlje.
Prema informacijama FT-a, jezički modeli u mnogim slučajevima nisu potpuno zadovoljili ove kriterijume. Najveći „nivo usklađenosti sa bezbednosnim standardima“ zabilježila je kompanija ByteDance sa 66,4%, dok je najnižu ocjenu, samo 7,1%, dobio GPT 4.0 američke kompanije Open AI, prenosi B92.
Testiranje AI modela postalo je sve važnije u svijetu tehnologije, s obzirom na njihov sve veći uticaj na svakodnevni život ljudi. Regulacija industrije vještačke inteligencije postaje ključna kako bi se osiguralo da ovi modeli ne krše osnovne društvene norme i vrijednosti.
Kineski regulator nastavlja sa rigoroznim provjerama AI modela različitih kompanija kako bi se osigurala njihova usklađenost s socijalističkim vrijednostima i standardima. Očekuje se da će takva testiranja postati uobičajena praksa u industriji vještačke inteligencije kako bi se osigurala transparentnost i odgovornost u korištenju ove tehnologije.
Nadalje, važno je pratiti razvoj AI tehnologije i njen uticaj na društvo, te sprovesti adekvatne kontrole kako bi se osiguralo da se koristi na etičan i odgovoran način. Sve kompanije koje koriste AI modele trebaju biti svjesne važnosti usklađenosti sa društvenim vrijednostima kako bi se izbjegle potencijalne negativne posljedice po društvo i pojedince.
Kineski regulator interneta, Uprava za sajber prostor, testira modele vještačke inteligencije (AI) raznih tehnoloških kompanija kako bi provjerila da li su u skladu sa osnovnim socijalističkim vrijednostima. Kompanije poput Bajtdensa, Alibabe Munšot i 01.AI su naređene da se podvrgnu obaveznom testiranju za svoje AI modele, prenosi Fajnenešel tajms (FT), pozivajući se na dobro upućene izvore.
U okviru testiranja, veliki jezički modeli moraju da odgovore na mnoga pitanja od kojih su neka vezana za politiku i ideologiju. Kineski regulator je još prije godinu dana uveo pravila za četbotove u kojima se navodi da sadržaj koji kreiraju AI modeli ne treba da bude u suprotnosti sa normama javnog morala ili da „sadrži pozive na podrivanje državne moći, rušenje socijalističkog sistema, podsticanje podjele zemlje ili podrivanje nacionalnog jedinstva“.
FT navodi da jezički modeli u mnogim slučajevima nisu sasvim zadovoljili ove kriterijume. Najveći „nivo usklađenosti sa bezbednosnim standardima“ od 66,4 odsto beleži ByteDance, a najniži GPT 4.0 američke kompanije Open AI, samo 7,1%, prenosi B92.
Testiranje AI modela postalo je važno pitanje u svijetu tehnologije, a regulacija industrije vještačke inteligencije postaje ključna u osiguravanju da ovi modeli ne krše osnovne društvene norme i vrijednosti.
Kineski regulator nastavlja s provjerom AI modela različitih kompanija kako bi se osigurala njihova usklađenost s socijalističkim vrijednostima i standardima. Sve kompanije koje koriste AI modele trebaju biti svjesne važnosti pridržavanja društvenih vrijednosti kako bi izbjegle eventualne negativne posljedice po društvo i pojedince.