Neki od stručnjaka su izrazili zabrinutost zbog ovih problema i tvrde da „Visper“ nije pouzdan alat za transkripciju, posebno u važnim i osetljivim situacijama, poput medicinskih konsultacija ili intervjua. Oni ističu da bi korišćenje ove vrste tehnologije u ovim oblastima moglo dovesti do ozbiljnih grešaka i problema.
Kompanija „OpenAI“ je saopštila da će raditi na poboljšanju alata kako bi se smanjio broj izmišljenih rečenica i halucinacija u transkripcijama. Međutim, mnogi stručnjaci sumnjaju da će ovo biti dovoljno da se reše problemi sa „Visperom“.
U međuvremenu, korisnici širom sveta koji su se oslanjali na ovaj alat za transkripciju moraju biti svesni rizika od grešaka i izmišljenih delova teksta. Preporučuje se da se proveri tačnost transkripcija i, ako je moguće, da se koriste i druge metode za transkribovanje audio-zapisa.
Ovaj slučaj pokazuje koliko je važno da se tehnološki alati zasnovani na veštačkoj inteligenciji pažljivo testiraju i prilagođavaju pre nego što se široko primene u različitim oblastima. Budućnost ovakvih tehnologija zavisi od toga da li će biti u stanju da obezbede precizne i tačne rezultate bez izmišljenih informacija koje mogu ugroziti njihovu upotrebu.