STVARI BI MOGLE DA SE OTRGNU KONTROLI: „OpenAI“ svestan da je alat koji može da generiše klon bilo čijeg glasa previše rizičan za opštu upotrebu

Smatra se da je novi alat kompanije „OpenAI“ koji može da generiše ubedljiv klon bilo čijeg glasa na osnovu snimka od samo 15 sekundi previše rizičan da bi bio dostupan za opštu upotrebu, jer laboratorija za veštačku inteligenciju nastoji da minimalizuje potencijal za dezinformacije, pre svega u važnoj izbornoj godini.

Tehnologija Vojs endžin je prvi put razvijena 2022. godine i početna verzija je korišćena za funkciju pretvaranja teksta u govor ugrađenu u ChatGPT, vodeću alatku „OpenAI“-a. Ali njegova moć nikada nije javno otkrivena, delom zbog „opreznog i informisanog“ pristupa koji ova kompanije primenjuje da bi ga pustila u opštu upotrebu.

Nadamo se da ćemo započeti dijalog o odgovornoj primeni sintetičkih glasova i o tome kako društvo može da se prilagodi ovim novim mogućnostima“, navode iz „OpenAI“-a u nepotpisanom blogu. „Na osnovu razgovora i rezultata testiranja, donećemo informisaniju odluku o tome da li i kako da primenimo ovu tehnologiju u velikom obimu.“

U svojoj objavi kompanija je podelila primere korišćenja tehnologije u stvarnom svetu od raznih partnera kojima je dat pristup kako bi ga ugradili u sopstvene aplikacije i proizvode.

Firma za obrazovnu tehnologiju „Age of Learning“ koristi je za generisanje sinhronizacije sadržaja, dok aplikacija „AI vizuelno pripovedanje“ „HeyGen“-a nudi korisnicima mogućnost da generišu prevode snimljenog sadržaja na način koji je tečan, ali čuva akcenat i glas originalnog govornika. Na primer, generisanje engleskog sa audio uzorkom od govornika francuskog jezika, generiše govor sa francuskim akcentom.

Značajno je da su istraživači sa Instituta za neurologiju „Norman Princ“ na Rod Ajlendu koristili nekvalitetan snimak od 15 sekundi izlaganja na školskom projektu jedne mlade žene kako bi joj „vratili glas“ koji je izgubila zbog vaskularnog tumora na mozgu.

„Odlučili smo da pregledamo ovu tehnologiju, ali je u ovom trenutku nećemo masovno objaviti“, saopšteno je iz kompanije „OpenAI“, kako bismo „pojačali društvenu otpornost na izazove koje donose sve ubedljiviji generativni modeli“.

Podstičemo korake kao što je postepeno ukidanje autentifikacije zasnovane na glasu kao bezbednosne mere za pristup bankovnim računima i drugim osetljivim informacijama.

„OpenAI“ je takođe pozvao na istraživanje „politika za zaštitu upotrebe glasova pojedinaca u veštačkoj inteligenciji” i „obrazovanje javnosti u razumevanju mogućnosti i ograničenja tehnologija veštačke inteligencije, uključujući mogućnost obmanjujućih sadržaja VI”.

Generacije Vojs endžina imaju vodeni žig, navodi „OpenAI“, što omogućava organizaciji da prati poreklo bilo kog generisanog zvuka. Trenutno, dodaje se, „naši uslovi sa partnerima zahtevaju izričit i informisani pristanak originalnog govornika i ne dozvoljavamo programerima da izgrade načine za individualne korisnike da kreiraju sopstvene glasove“.

Ali dok se alat „OpenAI-a“ ističe tehničkom jednostavnošću i malom količinom originalnog zvuka potrebnog za generisanje ubedljivog klona, konkurenti su već dostupni javnosti.

Sa samo „nekoliko minuta zvuka“, kompanije kao što je „Ileven labs“ mogu da generišu kompletan glasovni klon. Da bi pokušala da ublaži štetu, kompanija je uvela zaštitu meru „glasovi koji se ne kreću“ (“no-go voices”), dizajniranu da otkrije i spreči stvaranje glasovnih klonova „koji oponašaju političke kandidate koji su aktivno uključeni u predsedničke ili opšte izbore, počevši od onih u SAD i Ujedinjenom Kraljevstvu“.

Izvor: rts.rs