KAO U HOROR FILMU: Čet-bot odjednom viknuo ''NE'', pa imitirao glas korisnika-potpuno jezivo
OVAJ incident se desio zbog šuma u unosu podataka, što je navelo model da nesvesno preuzme i imitira glas korisnika bez njihove dozvole
OpenAI je nedavno otkrio incident tokom testiranja svog novog GPT-4o modela, koji je izazvao zabrinutost zbog sposobnosti veštačke inteligencije da oponaša glasove korisnika. U toku testiranja funkcije Advanced Voice Mode, koja omogućava korisnicima da razgovaraju sa ChatGPT-jem putem glasa, dogodila se neočekivana situacija: četbot je odjednom viknuo "NE!" koristeći glas koji je zvučao isto kao glas korisnika.
Ovaj incident se desio zbog šuma u unosu podataka, što je navelo model da nesvesno preuzme i imitira glas korisnika bez njihove dozvole. Iako je OpenAI već uveo niz zaštitnih mehanizama kako bi sprečio ovakve situacije, ovaj slučaj jasno pokazuje koliko je složen zadatak obezbediti sigurnost u radu sa veštačkom inteligencijom koja ima sposobnost da oponaša glasove na osnovu kratkih audio klipova.
Advanced Voice Mode koristi autorizovane uzorke glasa koje je OpenAI pripremio kako bi model mogao da generiše odgovore u predviđenom glasu. Međutim, u ovom slučaju, zbog šuma u pozadini, model je greškom zamenio uzorak autorizovanog glasa glasom korisnika i generisao odgovor koji je zvučao kao da dolazi direktno od korisnika, što je uzrokovalo neočekivani efekat.
OpenAI je brzo reagovao i implementirao dodatne mere zaštite kako bi se ovakvi incidenti sprečili u budućnosti. Ovaj slučaj, iako retka pojava, podseća na rizike i izazove koje donosi razvoj naprednih AI tehnologija sa sposobnošću generisanja zvuka i glasa. Zbog toga je važno da se ovi sistemi pažljivo nadgledaju i da se dodatno osiguraju protiv mogućih zloupotreba.
Na kraju, ovaj događaj naglašava potrebu za stalnim unapređenjem i rigoroznim testiranjem kako bi se osigurala sigurnost korisnika i sprečile neprijatne situacije u budućnosti. Veštačka inteligencija, koliko god bila napredna, zahteva stalnu pažnju kako bi se njene moćne mogućnosti koristile na odgovoran i siguran način.
(Telegraf)
BONUS VIDEO: AL I TELEKOMUNIKACIJE LUČIĆ: Čitava budućnost tehnološkog razvoja biće na dva stuba
Preporučujemo
BUDITE LjUBAZNI PREMA AI ČETBOTOVIMA: Dva su razloga zašto je preporučljivo
27. 07. 2024. u 00:45
PRODUŽEN ROK ZA PRIJAVU PROJEKATA: Tehnološka i naučna saradnja Srbije i Francuske
23. 07. 2024. u 13:53
ANTITELA LAME MOGU IZLEČITI HIV? Najnovija istraživanja Univerziteta u Džordžiji
22. 07. 2024. u 14:29
VALERIJ ZALUŽNI DAO PROGNOZU: Evo kada će ruska vojska da probije ukrajinski front
NOVI tehnološki napredak tokom ratnog vremena sprečiće ozbiljnije probijanje fronta duž ukrajinsko-ruske granice do oko 2027. godine, izjavio je Valerij Zalužni, bivši vrhovni komandant Ukrajine i sadašnji ambasador u Ujedinjenom Kraljevstvu, za „Ukrajinsku pravdu“ u intervjuu objavljenom 23. novembra.
23. 11. 2024. u 18:55
BRITANCI OBJAVILI ZASTRAŠUJUĆU MAPU: "Orešnik" može da stigne do bilo kog evropskog grada za manje od 20 minuta (MAPA)
BRITANSKI list "Dejli mejl" ocenio je da bi balistička raketa "orešnik" mogla da stigne do bilo kog evropskog grada za manje od 20 minuta.
23. 11. 2024. u 15:58
POTPREDSEDNIK SAD UMRO TOKOM ODNOSA: Bio sa 50 godina mlađom ljubavnicom, Bela kuća nije znala kako da saopšti vest o smrti
BIO JE to 27. januar 1979. godine. U 1 ujutro, portparol porodice Nelsona Rokfelera objavio je zvaničnu izjavu za štampu. Bivši potpredsednik preminuo je U 71 godini života ranije te večeri.
22. 11. 2024. u 18:36
Komentari (0)