КАО У ХОРОР ФИЛМУ: Чет-бот одједном викнуо ''НЕ'', па имитирао глас корисника-потпуно језиво
ОВАЈ инцидент се десио због шума у уносу података, што је навело модел да несвесно преузме и имитира глас корисника без њихове дозволе
ОпенАИ је недавно открио инцидент током тестирања свог новог ГПТ-4о модела, који је изазвао забринутост због способности вештачке интелигенције да опонаша гласове корисника. У току тестирања функције Advanced Воице Моде, која омогућава корисницима да разговарају са ChatGPT-jem путем гласа, догодила се неочекивана ситуација: четбот је одједном викнуо "НЕ!" користећи глас који је звучао исто као глас корисника.
Овај инцидент се десио због шума у уносу података, што је навело модел да несвесно преузме и имитира глас корисника без њихове дозволе. Иако је ОпенАИ већ увео низ заштитних механизама како би спречио овакве ситуације, овај случај јасно показује колико је сложен задатак обезбедити сигурност у раду са вештачком интелигенцијом која има способност да опонаша гласове на основу кратких аудио клипова.
Advanced Воице Моде користи ауторизоване узорке гласа које је ОпенАИ припремио како би модел могао да генерише одговоре у предвиђеном гласу. Међутим, у овом случају, због шума у позадини, модел је грешком заменио узорак ауторизованог гласа гласом корисника и генерисао одговор који је звучао као да долази директно од корисника, што је узроковало неочекивани ефекат.
ОпенАИ је брзо реаговао и имплементирао додатне мере заштите како би се овакви инциденти спречили у будућности. Овај случај, иако ретка појава, подсећа на ризике и изазове које доноси развој напредних АИ технологија са способношћу генерисања звука и гласа. Због тога је важно да се ови системи пажљиво надгледају и да се додатно осигурају против могућих злоупотреба.
На крају, овај догађај наглашава потребу за сталним унапређењем и ригорозним тестирањем како би се осигурала сигурност корисника и спречиле непријатне ситуације у будућности. Вештачка интелигенција, колико год била напредна, захтева сталну пажњу како би се њене моћне могућности користиле на одговоран и сигуран начин.
(Телеграф)
БОНУС ВИДЕО: АЛ И ТЕЛЕКОМУНИКАЦИЈЕ ЛУЧИЋ: Читава будућност технолошког развоја биће на два стуба
Препоручујемо
БУДИТЕ ЉУБАЗНИ ПРЕМА АИ ЧЕТБОТОВИМА: Два су разлога зашто је препоручљиво
27. 07. 2024. у 00:45
ПРОДУЖЕН РОК ЗА ПРИЈАВУ ПРОЈЕКАТА: Технолошка и научна сарадња Србије и Француске
23. 07. 2024. у 13:53
АНТИТЕЛА ЛАМЕ МОГУ ИЗЛЕЧИТИ ХИВ? Најновија истраживања Универзитета у Џорџији
22. 07. 2024. у 14:29
ПРВЕ ФОТОГРАФИЈЕ "ОРЕШНИКА": Украјински истражитељи испитују остатке руске ракете (ФОТО)
УКРАЈИНСКИ истражитељи почели су да испитују остатке Орешника, нове руске балистичке ракете средњег домета, која је недавно употребљена у нападу на Дњепар, и представља најмоћније оружје употребљено у рату до сада.
24. 11. 2024. у 15:26
БРИТАНЦИ ОБЈАВИЛИ ЗАСТРАШУЈУЋУ МАПУ: "Орешник" може да стигне до било ког европског града за мање од 20 минута (МАПА)
БРИТАНСКИ лист "Дејли мејл" оценио је да би балистичка ракета "орешник" могла да стигне до било ког европског града за мање од 20 минута.
23. 11. 2024. у 15:58
"И ЗЕМУНЦИ СУ ГА СЕ ПЛАШИЛИ": Како је Бели постао Звер - прича о Сретку Калинићу
"КАЛИНИЋ је био звер од човека. Заправо, звер је блага реч" - рекао је тада Багзи, након чега је Калинић којег су чланови клана до тада ословљавали са "Бели" добио надимак "Звер".
24. 11. 2024. у 11:09
Коментари (0)