ВЕШТАЧКА ИНТЕЛИГЕНЦИЈА У СЛУЖБИ МЕДИЦИНЕ: Халуцинације, измишљотине и лажни лекови
ОПЕНАИ-ов алат вештачке интелигенције (АИ) за транскрипцију суочава се са негативним реакцијама јер стручњаци откривају озбиљне недостатке, укључујући измишљени текст и лекове, који угрожавају тачност у критичним областима као што је здравство.
„Виспер“, ОпенАИ-ов алат за транскрипцију, хваљен због своје робусности и тачности на нивоу човека, показао је значајну ману: понекад прави фразе или читаве реченице, познате у индустрији вештачке интелигенције као „халуцинације“. Више од десет стручњака, укључујући софтверске инжењере, програмере и академске научнике, потврдило је да „Виспер“ повремено убацује лажне информације, које могу да варирају од расних коментара до измишљених медицинских савета.
Проблем је посебно забрињавајући с обзиром на широку употребу овог алата у свим индустријама за превођење интервјуа, генерисање текста и титловање видеа.
НИКО НЕ ЖЕЛИ ПОГРЕШНУ ДИЈАГНОЗУ
Медицински центри су чак почели да интегришу „Виспер“ у интеракције лекара и пацијента, упркос савету ОпенАИ-а да се алатка не користи у доменима високог ризика. Према истраживачима, његове халуцинације се често појављују у њиховом раду, а један истраживач са Универзитета у Мичигену приметио је да осам од десет транскрипата које је прегледао садржи такве нетачности.
У другом случају, инжењер машинског учења је открио халуцинације у скоро половини од више од 100 сати анализираних података транскрипта, док их је други програмер пронашао у скоро свих 26.000 транскрипата које је анализирао.
Чак ни узорци чистог звука нису имуни на грешке. Недавна студија са више од 13.000 аудио снимака открила је 187 случајева халуцинације текста, што је изазвало забринутост у вези са поузданошћу Виспера у великим размерама, пише АП.
Алондра Нелсон, бивша директорка Канцеларије за науку и технологију Беле куће, изразила је забринутост због потенцијалних последица грешака у транскрипцији, посебно у здравственој заштити.
„Нико не жели погрешну дијагнозу... требало би да постоји виши степен, рекао је Кристијан Воглер, професор на Универзитету Галаде и упозорио на ризик за глуве и наглуве, који не могу лако да открију грешке у транскрибованом садржају.
Усред ових забринутости, стручњаци и заговорници позивају ОпенАИ и америчке савезне агенције да се позабаве тим питањем и размотре регулисање вештачке интелигенције. Вилијам Саундерс, бивши истраживачки инжењер који је напустио ОпенАИ у фебруару, сугерисао је да је проблем решив, али да му ОпенАИ мора дати приоритет.
-Проблематично је ако га ставите тамо и људи су превише сигурни у оно што може да уради и интегришу га у све ове друге системе, рекао је Саундерс.
УВРЕДЉИВ ЈЕЗИК, НЕПОСТОЈЕЋИ ЛЕК...
Као одговор, ОпенАИ је рекао да активно истражује начине за смањење халуцинација и редовно интегрише повратне информације од своје корисничке заједнице. „Виспер“ је интегрисан у различите технологије, укључујући ОпенАИ Чет џи-пи-ти, Мајкрософт и Оракл клауд услуге и платформе отвореног кода као што је Хагинг Фејс, где је преузет више од 4,2 милиона пута само у последњих месец дана.
Академици Алисон Кенеке са Универзитета Корнелл и Мона Слоан са Универзитета Вирџиније анализирале су хиљаде аудио-снимака и откриле да је скоро 40 одсто „Висперових“ халуцинација потенцијално штетно, укључујући фразе које погрешно представљају говорнике. Један узнемирујући пример огледао се у чињеници додавања насилног језик у безазлену изјаву, док је други убацио расне увреде, а трећи је измислио непостојећи лек.
Програмери спекулишу да се „Висперове“ халуцинације често јављају током пауза или позадинске буке. ОпенАИ-јева документација саветује да не користите „Виспер“ у контексту доношења одлука због забринутости око његове тачности. Без обзира на то, здравствене установе као што су Клиника Манкато у Минесоти и Дечја болница у Лос Анђелесу усвајају алатку засновану на овој технологији коју је развила компанија „Набла“ за преписивање лекарских консултација.
„Наблин“ АИ алат заправо брише оригинални аудио-снимак из безбедносних разлога и коришћен је у више од седам милиона медицинских консултација.
Саундерс је упозорио да би брисање могло бити ризично ако се транскрипти не прегледају темељно, јер клиничарима онемогућава да потврде тачност.
-Не можете ухватити грешке ако одузмете основну истину, рекао је он.
„Набла“ признаје могућност халуцинација и, иако захтева ручни преглед транскрипата, предвиђа будућност у којој би аутоматизовани транскрипти могли да раде без провере.
sputnikportal.rs
БОНУС ВИДЕО - РУСИЈА ЛАНСИРАЛА РАКЕТУ: Погледајте тренутак лансирања
Препоручујемо
БУДУЋНОСТ ЦЕНТАРА АИ ПОДАТАКА: Могли да се користе као генератори електричне енергије
25. 10. 2024. у 20:23
КОМПАНИЈЕ О ОВОМЕ НЕ ПРИЧАЈУ: Аутономна возила ипак нису сасвим самостална
25. 10. 2024. у 00:35
НОВЕ СВЕТСКЕ СИЛЕ УКЉУЧИЛЕ СЕ У СУКОБ У УКРАЈИНИ: "Две на страни Путина, две жестоко против Руса"
СУМЊЕ у подршку САД Украјини у случају победе Доналда Трампа на председничким изборима мучиле су све оне којима је циљ да се Кијев обрани од руске агресије. Трамп је победио и тек треба видети у ком ће смеру кренути његова политика, али сва та дешавања засенила су други важан однос у том, ионако компликованом, односу.
22. 11. 2024. у 09:14
РУСИЈА ПОСТАЛА ГЛАВНИ "ИГРАЧ" У ЕВРОПИ: Ово се десило први пут од пролећа 2022. године
РУСИЈА је у септембру први пут од пролећа 2022. постала главни снабдевач гасом Европске уније, преноси РИА Новости, позивајући се на податке Евростата.
21. 11. 2024. у 11:32
ПОТПРЕДСЕДНИК САД УМРО ТОКОМ ОДНОСА: Био са 50 година млађом љубавницом, Бела кућа није знала како да саопшти вест о смрти
БИО ЈЕ то 27. јануар 1979. године. У 1 ујутро, портпарол породице Нелсона Рокфелера објавио је званичну изјаву за штампу. Бивши потпредседник преминуо је У 71 години живота раније те вечери.
22. 11. 2024. у 18:36
Коментари (0)