Мінсіз жалған бейнелер жасанды интеллект арқылы танылады
Мінсіз жалған бейнелер жасанды интеллект арқылы танылады

Бейне: Мінсіз жалған бейнелер жасанды интеллект арқылы танылады

Бейне: Мінсіз жалған бейнелер жасанды интеллект арқылы танылады
Бейне: Upcycling scraps for words - Starving Emma - YouTube 2024, Наурыз
Anonim
Литвиненконың улануы туралы операның премьерасы Англияда басталады
Литвиненконың улануы туралы операның премьерасы Англияда басталады

Бір жыл бұрын Стэнфордтан Маниш Агравала ерін синхрондау технологиясын дамытуға көмектесті, бұл бейне редакторларға спикерлердің сөздерін елеусіз өзгертуге мүмкіндік берді. Бұл құрал адам сөйлемейтін сөздерді, тіпті сөйлемнің ортасына оңай енгізе алады немесе ол айтқан сөздерді жоя алады. Бәрі қарапайым көзге, тіпті көптеген компьютерлік жүйелерге шынайы болып көрінеді.

Бұл құрал барлық көріністерді қайта түсірместен қателерді түзетуді әлдеқайда жеңілдетті, сонымен қатар әр жерде әр түрлі аудиторияға арналған телешоуларды немесе фильмдерді бейімдеді. Бірақ бұл технология ақиқатты бұрмалауды көздейтін жалған бейнелерді табу үшін алаңдатарлық жаңа мүмкіндіктер туғызды. Мысалы, жақында республикалық видеода Джо Байденмен сұхбат жасаудың қатал әдісі қолданылды.

Осы жазда Агравала мен Стэнфорд пен Берклидегі әріптестері ерін синхрондау технологиясының жасанды интеллектке негізделген әдісін ұсынды. Жаңа бағдарлама адамдардың дыбыстары мен ауыздарының пішіні арасындағы ең аз сәйкессіздіктерді мойындай отырып, жалғанның 80 пайыздан астамын дәл анықтайды.

Бірақ Стэнфорд медиа-инновация институтының директоры және Стэнфордтың адамға бағдарланған жасанды интеллект институтымен байланысқан Forest Baskett компьютерлік ғылымдар профессоры Агравала терең жалғандыққа ұзақ мерзімді техникалық шешім жоқ екенін ескертеді.

Фейктер қалай жұмыс істейді

Бейне манипуляцияның заңды себептері бар. Мысалы, ойдан шығарылған телешоуды, фильмді немесе жарнамалық роликті түсіретін кез келген адам қателерді түзету немесе сценарийлерді реттеу үшін цифрлық құралдарды қолдану арқылы уақыт пен ақшаны үнемдей алады.

Бұл құралдар әдейі жалған ақпарат тарату кезінде пайда болады. Ал көптеген әдістер қарапайым көрерменге көрінбейді.

Көптеген терең жалған бейнелер бір адамның бейнесін басқа адамның бейнесіне айналдыратын бет ауыстыруға негізделген. Бетті өзгерту құралдары әсерлі болуы мүмкін, бірақ олар салыстырмалы түрде өрескел және әдетте компьютер анықтай алатын цифрлық немесе визуалды артефакттерді қалдырады.

Екінші жағынан, ерін синхрондау технологиялары аз көрінеді, сондықтан оларды анықтау қиынырақ. Олар кескіннің әлдеқайда аз бөлігін басқарады, содан кейін ернінің қозғалысын синтездейді, егер ол белгілі бір сөздерді айтса, адамның аузы қалай қозғалады. Agrawal айтуынша, адамның имиджі мен дауысының жеткілікті үлгілерін ескере отырып, жалған продюсер адамға кез келген нәрсені «айтуға» мәжбүрлей алады.

Контрафактіні анықтау

Мұндай технологияның әдепсіз қолданылуына алаңдаған Агравала Стэнфордтың докторанты Охад Фридпен бірге анықтау құралын әзірледі; Хани Фарид, Беркли ақпарат мектебінің Калифорния университетінің профессоры; және Берклидің докторанты Шрути Агарвал.

Алдымен зерттеушілер бақылаушылар бейнежазбаларды зерттейтін таза қолмен жұмыс жасау әдісімен тәжірибе жүргізді. Бұл жақсы жұмыс істеді, бірақ іс жүзінде бұл көп еңбекті қажет етті және көп уақытты қажет етті.

Содан кейін зерттеушілер бұрынғы президент Барак Обамамен бейнежазба бойынша жаттығудан кейін дәл осындай талдауды жасауға болатын жасанды интеллектке негізделген нейрондық желіні сынап көрді. Нейрондық желі Обаманың ерін синхрондауының 90 пайыздан астамын анықтады, дегенмен басқа спикерлердің дәлдігі шамамен 81 пайызға дейін төмендеді.

Шындықтың нағыз сынағы

Зерттеушілер олардың көзқарасы мысық пен тышқан ойынының бір бөлігі ғана екенін айтады. Терең жалғандық техникасы жақсарған сайын, олар одан да аз кілттерді қалдырады.

Ақыр соңында, дейді Агравала, шын мәніндегі мәселе жалған бейнелермен күресуде емес, жалған ақпаратпен күресуде. Шындығында, оның айтуынша, жалған ақпараттың көпшілігі адамдардың айтқандарының мағынасын бұрмалаудан туындайды.

«Жалған ақпаратты азайту үшін біз медиа сауаттылықты жақсартуымыз керек және есеп беру жүйесін дамытуымыз керек», - дейді ол. «Бұл қасақана жалған ақпарат шығаруға тыйым салатын заңдар мен оларды бұзудың салдарын, сондай -ақ келтірілген зиянды жою тетіктерін білдіруі мүмкін».

Ұсынылған: