Мыкты жасалма видеолор жасалма интеллект тарабынан таанылат
Мыкты жасалма видеолор жасалма интеллект тарабынан таанылат

Video: Мыкты жасалма видеолор жасалма интеллект тарабынан таанылат

Video: Мыкты жасалма видеолор жасалма интеллект тарабынан таанылат
Video: 🌹 Очень нарядный и красивый джемпер, который хочется связать! Подробный видео МК. Часть 1. - YouTube 2024, Апрель
Anonim
Литвиненконун ууландырылышы тууралуу операнын премьерасы Англияда башталат
Литвиненконун ууландырылышы тууралуу операнын премьерасы Англияда башталат

Бир жыл мурун, Стэнфорддун Маниш Агравала видео редакторлорго спикерлердин сөздөрүн дээрлик көрүнбөгөндөй өзгөртүүгө мүмкүндүк берген эрин синхрондоштуруу технологиясын өнүктүрүүгө жардам берген. Курал адам сүйлөбөгөн сөздөрдү, атүгүл сүйлөмдүн ортосуна оңой эле киргизе алат же өзү айткан сөздөрдү өчүрө алат. Баары жөнөкөй көзгө, атүгүл көптөгөн компьютердик системаларга реалдуу көрүнөт.

Бул курал бүт көрүнүштөрдү кайра тартпастан каталарды оңдоону бир топ жеңилдетти, ошондой эле телекөрсөтүүлөрдү же кинолорду ар кайсы аудиторияга ылайыкташтырды. Бирок бул технология чындыкты бурмалоо ниети менен жасалма видеолорду табуу кыйынга турган жаңы мүмкүнчүлүктөрдү жараткан. Мисалы, жакында эле республикалык видеодо Джо Байден менен маектешүүнүн катаалыраак ыкмасы колдонулган.

Бул жайда Агравала жана Стэнфорд менен UC Берклидеги кесиптештери эрин синхрондоштуруу технологиясына жасалма интеллектке негизделген ыкманы ачышты. Жаңы программа фейктердин 80 пайыздан ашыгын так аныктап, адамдардын үнү менен оозунун формасынын эң кичине дал келбестигин тааныйт.

Бирок Агравала, Стэнфорд Медиа Инновация Институтунун директору жана Стэнфорд Инсан Интеллектуалдык Жасалма Интеллекту Институту менен байланышы бар Форест Басеттеги информатика профессору, терең жасалмаларга узак мөөнөттүү техникалык чечим жок экенин эскертет.

Жасалма кандай иштейт

Видео манипуляциянын мыйзамдуу себептери бар. Мисалы, ойдон чыгарылган телеберүүнү, кинону же жарнакты тарткан адам каталарды оңдоо же сценарийлерди ыңгайлаштыруу үчүн санарип куралдарды колдонуу менен убактысын жана акчасын үнөмдөй алат.

Бул куралдар атайылап жалган маалымат таратуу үчүн колдонулганда маселе жаралат. Жана техникалардын көбү карапайым адамга көрүнбөйт.

Көптөгөн терең жасалма видеолор жүзүн алмаштырууга таянат, башка бирөөнүн видеосуна бирөөнүн жүзүн чаптап коёт. Бирок жүздү алмаштыруучу куралдар аргасыз болсо да, алар салыштырмалуу чийки жана көбүнчө санариптик же визуалдык артефакттарды компьютер аныктай алат.

Башка жагынан алганда, эрин синхрондоштуруу технологиялары анча байкалбайт, ошондуктан аныктоо кыйыныраак. Алар сүрөттүн бир топ кичине бөлүгүн манипуляциялайт, андан кийин адамдын оозу кандай кыймылга келээрине дал келген эрин кыймылдарын синтездейт. Agrawalдун айтымында, адамдын имиджине жана үнүнө жетиштүү үлгүлөрдү берүү менен, жасалма продюсер адамды каалаган нерсесине "айтууга" мажбурлай алат.

Жасалма табуу

Мындай технологиянын этикага жатпагандыгына тынчсызданып, Агравала Стэнфорддун докторанты Охад Фрид менен бирге аныктоочу куралды иштеп чыгуу үчүн иштеди; Хани Фарид, Калифорния университетинин, Беркли маалымат мектебинин профессору; жана Шрути Агарвал, Берклинин докторанты.

Башында, изилдөөчүлөр байкоочулар видео кадрларды изилдеген таза кол ыкмасын колдонуп көрүштү. Бул жакшы иштеген, бирок иш жүзүндө бул эмгекти көп талап кылган жана көп убакытты талап кылган.

Изилдөөчүлөр андан кийин экс-президент Барак Обама менен видео боюнча машыгуудан кийин ошол эле анализди жасоо алда канча ылдамыраак жасалма интеллектке негизделген нейрон тармагын сынашты. Нейрон тармагы Обаманын 90 пайыздан ашык эрин шайкештирүүсүн аныктады, бирок башка спикерлердин тактыгы болжол менен 81 пайызга чейин төмөндөдү.

Чындыктын чыныгы сыноосу

Изилдөөчүлөр алардын мамилеси мышык жана чычкан оюнунун бир бөлүгү экенин айтышат. Терең жасалмалоо ыкмалары жакшырган сайын, алар дагы аз ачкычтарды калтырышат.

Акыр -аягы, дейт Агравала, чыныгы көйгөй - жалган видео менен күрөшүү эмес, жалган маалымат менен күрөшүү. Чынында, ал белгилегендей, туура эмес маалыматтын көбү адамдардын айткандарынын маанисин бурмалоодон келип чыгат.

"Туура эмес маалыматты азайтуу үчүн медиа сабаттуулукту жогорулатуу жана отчеттуулук системасын өнүктүрүү керек" дейт ал. "Бул атайылап жалган маалыматты чыгарууга тыюу салган мыйзамдарды жана аларды бузуунун кесепеттерин, ошондой эле келип чыккан зыянды жоюу механизмдерин билдириши мүмкүн."

Сунушталууда: