Можноста за правење синтетички гласовни пораки, познати како „дип фејк“, сега е на дофат на секој што има интернет врска. Со повеќе од 50 земји кои одржуваат избори оваа година, се зголемуваат напорите за откривање на дезинформациите пред да предизвикаат штета.
Сара Барингтон е истражувачка на аудио пораки на Универзитетот во Калифорнија, Беркли.
„Треба само да земеме некои податоци од вас”, вели Барингтон.
За само неколку минути, таа го клонираше гласот на репортерот користејќи онлајн услуга и создаде лажна верзија од кратка изјава.
„Она што почнуваме да го правиме е го ставаме ова во компјутер, ги гледаме брановите форми и шумот на сигналот и ги извлекуваме разликите”, објаснува Барингтон.
Некои индиции се визуелно очигледни за обучено око, како што се паузите што луѓето имаат тенденција да ги прават.
„Општо земено, има повеќе од овие паузи во вистинската верзија отколку во фалсификатот”, вели Барингтон.
Барингтон, исто така, го анализира синтетичкиот глас со помош на вештачка интелигенција која е обучена да забележува фалсификати.
„Овие обрасци на вештачката интелигенција се многу очигледни и може да бидат многу мали работи, суптилни примероци што не можеме да ги слушнеме”.
Но, ако фалсификат е направен со помош на непознат систем тогаш, Барингтон, објаснува:
„Тогаш вештачката интелигенција навистина ќе се бори да разбере што да прави со тоа. Можеби нема да ги прикаже истите модели како претходните фалсификати”.
Барингтон вели дека откривањето, дури и кога е успешно, може да дојде предоцна за да се запре вирална објава, а компаниите за социјални мрежи и нивните корисници треба да бидат повеќе вклучени во намалувањето на ширењето на содржината што може да биде фалсификат.
„Одиме кон решение кое е делумно техничко, но делумно поврзано со промените во општеството и активностите од креаторите на политиките”, посочува Барингтон.
Сите ние треба да се потрудиме тоа да остане вистинското.