Загинати терористи „оживеаја“ преку видеа направени со вештачка интелигенција

Your browser doesn’t support HTML5

Загинати терористи „оживеаја“ преку видеа направени со вештачка интелигенција. Ширум светот, голема е загриженоста дека поединци и ентитети користат дипфејк слики и снимки за да придонесат кон изборните дезинформации. Известува Рио Туасикал

Починати членови на терористичката мрежа Џема Исламија, поврзана со Ал-Каеда, зборуваат со помош на генеративна вештачка интелигенција.

Едно видео објавено на ТикТок го прикажува Азахари Хусин, малезиски производител на бомби кој организирал серија напади во Индонезија, вклучувајќи ги и бомбашките напади во 2002 година на туристичкиот остров Бали, во кои загинаа над 200 луѓе.

Од објавувањето во 2023 година, дипфејк видеото во кое Азахари се фали за своите дела, собра 120 илјади лајкови.

Друг дипфејк го прикажува Нордин Мохамед Топ, кој стои зад смртоносните самоубиствени напади во два хотела во Џакарта во 2009 година. Ова видео собра 90 илјади лајкови. Експертите велат дека овие видеа се користат како алатки за регрутирање.

„Значи, користите екстремисти за кои многумина од нас знаат дека веќе починале, но многумина можеби не. Тоа може да создаде некакво психолошко влијание, претпоставувам, врз публиката. Или сакаат да дознаат повеќе за настанот и да истражат што точно се случило или сочувствуваат со екстремистите“, вели Нуријанти Џали од Државниот универзитет на Оклахома.

Користењето социјални мрежи за ширење екстремистичка пропаганда не е ништо ново. За време на нејзиното проширување во Ирак и Сирија, групата Исламска држава користеше Јутјуб и пораки за да регрутира и да ја шири својата порака.

За да се бори против ширењето на дезинформации и радикализацијата на пропагандата, Министерството за информации на Индонезија го донесе Законот за електронски трансакции во 2008 година, со кој се криминализираа дезинформациите.

Индонезиската влада соопшти дека отстранила повеќе од 5.731 објава за кои рече дека содржеле елементи на „тероризам и радикализам“ помеѓу јуни 2023 и март 2024 година. Но, законите како индонезискиот, може да имаат импликации за слободата на говорот, вели експертот Закери Лампел.

„Неколку специјални известувачи од ОН и други регионални тела многу јасно и експлицитно изјавија дека законот против лажни вести кој забранува ширење на лажни информации не е во согласност со меѓународните обврски за човекови права. Тоа ја нарушува слободата на изразување“, вели Лампел.

Лампел вели дека властите треба да ја ограничат технологијата, а не говорот. Тој вели дека законот во Калифорнија за употреба на ботови - софтверски апликации кои можат да како луѓе, е добар модел.

„Тоа им забранува на луѓето и организациите да користат ботови за злонамерни цели. Значи, ако се обидувате да го спречите ширењето на дезинформации, не сакате ботови да можат да ја шират таа порака нашироко“, додава Лампел.

Но, дури и со нови и рестриктивни закони, велат експертите како Лампел, ќе биде сè потешко да се запре протокот на лажни информации од малигни актери.

„Ќе бидеме постојано преплавени со се` повеќе дезинформации“, укажува Лампел.

И владите ќе најдат иновативни начини да се спротивстават на тоа.