Вештачката интелигенција да превенира говор на омраза онлајн, но да не ја спречува слободата на говор
Во битката меѓу престапниците како креатори и вештачката интелигенција како превентивен механизам, од суштинско значење е да не настрада слободата на изразување
Моделите на вештачка интелигенција (ВИ) напредуваат и имаат можност да откријат говор на омраза онлајн, а со тоа превентивно да влијаат врз неговото ширење особено преку водечките социјални мрежи, кои ги користат и најголемиот дел од македонските граѓани. Сепак, и “иновативноста” на поединци кои шират говор на омраза напредува, со цел да се намали детекцијата на проблематичните содржини. Во оваа своевидна битка меѓу престапниците како креатори и вештачката интелигенција како превентивен механизам, од суштинско значење е да не настрада слободата на изразување.
Во Северна Македонија од говорот на омраза онлајн се засегнати различни категории на граѓани. Фондацијата „Метаморфозис“ во истражувањето Онлајн активност, штета во живо: Студии на случај за родот и сајбер безбедноста во Северна Македонија и Западен Балкан откри дека онлајн говорот на омраза со родов елемент се јавува првенствено на постови и коментари на социјалната мрежа Фејсбук, како и во делот за коментари на одредени портали. Авторките на истражувањето Мила Јосифовска Даниловска, Весна Радиновска и Деспина Ковачевска утврдиле дека жените коишто биле мета на говор на омраза онлајн обично имаат јавна функција или некаква позиција која е јавна, како новинарки или активистки.
„Нашето истражување покажува дека говорот онлајн најчесто може да се најде на социјалните платформи како што е Фејсбук, па доколку алгоритамот со кој се користат социјалните мрежи за детектирање и отстранување на говор на омраза е пристрасен, со самото тоа тој непропорционално ќе таргетира одредени групи што може да резултира во нееднаков третман на различни заедници“, објаснува Мила Јосифовска Даниловска.
Исто така, во истражувањето се третира и споменувањето на поимот „говор на омраза“ во онлајн медиумите, кои биле анализирани преку агрегаторот за вести Time.mk. Притоа, се утврдило дека проблемот флуктуира во македонскиот јавен дискурс во изминативе шест години, од 2017 година до 2022 година.
Споменувањето на поимот „говор на омраза“ во онлајн медиумите ескалирало во 2020 година, кога е достигнат врвот со најголем број на споменувања (869). Токму таа година започна ковид-19 пандемијата, а поради ограничувањата на физичките контакти, најголемиот дел од населението се префрли на онлајн комуникација.
Воедно, ниското ниво на дигитална писменост во земјава, во комбинација со зголемениот број на корисници на интернетот во 2020 година, доведоа до зголемување на говорот на омраза онлајн во овој период. Сепак, ова не значи дека ваквиот проблем не е акутен и денес, откако најголемиот дел од општеството ги надмина последиците од ковид пандемијата.
Од Хелсиншкиот комитет за човекови права за Мета.мк информираат дека од 1 јануари до 31 јули 2023 година на платформата govornaomraza.mk регистрирани се вкупно 568 случаи на говор на омраза по разни основи.
„Во зависност од тоа во каков општествено политички контекст се наоѓаме, така интензитетот и зачестеноста на говорот на омраза се зголемува или намалува. Како пример за време на месецот на гордоста пропорционално со зголемување на видливоста на ЛГБТИ заедницата и организирањето на Парадата на гордоста, се зголемуваше и говорот на омраза кон оваа заедница кој беше видлив во онлајн просторот и на социјалните мрежи“, објаснуваат од Хелсиншкиот комитет за човекови права.
Хелсиншкиот комитет за човекови права преку внатрешна методологија и надворешен мониторинг го мониторира и регистрира говорот на омраза, како во онлајн просторот, така и во физичкиот простор. Сепак, додаваат и дека не често се случува жртвите на говор на омраза лично да побараат заштита, а со оглед на неказнивоста на говорот на омраза, насочена кон маргинирализираните групи, жртвите се обесхрабрени да пријават говор на омраза.
Од друга страна, тоа што жртвите не секогаш го пријавуваат говорот на омраза онлајн, не значи дека заедницата треба да молчи и да не презема ништо против ваквиот проблем. Силна превентивна алатка против говорот на омраза можат да бидат моделите на вештачка интелигенција што ги создаваат и постојано ги користат социјалните мрежи.
Универзитетскиот професор Христијан Ѓорески од Факултетот за електротехника и информациски технологии при УКИМ објаснува дека речиси сите популарни социјални мрежи користат модели на вештачка интелигенција за откривање и справување со говорот на омраза онлајн.
„Овие модели работат на основа на алгоритми од областа на машинско учење, и нивниот целосен начин на функционирање може да варира меѓу различните социјални мрежи“, вели професорот Ѓорески.
Како пример, тој го зема Фејсбук и неговите модели на вештачка интелигенција, кои идентификувале 27 милиони примери на говор на омраза во последните три месеци од 2020 година. Во 97 отсто од случаите, системот презел акција и ги тргнал содржините пред луѓето да ги означат ваквите објави како говор на омраза.
Професорот Ѓорески објаснува дека ваквите модели на вештачка интелигенција го следат класичниот начин на процесирање и обработка на текст и нивно моделирање со помош на ВИ.
„Тоа значи собирање на огромни количества на текстови за коишто знаеме дека се говор на омраза од една страна, и нормален говор на друга страна. Потоа се користат алгоритми за обработка на текст, со цел да научат од претходните примери да го разликуваат говорот на омраза од нормалниот. Ова вклучува учење правила за тоа како изгледаат зборовите, изразите и конструкциите што се користат при говорот на омраза. Моментално најдобрите модели вклучуваат алгоритми од областа на Машинското учење и Длабоките невронски мрежи, и тоа: рекурентни невронски мрежи, конволуциски невронски мрежи, трансформери, од кои најпознати се: CNN, GPT, LSTM, BERT, и нивни верзии и комбинации“, посочува Христијан Ѓорески.
Тој додава дека клучни за моделите на вештачка интелигенција се собраните податоци, односно колку повеќе означени примери на говор на омраза имаме, толку подобар и самиот модел ќе биде во препознавањето и означувањето.
„Тука зборуваме за милиони примери, коишто е тешко да се соберат и означат. Затоа како еден механизам за собирање на вакви податоци се користи “crowd sourcing”, односно овозможување на самите корисници да означат кога има говор на омраза. Секако тука може да има и грешки, но замислете кога некоја содржина е означена како говор на омраза од 1.000 корисници – тогаш веројатноста таа содржина да е стварно говор на омраза е голема“, појаснува Ѓорески.
Она што е малку поголем предизвик денес е да се открие говор на омраза во видео содржините, но со развојот на алгоритмите за вештачка интелигенција, веќе гледаме резултати и во таа област, вели професорот на Факултетот за електротехника и информациски технологии.
„Вештачката интелигенција има огромен потенцијал да биде ефикасен инструмент за детектирање и превенција на говорот на омраза во онлајн медиумите. Предностите на користење на модели од ВИ за детектирање на говор на омраза се тоа што моделите може да анализираат огромни количества на содржини во скоро реално време – односно во првите неколку секунди од самата објава. Тоа овозможува детекција во скоро реално време, и овозможување на спорната содржина воопшто да не се рашири. Исто така, ВИ моделите може да учат и да се доусовршуваат и прилагодуваат на нови содржини и начини на објавување на говор на омраза“, додава професорот Ѓорески.
Во однос на применливоста на моделите на вештачка интелигенција во земјава, тој објаснува дека е логично овие модели најпрво да се развиваат на англиски јазик. Сепак, јазичната бариера кај вештачката интелигенција е многу помала од реалниот свет, односно или постојат алгоритми кои лесно вршат превод на јазиците или последните алгоритми на ВИ се помалку зависни од конкретниот јазик. Сепак, не е само преведувањето предизвик, туку и различноста на културите и локалниот контекст.
„Затоа, се јавува потреба за тренирање на модели на соодветниот јазик, што може да биде потешко и да бара многу ресурси и време. Но, во ВИ постојат механизми и алгоритми за моделите развиени за англиски, релативно лесно може да се доучат и да се приспособат за македонски или албански, со техники како што се transfer learning, fine tuning, и слично“, објаснува Ѓорески.
Кога сме кај локалниот контекст, Северна Македонија е во процес на подготовка на Национална стратегија за вештачка интелигенција. Формирана е работна група во рамките на Фондот за иновации и технолошки развој, иако до денес не е утврдена нацрт-верзија на овој документ. Извршната директорка на Здружението Конект, Никица Кусиникова, која е и членка на работната група, информира дека засега имале само една средба и самите тие немаат информација за тоа дали постојат рокови за носење на ваквата стратегија. Сепак, Кусиникова потенцира дека во Националната стратегија треба да биде вграден аспектот на заштита на човековите права, оти тој е клучен сегмент во чии рамки потпаѓа и заштитата од говорот на омраза онлајн.
Кусиникова појаснува дека Европската Унија во моментов ја финализира регулативната рамка за вештачката интелигенција и можеби е паметно земјава да почека во носењето на Националната стратегија за вештачка интелигенција, како би можеле да се усогласиме со европските политики и акти.
Никица Кусиникова апелира да не се чека само на Националната стратегија, туку од невладините организации кои имаат поголемо искуство во следењето на говорот на омраза онлајн, да се прејде кон изработка на своевиден лексикон од зборови и фрази на македонски и албански јазик, кои можат да помогнат во автоматското откривање и превенирање во ширењето на говорот на омраза онлајн.
Таа го посочува примерот со зборовите „умри“ или „ќе те заколам“, кои во македонскиот јазик, на пример, не може да се најдат во позитивен контекст и ако тие по дифолт се најдат во одредени постови на социјални мрежи, по автоматизам би можело да се тргнуваат веднаш по нивното објавување.
„Кај нас довербата во судството е на многу ниско ниво и дел од нив [н.з. жртвите] се плашат дека дополнително ќе бидат виктимизирани и дека ќе треба они да се бранат наместо системот да ги заштити. Не сум сигурна ни колку правобранителот се занимава со овие прашања. Она што вештачката интелигенција треба да го направи е да се обиде да превенира поголем дел, односно однапред да реагира и да го идентификува потенцијалниот говор на омраза врз база на клучни зборови и изрази“, децидна е Кусиникова.
Сепак, сите соговорници од кои Мета.мк побара став се едногласни дека од функционирањето на моделите на вештачката интелигенција при откривањето на говорот на омраза онлајн не треба да биде отстранета „човечката рака“.
Тие се согласуваат дека треба да има тимови од рецензенти кои ќе ги разгледуваат спорните случаи, каде границата меѓу говорот на омраза и слободата на изразување е нејасна, односно луѓето би можело да помогнат во определувањето на етичките и правните аспекти, како и расчистувањето на контекстот и намерата зад одредена содржина.
„Сметаме дека за да се утврди дали некој говор е говор на омраза или пак е слобода на изразување треба да се утврдат повеќе параметри како и контекстот, умислата и намерата во кој е искажан говорот. Во оваа смисла сметаме дека во овој момент потребна е човечка рака за да ја донесе финалната одлука дали некој говор е говор на омраза“, велат од Хелсиншкиот комитет за човекови права.
Од Хелсиншки додаваат дека алгоритмот на вештачката интелигенција е создаден од човекот, па доколку алгоритмот е создадени со предрасуди кон некоја група, очекувано е дека вештачката интелигенција ќе одлучува со примена на предрасуди.
Мила Јосифовска Даниловска од Фондацијата Метаморфозис објаснува дека алгоритмите може да имаат проблем точно да го идентификуваат говорот на омраза што се изразува преку сарказам, иронија или културни референци, може да не го разберат контекстот на разговорот кој се одвива, дури и може да создадат “ехо комори” каде што корисниците се изложени само на содржина што се совпаѓа исклучиво со нивните ставови и верувања, со што потенцијално може да го засили говорот на омраза во одредени заедници.
„Затоа, многу е важен начинот на кој алгоритмите се хранат со информации за да се избегнат систематски и повторливи грешки во компјутерските систем кои создаваат нефер исходи и предрасуди. Решавањето на алгоритамската пристрасност кон било кои категории на групи и граѓани, бара комбинација од стратегии водени од податоци, етички размислувања и посветеност на поттикнување на различноста и инклузивноста во развојот и примената на технологијата“, вели Мила Јосифовска Даниловска од Фондација Метаморфозис.
Таа додава дека за да се отстрани или барем да се ублажи алгоритамската пристрасност во откривањето на говорот на омраза, мора алгоритмите да се тренираат со разновидна и репрезентативна база на податоци, што вклучува различни форми на говор на омраза и говор што не предизвикува омраза од различни заедници и перспективи. Важно е да се развијат алгоритми кои можат подобро да го разберат контекстот на разговорите за прецизно да се идентификува говорот на омраза, како и да им се воспостават јасни етички упатства кои ја нагласуваат важноста на правичноста, различноста и еднаквиот третман.
Никица Кусиникова од Здружението Конект се согласува дека алгоритмите се базираат на податоци и параметри што се зададени од луѓе, додавајќи дека многу е важно како ќе се постават тие параметри за да не се спречи слободата на говор.
Таа додава дека ниеден систем не е совршен, па и моделите на вештачка интелигенција во откривањето на говорот на омраза онлајн.
„И да се вклучени луѓе, и да не се вклучени луѓе, ќе има пропусти, ќе мора да се креираат процедури и протоколи коишто ќе овозможат корективни механизми“, вели Никица Кусиникова.
Како соодветен пример, таа ги дава случаите кога ваквите модели на вештачка интелигенција отстраниле одреден пост на социјалните мрежи, по што има поплаки од корисниците до самите социјални мрежи: „Чекајте, мојот пост несоодветно е тргнат или не ми е дозволено да постирам“. За вакви случаи, системот на поплаки и можноста за интервенција по донесената одлука на моделите на вештачка интелигенција за одредена содржина е клучна.
Токму поради тоа, Мила Јосифовска Даниловска дополнува дека мора да постои можноста за повратни информации од корисници, односно заедницата да биде силен сојузник во борбата против говор на омраза онлајн.
„Човечкиот надзор не смее да се исклучи кој би го следел целиот процес, би вршел континуирата ревизија и проценка на перформансите на алгоритмите за да се увери дека процесите се исправни или да се корегираат детектираните пропусти“, вели Мила Јосивоска Даниловска.
Од друга страна, Никица Кусиникова вели дека се согласува со ставот оти моделите на вештачка интелигенција можат да помогнат во превенција на ширењето на говорот на омраза онлајн, но тоа не значи дека општествените субјекти треба да се изземат од одговорност, вклучувајќи ја и државата сосе судскиот систем, но и компаниите кои се сопственици на социјалните мрежи, како и невладиниот сектор како коректив.
Соговорниците кои ги контактираше Мета.мк потсетуваат дека нема меѓународно признаена дефиниција за тоа што е говор на омраза, односно постојат разлики во дефинирањето за тоа што е говор на омраза, па следствено на тоа се отежнува и работата на моделите на вештачка интелигенција. Не смее да се изостават и актуелните случаи кога самиот алгоритам не може да детектира одредени содржини како говор на омраза, што пак овозможува нивно ширење онлајн. Во вакви случаи, токму пријавувањето на спорните содржини од корисниците им овозможува на социјалните мрежи соодветно да реагираат против овие содржини.
„Мора да се преземат заштитни механизми за да се спречат, а доколку се случи прекршување, мора да има предвидено пристап до правни лекови доколку се случи некој да биде жртва на говор на омраза на некој онлајн медиум или некаде по социјалните мрежи. Државата треба да го наметне тоа“, заклучува Никица Кусиникова.