
Во време кога вештачката интелигенција (ВИ) станува се повеќе дел од секојдневниот живот, прашањата за нејзината правилна употреба, етички аспекти и влијанието врз човековите права сѐ повеќе се наметнуваат.
Проф. д-р Анис Сефиданис, универзитетски професор и основач на „Сефиданис“ истражување и развој, го споделува своето искуство и размислувања за тоа како ВИ може да ни служи како корисна алатка, а истовремено да нѐ не доведе во ризик кога се работи за приватност, недискриминација и одговорна примена во различни сектори.
Што значи „правилна употреба“ на ВИ во секојдневниот живот?
За мене „правилна употреба“ на ВИ значи да знам дека разговарам со алгоритам, а не со човек, да останам јас тој што одлучува, и секогаш да е јасно кој е одговорен за последиците. Во пракса тоа значи да не им препуштам на алатките критични одлуки за моето здравје, финансии или правни чекори без стручна проверка. ВИ треба да ми служи како асистент на моето знаење и креативност, а не како замена за критичко размислување.
Во кои сегменти ВИ „се коси“ со основните човекови права?
ВИ најмногу ги допира правото на приватност, недискриминација, фер постапка и слободно информирање. Системите за надзор, профилирање или препознавање лице лесно можат да преминат во нарушување на приватноста и масовно следење. Пристрасни алгоритми можат да создадат нефер третман во здравството, администрацијата или безбедноста, а дезинформациите и „длабоките фејкови“ ја разнишуваат довербата во медиумите и самата демократија.

Како да се избегнат дискриминација и пристрасност во алгоритмите?
Пристрасноста не исчезнува сама, таа мора свесно да ја адресираме во целиот циклус на развој на ВИ. Тоа значи подобри и поразновидни податоци, тестирање и евалуација на моделите за дискриминација пред да се пуштат во употреба, како и нивни редовни независни ревизии. Во чувствителни области како што се здравството, образованието и администрацијата, одлуките мора да бидат објасниви, со јасен механизам за жалба и човечка проверка, а не „црна кутија“ на затворени технологии.
Дали нашите институции се подготвени за одговорна употреба на ВИ и каде заостануваме?
Во Македонија имаме поединечни дигитални проекти, но недостасува јасна национална стратегија за ВИ усогласена со европските стандарди и механизми за надзор на алгоритми. Заостануваме исто така во експертиза, транспарентност и свесност дека секој ВИ систем е, всушност, и прашање на човекови права, а не само ИТ проект. Дополнително, воопшто не е јасно регулирано кој воопшто смее да развива и имплементира ВИ-решенија. Многу компании нагло се пренасочуваат кон новите трендови само затоа што гледаат профит или маркетиншки ефект. А ВИ пред сѐ е сериозна научна и инженерска дисциплина и мора да биде во рацете на професионалци кои длабоко ја познаваат, заедно со нејзините технички ограничувања и етички последици.
Може ли ВИ да стане алатка за заштита на човекови права, а не само ризик?
Да, ако ја дизајнираме со човекови права „вградени“ од старт. Истите техники што можат да создадат пристрасни системи можат да ни помогнат да откриеме скриени нееднаквости во пристап до услуги или ресурси, но и навреме да детектираме злоупотреби и говор на омраза. ВИ веќе се користи за подобра пристапност за лица со попреченост, за мониторинг на штетни содржини и за поголема отчетност на институциите, итн. Прашањето е како ќе ја насочиме ВИ и во чија корист.
Како го гледате развојот на ВИ во наредните 5–10 години и кои сектори најмногу ќе ја почувствуваат промената?
Во следните 5–10 години ВИ ќе стане секојдневна алатка, секој професионалец ќе има свој „ко-пилот“ за текст, податоци и комуникација. Истовремено, регулацијата ќе се заострува и ВИ сè повеќе ќе се интегрира во физички системи: роботи, медицински апарати, паметна инфраструктура. Најмногу ќе се променат здравството (особено телемедицината), образованието, јавната администрација и креативните индустрии; за мала земја како нашата, тоа е и ризик и шанса да станеме регионален пример за етичка и одговорна примена на ВИ.
Авторка: Сара Танаскоска
- Текстот е изработен во рамки на Програмата за млади новинари на ПИНА



