Vještačka inteligencija u medijima: Između efikasnosti i odgovornosti

Vještačka inteligencija u medijima: Između efikasnosti i odgovornosti

Ako su mediji nekada bili ključni alat za stvaranje „globalnog sela”, danas vještačka inteligencija mijenja način na koji to selo govori, prevodi, čita i emituje vijesti. Od Amerike, preko Afrike i Evrope do Azije, AI sve češće nalazi primjenu u redakcijama, od sažimanja tekstova i prevođenja do kreiranja audio sadržaja i razvoja virtuelnih voditelja vijesti.

Uprkos tom tehnološkom napretku, etički standardi ostaju centralno pitanje medijske profesije, što potvrđuju i primjeri velikih svjetskih redakcija poput Rojtersa. Ova agencija razvila je AI alate koje su osmislili sami novinari, s ciljem da tehnologija bude podrška istraživačkom novinarstvu, a ne njegova zamjena. Ovi alati omogućavaju prevođenje video materijala na više jezika i automatsku transkripciju, uz uredničku kontrolu, dok se svaka upotreba AI u produkciji sadržaja jasno označava. Kako navode iz agencije, alati ne generišu samostalno sadržaj bez ljudskog doprinosa, a transparentnost se smatra osnovom profesionalnog povjerenja.

Sličan pristup ima i The New York Times, koji koristi vještačku inteligenciju za transkripciju intervjua, prijedloge naslova i provjeru činjenica, ali uz jasnu uredničku kontrolu. Urednici navode da im AI štedi vrijeme, ali ne odlučuje o pričama. Krajem 2023. uveden je interni alat „Echo“, koji pomaže novinarima u sumiranju tekstova, uređivanju naslova i praćenju trendova. Ipak, pravila jasno propisuju da AI ne smije samostalno kreirati sadržaj niti donositi uređivačke odluke, dok redakcija insistira na transparentnosti i obavještavanju publike kada se AI koristi u produkciji sadržaja.

Profesor dr Vuk Vuković da su interni kodeksi u redakcijama poput The New York Times i Rojtersu su od presudnog značaja jer operacionalizuju apstraktne pravne norme u svakodnevnu praksu.

„Formalna regulativa definiše okvir, ali upravo interni protokoli određuju kako će se AI zaista koristiti u produkciji sadržaja. Bez njih, pravila ostaju deklarativna“, navodi Vuković.

Sličan pristup pitanju označavanja i korišćenja vještačke inteligencije u medijima naglašava i Olivera Nikolić iz Instituta za medije Crne Gore. Ona ističe da je jasno označavanje sadržaja koji je generisan ili značajno obrađen uz pomoć AI ključno zbog transparentnosti i profesionalne odgovornosti redakcija.

„Publika treba da zna kada je AI korišćen u procesu nastanka sadržaja, posebno ako to može uticati na razumijevanje činjenica ili stvoriti pogrešan utisak o autentičnosti materijala. Jednako je važna i interna transparentnost unutar redakcija, kako bi urednici i novinari znali kada, kako i u kojoj mjeri je AI korišćen. Ključno je da AI ostane alat, a odgovornost za objavljeni sadržaj uvijek ostaje na novinaru i uredniku“,   kazala je Nikolić.

EVROPSKA REGULATIVA:  AI Act KAO OKVIR PRAVILA

Evropska unija je 2024. godine usvojila Zakon o vještačkoj inteligenciji (EU AI Act), prvi ovakav pravni okvir koji sistemski reguliše upotrebu AI tehnologija. Zakon uvodi pristup zasnovan na procjeni rizika, pri čemu se sistemi razvrstavaju prema nivou potencijalne opasnosti.  Za medijski sektor, ovaj zakon donosi dodatnu odgovornost i zahtjev za transparentnošću. Ukoliko se AI alati koriste u kreiranju ili obradi sadržaja, javnost mora biti obaviještena o načinu njihove primjene. Istovremeno, sistemi koji mogu doprinijeti širenju dezinformacija zahtijevaju pojačanu uredničku i tehničku kontrolu.

Uprkos ovim normativnim iskoracima, Vuković ocjenjuje da postojeći okviri još nijesu dovoljni za potpunu zaštitu integriteta novinarstva u praksi. Smatra  da EU AI Act predstavlja važan korak, ali da ključni izazov ostaje njegova primjena.

„Ključna EU AI Act vrijednost leži u postavljanju principa poput transparentnosti, procjene rizika i odgovornosti, ali izazov ostaje u implementaciji, naročito u manjim medijskim sistemima poput crnogorskog. Naravno, treba napomenuti da Crna Gora nije implementirala niz normativnih rješenja u svoje zakonodavstvo, te da nova rješenja tek treba da vidimo. Drugim riječima, normativni okvir postoji samo djelimično, ali operativni kapaciteti za njegovu primjenu još nijesu razvijeni u istoj mjeri.“

GLOBALNE RAZLIKE U PRIMJENI AL

Dok evropske i američke redakcije razvijaju interne politike, situacija u zemljama Globalnog juga znatno je drugačija. Istraživanje Thomson Reuters Foundationa iz 2024. pokazuje da više od 80% novinara koristi AI u radu, dok samo 13% redakcija ima jasna pravila o njenoj upotrebi.

„Ključni rizik vidim u kombinaciji brzine i smanjenja uredničke kontrole. AI omogućava hiperprodukciju sadržaja, što može dovesti do slabljenja standarda verifikaciju U takvom okruženju, fenomeni poput deepfake dodatno komplikuju situaciju jer brišu granicu između autentičnog i generisanog sadržaja”,  kaže Vuković, ukazujući da rizik proizilazi iz uticaja tehnologije na procese verifikacije i uredničku kontrolu.

ODGOVORNOST OSTAJE LJUDSKA

Kodeks novinara i novinarki Srbije definiše da svaki sadržaj nastao uz pomoć AI mora biti jasno označen, dok urednici snose punu odgovornost za objavljeni materijal.

„Potpuna transparentnost podrazumijeva i objašnjenje uloge AI u procesu: da li je korišćen za istraživanje, pisanje, obradu podataka ili samo tehničku podršku. Bez tog nivoa detalja, označavanje ostaje formalno, ali ne i suštinski informativno. Informacije su danas pitanje povjerenja. U kratkom roku, označavanje može izazvati određenu skepsu kod publike, ali dugoročno ono jača povjerenje“, naglašava Vuković.

Nikolić u tom kontekstu podsjeća i na standarde koje primjenjuju velike medijske kuće, poput agencije Associated Press, gdje se sadržaj generisan uz pomoć AI tretira kao neprovjeren materijal koji ne može biti objavljen bez uredničke kontrole.

„S jedne strane, označavanje može ojačati povjerenje jer pokazuje transparentnost, a s druge može izazvati skepsu kod publike. Zato je ključno da sadržaj bude provjeren i utemeljen u profesionalnim standardima. Inovirani kodeks ide u tom pravcu, dok bi redakcije kroz interna pravila mogle dodatno precizirati upotrebu AI, po uzoru na kredibilne svjetske medije, gdje je osnovni princip i dalje provjera informacija”, ističe Nikolić.

AL KAO ALAT, A NE AKTER ODLUČIVANJA

Kada je riječ o budućnosti odnosa tehnologije i novinarstva, sagovornici se slažu da ključ mora ostati na ljudskoj odgovornosti.

„Idealni balans podrazumijeva model u kojem AI ostaje alat, baš kao što je to svojevremeno postao kompjuter ili kasnije internet, a ne akter odlučivanja. To znači da sve ključne uredničke odluke moraju ostati u domenu ljudske odgovornosti, uz jasno definisane procedure provjere i kontrole“,  zaključuje Vuković.

Nikolić dodaje da je ključno razvijati jasne interne smjernice u redakcijama kako bi se izbjegla zloupotreba i nejasna odgovornost.

„Bez toga, odgovornost se može razvodniti između tehnologije i novinara, što dugoročno narušava povjerenje u medije”, naglašava Nikolić.

CRNA GORA I AI U MEDIJIMA: IZMEĐU PRAVILA I PRAKSE

U Crnoj Gori upotreba vještačke inteligencije u medijima i dalje nije dovoljno regulisana posebnim smjernicama. Postojeći okvir oslanja se na opšta pravila i međunarodne standarde, što ukazuje na zaostatak u odnosu na brze tehnološke promjene.

Vuković ocjenjuje da redakcije nijesu dovoljno proaktivne.

„Za razliku od pristupa koji razvija EU AI Act, domaći okvir još uvijek ne nudi jasne mehanizme primjene i nadzora. Zbog toga označavanje može biti važan prvi korak, ali postoji rizik da ostane samo formalnost bez suštinske promjene u praksi”, objašnjava Vuković.

Nikolić navodi da Institut za medije Crne Gore nije sprovodio istraživanje o upotrebi AI u domaćim medijima, ali na osnovu uvida u praksu može se zaključiti da je ona još u ranoj i neujednačenoj fazi.

„Primjena najčešće zavisi od pojedinačnih inicijativa i nivoa digitalnih znanja, dok jasne interne smjernice i urednička kontrola često izostaju. Zbog toga postoji rizik da se AI koristi nekritički ili da se doživljava kao prijetnja, umjesto kao alat koji zahtijeva ljudsku provjeru i odgovornost. Dodatni izazov predstavlja ograničeno medijsko tržište u Crnoj Gori, gdje redakcije često nemaju dovoljno resursa za paralelni razvoj tehnologije i profesionalnih standarda“, navodi ona.

RTCG DOKUMENT IZMEĐU NORME I PRIMJENE

Govoreći o dokumentu RTCG o upotrebi vještačke inteligencije, Vuković ocjenjuje da je riječ o normativno ambicioznom, ali operativno nedovoljno razrađenom okviru.

„Iako na deklarativnom nivou uvodi principe etičnosti, transparentnosti i odgovornosti, njegov osnovni problem je što ostaje na nivou opštih formulacija, bez jasnih mehanizama primjene“, navodi on.

Kako dodaje, dokument ne precizira šta u praksi znači odgovorna upotreba AI, niti kako se ti principi kontrolišu, što ostavlja prostor za različita tumačenja u redakcijama.

Poseban problem, prema njegovoj ocjeni, jeste i izostanak proceduralnih pravila, od toga kada se AI sadržaj mora označiti, do toga ko je odgovoran za verifikaciju i kako se postupa u slučaju greške ili zloupotrebe.

„Bez tih elemenata, pravila ne funkcionišu kao regulatorni alat, već kao deklarativni okvir bez izvršne snage“, ističe Vuković.

On ukazuje i na to da dokument ne uzima dovoljno u obzir tržišne i tehnološke pritiske u kojima mediji funkcionišu, gdje se AI često koristi za ubrzanje produkcije i povećanje vidljivosti sadržaja.

„Bez uvažavanja tih realnih okolnosti, etičke smjernice ostaju odvojene od stvarne prakse. Ovakav pristup odražava slabost postsocijalističkih medijskih sistema – formalno usvajanje principa bez dovoljno razvijenih kapaciteta za njihovu primjenu, zbog čega dokument više liči na usklađivanje sa međunarodnim standardima nego na operativni alat u redakciji“, zaključuje Vuković.

 

Avatar photo
Sindikat medija Crne Gore (SMCG)

SMCG osnovan je 13. aprila 2013. godine u Podgorici kao granski sindikat pri Uniji slobodnih sindikata Crne Gore. Cilj SMCG je da bude autentični predstavnik svih zaposlenih u crnogorskim medijima, koji do sada nijesu bili sindikalno angažovani i čije interese niko nije zastupao