Vil bruke KI for å bekjempe hatprat på nett

– Måten vi møter problemet med online hatprat i dag, er at vi går inn på hver enkelt plattform og forsøker å følge med. Men problemet er så stort at mennesker ikke kan løse det alene, sier Sofia Rana fra Antirasistisk senter.

Forrige uke samlet et forskerteam fagfolk og interessenter fra mange ulike institusjoner til en tredagers workshop i Oslo, for sammen å diskutere hvordan man kan løse problemet med hatprat på nettet ved hjelp av kunstig intelligens. To forskere fra NLA Høgskolen var med og arrangerte workshopen, Carol Azungi Dralega og Torborg Igland, fra Avdeling for Journalistikk, medier og kommunikasjon i Kristiansand. I tillegg deltok forskere fra NTNU, Vestlandsforskning og George Mason University i Virginia i USA, både samfunnsvitere og eksperter på kunstig intelligens og maskinlæring. Målet er å utvikle et KI-verktøy som kan fange opp hatprat på nettet, for eksempel til bruk for politiet. Dette er en del av det fireårige tverrfaglige samarbeidsprosjektet SOCYTI, ledet av professor Rajendra Akerkar fra Vestlandsforskning. Prosjektet skal sluttføres i 2026.

– Jeg er veldig glad for at noen utvikler noe sånt. Men verktøyet må jo styres av levende mennesker, det må bli et hjelpemiddel, sier Sofia Rana, som både har personlig erfaring, både med alvorlige trusler og hatefulle ytringer, og som både møter problemet og kjemper mot det, som rådgiver på høyreekstremisme i Antirasistisk senter.

I tillegg til Antirasistisk senter, deltok representanter fra Vestlandet Innvandrerråd, Bergen moské og FRI. Sammen representerer disse noen av de særlig utsatte gruppene som er beskyttet av §185 i loven, den såkalte hatkriminalitetsparagrafen. Representanter fra politiets gruppe for hatkriminalitet og politiets radikaliseringskoordinator deltok også.

Testet språkmodell

– Det vi har fått presentert her i dag, er kjempebra. Hvis dette kan fange opp bare fem prosent av det verste, vil det være til uvurderlig hjelp for oss i målet om å avdekke hatkriminalitet online. Dette gjelder straffesaker, men også med tanke på radikalisering, sier Espen Møller Steen fra politiets gruppe mot hatkriminalitet.

 – Hvis dette kan fange opp bare fem prosent av det verste, vil det være til uvurderlig hjelp for oss.

Online hatprat og bekjempelsen av det har både etiske, sosiale, juridiske og teknologiske problemstillinger knyttet til seg. Forskerne var interessert i hvordan de ulike organisasjonene håndterer disse, hvordan de jobber for å forebygge hatprat på nett, hvordan de forsøker å håndtere et hatefullt angrep mens det pågår, og hva slags støttefunksjoner, meldefunksjoner og sanksjoner som finnes i etterkant. Gjestene fikk derfor presentert sitt arbeid for forskerne, både ressurser og utfordringer, og forskerne fikk vist en pilot av språkmodellen de utvikler og bruker for å trene maskiner til å fange opp online hatprat.

Nødvendig å involvere sivilsamfunnet

– Det er et svært spennende prosjekt, og det er både fint og nødvendig at sivilsamfunnet blir involvert på denne måten. Jeg kunne litt fra før, men jeg har lært mye. Jeg har opplevd at dette har vært et trygt rom, der man kunne dele kunnskap, med en gruppe mennesker som ønsker å bruke sin erfaring og kunnskap og applisere den etter beste evne, sier Christine Marie Jentoft, rådgiver på kjønnsmangfold i FRI. Hun er spent på hvordan verktøyet vil se ut til slutt.

Forsker og ansvarlig for personvern, datasikkerhet og etikk i prosjektet, Mohamed Abomhara fra NTNU, er opptatt av å sikre at det er mennesker som til syvende og sist tar beslutninger som har betydning for samfunnet som helhet.

Må sikre transparens

– Vi må sikre et kunstig intelligens-verktøy med færrest mulige slagsider, det må også være transparens i systemet, ved for eksempel at brukere blir gjort oppmerksom på hvordan systemet fungerer, og at vi hjelper brukere med å tolke og bruke resultatene på en god måte. I tillegg er det viktig å sikre personvern, understreker Abomhara.

Han setter pris på muligheten til å diskutere direkte med representanter fra sivilsamfunnet og myndighetene. Dette kan avdekke potensielle svakheter før de oppstår.

– Det vil alltid være en frykt for at et slikt verktøy kan misbrukes og bli brukt til overvåkning av den enkelte. Derfor er det helt avgjørende at verktøyet som troverdig og pålitelig, sier han. Humanistiske verdier og menneskerettighetene skal ligge til grunn, og systemene må være pålitelige.

Forskere i det fireårige tverrfaglige og internasjonale samarbeidsprosjektet SOCYTI møttes i Oslo tidligere i mars for å drøfte problemstillinger fra teknologi, språk og etikk med representanter fra relevante samfunnsinstitusjoner. Målet er å utvikle et KI-verktøy som kan fange opp online hatprat. Fra venstre: Espen Møller Steen, Pål Tore Haga, Nooshin Zaery, Sarang Shaik, Sofia Rana, Ehtesham Hashmi, Mohamed Abomhara, Christine Marie Jentoft, Elsa Skjong-Arnestad, Dante Della Vella, Hermant Purohit, Yasas Pramuditha Senarath Wijesuriya Arachchige, Torborg Igland, Rajendra Akerkar (leder for prosjektet) og Carol Azungi Dralega. Foto: SOCYTI