Egy új mesterséges intelligencia képes lehet felismerni a gyűlöletbeszédet

Lehet, hogy megoldást találtak az internet egyik legnagyobb társadalmi problémájára. Az internet több szegletét elárasztja a rosszindulatú viselkedés – a weblapok komment szekcióitól a közösségi média posztjain át  a videojátékok chat felületeit.

Ennek a visszaszorítása eddig csak frusztráló eredményeket hozott, azonban egy új módszer képes automatikusan azonosítani a gyűlöletbeszéd apró nyelvi nyomait és elkülöníteni őket mikor más, ártalmatlan környezetben használják.

“A gyűlöletbeszéd hírhedt arról, hogy nehéz észrevenni,” mondta Dana Warmsley, a Cornell Egyetemről.

A sértő szóhasználat nem feltétlenül jelenti azt, hogy valaki tényleg gyalázkodó, mivel az emberek rengeteg különböző okból kifolyólag káromkodnak – például barátok tréfásan is sértegethetik egymást.

A legtöbb internetes felület a felhasználóik segítségére szorul, akik a sértő tartalmakat jelenthetik az oldalak fenntartóinak, azonban az emberi moderátorok képtelenek fenntartani a lépést a kifogásolható tartalmak áradatával.

Egy másik megoldás a gyűlöletbeszédek automatikus felismerése lehet. Korábban, ebben az évben a Google megpróbált egy “toxikussági” pontszámot rendelni a kommentekhez az alapján, hogy azok mennyire hasonlítanak az emberek által korábban sértőnek jelzett kifejezésekhez. Azonban a rendszer hibái felülkerekedtek annak pozitív hatásain.

Például a kifejezés “elég okos vagy lány létedre” 18%-os toxicitást kapott, míg a “szeretem a Führert [Hitlerre gondolva] ” mindössze 2%-ot.

Így Haji Mohammad Saleem, a McGill Egyetemről, munkatársaival felkerekedett, hogy egy más megközelítést keressen a problémára. Ahelyett, hogy szavakat vagy kifejezéseket különítenének el, a kutatók arra összpontosítottak, hogy megtanítsák a gépi tanulási algoritmust, hogy a gyűlölködő közösségek hogyan beszélnek.

A rendszert egy hatalmas adathalmazon edzették, ami 2006 és 2016 között szinte az összes posztot tartalmazta a Redditről. A csapat főleg három csoportra fókuszált, akik gyakran kerülnek a gyűlölet központjába – az afrikai amerikaiak, a túlsúlyos emberek és a nők. Minden csoport esetében a Reddit legaktívabb támogató és gyűlölködő csoportját használták a szoftver képzéséhez. A kutatók ezen felül más hasonló oldalakról gyűjtött posztokat is hozzáadták az adatbázishoz.

A csapat az találta, hogy ez kevesebb hamis eredményhez vezet mint a szavak szűrésén alapuló módszer. Például a rendszer képes volt olyan kommenteket megjelölni mint a “Nem látok ebben hibát. Az állatok mindig más állatokra támadnak,” amiben az “állatok” kifejezést rasszista kifejezésként használták.

“Egy okos megoldás a gyűlölködő és a nem gyűlölködő közösségek összehasonlításával megtalálni a nyelvezetbeli különbségeket, amelyek elkülönítik őket egymástól,” mondta Thomas Davidson, a Cornell Egyetemről, aki nem hiszi, hogy a megoldás annyira széles körben használható lehet mint ahogyan a kutatók hiszik.

A csapat a rendszert a Reddit kommentjein tesztelte, azonban azt nem mutatták meg, hogy az képes lenne e mondjuk a Twitter vagy a Facebook kommentjeit is hatékonyan átvizsgálni.

“Ez egy értelmes megközelítés, viszont nem fog mindent elkapni,” mondta Joanna Bryson, a Bath Egyetemről.

A rendszer még így is elvétett néhány egyértelműen sértő szöveget, mint “A feketék szörnyűek” és más egyértelműen rasszista vagy a túlsúlyosakat sértő mondatokat. Bryson szerint ezek nem jutottak volna át a szavakat vizsgáló rendszeren.

Azonban a rendszer még így is egy új hatékony eszközt ad a moderátorok kezébe de úgy tűnik a fáradozások ellenére lehetetlen olyan rendszert készíteni, ami megvéd mindenfajta gyűlölködő szövegtől.

“A gyűlöletbeszéd egy szubjektív jelenség, melynek azonosításához szükséges az emberi részvétel,” mondta Davidson.

Forrás: arxiv.org

Szerkesztő: arsratio

Oszd meg

Hozzászólás küldése

Az email címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöljük.