innehållsmoderering
Innehållsmoderering är processen att övervaka och hantera användargenererat innehåll på digitala plattformar för att följa lagar, regler och plattformens egna policyer. Målet är att balansera yttrandefrihet med skydd mot skadligt material och störningar i gemenskapen. Moderering kan ske före eller efter publicering inom exempelvis sociala medier, forum och videoplattformar.
Metoderna innefattar förebyggande (pre-moderering) där innehåll granskas innan det visas, samt reaktiv (post-moderering) där material tas
En konsekvent policy kräver tydliga regler, varningar, tidsbegränsningar och i vissa fall avstängningar. Överklagandeprocesser förekommer ofta.
Tekniker och arbetsflöden inkluderar rapportsystem, eskalering till specialteam och mätning av resultat som borttagna inlägg och
Utmaningar är risker för partiskhet och övergripande censur, hot mot yttrandefrihet, samt arbetsvillkor och psykologisk börda
Lagstiftning som EU:s Digital Services Act påverkar hur plattformar modererar innehåll och vilka rättigheter användare har.