innholdsmodering
Innholdsmodering er prosessen der plattformer og fellesskap overvåker, vurderer og håndterer innhold som brukere legger ut. Målet er å opprettholde trygge fellesskap, sikre samsvar med lover og med plattformens egne retningslinjer, og balansere ytringsfrihet med beskyttelse mot skade. Begrepet omfatter både fjerning og begrensning av innhold, samt merking eller annen kontekstuell behandling. Noe moderering skjer før innhold blir synlig (forebyggende moderering), mens annen moderering skjer etter publisering (reaktiv moderering). Beslutninger kan være menneskelig, automatisert eller en kombinasjon.
Innholdsmodering omfatter områder som hatefulle ytringer, trakassering, voldelig eller eksplisitt innhold, misinformasjon og beskyttelse av barn.
Regulatorisk kontekst: i EU og andre områder har regler som Digital Services Act og nasjonale lover påvirket
Utfordringer inkluderer bias i algoritmer, kulturelle forskjeller, språklige nyanser, skala og ressursbehov, og behovet for å