Selbstaufmerksamkeitsmechanismus
Selbstaufmerksamkeit, im Englischen self-attention, ist ein Begriff, der in unterschiedlichen Disziplinen verwendet wird. In der Psychologie beschreibt er die Tendenz, eigene innere Zustände wahrzunehmen, während in der Informatik eine Mechanik in neuronalen Netzwerken gemeint ist, die Beziehungen innerhalb einer Eingabesequenz gewichtet.
Historisch wird der Begriff im Zusammenhang mit Selbstbewusstsein diskutiert. Die Forschung unterscheidet oft zwischen privater Selbstaufmerksamkeit
Anwendungsfelder umfassen klinische Psychologie, Pädagogik und Verhaltensforschung. In der Praxis zielen Interventionen oft darauf ab, übermäßige
In der Informatik bezeichnet Selbstaufmerksamkeit eine Kernkomponente von Transformern. Sie ermöglicht es dem Modell, jedem Element