Positionskodierungen
Positionskodierungen bezeichnet man Techniken, die in Sequenzverarbeitungsmodellen die Reihenfolge der Elemente einer Eingabesequenz ausdrücken. Da Aufmerksamkeitssysteme wie der Transformer permutation-invariant arbeiten, benötigen Modelle eine Darstellung der Position, damit Reihenfolgen sinnvoll verarbeitet werden können.
Man unterscheidet grob zwischen festen (nicht lernbaren) und gelernten Positionskodierungen. Feste Kodierungen liefern eine deterministische Sequenz
Bei einer typischen festen sinusoidalen Kodierung verwenden sich die Dimensionen abwechselnd aus Sinus- und Kosinusfunktionen unterschiedlicher
Vorteile fester Kodierungen: kein zusätzlicher Lernparameter, robuste Generalisierung auf längere Sequenzen und einfache Implementierung. Nachteile: bei
Anwendungen finden sich primär in natürlicher Sprachverarbeitung, in Sprach- und Proteinsequenzen, sowie in Vision-Transformern mit 2D-Positional