Ärztinnen
Ärztinnen sind medizinisch ausgebildete und approbierte Fachpersonen, die Patientinnen und Patienten betreuen. Der Begriff bezeichnet die weibliche Form des ärztlichen Berufs im Deutschen. In vielen Kontexten wird heute auf eine geschlechtergerechte Sprache geachtet, weshalb Ärztinnen und Ärzte häufig gemeinsam erwähnt werden.
Historisch waren Ärztinnen in vielen Ländern mit Hindernissen konfrontiert, darunter der Zugang zu Studiengängen und Zulassungsverfahren.
Gegenwart und Praxis zeigen eine regionale Variation: In vielen Ländern arbeiten Ärztinnen in nahezu allen Fachrichtungen,
Bildung und Karriereweg folgen denselben Anforderungen wie bei männlichen Kolleginnen: Medizinstudium, Approbation und Facharztweiterbildung. Trotz Fortschritten
Berufsverbände vertreten die Interessen von Ärztinnen, fördern Gleichstellung, Weiterbildung und Mentoring. Auf internationaler Ebene tragen Organisationen