Physiotherapeut*innen

Kinder (mit Beeinträchtigung) im Mittelpunkt

// Jenny Cazzola | Centaurus //
Physiotherapeut*innen sind echte Visionärinnen, besonders wenn sie Kinder und Jugendliche behandeln. Tamara Delmarco gibt Einblicke in ihren Beruf.
Physiotherapeutin in der Kinderreha Tamara Delmarco © privat
Wer an Physiotherapie denkt, denkt häufig an ältere Menschen, Sport oder Sportverletzungen. Doch Physiotherapeut*innen arbeiten auch mit Kindern.

Wegbegleiterinnen
„Physiotherapeut*innen in der Kinderrehabilitation sind Visionär*innen, weil sie die Fähigkeit haben, das Potenzial eines Kindes zu erkennen und in den Mittelpunkt zu stellen“, stimmt Tamara Delmarco zu. „Sie sind nicht nur Therapeut*innen, sondern auch Wegbegleiter*innen für ihre Zukunft. Sie müssen kreativ und flexibel sein, erstellen individuelle Therapiepläne und nutzen spielerische Methoden, um bestmögliche Ergebnisse zu erzielen. Ihr Fokus ist auf Inklusion gerichtet: Sie schaffen Voraussetzungen, damit Kinder mit Einschränkungen aktiv an der Gesellschaft teilhaben können.“ Delmarco ist seit 2001 als Physiotherapeutin in Brixen tätig. „Mein Bereich ist deshalb so faszinierend, da nicht immer die Heilung im Vordergrund steht, sondern die Unterstützung der gesamten Entwicklung des Kindes. Kinder sind keine ‚kleinen Erwachsenen‘ – sie haben ihre eigenen Bedürfnisse. Man arbeitet außerdem mit Eltern und anderen Bezugspersonen zusammen, weil diese ein wichtiger Teil des Therapieerfolgs sind. In der Behandlung geht es um angeborene oder erworbene Einschränkungen, wie etwa neurologische Störungen wie Zerebralparese, Entwicklungsverzögerungen, muskuläre Schwächen oder orthopädische Probleme wie Skoliose oder Fußfehlstellungen. Auch nach Unfällen oder Operationen ist die Rehabilitation bei Kindern sehr wichtig. Das Einzigartige an meiner Arbeit und dabei die größte Herausforderung ist, miterleben zu dürfen, wie ein Kind aktiv am Leben teilnehmen kann.“

In Richtung Zukunft
Die Lebensqualität der kleinen Patient*innen steht im Fokus der Arbeit. Die spielt auch eine Rolle bei der Behandlung von Haltungsproblemen. „Die ist in vielerlei Hinsicht visionär, da es um Prävention geht. Es geht nicht nur darum, akute Beschwerden zu behandeln, sondern auch langfristig die Gesundheit und Lebensqualität der Kinder zu sichern. Wenn Fehlhaltungen und ungünstige Bewegungsmuster frühzeitig erkannt und behandelt werden, können spätere Probleme wie chronische Rückenschmerzen, Arthrosen oder Bandscheibenvorfälle zum Teil vermieden werden. Studien zeigen, dass Haltungsprobleme und Rückenschmerzen bei Kindern zunehmen. Ursachen dafür sind oft Bewegungsmangel, sowie sitzende Tätigkeiten und fehlende Körperwahrnehmung, da die Kinder verlernt haben, im Freien zu spielen. Es ist wichtig Kinder und Eltern zu sensibilisieren und aufzuklären. Der Spaß an Bewegung muss wieder im Mittelpunkt stehen, die Kinder müssen lernen den Körper richtig zu nutzen und zu pflegen.“

Künstliche Intelligenz und Gender

„You’re a slut, Siri!“

// Hannah Lechner //
Han Dopler ist Linguist*in, schreibt aktuell eine Masterarbeit zum Thema (Gender)Queerness, Spracherleben und Körperbild an der Uni Wien und hat sich im Laufe des Studiums unter anderem auf die Schnittstelle von Sprache und Technologien spezialisiert. Im Interview spricht Han über AI Girlfriends, gegenderte KI-Stimmen und automatische Übersetzungstools – und darüber, warum Tech politisch ist.
Auf Seite 27 dieser ëres-Ausgabe geht es um bildgenerierende Künstliche Intelligenz (KI) und wie diese problematische Schönheitsnormen reproduziert, KI kann aber viel mehr als „nur“ Bilder. Du hast dich z.B. intensiv mit AI Girlfriends auseinandergesetzt. Was sind solche „KI-Freundinnen“ und inwiefern ist der Trend problematisch?
Sehr heruntergebrochen: Das Ganze funktioniert mit Apps, in denen Personen (hauptsächlich Männer) eine fiktive Figur (in der Regel eine Frau) erstellen, mit der sie dann über Chat und Sprachfunktion interagieren können. Dabei geht es meistens um eine romantische und/oder sexuelle Beziehung, die sich unter Umständen sehr intensiv und „echt“ anfühlt. Das heißt, die Nutzenden erstellen sich quasi ihre ideale Partner*in, die Kommunikation funktioniert mittels künstlicher Intelligenz. Problematisch kann das sein, weil dabei Genderstereotype und ganz bestimmte (Schönheits)Ideale reproduziert und weiter normalisiert werden: Die AI Girlfriends sind in der Regel jung, normschön, weiß und dünn. Sie sollen einerseits sexy, enthemmt, lustig und selbstbewusst sein und dabei aber gleichzeitig auch empathisch und „bemutternd“. Sie geben auf Kommando Komplimente, hören jederzeit geduldig zu und haben absolut keine eigenen Bedürfnisse. Spannend ist auch, dass die Sprachausgabe, bei der man theoretisch zwischen „weiblichen“, „männlichen“ und „nicht-binären“ Stimmen auswählen kann, nur mit weiblich gegenderten Stimmen wirklich gut funktioniert.

Inwiefern?
Viele von uns verwenden Smart Home Devices, wie Amazons Alexa oder Voice Assistants am Handy wie Siri auf Apple Geräten. Diese Interaktionen sind meist so beiläufig und selbstverständlich in unseren Alltag integriert, dass wir nicht aktiv darüber nachdenken – wenn man aber kurz überlegt, fällt auf, dass die allermeisten Assistants mit einer ganz klar weiblich gegenderten Stimme als Voreinstellung daherkommen. Die Entwicklungsteams dahinter sind großteils weiße, US-amerikanische cis Männer, deren ganz konkrete Vorstellungen über „Weiblichkeit“ in das Design der Persönlichkeit und Stimme der Voice Assistants einfließen. Und hier sind wir wieder bei Genderstereotypen: Forschung zeigt, dass weibliche Stimmen generell als sympathischer und angenehmer wahrgenommen werden und Nutzer*innen ihre „weiblichen“ Voice Assistants vor allem als hilfsbereit und unterwürfig beschreiben – mit Siri und Alexa etwa interagieren wir ja quasi nur, indem wir Befehle erteilen. Weil sie so häufig verwendet werden, sind weiblich gegenderte KI-Stimmen auch sehr viel weiter in der Entwicklung. Demgegenüber werden „männliche“ KI-Stimmen tendenziell als autoritärer wahrgenommen.

Spannend finde ich auch, wie „weibliche“ Voice Assistants auf Beleidigungen und verbale sexualisierte Übergriffe reagieren. Kannst du darüber mehr erzählen?
Ja! Ein sehr pla­katives Beispiel dafür ist etwa Siris Reaktion auf die Aussage „You’re a slut, Siri!“ (Deutsch: „Du bist eine Schlampe, Siri!“). 2017 antwortete Siri nämlich noch mit „I’d blush if I could.“ (Deutsch: „Wenn ich könnte, würde ich erröten“). Inzwischen sagt Siri: „Darauf antworte ich nicht.“ Damit sich das aber verändert hat, musste es erst mal Kritik geben. Eine eindeutig negative Reaktion auf sexuell übergriffige Aussagen gibt es aber nach wie vor weder bei Siri noch bei anderen gängigen Voice Assistants.

Was viele von uns auch sehr selbstverständlich und häufig im Alltag verwenden, sind automatische Übersetzungstools wie z.B. Google Übersetzer oder DeepL – damit hast du in letzter Zeit auch experimentiert. Was sind deine Erkenntnisse?
Das Problem von automatischen Übersetzungstools wird vor allem sichtbar, wenn man von Sprachen ohne grammatikalisches Geschlecht, wie z.B. Englisch, in Sprachen mit grammatikalischem Geschlecht, wie z.B. Deutsch, übersetzt. Lange Zeit war es so, dass „the doctor“ automatisch als „der Arzt“ übersetzt wurde, mittlerweile geben sowohl Google Übersetzer als auch DeepL wenigstens „der Arzt / die Ärztin“ als Übersetzungsmöglichkeiten an. Verwendet man Nomen aber in einem Satz, verschwindet dieser Effekt sofort wieder und die Übersetzungen zeigen erneut einen Gender Bias und darauf beruhende Zuschreibungen. Ich hab das letztens mit „the dancer“ (Deutsch: der*die Tänzer*in) ausprobiert: „This dancer is beautiful“ übersetzt Google Übersetzer mit „diese Tänzerin ist wunderschön“, während „this dancer is talented“ mit „dieser Tänzer ist talentiert“ übersetzt wird, „the shy dancer“ ist „die schüchterne Tänzerin, „the brave dancer“ aber „der mutige Tänzer“.

Wir empfehlen in den Chill Tipps (S. 30/31) den Podcast „Tech Won’t Save Us“ für alle, die sich noch tiefer mit dem Thema auseinandersetzen wollen. Hast du, gerade vor dem Hintergrund dessen, was aktuell in den USA passiert, noch andere Empfehlungen?
Habe ich! Es gibt noch einen anderen tollen Podcast, nämlich „System Crash“, der sich spezifisch mit dem Einfluss großer Tech-Unternehmer auf das politische und gesellschaftliche Geschehen beschäftigt. Eine Entwicklung in diese Richtung zeichnet sich ja schon lange ab, ist nunmehr aber für alle sichtbar eskaliert: Elon Musk hat sich mit Twitter (jetzt X) eine der größten Social Media Plattformen gekauft, auf der jetzt nach seinen Regeln gespielt wird, und wird wohl eine wichtige Rolle in der Trump Regierung einnehmen. Auch Mark Zuckerberg hat einschneidende Veränderungen in den „Spielregeln“ für Metas Plattformen (etwa Facebook und Instagram) vorgenommen – es wird, nach dem Vorbild von X und zumindest in den USA, keine Faktenchecks mehr geben, das heißt, dass Falschinformationen und hate speech (Deutsch: Hassrede) uneingeschränkt verbreitet werden können. Das alles macht Angst und es benötigt enorm viel mentale Energie, um sich damit auseinanderzusetzen. Wir erleben gerade aber eine Zeit, die klarer denn je vor Augen führt, dass eine unpolitische Perspektive auf die Tech-Industrie im besten Fall naiv und im schlimmsten Fall gefährlich ist.

Han Dopler © privat