Nonmanuelles Merkmal
Ein Nonmanuelles Merkmal (auch nonmanuelles Signal/Funktion/Parameter oder Gebärdensprachausdruck) sind Bestandteile von Gebärdensprachen, bei denen die Hände nicht verwendet werden. Nonmanuelle Merkmale sind grammatikalisiert und ein notwendiger Bestandteil vieler Gebärden, genau wie manuelle Merkmale. Nichtmanuelle Merkmale erfüllen eine ähnliche Funktion wie die Intonation in gesprochenen Sprachen.[1]
Zweck
[Bearbeiten | Quelltext bearbeiten]Nonmanuelle Merkmale in Gebärdensprachen funktionieren nicht auf dieselbe Weise wie die allgemeine Körpersprache und Mimik in gesprochenen Sprachen. In gesprochenen Sprachen können sie zusätzliche Informationen liefern, sind aber nicht notwendig, damit der Empfänger die Bedeutung der Äußerung versteht (zum Beispiel kann eine autistische Person keine Mimik verwenden und trotzdem ihre Bedeutung klar vermitteln, und Menschen mit Sehbehinderung können gesprochene Äußerungen verstehen, ohne visuelle Hilfsmittel zu benötigen). Umgekehrt sind nichtmanuelle Merkmale erforderlich, um die volle Bedeutung vieler Gebärden zu verstehen, und sie können die Bedeutung einzelner Gebärden drastisch verändern. Zum Beispiel haben in ASL die Gebärden HERE (hier) und NOT HERE (nicht hier) dieselbe manuelle Gebärde und werden nur durch nichtmanuelle Merkmale unterschieden.[2]
Darüber hinaus funktionieren nichtmanuelle Merkmale nicht auf dieselbe Weise wie Gesten (die sowohl in Laut- als auch in Gebärdensprachen vorkommen), da nichtmanuelle Merkmale grammatikalisch festgelegt sind.[3] Aus diesem Grund müssen nichtmanuelle Merkmale in Gebärdenschriftsystemen einbezogen werden.
Form
[Bearbeiten | Quelltext bearbeiten]In Gebärdensprachen leisten die Hände den Großteil der Arbeit, indem sie Phoneme bilden und denotationale Bedeutung vermitteln. Zusätzliche Bedeutung entsteht jedoch durch die Verwendung nichtmanueller Merkmale. Trotz der wörtlichen Bedeutung von manuell sind nicht alle Zeichen, bei denen andere Körperteile verwendet werden, nichtmanuelle Merkmale der Sprache. Im Allgemeinen bezieht sich „manuell“ auf Informationen, die in der oberen Körperhälfte ausgedrückt werden, wie Kopf, Augenbrauen, Augen, Wangen und Mund in verschiedenen Haltungen oder Bewegungen.[4]
Nichtmanuelle Merkmale haben zwei Hauptaspekte – Ort und Umgebung. Dies sind die nichtmanuellen Äquivalente zu Handform, Handstellung (Orientierung), Ausführungsstelle und Bewegung (englisch HOLM für handshape, orientation, location und movement) in manuellen Gebärdenkomponenten. Der Ort bezieht sich auf das verwendete Körperteil und Umgebung auf den Zustand, in dem er sich befindet.[5] Beispielsweise hat die Auslan-Gebärde für WHY nichtmanuelle Merkmale, die notwendig sind, um es von der Gebärde BECAUSE zu unterscheiden. Eines dieser nichtmanuellen Merkmale kann als der Ort (hier Augenbrauen) und die Umgebung (hier gerunzelt) beschrieben werden.[6]
Obwohl das Mundbild mit dem Gesicht ausgeführt wird, wird es nicht immer als nichtmanuelles Merkmal angesehen, da es kein natürliches Merkmal von Gebärdensprachen ist, sondern aus der/den lokalen Lautsprache(n) übernommen wurde.[5] Aus diesem Grund wird darüber diskutiert, ob die Mundbewegung ein Merkmal von Gebärdensprachen oder eine Form von Code-Switching ist.[7]
Arten
[Bearbeiten | Quelltext bearbeiten]Lexikalisch
[Bearbeiten | Quelltext bearbeiten]Viele lexikalische Gebärden verwenden neben der manuellen Artikulation auch nichtmanuelle Merkmale. So können beispielsweise emotionale Verben von Gesichtsausdrücken begleitet werden, wie die Gebärde für WÜTEND in der Český znakový jazyk (Tschechischen Gebärdensprache).
Nichtmanuelle Elemente können lexikalisch kontrastiv sein. Ein Beispiel ist die ASL-Gebärde für NOT YET (noch nicht), dass zusätzlich zum manuellen Teil der Gebärde erfordert, dass die Zunge die Unterlippe berührt und der Kopf von einer Seite auf die andere rotiert. Ohne diese Merkmale würde die Gebärde als LATE interpretiert werden.[8] Auch Mundbewegungen können kontrastiv sein, wie bei den manuell identischen Gebärden für DOCTOR (Arzt) und BATTERY (Batterie) in der Nederlandse Gebarentaal (Niederländischen Gebärdensprache).[9]
In einigen Sprachen gibt es eine kleine Anzahl von Wörtern, die gänzlich durch nichtmanuelle Merkmale gebildet werden. In der Polski Język Migowy (Polnischen Gebärdensprache) beispielsweise wird eine Gebärde verwendet, um auszudrücken, dass der Benutzer eine Äußerung selbst korrigieren oder umformulieren möchte; die beste Übersetzung lautet wahrscheinlich ICH MEINE. Die Gebärde wird durch Schließen der Augen und Schütteln des Kopfes gebildet.[5] Da die Hände nicht verwendet werden, kann es gleichzeitig mit der Umformulierung der Aussage verwendet werden.
Verstärker können durch nichtmanuelle Merkmale ausgedrückt werden, da sie den Vorteil haben, gleichzeitig mit manuellen Gebärden ausgedrückt zu werden. In Auslan können aufgeblasene Wangen gleichzeitig mit der manuellen Gebärde LARGE (groß) verwendet werden, um die Gebärde besser als GIGANTIC (riesig) zu übersetzen.
Auch nichtmanuelle Merkmale sind Bestandteil vieler Gebärdennamen.[2]
Ausdruck
[Bearbeiten | Quelltext bearbeiten]In Gebärdensprachen sind Ausdrücke die charakteristischen Körperhaltungen und Gesichtsausdrücke, die das Gebärden begleiten und die für die richtige Wortbildung erforderlich sind. Der Ausdruck ist neben Handform, Ausrichtung, Position und Bewegung eine von fünf Komponenten einer Gebärde. Eine wichtige Komponente des Ausdrucks ist das Mundbild. Allerdings haben nicht alle Gebärden einen inhärenten Ausdruck.
Phrasal
[Bearbeiten | Quelltext bearbeiten]Viele grammatische Funktionen werden nichtmanuell ausgeführt,[10] darunter Fragen, Verneinungen, Relativsätze und Topikalisierung sowie Konditionalsätze.[11] ASL und BSL verwenden ähnliche nichtmanuelle Markierungen für Ja–Nein-Fragen — sie werden durch hochgezogene Augenbrauen und eine Neigung des Kopfes nach vorne angezeigt.[12][1] Dies funktioniert ähnlich wie die Tonhöhenanhebung im Englischen bei diesen Fragen.[1]
Nichtmanuelle Merkmale werden häufig verwendet, um Rollenwechsel grammatikalisch auszudrücken. Das ist der Fall, wenn der Gebärdende zwischen zwei oder mehr Personen wechselt, die er zitiert.[13] In der Deutschen Gebärdensprache kann dies beispielsweise dadurch geschehen, dass der Gebärdende den Gebärdenraum nutzt, um zitierte Rede mit Pronomen zu verknüpfen.[14] Es kann auch durch Blick- oder Kopfbewegungen ausgedrückt werden.[15]
Adjektivphrasen können mit nichtmanuellen Merkmalen gebildet werden. So bedeutet in der ASL ein leicht geöffneter Mund mit entspannter und im Mundwinkel sichtbarer Zunge carelessly (nachlässig), während ein ähnliches nichtmanuelles Merkmal in der BSL boring (langweilig) oder unpleasant (unangenehm) bedeutet.[16]
Diskurs
[Bearbeiten | Quelltext bearbeiten]Diskursfunktionen wie das Abwechseln werden größtenteils durch Kopfbewegungen und Blickkontakt geregelt. Da der Adressat in einem Gebärdengespräch den Gebärdenden beobachten muss, kann dieser vermeiden, dass die andere Person an die Reihe kommt, indem er sie nicht ansieht, oder er kann durch Blickkontakt anzeigen, dass die andere Person an die Reihe kommen könnte.[17]
Anerkennung in der Wissenschaft
[Bearbeiten | Quelltext bearbeiten]In frühen Studien zu Gebärdensprachen, die von Hörforschern durchgeführt wurden, wurden nichtmanuelle Merkmale weitgehend ignoriert.[18] In den 1960er Jahren entwickelte William Stokoe ein System der Gebärdensprachenphonologie für die American Sign Language und war einer der ersten Forscher, der nichtmanuelle Merkmale in seinen Schriften diskutierte, als er in seinen Schriften diakritische Zeichen verwendete, um sechs verschiedene Gesichtsausdrücke basierend auf ihrer Bedeutung im Englischen zu kennzeichnen.[19]
Von Stokoes Schriften bis in die 1990er Jahre wurden Gesichtsausdrücke in einigen Studien zu Gebärdensprachen diskutiert, und das Bewusstsein für sie als grammatikalischen Aspekt von Gebärdensprachen begann zu wachsen.[3] Im 21. Jahrhundert ist die Diskussion über nichtmanuelle Zeichen sowohl in der Forschung zu einzelnen Sprachen als auch in der Gebärdensprachausbildung häufiger geworden, teilweise aufgrund des gestiegenen Bewusstseins für Minimalpaare in der automatischen Gebärdenspracherkennungstechnologie.[20]
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ a b c Rudge, Luke A.: Analysing British sign language through the lens of systemic functional linguistics, URL https://uwe-repository.worktribe.com/output/863200/analysing-british-sign-language-through-the-lens-of-systemic-functional-linguistics, Abruf: 2018-08-03, englisch.
- ↑ a b Aran, Oya; Burger, Thomas; Caplier, Alice; Akarun, Lale: A belief-based sequential fusion approach for fusing manual and non-manual signs, 2008, s2cid 2971052, englisch.
- ↑ a b Judy Snitzer Reilly, Marina Mcintire, Ursula Bellugi: The acquisition of conditionals in American Sign Language: Grammaticized facial expressions. In: Applied Psycholinguistics. 11. Jahrgang, Nr. 4, 1990, ISSN 1469-1817, S. 369–392, doi:10.1017/S0142716400009632 (englisch, cambridge.org).
- ↑ Herrmann, Annika: Nonmanuals in sign languages in Modal and Focus Particles in Sign Languages, A Cross-Linguistic Study, De Gruyter, 2013, S. 33–52, URL https://www.jstor.org/stable/j.ctvbkk221.10, Abruf: 2022-04-02, englisch.
- ↑ a b c Tomaszewski, Piotr: Not by the hands alone: Functions of non-manual features in Polish Sign Language, Matrix, 2010-01-01, S. 289–320, ISBN 978-83-932212-0-2, URL https://www.researchgate.net/publication/266741808, Abruf: 2022-04-04, englisch.
- ↑ Signbank. In: auslan.org.au. Abgerufen am 2. April 2022 (englisch).
- ↑ Caroline Bogliotti, Frederic Isel: Manual and Spoken Cues in French Sign Language's Lexical Access: Evidence From Mouthing in a Sign-Picture Priming Paradigm. In: Frontiers in Psychology. 12. Jahrgang, 2021, ISSN 1664-1078, S. 655168, doi:10.3389/fpsyg.2021.655168, PMID 34113290, PMC 8185165 (freier Volltext) – (englisch).
- ↑ Liddell, Scott K. (2003). Grammar, Gesture, and Meaning in American Sign Language. Cambridge: Cambridge University Press, englisch.
- ↑ Josep Quer i Carbonell; Carlo Cecchetto; Rannveig Sverrisd Ãttir: SignGram blueprint: A guide to sign language grammar writing, De Gruyter Mouton, 2017, ISBN 9781501511806, oclc 1012688117, englisch.
- ↑ Fabian Bross, Daniel Hole: Scope-taking strategies in German Sign Language. In: Glossa. 2. Jahrgang, Nr. 1, S. 1–30, doi:10.5334/gjgl.106 (englisch).
- ↑ Patrick Boudreault, Mayberry, Rachel I.: Grammatical processing in American Sign Language: Age of first-language acquisition effects in relation to syntactic structure. In: Language and Cognitive Processes. 21. Jahrgang, Nr. 5, 2006, S. 608–635, doi:10.1080/01690960500139363 (englisch).
- ↑ Baker, Charlotte, and Dennis Cokely (1980). American Sign Language: A teacher's resource text on grammar and culture. Silver Spring, MD: T.J. Publishers, englisch.
- ↑ Josep Quer: On categorizing types of role shift in Sign languages. In: Theoretical Linguistics. 44. Jahrgang, Nr. 3–4, 1. Oktober 2018, ISSN 1613-4060, S. 277–282, doi:10.1515/tl-2018-0020 (englisch, degruyter.com).
- ↑ Isabelle Buchstaller, Ingrid van Alphen: Quotatives: Cross-linguistic and cross-disciplinary perspectives. John Benjamins Publishing, 2012, ISBN 978-90-272-7479-3 (englisch, google.com).
- ↑ How to use role shifting in American Sign Language. In: www.handspeak.com. Abgerufen am 14. April 2022 (englisch).
- ↑ Sutton-Spence, Rachel, and Bencie Woll (1998). The linguistics of British Sign Language. Cambridge: Cambridge University Press, englisch.
- ↑ Baker, Charlotte (1977). Regulators and turn-taking in American Sign Language discourse, in Lynn Friedman, On the other hand: New perspectives on American Sign Language. New York: Academic Press. ISBN 9780122678509, englisch.
- ↑ Filhol, Michael; Choisier, Annick; Hadjadj, Mohamed: Non-manual features: the right to indifference, 1982-05-31, URL https://www.researchgate.net/publication/263374191, englisch.
- ↑ Stokoe, William C. Jr.: Sign Language Structure: An Outline of the Visual Communication Systems of the American Deaf, The Journal of Deaf Studies and Deaf Education, 2005-01-01, Vol. 10, Issue 1, S. 3–37, doi:10.1093/deafed/eni001, pmid 15585746, issn 1081-4159, URL https://doi.org/10.1093/deafed/eni001, englisch.
- ↑ Mukushev, Medet; Sabyrov, Arman; Imashev, Alfarabi; Koishybay, Kenessary; Kimmelman, Vadim; Sandygulova, Anara: Evaluation of Manual and Non-manual Components for Sign Language Recognition, Proceedings of the 12th Language Resources and Evaluation Conference, European Language Resources Association, Marseille, France 2020, S. 6073–6078, ISBN 979-10-95546-34-4, URL https://aclanthology.org/2020.lrec-1.745, englisch.