جستجو در بخش : سوال جواب منابع اسلامی لغت نامه ها قوانین و مصوبات نقل قل ها
×

فرم ورود

ورود با گوگل ورود با گوگل ورود با تلگرام ورود با تلگرام
رمز عبور را فراموش کرده ام عضو نیستم، می خواهم عضو شوم
×

×

آدرس بخش انتخاب شده


جهت کپی کردن میتوانید از دکمه های Ctrl + C استفاده کنید
رویداد ها - امتیازات
در حال بارگذاری
×

رویداد ها - امتیازات

برای بررسی عملکرد فعالیت و امتیازات خود باید در وب سایت وارد باشید. در صورت عضویت از بخش بالای صفحه وارد شوید، در غیر این صورت از دکمه پایین، مستقیم به صفحه ثبت نام وارد شوید.

×
×

sign language  |

زبان اشاره

معنی: زبان اشاره ( به انگلیسی : Sign language ) نطام قراردادی خاص منظم و پیشرفته زبانی است که برای انتقال معنا، به جایاشکال صوتی یا نوشتاری در زبان، از اشکل هائی از علایم دیداری (ترکیب همزمان شکل، جهت و حرکت دستان، بازوها یا بدن وحالات صورت برای بیان سلیس افکار گوینده) در یک کلمه اشاره استفاده می‌کند.. این نوع زبان اشاره می توان بصورت متنوع باشد. اما امروزه یک زبان اشاره بین المللی در سطح جهان قراارداد شده است که البته در هر منطقه عناصر بومی زبان نیز به آن افزوده می شود.

هرجا ارتباط ناشنوایان وجود دارد، زبان‌های اشاره بوجود می‌آیند. گرامرهای پیچیده ی زبان اشاره به طور قابل ملاحظه‌ای با گرامرهای زبان‌های گفتاری تفاوت دارند و درحوزه ی فرهنگی ناشنوایان می‌باشند. برخی از زبان‌های اشاره بعضی حرکات رااز شناخت کلی کسب کرده‌اند، در حالیکه بقیه زبانها چنین پایه‌ای ندارند.

محتویات
تاریخ زبان اشاره

جان پابلو بونت، (تبدیل حروف و هنر برای تعلیم ناشنوایان به صحبت کردن)(مادرید سال۱۶۲۰). یکی از سوابق نوشتاری زبان اشاره در قرن پنجم قبل از میلاد مسیح، در کراتیلوس افلاتون یافت شد. جایی که سقراط گفت:"اگر ما صدا یا زبان نداشتیم، و قصد بیان چیزهایی را به دیگران داشتیم، آیا سعی نمی‌کردیم با حرکات دستهایمان، سر و بقیه اعضای بدن اشاراتی ایجاد کنیم، درست مثل افراد گنگ در حال حاضر؟ به نظر می‌رسد گروه‌هایی از ناشنوایان در طول تاریخ از زبان‌های اشاره استفاده می‌کردند.

در دومین قرن یهودیه، مقاله ثبت شده ی گیتین در میشنا تصریح کرد که به منظور معاملات تجاری "یک کرولال می‌تواند گفتگو را بوسیله ی ایما و اشاره کنترل کند.بن بثیرا می‌گوید که فرد ناشنوا ممکن است این کار را بوسیله ی حرکات لب انجام دهد.این نحوه تدریس در جامعه ی یهودی مشهور بود، جایی که مطالعه ی میشنا از دوران کودکی اجباری بود.

در سال ۱۶۲۰، جان پابلو بونت(تبدیل حروف و هنر برای تعلیم ناشنوایان به صحبت کردن) را در مادرید منتشر کرد. این کار اولین مقاله ی مصوتها به نظر می‌آید، تنظیم روش تعلیم شفاهی برای ناشنوایان بوسیله استفاده از اشارات به شکل الفبای دستی به منظور ارتقاء ارتباط ناشنوایان.با استفاده از زبان اشارات بونت چارلز میشل دلپی الفبای دستی اش را در قرن هجدهم منتشر کرد. الفبایی که اساسا بدون تغییر در فرانسه و امریکای شمالی تا حال حاضر به جا مانده‌است.

زبان اشاره اغلب در مدارس سراسری برای دانش آموزان ناشنوا رشد یافت. در سال ۱۷۵۵، ابی اولین مدرسه برای بچه‌های ناشنوا را در پاریس تاسیس کرد لورنت کلرک معروفترین فارغ التحصیل آنجا بود. کلرک با توماس هاپکین برای تاسیس مدرسه‌ای امریکایی برای ناشنوایان در هارتفورت، در سال ۱۸۱۷ به ایالات متحده امریکا رفتند.{۵} پسر گالودت ادوارد منیر مدرسه‌ای برای ناشنوایان در سال ۱۸۵۷ در واشنگتن تاسیس کرد که در سال ۱۸۶۴ کالج ملی ناشنوایان شد.در حال حاضر دانشگاه گالودت نامیده می‌شود، که هنوز تنها دانشگاه علوم انسانی برای افراد ناشنوا در دنیاست.

به طور کلی، هر زبان گفتاری یک نوع زبان اشاره دارد به همان اندازه که هر جمعیت زبان شناختی شامل افرادی ناشنوا خواهد بود که زبان اشاره تولید خواهند کرد. در همین راستا، تاثیرات جغرافیایی و فرهنگی جمعیت‌ها را جدا خواهد کرد و منجر به نسلی با زبان‌های گفتاری متفاوت و ناهمگون می‌شود، همین تاثیرات بر روی زبان‌های اشاره اجرا شده وبنابراین آنها به نگه داری همانندیشان طی زمانی سخت، و همان مکان‌های تحت تاثیر قرار گرفته شده مثل زبان‌های گفتار محلی، گرایش پیدا می‌کنند.این مساله اگرچه زبان‌های اشاره هیچ ارتباطی با زبان‌های گفتاری سرزمین‌هایی که در آن بوجود آمده‌اند ندارند اتفاق می‌افتد. استثناهای قابل توجهی دراین روال وجود دارند، اگرچه، همانطور که بعضی مناطق جغرافیایی از یک زبان گفتاری به طور مشترک استفاده می‌کنند، زبان‌های اشاره ی متعدد، غیر وابسته دارند.تفاوت‌ها در زبان اشاره ملی معمولا به موقعیت جغرافیایی مدارس شبانه روزی ناشنوایان بستگی دارد.

اشاره بین المللی در گذشته به جستونو معروف بود.اساسا در مسابقات بین المللی ناشنوایان از جمله دف لمپیک و جلسات فدراسیون جهانی ناشنوایان استفاده می‌شود.مطالعات اخیر اظهار داشت که درحالیکه اشاره بین المللی نوعی از زبان آمیزه‌ای انگلیسی و چینی ست، نتیجه گرفتند که این زبان پیچیده تر از انگلیسی محاوره رایج است و در واقع بیشتر شبیه زبان اشاره‌است. {۶} زبان شناسی اشاره

در شرایط‌های زبان شناختی، زبان‌های اشاره مانند هر زبان شفاهی علی رغم درک اشتباه رایجی که آنها زبان‌های واقعی نیستند، غنی و پیچیده هستند.زبان شناسان حرفه‌ای زبان‌های اشاره ی زیادی را مطالعه کردند و دریافتند که آنها همه ی اجزای زبان شناختی را دارا هستند که مانند زبان‌های واقعی نیاز به طبقه بندی شدن دارند.{۷}

زبان‌های اشاره تقلیدی نیستند- به مفهوم دیگر، اشارات قراردادی هستند، اغلب اختیاریند و الزاما ارتباط عینی با کلمه مرجعشان ندارند، بیشتر زبان‌های گفتاری نام آوا نیستند.در حالیکه تصویرگری در زبان‌های اشاره سازمان یافته تر و گسترده تر از زبان‌های گفتاریست، تفاوت قطعی نیست.{۸} و نه تصویر عینی از یک زبان بیانی هستند. گرامرهای پیچیده ی زبان خود را دارا هستند، و قابل استفاده برای بحث کردن در مورد هر موضوعی هستند، از ساده و غیر انتزاعی گرفته تا پیچیده و انتزاعی زبان‌های اشاره مثل زبان‌های گفتاری از قسمت‌های ابتدایی و بی معنی به قسمت‌های با معنی سازماندهی می‌شوند.


عناصر یک اشاره عبارتند از: تکان دست ها(یا شکل دست‌ها)، جهت شناسی(یا جهت کف دست)، موقعیت(یا محل تلفظ) حرکت وعلامت‌های غیردستی(یا حالت صورت) که در اکرونیم HOLME خلاصه شده‌اند.خصوصیات زبانشناسی معمول در زبان‌های اشاره ناشنوایان دسته بندی گسترد
ه‌ای دارند، درجه بالایی از صرف و تفسیر موضوعی نحو. بسیاری از ویژگی‌های زبانشناسی منحصربه فرد از توانایی زبان‌های اشاره برای تولید معنی در قسمت‌های مختلف میدان دید به طور همزمان ظاهر می‌شوند. برای مثال، گیرنده یک پیام اشاره می‌تواند معانی را که توسط دست‌ها، حالت چهره و حالت بدن در یک لحظه بوجود می‌ایند، بخواند. این یک مقایسه‌است با زبان‌های شفاهی که در ان صداهایی که کلمات را می‌سازند، اغلب متوالی اند.

روابط زبان‌های اشاره با زبان‌های شفاهی

یک تصور اشتباه عمومی این است که زبان‌های اشاره به طریقی وابسته به زبان‌های شفاهی هستند، بدین صورت که ان‌ها زبان‌های شفاهی هستند که توسط حرکات دست‌ها تلفظ می‌شوند یا اینکه ان‌ها توسط افراد شنوا اختراع شده بودند.معلمان شنوا در مدارس ناشنوایان نظیر توماس هابکینز گالودت، اغلب بطور ناصحیح به عنوان مخترعین زبان اشاره شناخته شده‌اند.

الفبای دستی (هجی کردن انگشتی) در زبان‌های اشاره، اغلب برای اسامی خاص و تکنیکی یا کلمات تخصصی گرفته شده از زبان‌های گفتاری استفاده می‌شوند.استفاده از هجی انگشتی به عنوان شاهد گرفته شده بود که زبان‌های اشاره شکل‌های ساده شده ی زبان‌های شفاهی هستند، ولی در واقع آن یک ابزار منحصربه فرد درمیان بقیه‌است. هجی انگشتی گاهی می‌تواند به عنوان منبعی از اشارات جدید باشد که علامت‌های لغوی نامیده می‌شوند.

در مجموع، زبان‌های اشاره ناشنوایان از زبان‌های شفاهی مستقل هستند و راه‌های توسعه خود را دنبال می‌کنند. برای مثال، زبان اشاره انگلیسی و زبان اشاره آمریکایی کاملا متفاوتند و نامفهوم، در حالیکه مردم شنوای انگلیس و آمریکا در زبان شفاهی مشترکند.دریک منطقه یکسان جغرافیایی گرامر زبانهای اشاره الزاما با زبانهای گویا شباهتی ندارد، درواقع در نحو، ASL بیشتر با ژاپنی گفتاری سهیم است تا با انگلیسی.

همینطور کشورهائی که سر تاسر تنها از یک زبان شفاهی استفاده می‌کنند، ممکن است دو یا چند زبان اشاره داشته باشند، در حالیکه منطقه‌ای که بیشتر از یک زبان شفاهی را شامل می‌شود ممکن است تنها از یک زبان اشاره استفاده کند. آفریقای جنوبی که ۱۱ زبان شفاهی رسمی و نزدیک به همین تعداد زبانهای شفاهی دیگر دارد مثال خوبی برای این مطلب است. این کشور فقط یک زبان اشاره دارد اما به دو شکل که بدلیل قدمت دو موسسه آموزشی اصلی در مناطق مختلف جغرافیائی یک کشوراست که به ناشنوایان خدمت می‌کنند.

در سال ۱۹۷۲ آرسولابلوکی متخصص اعصاب و روانشناس از چندین نفر آمرریکائی و انگلیسی که به زبان اشاره مسلط بودند خواست که داستانی به انگلیسی بگویند، سپس از زبان اشاره آمریکائی شروع کرد و به عکس.نتایج بطور میانگین ۷/۴ کلمه در ثانیه و۳/۲ علامت در ثانیه را نشان دادند. با اینکه فقط ۱۲۲ علامت و ۲۱۰ کلمه برای این داستان احتیاج بود اما هر دو نوع داستان تقریبا در یک زمان به اتمام رسید.سبس آرسولا آزمایش کرد تا ببیند که آیا ASL اطلاعات سرنوشت ساز را حذف می‌کند یا خیر.به یک شخص دو زبانه داستانی داده شد تا به ASL ترجمه کند و به دومی که به دو زبان اشاره مسلط بود وعلائم را دید وآنها را به انگلیسی ترجمه کرد. اطلاعات بدست آمده نشان داد که داستان به زبان اشاره با داستان اصلی یکسان بود. این مطالعه اگرچه به این حوزه محدود شد ولی پیشنهاد می‌کند که علائم ASL اطلاعات بیشتری از زبان گویای انگلیسی دارند. ۵/۱ بیشنهاد برای زبان اشاره در ثانیه در مقایسه با ۳/۱ پیشنهاد برای صحبت انگلیسی.

زبان‌های اشاره از ویژگی‌های منحصربه فرد شیوه دیداری استفاده می‌کنند.زبان شفاهی تک بعدی است؛ دریک زمان تنها یک صدا می‌تواند تولید یا دریافت شود. درحالیکه زبان اشاره بصری است؛ بنابراین یک صحنه کامل در یک زمان گرفته می‌شود. اطلاعات می‌تواند در چندین کانال بار شود و بطور همزمان نشان داده شود. به عنوان مثال، یک نفر می‌تواند این عبارت را به انگلیسی بگوید،"من اینجا رانندگی کردم." برای افزودن اطلاعات در مورد رانندگی یک نفر باید عبارت بلندتری بسازد یا حتی عبارت دیگری اضافه کند، مانند: "من اینجا درطول یک جاده پیچ در پیچ رانندگی کردم،" یا "من اینجا رانندگی کردم.رانندگی خوبی بود." بنابراین در زبان اشاره آمریکایی، اطلاعات درمورد شکل جاده یا طبیعت مسرت بخش رانندگی می‌تواند همزمان با فعل رانندگی، توسط انعطاف حرکت دست یا با بهره گیری از علامت‌های غیردستی مانند حالت بدن یا چهره نقل شود، در همان زمانی که فعل رانندگی نشان داده می‌شود. بنابراین، با اینکه در انگلیسی، عبارت "من اینجا رانندگی کردم وخیلی خوشایند بود" از "من اینجا رانندگی کردم" طولانی تر است، اما در زبان اشاره آمریکایی هر دو ممکن است از نظر طول یکی باشند.

طبقه بندی زبان‌های اشاره

اگرچه زبان‌های اشاره ناشنوایان به طور طبیعی در جوامع ناشنوایان کنار یا میان زبان‌های گفتاری بوجود آمده‌اند، اما آن‌ها هیچ ارتباطی با زبان‌های گفتاری ندارند و دارای ساختارهای مختلف گرامری هستند. گروهی از "زبان های" اشاره به عنوان زبان‌های کدبندی شده دستی شناخته شده‌اند که به عنوان روش‌های اشاره زبان‌های گفتاری بیشتر قابل فهم هستند، و بنابراین به خانواده‌های زبان از زبان‌های گفتاری مربوطه وابسته هستند.برای مثال تعداد زیادی رمزهای علامتی انگلیسی وجود دارند.

تحقیق زبانشناسی تاریخی بسیار اندکی برروی زبان‌های اشاره صورت گرفته‌است، و همینطور تلاش‌های کمی برای تعیین کردن روابط ژنتیکی میان زبان‌های اشاره، و یک مقایسه ساده بین داده‌های واژگانی و بعضی مباحث درمورد اینکه آیا زبان‌های اشاره خاص، گویش‌هایی از یک زبان هستند یا زبان‌هایی از یک خانواده. زبان‌ها ممکن است با مهاجرت، تأسیس مدارس ناشنوایان (اغلب بوسیله مربیان فرهیخته خارجی)، و یا به دلیل مقررات سیاسی گسترش بیابند.

ارتباط زبانی رایج است، مشخص کردن طبقه بندی‌های خانوادگی دشوار- اغلب نامشخص است که شباهت واژه‌ای به علت قرض گرفتن است یا یک زبان اصلی رایج.بین زبان‌های اشاره، زبان‌های اشاره و گفتاری(علامت ارتباط)، وبین زبان‌های اشاره و سیستم‌های ژستی که توسط انجمن مرزی ارتباط بیش می‌آید.به نظر مولفی زبان اشاره آداموروب ممکن است با اصطلاحات مخصوص تجاری حرکتی که در بازار سراسر آفریقای غربی استفاده می‌شود، و همچنین در لغات و ویژگی‌های مکانی که شامل علم عروضی وآواشناسی است، مربوط باشد. BSL_، Auslan وNZSL معمولا وابسته به خانواده زبانی معروف به BANZSL هستند در نظر گرفته می‌شوند. زبان اشاره دریایی و زبان اشاره جنوب افریقایی همچنین بهBSL مربوط می‌شوند.

زبان اشاره ژاپنی، تایوانی و کره‌ای به اعضای خانواده زبان اشاره ژاپنی تدریس می‌شوند.خانواده زبان اشاره فرانسه.تعدادی از زبان‌های اشاره از زبان اشاره فرانسه(LSF )بوجود آمده‌اند، یا نتیجه ی ارتباط زبان میان زبان‌های اشاره ی جامعه ی محلی و LSF.اینها شامل:زبان اشاره فرانسوی، ایتالیایی، کبکی، امریکایی، ایرلندی، روسی، هلندی، فلمینگی، بلزیکی-فرانسوی، اسپانیایی، مکزیکی، برزیلی(LIBRAS)، کاتالانی و دیگر زبان‌های اشاره.

یک زیرمجموعه از این گروه شامل زبانهایی است که بوسیله زبان اشاره امریکایی به شدت تحت تأثیر قرار گرفته بود یا انواع منطقه‌ای ASL است. زبان اشاره بولیوی بعضی اوقات به عنوان یک گویش ASL مطرح است. زبان اشاره تایلندی یک زبان ادغام شده نشئت گرفته از ASL، زبان اشاره محلی بانکوک و چیانگ‌های و شاید قسمتی از خانواده ASL در نظر گرفته شده دیگر زبانهای احتمالی بوسله ASL تحت تأثیر قرار گرفته‌اند که شامل زبان اشاره اوگاندایی، زبان اشاره کنیایی، زبان اشاره فیلیپینی و زبان اشاره مالزیایی است. شواهد داستان گونه پیشنهاد می‌دهد که زبان اشاره فنلاندی و زبان اشاره سوئدی و زبان اشاره نروژ به خانواده زبان اشاره اسکاندیناوی تعلق دارد.

زبان اشاره ایسلندی به عنوان زبان متمایل به زبان اشاره دانمارکی شناخته شده‌است اگرچه تفاوتهای شغلی در لغات در قرن توسعه ایجاد شده بود.

زبان اشاره اسرائیلی بوسیله زبان اشاره آلمانی تحت تأثیر قرار گرفته‌است.براساس گزارش SILو زبان اشاره روسیه، ملداوی و اوکراین درجه بالایی از واژگان مشترک را به اشتراک گذاشته و شاید گویش یک زبان یا زبانهای وابسته متمایز است. گزارش یکسانی یک دسته از زبانها اشاره‌ای که در مرکز آن زبان چک، زبان اشاره مجارستان و زبان اشاره اسلواکی پیشنهاد داد. این گروه همچنین ممکن است شامل زبانهای اشاره رومانیایی، بلغاری و زبان اشاره لهستانی باشد.

زبانهای متعددی شناخته شده زبان اشاره نیکاراگوئی و زبان اشاره السعید عربها بیابانی و زبان اشاره جزیره پرویدنس است. زبان اشاره اردن، لبنان، سوریه، فلسطین و عراق (و احتمالاً عربستان صعودی)ممکن است بخشی محرک یا ممکن است یک لهجه از زبان اشاره عرب شرقی باشد.

طبقه بندی جامع که در این خصوص است بر این است که لیست ساده زبانها که به تاریخ ۱۹۹۱ است برمی گردد.طبقه بندی براساس۶۹زبان اشاره‌ای چاپ Ethnologue سال ۱۹۸۸ است که در زبان کنفرانس ۱۹۸۸ در زمینه زبانهای اشاره در مونترال شناخته شده بود و دور از کنفرانس نویسنده «زبان اضافی را اضافه کرد».

طبقه بندی زبانهای اشاره‌ای

در طبقه بندی او بین زبانهای اشاره اصلی و مشتق شده (فرعی) و قطعاً بین زبانهای قابل تشخیص به عنوان زبان اشاره و زبانهای که تصور می‌شد ترکیبی باشد و حد تمایز قائل شد، نمونه اولیه زبانهای کلاس A شامل تمام آن زبانهای اشاره‌است که ظاهراً نمی‌توان از زبانهای دیگر نشئت گرفته باشند. نمونه اولیه زبانهای R زبانهایی است که توسط یک فرایند بر روی زبان نمونه A مدل شده. کلاسها LSF , GSL, DGS , BSL و زبانها LSL اشتقاقی زبانهای جدید مشتق شده از نمونه اولیه زبانهاست که بوسیله فرایندهای زبانیRelexificaiton , Creolization نمایان نمود. Creolization غنی شده در زبانهای اشاره حالتی دیده شده‌است در مقایسه با کاهش در زبانهای آوازی.

گونه شناسی زبانهای اشاره‌ای

گونه شناسی زبانی به ادوارد ساپیر برمی‌گردد. براساس ساختار کلمه و تمایز‌های مراحل ساخت شناسی از قبیل چسباننده‌ای، پیوندی انحناء صرف فعل، چند ترکیبی، مشارکتی ومجزا است.

زبان اشاره‌ای براساس احکام لغات مختلف در هر زبان مختلف تنوع دارد، بطور مثال OGS فاعل مفعول فعل است در حالیکه ASL فاعل فعل مفعول است. تناظر زبانهای مجاور غیرمحتمل است.

در صحبت کردن به صورت ایما و اشاره، شکل لغت یک عامل ضروری است. شکل قانونی کلمه از جفت کردن سیستماتیک دودویی، دو ویژگی است. بطور مثال هجابندی (دو یا چند) و واژک (و یا چند).برنتاری زبانهای اشاره بوسیله ویژگی تک هجایی یا چند هجایی بصورت یک گروه کلی مشخص کرده‌است. این بدین معنی است که یک هجا چندین واژک را بیان می‌کند. مثل فاعل و مفعول یک فعل که جهت حرکت یک فعل را مشخص می‌کند. از این رو تولید یک علامت از تولید یک لغت وقت بیشتری می‌گیرد. اما در مقایسه جمله به جمله زبان اشاره‌ای و گفتمانی تقریباً سرعت یکسانی دارند.

فرم مکتوب زبانهای اشاره‌ای

زبان اشاره با زبان گفتاری ارتباطش با نوشتن متفاوت است. سیستمهای صورت شناسی زبان گفتاری اصولاً ترتیبی است. که بسیاری از صورت شناسی تکرار یکی پس از دیگری تولید شده اگرچه زبانها دید غیرترتیبی مثل نفی دارند. در نتیجه سیستمهای نوشتاری صورت شناسی سنتی همجنس ترتیبی است. با بهترین تفکیک کننده‌ها برای نمودهای غیرترتیبی مثل تن و تنش.

زبانهای اشاره بیشترین مولفه غیرترتیبی را دارند با بسیاری از اصوات همزمان تولید شده بطور مثال نشانه‌ها ممکن است شامل انگشت، دست و پا حرکت همزمان صورت باشد یا حرکت دو دست در جهات مختلف، سیستمهای نوشتن سنتی برای این سطح پیچیدگی طراحی نشده‌اند.اندکی به خاطر این زبانهای اشاره اغلب مکتوب نیستند. در تعداد اندکی از کشورها با آموزش خوب فرصتها برای کر و لال‌ها مهیاست. بسیاری از خواننده‌های کر و لال می‌توانند زبان گفتاری کشورشان را در سطح مناسبی به عنوان «باسواد کارآمد» در نظر گرفته شوند، بخوانند و بنویسند. با این وجود در بسیاری از کشورها، آموزش کر و لال‌ها خیلی ضعیف یا خیلی محدود است. در نتیجه بسیاری از مردم کر و لال سواد کم یا بی‌سواد در زبان رایج کشورشان هستند.

منابع

↑ (دست، زبان بدن)
ویکی‌پدیای انگلیسی
۱. ^ Stokoe, William C. (۱۹۷۶). Dictionary of American Sign Language on Linguistic Principles. Linstok Press. ISBN 0-932130-01-1.

۲. ^ Stokoe, William C. (۱۹۶۰). Sign language structure: An outline of the visual communication systems of the American deaf. Studies in linguistics: Occasional papers (No. ۸). Buffalo: Dept. of Anthropology and Linguistics, University of Buffalo.

۳. ^ Bauman, Dirksen (۲۰۰۸). Open your eyes: Deaf studies talking. University of Minnesota Press. ISBN 0816646198.

۴. ^ Babylonian Talmud Gittin folio 59a

5. ^ Canlas (۲۰۰۶).

۶. ^ Cf. Supalla, Ted & Rebecca Webb (۱۹۹۵). "The grammar of international sign: A new look at pidgin languages." In: Emmorey, Karen & Judy Reilly (eds). Language, gesture, and space. (International Conference on Theoretical Issues in Sign Language Research) Hillsdale, N.J.: Erlbaum, pp. ۳۳۳–۳۵۲; McKee R. & J. Napier J. (۲۰۰۲). "Interpreting in International Sign Pidgin: an analysis." Journal of Sign Language Linguistics ۵(۱).

۷. ^ This latter conception is no longer disputed as can be seen from the fact that sign language experts are mostly linguists.

۸. ^ Johnston (۱۹۸۹).

۹. ^ Nakamura (۱۹۹۵).

۱۰. ^ Mind at Light Speed, David D. Nolte, pages ۱۰۵-۶

۱۱. ^ Frishberg (۱۹۸۷). See also the classification of Wittmann (۱۹۹۱) for the general issue of jargons as prototypes in sign language glottogenesis.

۱۲. ^ See Gordon (۲۰۰۸), under nsr and sfs .

۱۳. ^ Henri Wittmann (۱۹۹۱). The classification is said to be typological satisfying Jakobsons condition of genetic interpretability.

۱۴. ^ Wittmanns classification went into Ethnologues database where it is still cited. The subsequent edition of Ethnologue in 1992 went up to 81 sign languages and ultimately adopting Wittmanns distinction between primary and alternates sign langues (going back ultimately to Stokoe 1974) and, more vaguely, some other of his traits. The 2008 version of the 15th edition of Ethnologue is now up to 124 sign languages.

۱۵. ^ To the extent that Wittmanns language codes are different from SIL codes, the latter are given within parentheses

16. ^ Wittmann adds that this taxonmic criteron is not really applicable with any scientific rigor: Alternative sign languages, to the extent that they are full-fledged natural languages (and therefore included in his survey), are mostly used by the deaf as well; and some primary sign languages (such as ASL(ase) and ADS) have acquired alternative usages.

۱۷. ^ Wittmann includes in this class ASW (composed of at least 14 different languages), MOS(mzg), HST (distinct from the LSQ ASL(ase)-derived TSQ) and SQS. In the meantime since 1991, HST has been recognized as being composed of BFK, CSD, HAB, HAF, HOS, LSO.

۱۸. ^ Wittmanns references on the subject, besides his own work on creolization and relexification in "vocally signed" languages, include papers such as Fischer (۱۹۷۴, ۱۹۷۸), Deuchar (۱۹۸۷) and Judy Kegls pre-۱۹۹۱ work on creolization in sign languages.

۱۹. ^ Wittmanns explanation for this is that models of acquisition and transmission for sign languages are not based on any typical parent-child relation model of direct transmission which is inducive to variation and change to a greater extent. He notes that sign creoles are much more common than vocal creoles and that we cant know on how many successive creolizations prototype-A sign languages are based prior to their historicity.

۲۰. ^ Brentari, Diane (۱۹۹۸): A prosodic model of sign language phonology. Cambridge, MA: MIT Press; cited in Hohenberger (۲۰۰۷) on p. ۳۴۹

۲۱. ^ Brentari, Diane (۲۰۰۲): Modality differences in sign language phonology and morphophonemics. In: Richard P. Meier, kearsy Cormier, and David Quinto-Pozocs (eds.), ۳۵-۳۶; cited in Hohenberger (۲۰۰۷) on p. ۳۴۹

۲۲. ^ Hohenberger, Annette: The possible range of variation between sign languages: Universal Grammar, modality, and typological aspects; in: Perniss, Pamela M., Roland Pfau and Markus Steinbach (Eds.): Visible Variation. Comparative Studies on Sign Language Structure; (Reihe Trends in Linguistics. Studies and Monographs ۱۸۸). Berlin, New York: Mouton de Gruyter ۲۰۰۷

در ویکی‌انبار پرونده‌هایی دربارهٔ زبان اشاره موجود است.
رده‌های صفحه: زبان
از ویکی پدیا
قس عربی

قس انگلیسی
A sign language (also signed language) is a language which, instead of acoustically conveyed sound patterns, uses manual communication and body language to convey meaning. This can involve simultaneously combining hand shapes, orientation and movement of the hands, arms or body, and facial expressions to fluidly express a speakers thoughts.
Wherever communities of deaf people exist, sign languages develop. While they utilize space for grammar in a way that spoken languages do not, sign languages exhibit the same linguistic properties and use the same language faculty as do spoken languages. Hundreds of sign languages are in use around the world and are at the cores of local deaf cultures. Some sign languages have obtained some form of legal recognition, while others have no status at all.
Contents
History



Juan Pablo Bonet, Reducción de las letras y arte para enseñar a hablar a los mudos (‘Reduction of letters and art for teaching mute people to speak’) (Madrid, 1620).
One of the earliest written records of a signed language occurred in the fifth century BC, in Platos Cratylus, where Socrates says: "If we hadnt a voice or a tongue, and wanted to express things to one another, wouldnt we try to make signs by moving our hands, head, and the rest of our body, just as dumb people do at present?" It seems that groups of deaf people have used signed languages throughout history.
In 2nd-century Judea, the recording in the Mishnah tractate Gittin stipulated that for the purpose of commercial transactions "A deaf-mute can hold a conversation by means of gestures. Ben Bathyra says that he may also do so by means of lip-motions." This teaching was well known in Jewish society where study of Mishnah was compulsory from childhood.
In 1620, Juan Pablo Bonet published Reducción de las letras y arte para enseñar a hablar a los mudos (‘Reduction of letters and art for teaching mute people to speak’) in Madrid. It is considered the first modern treatise of Phonetics and Logopedia, setting out a method of oral education for the deaf people by means of the use of manual signs, in form of a manual alphabet to improve the communication of the mute or deaf people.
From the language of signs of Bonet, Charles-Michel de lÉpée published his manual alphabet in the 18th century, which has survived basically unchanged in France and North America until the present time.
Sign languages have often evolved around schools for deaf students. In 1755, Abbé de lÉpée founded the first school for deaf children in Paris; Laurent Clerc was arguably its most famous graduate. Clerc went to the United States with Thomas Hopkins Gallaudet to found the American School for the Deaf in Hartford, Connecticut, in 1817. Gallaudets son, Edward Miner Gallaudet founded a school for the deaf in 1857 in Washington, D.C., which in 1864 became the National Deaf-Mute College. Now called Gallaudet University, it is still the only liberal arts university for deaf people in the world.
Sign languages generally do not have any linguistic relation to the spoken languages of the lands in which they arise. The correlation between signed and spoken languages is complex and varies depending on the country more than the spoken language. For example, the US, Canada, UK, Australia and New Zealand all have English as their dominant language, but American Sign Language (ASL), used in the US and most parts of Canada, is derived from French Sign Language whereas the other three countries sign dialects of British, Australian and New Zealand Sign Language. Similarly, the sign languages of Spain and Mexico are very different, despite Spanish being the national language in each country, and the sign language used in Bolivia is based on ASL rather than any sign language that is used in a Spanish-speaking country. Variations also arise within a national sign language which dont necessarily correspond to dialect differences in the national spoken language; rather, they can usually be correlated to the geographic location of residential schools for the deaf.
International Sign, formerly known as Gestuno, is used mainly at international Deaf events such as the Deaflympics and meetings of the World Federation of the Deaf. Recent studies claim that while International Sign is a kind of a pidgin, they conclude that it is more complex than a typical pidgin and indeed is more like a full signed language.
Linguistics of sign

In linguistic terms, sign languages are as rich and complex as any oral language, despite the common misconception that they are not "real languages". Professional linguists have studied many sign languages and found that they exhibit the fundamental properties that exist in all languages.
Sign languages are not mime – in other words, signs are conventional, often arbitrary and do not necessarily have a visual relationship to their referent, much as most spoken language is not onomatopoeic. While iconicity is more systematic and widespread in sign languages than in spoken ones, the difference is not categorical. The visual modality allows the human preference for close connections between form and meaning, present but suppressed in spoken languages, to be more fully expressed. This does not mean that signed languages are a visual rendition of an oral language. They have complex grammars of their own, and can be used to discuss any topic, from the simple and concrete to the lofty and abstract.
Sign languages, like oral languages, organize elementary, meaningless units (phonemes; once called cheremes in the case of sign languages) into meaningful semantic units. Like in spoken languages, these meaningless units are represented as (combinations of) features, although often also crude distinctions are made in terms of Handshape (or Handform), Orientation, Location (or Place of Articulation), Movement, and Non-manual expression.
Common linguistic features of many sign languages are the occurrence of classifiers, a high degree of inflection, and a topic-comment syntax. More than spoken languages, sign languages can convey meaning by simultaneous means, e.g. by the use of space, two manual articulators, and the signers face and body. Though there is still much discussion on the topic of iconicity in Signed Languages, classifiers are generally perceived to be highly iconic, as these complex constructions "function as predicates that may express any or all of the following: motion, position, stative-descriptive, or handling information" It needs to be noted that the term classifier is not used by every one working on these constructions. Across the field of sign language linguistics the same constructions are also referred with other terms.
Sign languages relationships with oral languages
A common misconception is that sign languages are somehow dependent on oral languages, that is, that they are oral language spelled out in gesture, or that they were invented by hearing people. Hearing teachers in deaf schools, such as Thomas Hopkins Gallaudet, are often incorrectly referred to as “inventors” of sign language.
Although not part of sign languages, elements from the Manual alphabets (fingerspelling) may be used in signed communication, mostly for proper names and concepts for which no sign is available at that moment. Elements from the manual alphabet can sometimes be a source of new signs (e.g. initialized signs, in which the shape of the hand represents the first letter of the word for the sign).
On the whole, sign languages are independent of oral languages and follow their own paths of development. For example, British Sign Language and American Sign Language are quite different and mutually unintelligible, even though the hearing people of Britain and America share the same oral language. The grammars of sign languages do usually not resemble that of spoken languages used in the same geographical area; in fact, in terms of syntax, ASL shares more with spoken Japanese than it does with English.
Similarly, countries which use a single oral language throughout may have two or more sign languages; whereas an area that contains more than one oral language might use only one sign language. South Africa, which has 11 official oral languages and a similar number of other widely used oral languages is a good example of this. It has only one sign language with two variants due to its history of having two major educational institutions for the deaf which have served different geographic areas of the country.
Spatial grammar and simultaneity
Sign languages exploit the unique features of the visual medium (sight), but may also exploit tactile features (tactile sign languages). Oral language is by and large linear; only one sound can be made or received at a time. Sign language, on the other hand, is visual and, hence, can use simultaneous expression, although this is limited articulatorily and linguistically. Visual perception allows processing of simultaneous information.
One way in which many signed languages take advantage of the spatial nature of the language is through the use of classifiers. Classifiers allow a signer to spatially show a referents type, size, shape, movement, or extent.
The large focus on the possibility of simultaneity in signed languages in contrast to spoken languages is sometimes exaggerated, though. The use of two manual articulators is subject to motor constraints, resulting in a large extent of symmetry or signing with one articulator only.
Non-manual signs
Signed languages convey much of their prosody through non-manual signs. Postures or movements of the body, head, eyebrows, eyes, cheeks, and mouth are used in various combinations to show several categories of information, including lexical distinction, grammatical structure, adjectival or adverbial content, and discourse functions.
In ASL, some signs have required facial components that distinguish them from other signs. An example of this sort of lexical distinction is the sign translated not yet, which requires that the tongue touch the lower lip and that the head rotate from side to side, in addition to the manual part of the sign. Without these features it would be interpreted as late.
Grammatical structure that is shown through non-manual signs includes questions, negation, relative clauses, boundaries between sentences, and the argument structure of some verbs. ASL and BSL use similar non-manual marking for yes/no questions, for example. They are shown through raised eyebrows and a forward head tilt.
Some adjectival and adverbial information is conveyed through non-manual signs, but what these signs are varies from language to language. For instance, in ASL a slightly open mouth with the tongue relaxed and visible in the corner of the mouth means carelessly, but a similar sign in BSL means boring or unpleasant.
Discourse functions such as turn taking are largely regulated through head movement and eye gaze. Since the addressee in a signed conversation must be watching the signer, a signer can avoid letting the other person have a turn by not looking at them, or can indicate that the other person may have a turn by making eye contact.
Iconicity in signed languages
The first studies on iconicity in ASL were published in the late 1970s, and early 1980s. Many early signed language linguists rejected the notion that iconicity was an important aspect of the language. Though they recognized that certain aspects of the language seemed iconic, they considered this to be merely extralinguistic, a property which did not influence the language. Frishberg (1975) wrote a very influential paper addressing the relationship between arbitrariness and iconicity in ASL. She concluded that though originally present in many signs, iconicity is degraded over time through the application of grammatical processes. In other words, over time, the natural processes of regularization in the language obscures any iconically motivated features of the sign.
Some researchers have suggested that the properties of ASL give it a clear advantage in terms of learning and memory. Brown, a psychologist by trade, was one of the first to document this benefit. In his study, Brown found that when children were taught signs that had high levels of iconic mapping they were significantly more likely to recall the signs in a later memory task than when they were taught signs that had little or no iconic properties.



"Hello" in ASL (American sign language)



Another variation of "hello" in ASL (American sign language)

The pioneers of sign language linguistics were yoked with the task of trying to prove that ASL was a real language and not merely a collection of gestures or “English on the hands.” One of the prevailing beliefs at this time was that ‘real languages’ must consist of an arbitrary relationship between form and meaning. Thus, if ASL consisted of signs that had iconic form-meaning relationship, it could not be considered a real language. As a result, iconicity as a whole was largely neglected in research of signed languages.
The cognitive linguistics perspective rejects a more traditional definition of iconicity as a relationship between linguistic form and a concrete, real-world referent. Rather it is a set of selected correspondences between the form and meaning of a sign. In this view, iconicity is grounded in a language user’s mental representation (“construal” in Cognitive Grammar). It is defined as a fully grammatical and central aspect of a signed language rather than periphery phenomena.
The cognitive linguistics perspective allows for some signs to be fully iconic or partially iconic given the number of correspondences between the possible parameters of form and meaning. In this way, the Israeli Sign Language (ISL) sign for ASK has parts of its form that are iconic (“movement away from the mouth” means “something coming from the mouth”), and parts that are arbitrary (the handshape, and the orientation).
Many signs have metaphoric mappings as well as iconic or metonymic ones. For these signs there are three way correspondences between a form, a concrete source and an abstract target meaning. The ASL sign LEARN has this three way correspondence. The abstract target meaning is “learning.” The concrete source is putting objects into the head from books. The form is a grasping hand moving from an open palm to the forehead. The iconic correspondence is between form and concrete source. The metaphorical correspondence is between concrete source and abstract target meaning. Because the concrete source is connected to two correspondences linguistics refer to metaphorical signs as “double mapped.”
Classification of sign languages
See also: List of sign languages
Although sign languages have emerged naturally in deaf communities alongside or among spoken languages, they are unrelated to spoken languages and have different grammatical structures at their core.
There has been very little historical linguistic research on sign languages, apart from a few comparisons of lexical data of related sign languages. Sign language typology is still in its infancy, since extensive knowledge about sign language grammars is still scarce. Although various cross-linguistic studies have been undertaken, it is difficult to use these for typological purposes. Sign languages may spread through migration, through the establishment of deaf schools (often by foreign-trained educators), or due to political domination.
Language contact and creolization is common, making clear family classifications difficult – it is often unclear whether lexical similarity is due to borrowing or a common parent language, or whether there was one or several parent languages. Contact occurs between sign languages, between signed and spoken languages (contact sign), and between sign languages and gestural systems used by the broader community. One author has speculated that Adamorobe Sign Language may be related to the "gestural trade jargon used in the markets throughout West Africa", in vocabulary and areal features including prosody and phonetics.
BSL, Auslan and NZSL are usually considered to be a language known as BANZSL. Maritime Sign Language and South African Sign Language are also related to BSL.
Danish Sign Language and its descendants Norwegian Sign Language and Icelandic Sign Language are largely mutually intelligible with Swedish Sign Language. Finnish Sign Language, and Portuguese Sign Language derive from Swedish SL, though with local admixture in the case of mutually unintelligible Finnish SL. Danish SL has French SL influence and Wittmann (1991) places them in that family, though he proposes that Swedish, Finnish, and Portuguese SL are instead related to British Sign Language.
Japanese Sign Language, Taiwanese Sign Language and Korean Sign Language are thought to be members of a Japanese Sign Language family.
French Sign Language family. There are a number of sign languages that emerged from French Sign Language (LSF), or are the result of language contact between local community sign languages and LSF. These include: French Sign Language, Italian Sign Language, Quebec Sign Language, American Sign Language, Irish Sign Language, Russian Sign Language, Dutch Sign Language (NGT), Spanish Sign Language, Mexican Sign Language, Brazilian Sign Language (LIBRAS), Catalan Sign Language, Austrian Sign Language (along with its twin Hungarian Sign Language and its offspring Czech Sign Language) and others.
A subset of this group includes languages that have been heavily influenced by American Sign Language (ASL), or are regional varieties of ASL. Bolivian Sign Language is sometimes considered a dialect of ASL. Thai Sign Language is a mixed language derived from ASL and the native sign languages of Bangkok and Chiang Mai, and may be considered part of the ASL family. Others possibly influenced by ASL include Ugandan Sign Language, Kenyan Sign Language, Philippine Sign Language and Malaysian Sign Language.
German Sign Language (DGS) gave rise to Polish Sign Language; it also at least strongly influenced Israeli Sign Language, though it is unclear whether the latter derives from DGS or from Austrian Sign Language, which is in the French family.
Lyons Sign Language may be the source of Flemish Sign Language (VGT) though this is unclear.
According to a SIL report, the sign languages of Russia, Moldova and Ukraine share a high degree of lexical similarity and may be dialects of one language, or distinct related languages. The same report suggested a "cluster" of sign languages centered around Czech Sign Language, Hungarian Sign Language and Slovak Sign Language. This group may also include Romanian, Bulgarian, and Polish sign languages.
Sign languages of Jordan, Lebanon, Syria, Palestine, and Iraq (and possibly Saudi Arabia) may be part of a sprachbund, or may be one dialect of a larger Eastern Arabic Sign Language.
Known isolates include Nicaraguan Sign Language, Kata Kolok, Al-Sayyid Bedouin Sign Language, and Providence Island Sign Language.
The only comprehensive classification along these lines going beyond a simple listing of languages dates back to 1991. The classification is based on the 69 sign languages from the 1988 edition of Ethnologue that were known at the time of the 1989 conference on sign languages in Montreal and 11 more languages the author added after the conference.
Wittmann classification of sign languages
Primary
language Primary
group Auxiliary
language Auxiliary
group
Prototype-A
5
1
7
2
Prototype-R
18
1
1

BSL-derived
8



DGS-derived
1 or 2



JSL-derived
2



LSF-derived
30



LSG-derived
1?



In his classification, the author distinguishes between primary and auxiliary sign languages as well as between single languages and names that are thought to refer to more than one language. The prototype-A class of languages includes all those sign languages that seemingly cannot be derived from any other language. Prototype-R languages are languages that are remotely modelled on a prototype-A language (in many cases thought to have been FSL) by a process Kroeber (1940) called "stimulus diffusion". The families of BSL, DGS, JSL, LSF (and possibly LSG) were the products of creolization and relexification of prototype languages. Creolization is seen as enriching overt morphology in sign languages, as compared to reducing overt morphology in vocal languages.
Typology of sign languages
See also: Linguistic typology
Linguistic typology (going back on Edward Sapir) is based on word structure and distinguishes morphological classes such as agglutinating/concatenating, inflectional, polysynthetic, incorporating, and isolating ones.
Sign languages vary in word-order typology as there are different word orders in different languages. For example, ÖGS, Japanese Sign Language and so-called Indo-Pakistani Sign Language are Subject-Object-Verb while ASL is Subject-Verb-Object. Influence from the surrounding spoken languages is not improbable.
Sign languages tend to be incorporating classifier languages, where a classifier handshape representing the object is incorporated into those transitive verbs which allow such modification. For a similar group of intransitive verbs (especially motion verbs), it is the subject which is incorporated. Only in a very few sign languages (for instance Japanese Sign Language) are agents ever incorporated. in this way, since subjects of intransitives are treated similarly to objects of transitives, incorporation in sign languages can be said to follow an ergative pattern.
Brentari classifies sign languages as a whole group determined by the medium of communication (visual instead of auditive) as one group with the features monosyllabic and polymorphemic. That means, that via one syllable (i.e. one word, one sign) several morphemes can be expressed, like subject and object of a verb determine the direction of the verbs movement (inflection).
Acquisition of signed languages
See also: Language acquisition
Children who are exposed to a signed language from birth will acquire it, just as hearing children acquire their native spoken language.
The acquisition of non-manual features follows an interesting pattern: When a word that always has a particular non-manual feature associated with it (such as a wh- question word) is learned, the non-manual aspects are attached to the word but don’t have the flexibility associated with adult use. At a certain point the non-manual features are dropped and the word is produced with no facial expression. After a few months the non-manuals reappear, this time being used the way adult signers would use them.
Written forms of sign languages
Sign languages do not have a traditional or formal written form. Many Deaf people do not see a need to write their own language.
Several ways to statively represent sign languages have been developed.
The Stokoe notation, devised by Dr. William Stokoe for his 1965 Dictionary of American Sign Language, is an abstract phonemic notation system. Designed specifically for manual expression, it has no way of expressing facial expression. However, his was designed for research, not general-use.
The Hamburg Notation System (HamNoSys), developed in the early 1990s, is a detailed phonetic system, not designed for any one sign language, and intended as a transcription system for researchers rather than as a practical script.
David J. Peterson has attempted to create a phonetic transcription system for signing that is ASCII-friendly known as the Sign Language International Phonetic Alphabet (SLIPA).
SignWriting, developed by Valerie Sutton in 1974, is a system for representing signed languages phonetically (including mouthing, facial expression and dynamics of movement). The script is sometimes used for detailed research, language documentation, as well as publishing texts and works in signed languages.
Si5s is another orthography which is largely phonemic. However, a few signs are logographs and/or ideographs due to regional variation in sign languages.
ASL-phabet is a system designed by Dr. Sam Supalla which uses a minimalist collection of symbols in the order of Handshape-Location-Movement. Many signs can be written the same way (homograph).
So far, there is no formal or consensus-wide acceptance of one or another of the aforementioned orthographies.
Sign perception
For a native signer, sign perception influences how the mind makes sense of their visual language experience. For example, a handshape may vary based on the other signs made before or after it, but these variations are arranged in perceptual categories during its development. The mind detects handshape contrasts but groups similar handshapes together in one category. Different handshapes are stored in other categories. The mind ignores some of the similarities between different perceptual categories, at the same time preserving the visual information within each perceptual category of handshape variation.
Sign languages in society

Telecommunications facilitated signing


Video Interpreter sign used at VRS/VRI service locations
Main articles: Video Remote Interpreting and Video Relay Service
One of the first demonstrations of the ability for telecommunications to help sign language users communicate with each other occurred when AT&Ts videophone (trademarked as the "Picturephone") was introduced to the public at the 1964 New York Worlds Fair – two deaf users were able to freely communicate with each other between the fair and another city. Various organizations have also conducted research on signing via videotelephony.
Sign language interpretation services via Video Remote Interpreting (VRI) or a Video Relay Service (VRS) are useful in the present-day where one of the parties is deaf, hard-of-hearing or speech-impaired (mute) and the other is Hearing. In VRI, a sign-language user and a Hearing person are in one location, and the interpreter is in another (rather than being in the same room with the clients as would normally be the case). The interpreter communicates with the sign-language user via a video telecommunications link, and with the Hearing person by an audio link. In VRS, the sign-language user, the interpreter, and the Hearing person are in three separate locations, thus allowing the two clients to talk to each other on the phone through the interpreter.
In such cases the interpretation flow is normally between a signed language and an oral language that are customarily used in the same country, such as French Sign Language (FSL) to spoken French, Spanish Sign Language (SSL) to spoken Spanish, British Sign Language (BSL) to spoken English, and American Sign Language (ASL) also to spoken English (since BSL and ASL are completely distinct), etc. Multilingual sign language interpreters, who can also translate as well across principal languages (such as to and from SSL, to and from spoken English), are also available, albeit less frequently. Such activities involve considerable effort on the part of the interpreter, since sign languages are distinct natural languages with their own construction and syntax, different from the oral language used in the same country.


A deaf person using a Video Relay Service to communicate with a hearing person
With video interpreting, sign language interpreters work remotely with live video and audio feeds, so that the interpreter can see the deaf party, and converse with the hearing party, and vice versa. Much like telephone interpreting, video interpreting can be used for situations in which no on-site interpreters are available. However, video interpreting cannot be used for situations in which all parties are speaking via telephone alone. VRI and VRS interpretation requires all parties to have the necessary equipment. Some advanced equipment enables interpreters to remotely control the video camera, in order to zoom in and out or to point the camera toward the party that is signing.
Home sign
Main article: Home sign
Sign systems are sometimes developed within a single family. For instance, when hearing parents with no sign language skills have a deaf child, an informal system of signs will naturally develop, unless repressed by the parents. The term for these mini-languages is home sign (sometimes homesign or kitchen sign).
Home sign arises due to the absence of any other way to communicate. Within the span of a single lifetime and without the support or feedback of a community, the child naturally invents signals to facilitate the meeting of his or her communication needs. Although this kind of system is grossly inadequate for the intellectual development of a child and it comes nowhere near meeting the standards linguists use to describe a complete language, it is a common occurrence. No type of Home Sign is recognized as an official language.
Use of signs in hearing communities
Gesture is a typical component of spoken languages. More elaborate systems of manual communication have developed in places or situations where speech is not practical or permitted, such as cloiste
... ادامه
2802 | 0
نمایش تصویر
اطلاعات بیشتر واژه
آواشناسی:
منبع: واژه‌نامه آزاد
معادل ابجد: 567
شمارگان هجا:
دیگر زبان ها
انگلیسی
sign language
عربی
لغة الإشارة
تشریح نگارش (هوش مصنوعی)

کلمه "زبان اشاره" به معنای نوعی زبان غیرکلامی است که افراد ناشنوا یا کم‌شنوا برای برقراری ارتباط از آن استفاده می‌کنند. در نگارش فارسی، به موارد زیر در ارتباط با این کلمه توجه کنید:

  1. فاصله: کلمه "زبان" و "اشاره" باید به صورت جدا از هم نوشته شوند و بین این دو کلمه یک فاصله وجود داشته باشد.

  2. حروف بزرگ: در متون رسمی و علمی، می‌توانید از حروف بزرگ برای شروع جمله استفاده کنید، اما در مورد "زبان اشاره"، به صورت کلمه‌نگاره‌ای، نیازی به حروف بزرگ برای شروع ندارید، مگر در آغاز جمله.

  3. علامت نگارشی: اگر "زبان اشاره" بخشی از یک جمله است، باید به قوانین مربوط به علامت‌گذاری و جمله‌بندی توجه کنید.

  4. تلفظ و معنی: در نگارش متون، بهتر است معانی و توضیحات لازم درباره زبان اشاره ارائه شود، به ویژه برای خواننده‌های ناآشنا.

  5. نوشتار علمی: اگر در متنی علمی یا آموزشی از "زبان اشاره" استفاده می‌کنید، می‌توانید به این نکته اشاره کنید که این زبان شامل مجموعه‌ای از حرکات دست، صورت و بدن است که برای انتقال معانی به کار می‌رود.

در کل، نگارش "زبان اشاره" به طور صحیح و دقیق از اهمیت بالایی برخوردار است و رعایت قواعد نگارش فارسی در این زمینه الزامی است.


500 کاراکتر باقی مانده

جعبه لام تا کام


لام تا کام نسخه صفحه کلید نیز راه اندازی شده است. شما با استفاده از کلیدهای موجود بر روی صفحه کلید دستگاهتان می توانید با وب سایت ارتباط برقرار کنید.
لیست کلید های میانبر

تبلیغات توضیحی


عرشیان از کجا شروع کنم ؟
تغییر و تحول با استاد سید محمد عرشیانفر

تبلیغات تصویری