خبری تحلیلی ردنا (ادیان نیوز)
آخرین اخبار ادیان ایران و جهان، خبرهای دینی ارامنه زرتشتیان کلیمیان شیعه اقلیت‌های دینی و مذهبی و فرقه‌ها جریان‌‌های دینی

هوش مصنوعی ابزار تبعیض علیه مسلمانان و اقلیت‌های دینی در هند

پایگاه‌های داده‌ای که در هند برای آموزش سیستم‌های هوش مصنوعی مورد استفاده قرار می‌گیرند بر ضد طبقه، جنسیت، مذهب و حتی محل سکونت هستند، بنابراین تعصب و تبعیض علیه آنها را تشدید می‌کنند. برای مثال منتقدان می‌گویند استفاده از فناوری تشخیص چهره، خطر نظارت بیشتر بر مسلمانان، طبقات پایین‌تر جامعه، آدیواسی‌های بومی (از اقوام هندی) و سایر گروه‌ها و اقلیت‌های اجتماعی به حاشیه رانده شده را به همراه دارد.

به گزارش ردنا (ادیان نیوز)، پس از درگیری‌های جمعی در منطقه جهانگیرپوری دهلی در ۱۱ سپتامبر سال گذشته، پلیس گفت که از فناوری تشخیص چهره برای شناسایی و دستگیری ده‌ها نفر استفاده کرده که دومین مورد از این قبیل پس از شورش‌های خشونت‌بارتر در پایتخت در سال ۲۰۲۰ است.

در هر دو مورد، بیشتر متهمان مسلمان بودند و گروه‌های حقوق بشر و کارشناسان فناوری از استفاده دولت هند از فناوری مبتنی بر هوش مصنوعی برای هدف قراردادن گروه‌های فقیر، اقلیت و به حاشیه رانده شده در دهلی و سایر نقاط کشور انتقاد کردند.

هند ابزارهای هوش مصنوعی را دارد که به گفته مقامات، کارایی را افزایش می‌دهد و دسترسی به اطلاعات افراد را بهبود می‌بخشد. کارشناسان فناوری نگران این هستند که فقدان یک سیاست رسمی برای استفاده اخلاقی از هوش مصنوعی به مردم آسیب برساند، تعصب را تقویت، اقلیت‌ بودن را جرم انگاری کند و بیشتر از منافع ثروتمندان دفاع کند تا افراد ضعیف‌تر.

شیوانگی نارایان (Shivangi Narayan)، محققی که در مورد پلیس پیشگیری در دهلی تحقیق کرده است، در این باره گفت: این (استفاده از هوش مصنوعی) به طور مستقیم افرادی که در حاشیه هستند مانند دالیت‌ها(طبقات ضعیف و پایین‌تر جامعه)، مسلمانان و اقلیت‌های اجتماعی را تحت تأثیر قرار می‌دهد و سوگیری و تبعیض علیه آنها را تشدید می‌کند.

پیامد اخلاقی استفاده از هوش مصنوعی در هند

به گفته کارشناسان، هند با جمعیتی بالغ بر ۱,۴ میلیارد نفر که پنجمین اقتصاد بزرگ جهان است، دستخوش تغییرات تکنولوژیکی سرسام‌آور شده و سیستم‌های مبتنی بر هوش مصنوعی را در حوزه‌های مختلف از بهداشت، آموزش، کشاورزی تا عدالت کیفری به کار می‌گیرد، اما بحث‌های کمی در مورد پیامدهای اخلاقی آن‌ها در این کشور مطرح شده است.

در کشوری که درگیر شکاف‌های قدیمی و عمیق در مسائلی مانند طبقه اجتماعی، مذهب، جنسیت یا ثروت است، محققانی مانند نارایان – یکی از اعضای شبکه تحقیقاتی حکمرانی الگوریتمی – می‌ترسند که هوش مصنوعی خطر تشدید همه این شکاف‌ها را داشته باشد.

او گفت: ما فکر می‌کنیم فناوری به طور عینی کار می‌کند. اما پایگاه‌های داده‌ای که برای آموزش سیستم‌های هوش مصنوعی در جهت تبعیض دینی مورد استفاده قرار می‌گیرند بر ضد طبقه، جنسیت، مذهب و حتی محل سکونت هستند، بنابراین تعصب و تبعیض علیه آنها را تشدید می‌کنند.

هوش مصنوعی در هند
فناوری تشخیص چهره که از هوش مصنوعی برای تطبیق تصاویر زنده با پایگاه داده چهره‌های ذخیره شده استفاده می‌کند، یکی از بی‌‌شمار برنامه‌های کاربردی هوش مصنوعی است که منتقدان می‌گویند خطر نظارت بیشتر بر مسلمانان، دالیت‌های طبقه پایین‌تر، آدیواسی‌های بومی (از اقوام هندی) و سایر گروه‌ها و اقلیت‌های اجتماعی به حاشیه رانده شده را به همراه دارد.

سیوا ماتیاژاگان (Siva Mathiyazhagan)، استادیار دانشگاه پنسیلوانیا در گفت‌وگو با رویترز تصریح کرد: پیوند پایگاه‌های اطلاعاتی به سیستم شناسه ملی و استفاده روزافزون از هوش مصنوعی برای تأیید وام، استخدام و بررسی سوابق می‌تواند درها را کاملا به روی حاشیه‌نشینان ببندد.

او افزود: محبوبیت روزافزون برنامه‌های هوش مصنوعی مولد (نوعی هوش مصنوعی که در پاسخ به درخواست کاربر، قادر به تولید متن، تصاویر یا دیگر رسانه است- Generative AI) مانند چت بات‌ها این سوگیری‌ها را تشدید می‌کند. اگر از یک چت بات نام ۲۰ دکتر و استاد هندی را بپرسید، پیشنهادها عموماً نام‌های خانوادگی کاست برتر هندو هستند. این فقط یک نمونه از این است که چگونه نابرابری در داده‌ها منجر به نتایج مغرضانه سیستم‌های هوش مصنوعی مولد می‌شود.

رصد دیجیتالی طبقاتی

تبعیض طبقاتی در هند ۷۵ سال پیش غیرقانونی اعلام شد، با این حال دالیت‌ها هنوز با سوء‌استفاده گسترده مواجه هستند و بسیاری از تلاش‌های آنها برای حرکت رو به بالا در طبقات اجتماعی هند با سرکوب خشونت‌آمیز مواجه شد.

مطالعات نشان می‌دهد که دالیت‌ها، مسلمانان و بومیان هندی علی‌رغم برنامه‌های مثبت دولت هند،‌ در حوزه آموزش عالی و مشاغل خوب حضور ندارند و از هندی‌های طبقه بالاتر در مالکیت گوشی‌های هوشمند و استفاده از رسانه‌های اجتماعی عقب هستند.

تجزیه و تحلیل Google Research در سال ۲۰۲۱ نشان داد حدود نیمی از جمعیت هند – عمدتاً زنان، جوامع روستایی و آدیواسی‌ها – به اینترنت دسترسی ندارند، بنابراین ممکن است کل جوامع در مجموعه داده‌ها حذف یا به اشتباه معرفی شوند که این منجر به نتیجه گیری‌های اشتباه و ناعادلانه می‌شود.

محققان Google analysis می‌گویند: مشکلات افراد ثروتمند مانند بیماری قلبی و سرطان، در اولویت قرار دارد نه بیماری سِل افراد فقیر. همین نابرابری را در بین افرادی که از هوش مصنوعی بهره‌مند می‌شوند و کسانی که از آن بهره نمی‌برند، تشدید می‌کند.

برنامه‌های ایمنی تلفن همراه که از نقشه‌برداری داده‌ها برای علامت زدن مناطق ناامن استفاده می‌کنند، توسط کاربران طبقه متوسط که تمایل دارند مناطق دالیت نشین، مسلمان نشین و محله‌های فقیرنشین را به‌عنوان نامطلوب علامت‌گذاری کنند، دستکاری شده که به طور بالقوه منجر به نظارت بیش از حد پلیس می‌شود.

اورواشی آنجا (Urvashi Aneja)، مدیر و مؤسس یک گروه تحقیقاتی به نام Digital Futures Lab گفت: طعنه‌آمیز این است که افرادی که در این مجموعه داده‌ها به حساب نمی‌آیند، همچنان در معرض این سیستم‌های مبتنی بر داده هستند که سوگیری و تبعیض را بازتولید می‌کنند.

داده‌های رسمی نشان می‌دهد که بانک‌های اطلاعاتی جنایی هند مشکل‌ساز هستند، زیرا مسلمانان، دالیت‌ها و مردم بومی با نرخ‌های بالاتری نسبت به دیگران دستگیر، متهم و زندانی می‌شوند.

پرونده‌های ثبت شده پلیس پیشگیری با کمک هوش مصنوعی برای شناسایی افرادی که احتمالاً مرتکب جرم می‌شوند یا مظنون به ارتکاب جرم هستند، استفاده می‌شوند. این امکان وجود دارد که هوش مصنوعی مولد در دادگاه استفاده شود، مانند دادگاه عالی پنجاب و هاریانا که برای اولین بار در کشور از ChatGPT برای تصمیم گیری در مورد دریافت وثیقه برای مظنون در یک پرونده قتل استفاده کرد.

نیکیتا سوناوان (Nikita Sonavane)، یکی از بنیانگذاران پروژه عدالت جنایی و پاسخگویی پلیس (Criminal Justice and Police Accountability Project)، که یک سازمان غیرانتفاعی است، گفت: هر سیستم پلیسی پیش‌بینی‌کننده مبتنی بر هوش مصنوعی جدید احتمالاً تنها میراث تبعیض طبقاتی، جرم‌انگاری ناعادلانه و نظارت بر جوامع به حاشیه رانده شده را تداوم می‌بخشد.

سوناوان تصریح کرد: پلیس همیشه در هند کاستیستی (طبقه‌گرا) بوده است و از داده‌ها برای تثبیت سلسله مراتب مبتنی بر کاست استفاده شده است. آنچه اکنون می‌بینیم ایجاد و ظهور یک نظارت سراسری دیجیتال کاستی است.

قانون هوش مصنوعی هند چه می‌گوید؟

دولت‌های سراسر جهان در تنظیم مقررات هوش مصنوعی کند بوده‌اند. پیش نویس قوانین چین برای هوش مصنوعی مولد ماه گذشته اجرایی شد، در حالی که قانون هوش مصنوعی اتحادیه اروپا در مرحله نهایی مذاکرات است و منشور حقوق هوش مصنوعی ایالات متحده دستورالعمل‌هایی را برای طراحی و استفاده مسئولانه از هوش مصنوعی مولد ارائه می‌دهد.

هند قانون هوش مصنوعی ندارد و تنها چیزی که در این مورد وجود دارد یک استراتژی از اندیشکده دولتی NITI Aayog است که بیان می‌کند سیستم‌های هوش مصنوعی نباید براساس مذهب، نژاد، طبقه، جنسیت، تبار، محل تولد یا سکونت تبعیض قائل شده و باید تحت نظارت باشند تا اطمینان حاصل شود که آنها بی طرف و عاری از تعصب هستند.

اما در هند بحث کمی در مورد تعصب در هوش مصنوعی وجود دارد، حتی با وجود آگاهی فزاینده از وضع قوانین ضد کاست در صنعت فناوری در ایالات متحده. کالیفرنیا در آستانه تبدیل شدن به اولین ایالتی است که تبعیض طبقاتی را در این حوزه ممنوع کرده و پیش‌تر سیاتل به اولین شهر ایالات متحده در مورد عدم تبعیض در حوزه‌های فناوری تبدیل شد.

اورواشی آنجا گفت: داشتن ابزارهای هوش مصنوعی می‌تواند به نفع افراد ممتاز باشد و به طور کلی زنان، طبقه پایین و سایر گروه‌های به حاشیه رانده شده را دور بزند. آنچه مورد نیاز است درک بهتر سوگیری‌ها و تأثیرات آنها در زمینه های مختلف اجتماعی است. ما باید این فرض را که سوگیری از بین می‌رود کنار بگذاریم و بپذیریم که سوگیری همیشه وجود دارد و بر این اساس سیستم‌هایی (برای جلوگیری از سوگیری) را طراحی و بسازیم.

منبع ایکنا
به خواندن ادامه دهید
گفت‌وگو درباره مطلبی که خواندید

آدرس ایمیل شما منتشر نمی‌شود.