پایگاههای دادهای که در هند برای آموزش سیستمهای هوش مصنوعی مورد استفاده قرار میگیرند بر ضد طبقه، جنسیت، مذهب و حتی محل سکونت هستند، بنابراین تعصب و تبعیض علیه آنها را تشدید میکنند. برای مثال منتقدان میگویند استفاده از فناوری تشخیص چهره، خطر نظارت بیشتر بر مسلمانان، طبقات پایینتر جامعه، آدیواسیهای بومی (از اقوام هندی) و سایر گروهها و اقلیتهای اجتماعی به حاشیه رانده شده را به همراه دارد.
به گزارش ردنا (ادیان نیوز)، پس از درگیریهای جمعی در منطقه جهانگیرپوری دهلی در ۱۱ سپتامبر سال گذشته، پلیس گفت که از فناوری تشخیص چهره برای شناسایی و دستگیری دهها نفر استفاده کرده که دومین مورد از این قبیل پس از شورشهای خشونتبارتر در پایتخت در سال ۲۰۲۰ است.
در هر دو مورد، بیشتر متهمان مسلمان بودند و گروههای حقوق بشر و کارشناسان فناوری از استفاده دولت هند از فناوری مبتنی بر هوش مصنوعی برای هدف قراردادن گروههای فقیر، اقلیت و به حاشیه رانده شده در دهلی و سایر نقاط کشور انتقاد کردند.
هند ابزارهای هوش مصنوعی را دارد که به گفته مقامات، کارایی را افزایش میدهد و دسترسی به اطلاعات افراد را بهبود میبخشد. کارشناسان فناوری نگران این هستند که فقدان یک سیاست رسمی برای استفاده اخلاقی از هوش مصنوعی به مردم آسیب برساند، تعصب را تقویت، اقلیت بودن را جرم انگاری کند و بیشتر از منافع ثروتمندان دفاع کند تا افراد ضعیفتر.
شیوانگی نارایان (Shivangi Narayan)، محققی که در مورد پلیس پیشگیری در دهلی تحقیق کرده است، در این باره گفت: این (استفاده از هوش مصنوعی) به طور مستقیم افرادی که در حاشیه هستند مانند دالیتها(طبقات ضعیف و پایینتر جامعه)، مسلمانان و اقلیتهای اجتماعی را تحت تأثیر قرار میدهد و سوگیری و تبعیض علیه آنها را تشدید میکند.
پیامد اخلاقی استفاده از هوش مصنوعی در هند
به گفته کارشناسان، هند با جمعیتی بالغ بر ۱,۴ میلیارد نفر که پنجمین اقتصاد بزرگ جهان است، دستخوش تغییرات تکنولوژیکی سرسامآور شده و سیستمهای مبتنی بر هوش مصنوعی را در حوزههای مختلف از بهداشت، آموزش، کشاورزی تا عدالت کیفری به کار میگیرد، اما بحثهای کمی در مورد پیامدهای اخلاقی آنها در این کشور مطرح شده است.
در کشوری که درگیر شکافهای قدیمی و عمیق در مسائلی مانند طبقه اجتماعی، مذهب، جنسیت یا ثروت است، محققانی مانند نارایان – یکی از اعضای شبکه تحقیقاتی حکمرانی الگوریتمی – میترسند که هوش مصنوعی خطر تشدید همه این شکافها را داشته باشد.
او گفت: ما فکر میکنیم فناوری به طور عینی کار میکند. اما پایگاههای دادهای که برای آموزش سیستمهای هوش مصنوعی در جهت تبعیض دینی مورد استفاده قرار میگیرند بر ضد طبقه، جنسیت، مذهب و حتی محل سکونت هستند، بنابراین تعصب و تبعیض علیه آنها را تشدید میکنند.
سیوا ماتیاژاگان (Siva Mathiyazhagan)، استادیار دانشگاه پنسیلوانیا در گفتوگو با رویترز تصریح کرد: پیوند پایگاههای اطلاعاتی به سیستم شناسه ملی و استفاده روزافزون از هوش مصنوعی برای تأیید وام، استخدام و بررسی سوابق میتواند درها را کاملا به روی حاشیهنشینان ببندد.
او افزود: محبوبیت روزافزون برنامههای هوش مصنوعی مولد (نوعی هوش مصنوعی که در پاسخ به درخواست کاربر، قادر به تولید متن، تصاویر یا دیگر رسانه است- Generative AI) مانند چت باتها این سوگیریها را تشدید میکند. اگر از یک چت بات نام ۲۰ دکتر و استاد هندی را بپرسید، پیشنهادها عموماً نامهای خانوادگی کاست برتر هندو هستند. این فقط یک نمونه از این است که چگونه نابرابری در دادهها منجر به نتایج مغرضانه سیستمهای هوش مصنوعی مولد میشود.
رصد دیجیتالی طبقاتی
تبعیض طبقاتی در هند ۷۵ سال پیش غیرقانونی اعلام شد، با این حال دالیتها هنوز با سوءاستفاده گسترده مواجه هستند و بسیاری از تلاشهای آنها برای حرکت رو به بالا در طبقات اجتماعی هند با سرکوب خشونتآمیز مواجه شد.
مطالعات نشان میدهد که دالیتها، مسلمانان و بومیان هندی علیرغم برنامههای مثبت دولت هند، در حوزه آموزش عالی و مشاغل خوب حضور ندارند و از هندیهای طبقه بالاتر در مالکیت گوشیهای هوشمند و استفاده از رسانههای اجتماعی عقب هستند.
تجزیه و تحلیل Google Research در سال ۲۰۲۱ نشان داد حدود نیمی از جمعیت هند – عمدتاً زنان، جوامع روستایی و آدیواسیها – به اینترنت دسترسی ندارند، بنابراین ممکن است کل جوامع در مجموعه دادهها حذف یا به اشتباه معرفی شوند که این منجر به نتیجه گیریهای اشتباه و ناعادلانه میشود.
محققان Google analysis میگویند: مشکلات افراد ثروتمند مانند بیماری قلبی و سرطان، در اولویت قرار دارد نه بیماری سِل افراد فقیر. همین نابرابری را در بین افرادی که از هوش مصنوعی بهرهمند میشوند و کسانی که از آن بهره نمیبرند، تشدید میکند.
برنامههای ایمنی تلفن همراه که از نقشهبرداری دادهها برای علامت زدن مناطق ناامن استفاده میکنند، توسط کاربران طبقه متوسط که تمایل دارند مناطق دالیت نشین، مسلمان نشین و محلههای فقیرنشین را بهعنوان نامطلوب علامتگذاری کنند، دستکاری شده که به طور بالقوه منجر به نظارت بیش از حد پلیس میشود.
اورواشی آنجا (Urvashi Aneja)، مدیر و مؤسس یک گروه تحقیقاتی به نام Digital Futures Lab گفت: طعنهآمیز این است که افرادی که در این مجموعه دادهها به حساب نمیآیند، همچنان در معرض این سیستمهای مبتنی بر داده هستند که سوگیری و تبعیض را بازتولید میکنند.
دادههای رسمی نشان میدهد که بانکهای اطلاعاتی جنایی هند مشکلساز هستند، زیرا مسلمانان، دالیتها و مردم بومی با نرخهای بالاتری نسبت به دیگران دستگیر، متهم و زندانی میشوند.
پروندههای ثبت شده پلیس پیشگیری با کمک هوش مصنوعی برای شناسایی افرادی که احتمالاً مرتکب جرم میشوند یا مظنون به ارتکاب جرم هستند، استفاده میشوند. این امکان وجود دارد که هوش مصنوعی مولد در دادگاه استفاده شود، مانند دادگاه عالی پنجاب و هاریانا که برای اولین بار در کشور از ChatGPT برای تصمیم گیری در مورد دریافت وثیقه برای مظنون در یک پرونده قتل استفاده کرد.
نیکیتا سوناوان (Nikita Sonavane)، یکی از بنیانگذاران پروژه عدالت جنایی و پاسخگویی پلیس (Criminal Justice and Police Accountability Project)، که یک سازمان غیرانتفاعی است، گفت: هر سیستم پلیسی پیشبینیکننده مبتنی بر هوش مصنوعی جدید احتمالاً تنها میراث تبعیض طبقاتی، جرمانگاری ناعادلانه و نظارت بر جوامع به حاشیه رانده شده را تداوم میبخشد.
سوناوان تصریح کرد: پلیس همیشه در هند کاستیستی (طبقهگرا) بوده است و از دادهها برای تثبیت سلسله مراتب مبتنی بر کاست استفاده شده است. آنچه اکنون میبینیم ایجاد و ظهور یک نظارت سراسری دیجیتال کاستی است.
قانون هوش مصنوعی هند چه میگوید؟
دولتهای سراسر جهان در تنظیم مقررات هوش مصنوعی کند بودهاند. پیش نویس قوانین چین برای هوش مصنوعی مولد ماه گذشته اجرایی شد، در حالی که قانون هوش مصنوعی اتحادیه اروپا در مرحله نهایی مذاکرات است و منشور حقوق هوش مصنوعی ایالات متحده دستورالعملهایی را برای طراحی و استفاده مسئولانه از هوش مصنوعی مولد ارائه میدهد.
هند قانون هوش مصنوعی ندارد و تنها چیزی که در این مورد وجود دارد یک استراتژی از اندیشکده دولتی NITI Aayog است که بیان میکند سیستمهای هوش مصنوعی نباید براساس مذهب، نژاد، طبقه، جنسیت، تبار، محل تولد یا سکونت تبعیض قائل شده و باید تحت نظارت باشند تا اطمینان حاصل شود که آنها بی طرف و عاری از تعصب هستند.
اما در هند بحث کمی در مورد تعصب در هوش مصنوعی وجود دارد، حتی با وجود آگاهی فزاینده از وضع قوانین ضد کاست در صنعت فناوری در ایالات متحده. کالیفرنیا در آستانه تبدیل شدن به اولین ایالتی است که تبعیض طبقاتی را در این حوزه ممنوع کرده و پیشتر سیاتل به اولین شهر ایالات متحده در مورد عدم تبعیض در حوزههای فناوری تبدیل شد.
اورواشی آنجا گفت: داشتن ابزارهای هوش مصنوعی میتواند به نفع افراد ممتاز باشد و به طور کلی زنان، طبقه پایین و سایر گروههای به حاشیه رانده شده را دور بزند. آنچه مورد نیاز است درک بهتر سوگیریها و تأثیرات آنها در زمینه های مختلف اجتماعی است. ما باید این فرض را که سوگیری از بین میرود کنار بگذاریم و بپذیریم که سوگیری همیشه وجود دارد و بر این اساس سیستمهایی (برای جلوگیری از سوگیری) را طراحی و بسازیم.