جیمز مکگراث تأکید کرد: نباید تسلیم دادههای ناعادلانه موتورهای جستجوگر شویم بلکه باید سعی کنیم از هوش مصنوعی به سمت حکمت مصنوعی سیر کنیم و این حکمت مصنوعی سبب میشود حکمت درونی ما هم بیدار شود.
به گزارش ردنا (ادیان نیوز)، جیمز مکگراث، استاد دانشگاه باتلر آمریکا در نشست علمی و مجازی «خداباوری و هوش مصنوعی» که چهارمین نشست از سلسله نشستهای الهیات و هوش مصنوعی بود، با اشاره به این موضوع که در بحث هوش مصنوعی در ارتباط با دین، دو محور «ارتباط بین دین و مباحث تخیلی» و«دین و علم» به وجود میآید، گفت: امروز بحث آیندهپژوهی همه جا را فراگرفته و هوش مصنوعی هم به آن اضافه شده است. در این عرصه دو نگاه خوشبین و کمتر خوشبین به آینده وجود دارد؛ کسانی که خاصیت تکنولوژی را خیلی بیشتر از شرّ آن میدانند و حتی اگر مسائل شرعی هم داشته باشند خیلی کم و ناچیز است. مثال آن میتواند پیشرفت تکنولوژی، برق، موبایل یا همین اسکایپی باشد که با شما در حال صحبت هستم و نگاه کمترخوشبین را داریم که دو مقوله؛ نحوه استفاده از تکنولوژی و چگونگی به دست آوردن آن را به چالش میکشد.
مکگراث با بیان اینکه در اینباره سوالات متعدد و متفاوتی وجود دارد، ادامه داد: در مسأله آیندهپژوهی دور و آیندهپژوهی نزدیک و رابطه آن با تکنولوژی، میبایست به سوالات آیندهپژوهی نزدیک توجه داشت و به دنبال پاسخهای آن گشت. سوالاتی که یا به آن دست یافتهایم و یا به زودی خواهیم رسید، مانند؛ کار کردن رباتها در خانه، الگوریتمهای جستجو، سلاحهای پیشرفته، اینها مواردی هستند که ضرورت دارند و واقعیت پیدا میکنند و مسائل اخلاقی زیادی را به دنبال خواهند داشت.
وی ادامه داد: سوالات زیاد دیگری مطرح است که آیا اندروید دارای روح و بدن است؟ که این مسائل را در قالب فیلم و داستانها میبینیم و من هم به اینها علاقه دارم، مانند مسافرت کردن در طول زمان و یا مسافرت کردن سریعتر از نور؛ از جمله برخی سوالات آینده پژوهی دور است و ما باید به سوالاتی رجوع کنیم که مربوط به آینده نزدیک میشوند که در حال حاضر به واقعیت پیوستهاند، مثل کار کردن رباتها در خانه یا الگوریتمهای جستجو، سلاحهای پیشرفته که به وقوع پیوستهاند.
استاد دانشگاه باتلر بیان کرد: از آنجا که موضوع بحث ارتباط هوش مصنوعی و خداباوری است، قدم اول در صحبت درباره اخلاق خداباورانه است که من نمیخواهم درباره این موضوع، صفوفی که وجود دارد و تفاوتهایی که هست، صحبت کنم، طبیعتا یک سری اصول اخلاقی است که میان همه مشترک بوده و البته این اصول در علمکرد بین کسانی که خداباور هستند و نیستند، متفاوت جلوه میکند، مخصوصا متون مقدس ما که شرایطی را ایجاد میکنند، مانند؛ «ایثار» که از خودگذشتگی را بیان میکند، منتهی میتواند بر روی مباحث طلایی دیگر همچون؛ عصر طلایی خدمت به دیگران و ساختن تکنولوژیهایی که به مردم خدمت میکند، اثر بگذارد.
سخنران این نشست علمی ادامه داد: از جمله مسائلی که خیلی رایج است، بحث الگوریتمهای سرچ در موتورهای جستجویی مثل گوگل است. ممکن است در نگرش اولیه، بیشتر مردم این باور را داشته باشند که کارهایی که در فضای مجازی انجام میدهند، مظهری از اعتقاد یا دینشان نیست اما این لزوما درست نیست. مثلا، معقول این است که موتورهای جستجوگر در نتایجی که نشان میدهند هیچ تعصبی ندارند و البته خلاف آن ثابت شده است که تمام دادههایی که خود آنها کار میکند توسط انسانهایی که خالی از تعصب نیستند، برنامهریزی شده است. لذا اگر برنامهای باشد که صد در صد هم صحیح باشد با توجه به دادههای غلطی که دارند، نتیجهای هم که به دست میآید غلط است.
مکگراث تصریح کرد: بیشتر کشورهایی که صاحب شرکتهای بزرگ تکنولوژی هستند مسئولیت چنین اشتباهات موتورهای جستجوگر را برعهده نمیگیرند و مسئولیت را برمیگردانند به سمت مردم که دادهها را وارد کردهاند.
وی تأکید کرد: اتفاقی که در این میان رخ میدهد، این است که ما اطلاعات خام غلط را به خروجیهای غلط تبدیل میکنیم و این خروجیهای غلط باعث تغییر نگرشها میشود و بر اساس تکرار این اطلاعات غلط و تغیر نگرشها، یک سری اطلاعات جدید به وجود میآید که خود اینها میشوند منابع جدید هوش مصنوعی و در آینده که اطلاعات جدیدتری که بر منابع غلط است را به جود میآورد. این مثال خودش را در مباحث اخلاقی کاملا نمایش میدهد، مثلا افرادی طرفدار طرحهایی هستند که این طرحها سبب توطئه میشود و بر پایه اطلاعات غلط است. اطلاعاتی که سبب تنفر، یا سبب رفع اتهام میشود و تمام این موارد بر پایه دادههای غلط شکل گرفته است.
استاد دانشگاه باتلر اظهار کرد: وقتی وارد انتخابهای اخلاقی پیچیدهتر شدهایم، این را متوجه میشویم که در واقع انتخابهایی که ما داریم از یک برنامه نویسی صفر و یک که وجود دارد خیلی پیچیدهتر است. مثلا مواردی که در آنها احتمالاتی وجود دارد که جنبه ایجابی و سلبی دارد. این را میدانیم که خیلی از استدلالهای اخلاقی در جایی ذکر نشده و بسیار مبهم است. مسائلی هست که در علم اخلاق نیامده و با این وضعیت چگونه میتوانیم مسائل اخلاقی را وارد هوش مصنوعی کنیم.
وی با طرح این سوال که از هوش مصنوعی چه چیزی را میتوانیم یاد بگیریم؟ پاسخ داد: اولین چیزی که میتوانیم یاد بگیریم این است که طبق یک گفته معروف؛ خیلی از کامپیوترها نمیدانند که چکار میکنند و البته ما هم در بعضی شرایط خاص همینطور هستیم که فقط عکسالعمل داریم و یا در نهایت بیحرکت میشویم، نمیدانیم چه کاری باید انجام دهیم و لذا باید برگشت داشته باشیم واخلاقیات خودمان را بررسی و منظم کنیم.
تأکید کرد: نباید تسلیم دادههای ناعادلانه موتورهای جستجوگر شویم بلکه باید سعی کنیم از هوش مصنوعی به سمت حکمت مصنوعی سیر کنیم و این حکمت مصنوعی سبب میشود حکمت درونی ما هم بیدار شود.