اتومبيل هاي خودران تصميم اخلاقي مي گيرند

تکنولوژی های هوشمند برای موقعیت های خاص بهینه سازی می شوند

اتومبيل هاي خودران تصميم اخلاقي مي گيرند


آيا اتومبيل هاي کاملا اتوماتيک و بدون نياز به راننده مي توانند فراي يک ماشين عمل کنند، به معناي ديگر از چارچوب خشک قواعد رياضي و صفر و يک هاي ديجيتالي خارج شوند و امور معنوي را در نظر و بعد انساني به خود بگيرند؟
مدل سازي معنويات
برخلاف تصورات پيشين يک مطالعه جديد براي اولين بار نشان مي دهد که معنويات انساني را مي توان مدل سازي کرد، به بيان ديگر ماشين ها هم مي توانند اخلاقيات را در پايه در نظر بگيرند. مطالعه جديد براساس فناوري واقعيت مجازي رفتار انسان و برآوردهاي معنوي او را مي سنجد.
اين پژوهش که در دانشگاه اوسنابروک انجام شده و نتايج آن در مجله مرزهاي علوم عصب شناسي رفتاري به چاپ رسيده، به کمک واقعيت مجازي عميق، رفتار انسان را در سناريوهاي شبيه سازي شده ترافيکي مورد مطالعه قرار مي دهد. از شرکت کنندگان در پژوهش خواسته شد يک اتومبيل  را در يک محله معمولي حومه شهر در يک روز مه آلود برانند، در طي اين مسير آن ها بايد بين شرايط برنامه ريزي شده اي که انتخاب بين اشيا، حيوانات و انسان ها بود تصميم گيري مي کردند. نتايج به وسيله مدل هاي آماري در يک چارچوب مفهومي قرار گرفتند و به قوانيني منجر شدند که رفتار مشاهده شده را توضيح مي دهد.
مطالعه نشان مي دهد که تصميم هاي مرتبط با مسائل اخلاقي در شرايط غيرقابل اجتناب ترافيک که به تصادف منجر مي شود، به خوبي مدل سازي شده و قابل تفسير خواهند بود، همواره جان انسان بر حيوانات و اشيا ترجيح داده مي شود. لئون اتوفلد از محققان تيم مطالعاتي مي گويد که تاکنون اين گونه فرض مي شد که تصميمات اخلاقي کاملا وابسته به شرايط و در يک چارچوب معنا پيدا مي کنند و قابل تعميم يافتن و تبديل شدن به يک مدل نيستند و بنابراين الگوريتمي براي آن ها نمي توان تهيه کرد. اما آنچه ما يافتيم دقيقا برعکس بود. رفتار انساني در شرايط انتخاب بين دو گزينه به سادگي و براساس مدلي که بر پايه اهميت و ارزش زندگي توصيف مي شود براي هر انسان، حيوان يا شيئي غيرجاندار توسط هر يک از شرکت کنندگان در مطالعه در نظر گرفته شد. به اين ترتيب نشان داده شد که رفتار اخلاقي انساني را مي توان به خوبي با الگوريتم هايي بيان داشت و اين الگوريتم ها بعدا مي تواند راهنماي تصميم گيري ماشين ها قرار بگيرد.
يافته هاي اين مطالعه در بحث پيرامون رفتارهاي اتومبيل هاي خودران و ساير ماشين ها در شرايط غيرقابل اجتناب قابليت کاربرد دارد. به عنوان مثال وزارت حمل و نقل و ساختارهاي ديجيتال آلمان (BMVI)، 20 قانون پايه اي اخلاقي را در رابطه با اتومبيل هاي کاملا اتوماتيک و بي نياز از راننده در رابطه با رفتار در شرايط حوادث غيرقابل اجتناب تعريف کرده و بيان داشته که رفتار اخلاقي انسان قابليت مدل سازي ندارد.
دکتر گوردون پيپا، از محققان اصلي اين پروژه، مي گويد از آن جا که اکنون به  نظر مي رسد ماشين ها را مي توان برنامه ريزي کرد تا تصميمات اخلاقي مانند آدمي اتخاذ کنند، ضروري است تا جامعه به يک بحث جدي و فوري وارد شود. ما بايد بپرسيم آيا سيستم هاي کاملا خودکار و متکي به خود بايد امکان قضاوت اخلاقي را داشته باشند. اگر پاسخ مثبت است، آيا آن ها بايد از الگوي رفتاري انسان تقليد کنند يا براساس تئوري هايي که دانشمندان در مورد معنويات و اخلاقيات نوشته اند، مدل سازي شوند؟ اگر قرار باشد مورد دوم مد نظر قرار گيرد کدام تئوري؟ و اگر حادثه اي پيش آيد چه کسي پاسخگو خواهد بود؟ به عنوان مثال در قواعد پايه اي آلماني که پيشتر به آن اشاره شد، اگر يک کودک در حال بازي به ناگهان وسط خيابان بدود، به عنوان يک عامل پراهميت ايجاد کننده خطر در نظر گرفته شود و بنابراين در شرايط تصادف غيرقابل اجتناب از اهميت کمتري براي نجات داده شدن در نظر گرفته مي شود، در مقايسه با يک فرد بزرگسال که در پياده رو ايستاده است و در جريان ايجاد حادثه قرار ندارد. اما اين يک بحث اخلاقي است و امکان دارد نظر افراد مختلف در اين شرايط متفاوت باشد.
دکتر پيتر کونيگ از ديگر محققان اين مطالعه مي گويد که اکنون مي دانيم چگونه تصميمات اخلاقي انساني را به کامپيوترها ياد بدهيم، در حالي که هنوز جامعه بر سر يک دو راهي قرار دارد. در ابتدا ما بايد تصميم بگيريم آيا ارزش هاي اخلاقي در مورد رفتار ماشين ها وجود داشته باشد؟ و ثانيا اگر اين گونه است، آيا ماشين ها بايد دقيقا مشابه انسان عمل کنند؟
تيم محققان مي گويند اتومبيل هاي خودران تنها آغازگر مسيري هستند که به زودي به کاربرد روبات ها در بيمارستان ها و استفاده روزمره از انواع سيستم هاي هوش مصنوعي مي انجامد. بر شروع فصل جديد از زندگي انسان ها در کنار ماشين ها نياز است تا قوانين جديدي طراحي شوند و در غير اين صورت امکان دارد که ماشين ها خود براي ما تصميم گيري کنند.

کلمات کلیدی
//isti.ir/Zsrg