نه موضوع برتر اخلاقی در هوش مصنوعی
زندگی ما هر روز توسط سیستم های ماشینی هوشمند به سمت بهتر شدن تغییر می کند. هر چه این سیستم ها توانمندتر شوند، دنیای ما کارآمدتر می شود. برخی از غولهای فناوری امروزی معتقدند که هوش مصنوعی (AI) باید بیشتر مورد استفاده قرار گیرد. با این حال، بسیاری از مسائل اخلاقی و ارزیابی ریسک وجود دارد که باید قبل از اینکه این امر به واقعیت تبدیل شود، در نظر گرفته شود. در زیر به این موارد می پردازیم.
-
چگونه با بیکاری کنار بیاییم؟
اکثر مردم بیشتر اوقات بیداری خود را می فروشند تا درآمد کافی برای زنده نگه داشتن خود و خانواده خود داشته باشند. موفقیت هوش مصنوعی، به دلیل میزان صرفه جویی در زمان، این فرصت را برای افراد فراهم می کند تا زمان بیشتری را صرف مراقبت از خانواده خود کنند، در جوامع خود مشارکت کنند و راه های جدیدی را برای کمک به جامعه انسانی تجربه کنند.
به عنوان مثال صنعت حمل و نقل را در نظر بگیریم که میلیون ها نفر تنها در ایالات متحده در آن مشغول به کار هستند. اگر ایلان ماسک از تسلا به وعده خود مبنی بر ارائه خودروهای خودران واقعی (و در نتیجه کامیون های تحویلی) عمل کند و آنها در دهه آینده به طور گسترده در دسترس قرار گیرند، پس برای میلیون ها نفر چه اتفاقی می افتد؟ اما کامیونهای خودران زمانی که توانایی آنها در کاهش نرخ تصادف را در نظر بگیریم، گزینهای اخلاقی به نظر میرسند.
-
چگونه می توانیم ثروت ایجاد شده توسط ماشین ها را به طور عادلانه توزیع کنیم؟
اگر هوش مصنوعی به طور گسترده مورد استفاده قرار گیرد، میتواند اتکای شرکت به نیروی انسانی را کاهش دهد، به این معنی که درآمدها عمدتاً نصیب افرادی میشود که صاحب شرکتهای مبتنی بر هوش مصنوعی هستند.
در حال حاضر، ما شاهد هستیم که بنیانگذاران استارتآپ، اکثر مازاد اقتصادی را که تولید میکنند، به خانه میبرند. بنابراین چگونه می توانیم ثروت ایجاد شده توسط ماشین ها را به طور عادلانه توزیع کنیم؟
-
آیا ماشین ها می توانند بر رفتار و تعاملات ما تأثیر بگذارند؟ .
ربات های هوش مصنوعی در تقلید از روابط و مکالمات انسانی موثرتر می شوند. یک پیشرفت بزرگ در این زمینه در سال ۲۰۱۵ رخ داد، زمانی که رباتی به نام یوجین گوستمن اولین کامپیوتری بود که آزمون تورینگ را با موفقیت پشت سر گذاشت. این چالش به ارزیابهای انسانی نیاز دارد که از ورودی متن برای گپ زدن با یک موجود ناشناخته استفاده کنند و سپس حدس بزنند که موجودیت انسان است یا ماشین. بیش از نیمی از ارزیابیکنندگانی که با یوجین گوستمن چت میکردند، معتقد بودند که این یک انسان است. در حالی که این می تواند در سوق دادن جامعه به سمت رفتار سودمندتر بسیار مفید باشد، اما می تواند در دستان انسان اشتباه نیز مضر باشد.
-
چگونه در برابر اشتباهات مضر احتمالی محافظت کنیم؟
چه انسان باشید و چه ماشین ،هوش ناشی از یادگیری است. سیستمها معمولاً یک مرحله آموزشی دارند که در آن «یاد میگیرند» الگوهای درست را شناسایی کرده و بر اساس ورودیهای آنها عمل کنند. پس از مرحله آموزش، سیستم سپس به مرحله آزمایش می رود که در آن سناریوهای بیشتری به سمت آن پرتاب می شود تا نحوه عملکرد آن را ببینند.
از آنجایی که بسیار بعید است که مرحله آموزش بتواند تمام سناریوهای احتمالی را که سیستم ممکن است در دنیای واقعی با آن مواجه شود را پوشش دهد، سیستم را می توان به گونه ای فریب داد که انسان ها چنین نمی کنند. بنابراین، اگر میخواهیم به هوش مصنوعی برای جایگزینی نیروی انسانی تکیه کنیم، باید اطمینان حاصل کنیم که طبق برنامهریزی شده عمل میکند و نمیتواند توسط انسانهایی با نیات خودخواهانه غلبه کند.
-
آیا می توانیم تعصب هوش مصنوعی را حذف کنیم؟
فراموش نکنیم که سیستمهای هوش مصنوعی توسط انسانها ایجاد میشوند که گاهی اوقات میتوانند بسیار قضاوتکننده و مغرضانه باشند. بله، هوش مصنوعی، اگر درست استفاده شود، میتواند به کاتالیزوری برای تغییرات مثبت تبدیل شود، اما همچنین میتواند به تبعیض دامن بزند. هوش مصنوعی توانایی پردازش سرعت و ظرفیتی دارد که بسیار فراتر از توانایی های انسان است. با این حال، به دلیل نفوذ انسان، همیشه نمی توان به بی طرفی و عادل بودن اعتماد کرد.
-
چگونه از هوش مصنوعی در برابر دشمنان محافظت کنیم؟
هرچه این فناوری قدرتمندتر باشد، بیشتر میتوان از آن برای اهداف خوب و همچنین پلید استفاده کرد. هوش مصنوعی نیز از این قاعده مستثنی نیست. بنابراین، امنیت سایبری اهمیت بیشتری پیدا می کند.
-
چگونه می توان از عواقب ناخواسته جلوگیری کرد؟
همچنین این احتمال وجود دارد که هوش مصنوعی علیه ما باشد – نه به روشی شیطانی، بلکه به طور غیر عمدی. به عنوان مثال، یک سیستم هوش مصنوعی را در نظر بگیرید که از آن خواسته شده است تا جهان را از شر سرطان خلاص کند. پس از تمام محاسباتش، فرمولی را بیرون می دهد که دقیقاً این کار را انجام می دهد، اما همه افراد روی کره زمین را می کشد. بله، هدف محقق شد، اما نه آن طور که انسان ها در نظر داشتند.
-
آیا راهی وجود دارد که بتوانیم در کنترل کامل هوش مصنوعی باقی بمانیم؟
تسلط انسان به دلیل ماهیچه های قوی و دندان های تیز نیست بلکه به دلیل هوش و نبوغ است. ما میتوانیم حیوانات قویتر، بزرگتر و سریعتر را شکست دهیم، زیرا قادر به ایجاد و استفاده از ابزارهای فیزیکی و شناختی برای کنترل آنها هستیم. این یک نگرانی واقعی است که هوش مصنوعی روزی همان مزیت را نسبت به ما خواهد داشت. ماشینهایی که به اندازه کافی آموزش دیدهاند ممکن است بتوانند هر حرکت ما را پیشبینی کنند و از خود در برابر «خاموش شدن» از خود دفاع کنند.
-
آیا رفتار انسانی با هوش مصنوعی باید در نظر گرفته شود؟
ماشین ها آنقدر خوب از ما تقلید می کنند که روز به روز، بیشتر و بیشتر شبیه انسان می شوند. به زودی به نقطه ای خواهیم رسید که ماشین ها را موجوداتی در نظر بگیریم که می توانند احساس کنند، درک کنند و عمل کنند. وقتی به آنجا رسیدیم، ممکن است در مورد وضعیت قانونی آنها فکر کنیم. آیا ماشینهای «احساسی» واقعاً میتوانند آسیب ببینند؟
بنابراین چگونه به آن مسائل اخلاقی رسیدگی کنیم؟
بسیاری بر این باورند که از آنجایی که هوش مصنوعی بسیار قدرتمند و در همه جا حاضر است، ضروری است که به شدت تحت نظارت باشد. با این حال، اجماع کمی در مورد چگونگی انجام این کار وجود دارد. چه کسی قوانین را تعیین می کند؟ تاکنون، شرکتهایی که سیستمهای هوش مصنوعی را توسعه داده و استفاده میکنند، عمدتاً خود پلیس هستند. آنها به قوانین موجود و واکنش های منفی مصرف کنندگان و سهامداران برای حفظ آنها در خط تکیه می کنند. آیا ادامه این راه واقع بینانه است؟ بدیهی است که خیر، اما همانطور که می دانید، نهادهای نظارتی به تخصص هوش مصنوعی لازم برای نظارت بر این شرکت ها مجهز نیستند.
جیسون فورمن، استاد سیاست اقتصادی در مدرسه کندی و مشاور ارشد اقتصادی سابق باراک اوباما، رئیسجمهور آمریکا، پیشنهاد میکند که :
(مشکل این است که این شرکتهای بزرگ فناوری نه خودتنظیم میشوند و نه تابع مقررات دولتی کافی هستند. من فکر می کنم باید از هر دو بیشتر باشد. … ما نمی توانیم فرض کنیم که نیروهای بازار به تنهایی آن را حل کنند. ما باید همه دانشآموزان را قادر کنیم تا به اندازه کافی در مورد فناوری و مفاهیم اخلاقی فناوریهای جدید بیاموزند تا زمانی که شرکتها را اداره میکنند یا زمانی که به عنوان شهروندان دموکراتیک عمل میکنند، بتوانند اطمینان حاصل کنند که فناوری در خدمت اهداف انسانی است نه تضعیف زندگی مدنی شایسته.)
در حالی که پیشرفت تکنولوژی به معنای زندگی بهتر برای همه است، باید در نظر داشته باشیم که برخی از نگرانی های اخلاقی حول محور کاهش رنج و به خطر انداختن پیامدهای منفی ایجاد می شود.