تصویر آگهیتصویر آگهی

نه موضوع برتر اخلاقی در هوش مصنوعی

خواندن : 10 دقیقه
نه موضوع برتر اخلاقی در هوش مصنوعی

نه موضوع برتر اخلاقی در هوش مصنوعی

زندگی ما هر روز توسط سیستم های ماشینی هوشمند به سمت بهتر شدن تغییر می کند. هر چه این سیستم ها توانمندتر شوند، دنیای ما کارآمدتر می شود. برخی از غول‌های فناوری امروزی معتقدند که هوش مصنوعی (AI) باید بیشتر مورد استفاده قرار گیرد. با این حال، بسیاری از مسائل اخلاقی و ارزیابی ریسک وجود دارد که باید قبل از اینکه این امر به واقعیت تبدیل شود، در نظر گرفته شود. در زیر به این موارد می پردازیم.

نه موضوع برتر اخلاقی در هوش مصنوعی

  1. چگونه با بیکاری کنار بیاییم؟

اکثر مردم بیشتر اوقات بیداری خود را می فروشند تا درآمد کافی برای زنده نگه داشتن خود و خانواده خود داشته باشند. موفقیت هوش مصنوعی، به دلیل میزان صرفه جویی در زمان، این فرصت را برای افراد فراهم می کند تا زمان بیشتری را صرف مراقبت از خانواده خود کنند، در جوامع خود مشارکت کنند و راه های جدیدی را برای کمک به جامعه انسانی تجربه کنند.

به عنوان مثال صنعت حمل و نقل را در نظر بگیریم که میلیون ها نفر تنها در ایالات متحده در آن مشغول به کار هستند. اگر ایلان ماسک از تسلا به وعده خود مبنی بر ارائه خودروهای خودران واقعی (و در نتیجه کامیون های تحویلی) عمل کند و آنها در دهه آینده به طور گسترده در دسترس قرار گیرند، پس برای میلیون ها نفر چه اتفاقی می افتد؟ اما کامیون‌های خودران زمانی که توانایی آن‌ها در کاهش نرخ تصادف را در نظر بگیریم، گزینه‌ای اخلاقی به نظر می‌رسند.

  1. چگونه می توانیم ثروت ایجاد شده توسط ماشین ها را به طور عادلانه توزیع کنیم؟

اگر هوش مصنوعی به طور گسترده مورد استفاده قرار گیرد، می‌تواند اتکای شرکت به نیروی انسانی را کاهش دهد، به این معنی که درآمدها عمدتاً نصیب افرادی می‌شود که صاحب شرکت‌های مبتنی بر هوش مصنوعی هستند.

در حال حاضر، ما شاهد هستیم که بنیانگذاران استارت‌آپ، اکثر مازاد اقتصادی را که تولید می‌کنند، به خانه می‌برند. بنابراین چگونه می توانیم ثروت ایجاد شده توسط ماشین ها را به طور عادلانه توزیع کنیم؟

نه موضوع برتر اخلاقی در هوش مصنوعی

  1. آیا ماشین ها می توانند بر رفتار و تعاملات ما تأثیر بگذارند؟ .

ربات های هوش مصنوعی در تقلید از روابط و مکالمات انسانی موثرتر می شوند. یک پیشرفت بزرگ در این زمینه در سال 2015 رخ داد، زمانی که رباتی به نام یوجین گوستمن اولین کامپیوتری بود که آزمون تورینگ را با موفقیت پشت سر گذاشت. این چالش به ارزیاب‌های انسانی نیاز دارد که از ورودی متن برای گپ زدن با یک موجود ناشناخته استفاده کنند و سپس حدس بزنند که موجودیت انسان است یا ماشین. بیش از نیمی از ارزیابی‌کنندگانی که با یوجین گوستمن چت می‌کردند، معتقد بودند که این یک انسان است. در حالی که این می تواند در سوق دادن جامعه به سمت رفتار سودمندتر بسیار مفید باشد، اما می تواند در دستان انسان اشتباه نیز مضر باشد.

  1. چگونه در برابر اشتباهات مضر احتمالی محافظت کنیم؟

چه انسان باشید و چه ماشین ،هوش ناشی از یادگیری است. سیستم‌ها معمولاً یک مرحله آموزشی دارند که در آن «یاد می‌گیرند» الگوهای درست را شناسایی کرده و بر اساس ورودی‌های آنها عمل کنند. پس از مرحله آموزش، سیستم سپس به مرحله آزمایش می رود که در آن سناریوهای بیشتری به سمت آن پرتاب می شود تا نحوه عملکرد آن را ببینند.

از آنجایی که بسیار بعید است که مرحله آموزش بتواند تمام سناریوهای احتمالی را که سیستم ممکن است در دنیای واقعی با آن مواجه شود را پوشش دهد، سیستم را می توان به گونه ای فریب داد که انسان ها چنین نمی کنند. بنابراین، اگر می‌خواهیم به هوش مصنوعی برای جایگزینی نیروی انسانی تکیه کنیم، باید اطمینان حاصل کنیم که طبق برنامه‌ریزی شده عمل می‌کند و نمی‌تواند توسط انسان‌هایی با نیات خودخواهانه غلبه کند.

دوره آموزش هوش مصنوعی
تصویر آگهیتصویر آگهی

نه موضوع برتر اخلاقی در هوش مصنوعی

  1. آیا می توانیم تعصب هوش مصنوعی را حذف کنیم؟

فراموش نکنیم که سیستم‌های هوش مصنوعی توسط انسان‌ها ایجاد می‌شوند که گاهی اوقات می‌توانند بسیار قضاوت‌کننده و مغرضانه باشند. بله، هوش مصنوعی، اگر درست استفاده شود، می‌تواند به کاتالیزوری برای تغییرات مثبت تبدیل شود، اما همچنین می‌تواند به تبعیض دامن بزند. هوش مصنوعی توانایی پردازش سرعت و ظرفیتی دارد که بسیار فراتر از توانایی های انسان است. با این حال، به دلیل نفوذ انسان، همیشه نمی توان به بی طرفی و عادل بودن اعتماد کرد.

  1. چگونه از هوش مصنوعی در برابر دشمنان محافظت کنیم؟

هرچه این فناوری قدرتمندتر باشد، بیشتر می‌توان از آن برای اهداف خوب و همچنین پلید استفاده کرد. هوش مصنوعی نیز از این قاعده مستثنی نیست. بنابراین، امنیت سایبری اهمیت بیشتری پیدا می کند.

  1. چگونه می توان از عواقب ناخواسته جلوگیری کرد؟

همچنین این احتمال وجود دارد که هوش مصنوعی علیه ما باشد – نه به روشی شیطانی، بلکه به طور غیر عمدی. به عنوان مثال، یک سیستم هوش مصنوعی را در نظر بگیرید که از آن خواسته شده است تا جهان را از شر سرطان خلاص کند. پس از تمام محاسباتش، فرمولی را بیرون می دهد که دقیقاً این کار را انجام می دهد، اما همه افراد روی کره زمین را می کشد. بله، هدف محقق شد، اما نه آن طور که انسان ها در نظر داشتند.

  1. آیا راهی وجود دارد که بتوانیم در کنترل کامل هوش مصنوعی باقی بمانیم؟

تسلط انسان به دلیل ماهیچه های قوی و دندان های تیز نیست بلکه به دلیل هوش و نبوغ است. ما می‌توانیم حیوانات قوی‌تر، بزرگ‌تر و سریع‌تر را شکست دهیم، زیرا قادر به ایجاد و استفاده از ابزارهای فیزیکی و شناختی برای کنترل آنها هستیم. این یک نگرانی واقعی است که هوش مصنوعی روزی همان مزیت را نسبت به ما خواهد داشت. ماشین‌هایی که به اندازه کافی آموزش دیده‌اند ممکن است بتوانند هر حرکت ما را پیش‌بینی کنند و از خود در برابر «خاموش شدن» از خود دفاع کنند.

نه موضوع برتر اخلاقی در هوش مصنوعی

  1. آیا رفتار انسانی با هوش مصنوعی باید در نظر گرفته شود؟

ماشین ها آنقدر خوب از ما تقلید می کنند که روز به روز، بیشتر و بیشتر شبیه انسان می شوند. به زودی به نقطه ای خواهیم رسید که ماشین ها را موجوداتی در نظر بگیریم که می توانند احساس کنند، درک کنند و عمل کنند. وقتی به آنجا رسیدیم، ممکن است در مورد وضعیت قانونی آنها فکر کنیم. آیا ماشین‌های «احساسی» واقعاً می‌توانند آسیب ببینند؟

بنابراین چگونه به آن مسائل اخلاقی رسیدگی کنیم؟

بسیاری بر این باورند که از آنجایی که هوش مصنوعی بسیار قدرتمند و در همه جا حاضر است، ضروری است که به شدت تحت نظارت باشد. با این حال، اجماع کمی در مورد چگونگی انجام این کار وجود دارد. چه کسی قوانین را تعیین می کند؟ تاکنون، شرکت‌هایی که سیستم‌های هوش مصنوعی را توسعه داده و استفاده می‌کنند، عمدتاً خود پلیس هستند. آنها به قوانین موجود و واکنش های منفی مصرف کنندگان و سهامداران برای حفظ آنها در خط تکیه می کنند. آیا ادامه این راه واقع بینانه است؟ بدیهی است که خیر، اما همانطور که می دانید، نهادهای نظارتی به تخصص هوش مصنوعی لازم برای نظارت بر این شرکت ها مجهز نیستند.

جیسون فورمن، استاد سیاست اقتصادی در مدرسه کندی و مشاور ارشد اقتصادی سابق باراک اوباما، رئیس‌جمهور آمریکا، پیشنهاد می‌کند که :

(مشکل این است که این شرکت‌های بزرگ فناوری نه خودتنظیم می‌شوند و نه تابع مقررات دولتی کافی هستند. من فکر می کنم باید از هر دو بیشتر باشد. … ما نمی توانیم فرض کنیم که نیروهای بازار به تنهایی آن را حل کنند. ما باید همه دانش‌آموزان را قادر کنیم تا به اندازه کافی در مورد فناوری و مفاهیم اخلاقی فناوری‌های جدید بیاموزند تا زمانی که شرکت‌ها را اداره می‌کنند یا زمانی که به عنوان شهروندان دموکراتیک عمل می‌کنند، بتوانند اطمینان حاصل کنند که فناوری در خدمت اهداف انسانی است نه تضعیف زندگی مدنی شایسته.)

پلتفرم هوش مصنوعی به زبان فارسی
تصویر آگهیتصویر آگهی

در حالی که پیشرفت تکنولوژی به معنای زندگی بهتر برای همه است، باید در نظر داشته باشیم که برخی از نگرانی های اخلاقی حول محور کاهش رنج و به خطر انداختن پیامدهای منفی ایجاد می شود.

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *