حمایت OpenAI از پژوهشهای اخلاقی هوش مصنوعی
OpenAI، پیشگام در نوآوریهای هوش مصنوعی، پروژهای جاهطلبانه را برای پیشرفت در حوزه اخلاق هوش مصنوعی آغاز کرده است. این سازمان از تحقیقات دانشگاهی برای طراحی الگوریتمهایی که قادر به پیشبینی قضاوتهای اخلاقی انسان باشند حمایت میکند.
بر اساس اطلاعات ارائهشده در یک پرونده مالیاتی، بازوی غیرانتفاعی OpenAI از طرح تحقیقاتی «اخلاق هوش مصنوعی» حمایت مالی میکند. این پروژه به رهبری محققان دانشگاه دوک، با هدف درک بهتر چالشهای تصمیمگیری اخلاقی هوش مصنوعی طراحی شده است.
OpenAI بودجهای سهساله به ارزش یک میلیون دلار را تا سال 2025 برای این تحقیق تامین کرده است. این بودجه به کار گروهی از استادان دانشگاه دوک، از جمله پروفسور والتر سینوت-آرمسترانگ، پژوهشگر اخلاق عملی و جانا بورگ، یکی از همکاران این پروژه اختصاص یافته است.
بررسی اخلاق در هوش مصنوعی
سینوت-آرمسترانگ و بورگ در سالهای اخیر در حوزه تقاطع هوش مصنوعی و اخلاق فعالیت کردهاند. آنها با همکاری یکدیگر کتابی در مورد پتانسیل هوش مصنوعی به عنوان “جیپیاس اخلاقی” برای هدایت تصمیمگیری انسانی تالیف کردهاند.
تلاشهای این تیم شامل طراحی الگوریتمهایی برای همراستا کردن تصمیمهای اخلاقی، از جمله تخصیص عادلانه اهدای کلیه و تحقیقاتی درباره ترجیح افراد به تصمیمگیری اخلاقی به وسیله هوش مصنوعی بوده است.
این پروژه جدید با حمایت مالی OpenAI، به دنبال توسعه الگوریتمهایی است که بتوانند قضاوتهای اخلاقی انسان را پیشبینی کنند. بر اساس یک بیانیه مطبوعاتی، تمرکز این تحقیق روی موقعیتهایی است که ویژگیهای اخلاقی در آنها با یکدیگر در تضاد قرار دارند، بهویژه در حوزههایی مانند پزشکی، حقوق و تجارت.
چالشهای اخلاق در هوش مصنوعی
تلاش برای ایجاد سیستمهای هوش مصنوعی اخلاقی با پیچیدگیهای زیادی همراه است. اخلاق انسانی که هزاران سال موضوع بحث فیلسوفان بوده، بهراحتی قابل دستهبندی یا توافق همگانی نیست.
مدلهای یادگیری ماشین که به تجزیهوتحلیل آماری دادههای بزرگ متکی هستند، نمیتوانند پیچیدگیهای استدلال، احساسات، و تنوع فرهنگی مرتبط با اخلاق انسانی را بهدرستی درک کنند.
برای مثال، ابزار اخلاقی Ask Delphi که از سوی موسسه آلن در سال 2021 ساخته شد، نشان داد سیستمهای کنونی در مواجهه با مسائل اخلاقی ساده عملکرد قابل قبولی دارند، اما در مواجهه با تغییرات کوچک در نحوه بیان سوالها دچار سردرگمی میشوند. در مواردی، حتی تصمیماتی کاملاً غیرانسانی مانند خفه کردن نوزادان را تایید میکرد.
مدلهای هوش مصنوعی اغلب بر اساس دادههایی که عمدتاً از اینترنت جمعآوری میشوند، آموزش میبینند. این دادهها معمولاً بازتابدهنده ارزشهای جوامع غربی، تحصیلکرده و صنعتی هستند و ممکن است چارچوبهای اخلاقی سایر فرهنگها و جوامع را نادیده بگیرند.
استانداردهای بالا و مسیر دشوار
OpenAI و همکارانش با چالشهای بزرگی در مقابله با محدودیتهای هوش مصنوعی و ماهیت ذهنی اخلاق روبهرو هستند.
نظریههای اخلاقی مانند کانتیسم که بر قوانین مطلق اخلاقی تاکید دارد و فایدهگرایی که بر بیشترین خیر برای بیشترین تعداد متمرکز است، رویکردهای متفاوتی به اخلاق دارند. هیچیک از این نظریهها توافق جهانی کسب نکردهاند که این امر کدگذاری اخلاق در هوش مصنوعی را دشوار میکند.
برای پیشبینی قابل اطمینان قضاوتهای اخلاقی انسانی، هوش مصنوعی باید تنوع فرهنگی، ارزشهای ذهنی و قرنها بحث فلسفی را در نظر بگیرد. اینکه چنین الگوریتمی امکانپذیر باشد یا نه، همچنان سوالی باز است.
گامی به سوی آینده
با وجود این موانع، ابتکار OpenAI گامی مهم در جهت درک چگونگی کمک هوش مصنوعی به تصمیمگیریهای اخلاقی انسانها محسوب میشود.
با حمایت از پروژههایی مانند «اخلاق هوش مصنوعی»، OpenAI قصد دارد اخلاق را به شکل عمیقتری در توسعه هوش مصنوعی ادغام کند تا فناوریهای آینده بازتابدهنده طیف گستردهای از ارزشهای انسانی باشند.
نتایج این تحقیقات میتواند تاثیرات عمیقی در حوزههایی مانند مراقبتهای بهداشتی و سیستمهای حقوقی داشته باشد و نحوه تصمیمگیری هوش مصنوعی در زمینههای حساس اخلاقی را شکل دهد. با این حال، تحقق این چشمانداز نیازمند غلبه بر چالشهای فنی، فلسفی و اجتماعی فراوانی است.
لینک منبع اصلی خبر
لینک خبر در ارتباط اقتصادی
این خبر توسط موتور ارتباط اقتصادی جمع آوری شده است در صورت مغایرت اطلاع دهید