فرارو- عملکرد شگفت انگیز اخیر به اصطلاح "مدلهای زبان بزرگ" در وهله نخست و مهمتر از همه چت جی پی تی (Chat GPT) عرضه شده توسط Open AI این انتظار را افزایش داده که سیستمهایی که میتوانند با قابلیتهای شناختی انسانها مطابقت داشته باشند یا حتی دارای هوش "فوق بشری" باشند به زودی به واقعیت تبدیل خواهند شد.
به گزارش فرارو به نقل از آسیا تایمز، همزمان با این روند کارشناسان هوش مصنوعی هشدارهای هولناکی را در مورد خطراتی مطرح میکنند که توسعه بیشتر و کنترل نشده هوش مصنوعی برای جامعه یا حتی بقای نژاد بشر ایجاد میکند.
آیا این تبلیغات صرف است؟ یا آن که اکنون نیاز فوری به اقداماتی وجود دارد که باعث کنترل توسعه بیشتر هوش مصنوعی شود حتی اگر به قیمت ممانعت از پیشرفت در این عرصه انقلابی تمام شود؟
در تاریخ ۲۲ مارس نامه سرگشادهای منتشر شد که توسط متخصصان هوش مصنوعی و هم چنین شخصیتهای برجستهای مانند "ایلان ماسک" امضا شده بود و با این بیانیه پایان یافت: "بنابراین، از همه آزمایشگاههای هوش مصنوعی میخواهیم که بلافاصله آموزش سیستمهای هوش مصنوعی قویتر از جی پی تی -۴ (GPT-۴) را دست کم به مدت شش ماه متوقف کنند".
در ادامه آن نامه سرگشاده آمده است: "هوش مصنوعی پیشرفته میتواند نشان دهنده تغییری عمیق در تاریخ حیات روی زمین باشد و باید با دقت و منابع متناسب برنامه ریزی و مدیریت شود. متاسفانه این سطح از برنامه ریزی و مدیریت رخ نمیدهد.
در ماههای اخیر شاهد بودیم که آزمایشگاههای هوش مصنوعی در مسابقهای خارج از کنترل برای توسعه و استقرار ذهنهای دیجیتالی قدرتمندتر بودهاند که در آن هیچ کس حتی سازندگان آن ذهنهای دیجیتالی نیز نمیتوانند به طور قابل اعتماد آن را کنترل، درک یا پیش بینی کنند. آیا ما باید تمام مشاغل را خودکار کنیم؟ آیا باید در معرض خطر از دست دادن کنترل تمدنمان قرار گیریم"؟
"الیزر یودکوفسکی" که به طور گسترده به عنوان یکی از بنیانگذاران حوزه هوش مصنوعی شناخته میشود در مقالهای در نشریه "تایم" با عنوان "توقف توسعه هوش مصنوعی کافی نیست" بسیار فراتر رفت و نوشت: "ما باید همه چیز را تعطیل کنیم".
او در مقاله خود نوشت: "بسیاری از محققان از جمله من که در این مسائل غرق شدهایم، انتظار داریم که محتملترین نتیجه ساخت یک هوش مصنوعی فوق بشری هوشمند این خواهد بود که به معنای واقعی کلمه همه روی زمین جان شان را از دست خواهند داد. این نه "شاید یک شانس از دور" بلکه "این چیزی است که میتواند رخ دهد" میباشد.
چشم اندازی که دانشمندان هوش مصنوعی خواستار توقف کار در حال پیشرفت سریع در حوزه کاری شان ترسیم میکنند تاریخ تسلیحات هستهای را به ما یادآوری میکند.
قدرت مخرب حیرت انگیز بمب اتمی که تحقیقات علمی آن را ممکن ساخته بود باعث واکنش انیشتین شده بود. او در آن زمان گفته بود: "آه! دنیا برای آن آماده نیست".
در سال ۱۹۴۹ میلادی برخی از فیزیکدانان هستهای برجسته و چهرههای پرسابقه پروژه بمب اتمی زمان جنگ به طور آشکار از شرکت در پروژه ساخت دستگاههای مبتنی بر همجوشی (بمبهای هیدروژنی) خودداری کردند دستگاههایی که انتشار انرژی از آن میتواند هزار برابر یا میزانی بیشتر بزرگتر از بمبهای اتمی مبتنی بر شکافت باشد.
کمیته مشورتی عمومی کمیسیون انرژی اتمی ایالات متحده توسط "رابرت اوپنهایمر" (که اغلب به عنوان "پدر بمب اتمی" شناخته میشود) رهبری میشد. آن کمیسته در جلسه نهایی خود در تاریخ ۳۰ اکتبر ۱۹۴۹ میلادی کمیتهای را تعیین کرد که تصمیم به عدم اقدام برای ساخت بمب هیدروژنی گرفت.
آن کمیته اعلام کرد:"ما فرصت منحصر بفردی را میبینیم که محدودیتهایی را برای کلیت جنگ و در نتیجه محدود کردن ترس اعمال کنیم تا باعث ایجاد امید برای بشریت شود". اکثریت اعضای آن کمیته معتقد بودند که بمب هیدروژنی آینده نسل بشر را تهدید میکند. آنان افزوده بودند:" ما معتقدیم که یک ابر بمب هرگز نباید تولید شود. بشر بسیار بهتر است تا زمانی که فضای کنونی افکار جهانی تغییر نکرده امکانپذیری چنین سلاحی را نشان ندهد".
در هیئت تحت رهبری "هری ترومن" رئیس جمهور امریکا نظر کمیته رد شد. البته نباید فراموش کرد که انرژی اتمی در کنار کاربردهای نظامی در قالب راکتورهای شکافت مزایای فراوانی برای بشر به همراه داشته است. انرژی همجوشی که برای اولین بار به شکل کنترل نشده در بمب هیدروژنی آزاد شد مزایای بیش تری را به همراه دارد.
به طور مشابه همین وضعیت برای اشکال پیشرفته هوش مصنوعی نیز صدق میکند. میتوان گفت آنالوگ بمب هیدروژنی در حوزه هوش مصنوعی ایجاد دستگاههای "هوش مصنوعی عمومی" خواهد بود که تمام قابلیتهای ذهن انسان را در اختیار دارند و حتی از آن تا حد زیادی فراتر میروند. ناظران در نظرات خود در مورد زمان رسیدن به هدف هوش مصنوعی عمومی با یکدیگر اختلاف نظر دارند.
برخی از کارشناسان هوش مصنوعی ادعا میکنند که هوش مصنوعی عمومی در آینده نزدیک به دست خواهد آمد در حالی که برخی دیگر آن را یک چشم انداز بسیار دور، در صورت امکان دستیابی قلمداد میکنند.
برخی معتقدند که هوش مصنوعی عمومی مبتنی بر فناوری رایانه دیجیتال در اصل غیرممکن است. این نتیجه توسط نتایج "کورت گودل" در مورد محدودیتهای اساسی هر سیستمی که معادل ماشین تورینگ است پشتیبانی میشود. این امر به ویژه برای تمام رایانههای دیجیتال صدق میکند.
این دیدگاه با این واقعیت تقویت میشود که عملکرد نورونها در مغز انسان تقریبا هیچ شباهتی با عملکرد عناصر سوئیچ "روشن – خاموش" ندارد عملکردی که اساس کار محسوب میشود. رایانههای دیجیتال یک نورون منفرد به عنوان یک سیستم فیزیکی بسیار پیچیدهتر از هر رایانه دیجیتالی است که میتوانیم انتظار داشته باشیم در آینده قابل پیش بینی بسازیم. پیچیدگی حیرتانگیز نورونهای واقعی که سلولهای زنده هستند برای هوش انسان ضروریتر عناصر سوئیچینگ بی اثر هستند.
درک این نکته ضروری است که سیستمهای هوش مصنوعی نیازی به نزدیکی به هوش مصنوعی عمومی ندارند تا تهدیدی بزرگ برای جامعه باشند.
سناریوی زیر را در نظر بگیرید: سیستمهای هوش مصنوعی که بر اساس "یادگیری عمیق" عمل میکنند به تدریج تواناییهایی را برای دستکاری انسانها از طریق شرطی سازی روانشناختی و اصلاح رفتار به دست میآورند. چنین سیستمهایی با توجه به دسترسی به جمعیت در مقیاس بزرگ ممکن است عملا کنترل جامعه را در دست بگیرند. با توجه به رفتار اغلب غیرقابل پیش بینی سیستمهای مبتنی بر یادگیری عمیق این وضعیت میتواند پیامدهای فاجعه باری داشته باشد.
ما آن میزانی که مردم فکر میکنند از چنین سناریویی دور نیستیم.
رهبری یک کشور در سادهترین حالت رهبری عمدا شبکهای از سیستمهای هوش مصنوعی را با قابلیتهای اصلاح رفتار در رسانهها، سیستم آموزشی و جاهای دیگر به منظور بهینه سازی جامعه مستقر میکند. این فرآیند ممکن است در ابتدا کار کند، اما به زودی از کنترل خارج میشود و منجر به هرج و مرج و فروپاشی میشود.
تحولاتی که منجر به کنترل هوش مصنوعی بر جامعه میشود نیز میتواند به طور مستقل از نیات انسانی ناشی شود - از طریق فعالیت "خود به خودی" سیستمهای هوش مصنوعی شبکهای که دسترسی کافی به جمعیت دارند و قابلیتهای اصلاح رفتاری را دارند (یا به تدریج به دست میآورند).
بسیاری از برنامههای کاربردی هوش مصنوعی به صراحت برای اصلاح رفتار انسان بهینه شده اند. این فهرست شامل چت باتهای مورد استفاده در روان درمانی است. در بسیاری از موارد دیگر از جمله در آموزش کودکان برنامههای کاربردی مبتنی بر هوش مصنوعی اثرات قوی تغییر رفتار دارند.
مانند هر فناوری دیگری هر برنامه هوش مصنوعی مزایای و هم چنین خطرات بالقوه خود را دارد. به طور کلی، امروزه عملکرد این سیستمها هنوز هم توسط انسان قابل نظارت هستند. بعد کاملا متفاوتی از ریسک زمانی به وجود میآید که آنها در "ابر سیستم های" بزرگ ادغام شوند.
سناریوی یک جامعه تحت کنترل هوش مصنوعی میتواند به عنوان یک پیامد ناخواسته از ادغام رو به رشد این سیستمها و معیارهای بهینه سازی و روشهای آموزشی که سیستمهای یادگیری عمیق بر اساس آنها استوار است، آشکار شود.
نخست آن که برای دستکاری انسان نیازی به هوشی شبیه انسان نیست. این کار را میتوان حتی با دستگاههای کاملا ابتدایی انجام داد. این واقعیت مدتها پیش از ظهور هوش مصنوعی از جمله از طریق آزمایشهای روانشناسان رفتارگرا به خوبی ثابت شده بود. توسعه هوش مصنوعی بعد کاملا تازهای را گشوده است. چت باتها و سایر برنامههای هوش مصنوعی میتوانند افراد را از نظر روانی دستکاری کنند حتی زمانی که آن برنامهها قصد انجام این کار را ندارند.
از سوی دیگر، اصلاح ذهنی و رفتاری عمدی توسط سیستمهای هوش مصنوعی زمینهای است که به سرعت در حال رشد میباشد و کاربرد مداوم در زمینههای مختلف دارد.
از سوی دیگر، آموزش کودکان و بزرگسالان با کمک هوش مصنوعی که نمونه آن سیستمهای آموزش الکترونیکی پیشرفته مبتنی بر هوش مصنوعی است نیز میتواند به عنوان نوعی اصلاح رفتاری دیده شود.
در واقع، کاربردهای هوش مصنوعی در زمینه آموزش بر اساس مدلهای رفتارگرایانه یادگیری انسان است. سیستمهای آموزشی هوش مصنوعی پیشرفته برای بهینه سازی پاسخ ها، نتایج عملکرد کودک و ارزیابی پیشرفت کودک در زمان واقعی و تطبیق فعالیتهای آن بر این اساس طراحی شده اند. مثال دیگر، تکثیر چت باتهای مبتنی بر هوش مصنوعی است که برای کمک به افراد در ترک سیگار یا مواد مخدر، ورزش صحیح، و اتخاذ عادات سالم بیشتر طراحی شده اند.
همزمان چت باتهای مبتنی بر هوش مصنوعی در حال یافتن برنامههای کاربردی در حوزه روانشناسی هستند. یکی از نمونهها برنامه Woe bot است که "برای کمک به شما در گذر از فراز و نشیبهای زندگی" طراحی شده به ویژه برای افرادی که از افسردگی رنج میبرند.
این کاربردها تنها مراحل ابتدایی تحول گسترده روانشناسی بالینی و روان درمانی را نشان میدهند. تاثیرات بالقوه هوش مصنوعی بر تفکر و رفتار جمعیت به دلیل تمایل شدید مردم به فرافکنی ناخودآگاه ویژگیهای انسانی بر روی سیستمهایی مانند جی پی تی -۴ افزایش مییابد. این پدیده فرافکنی راه را برای سیستمهای هوش مصنوعی پیشرفته باز میکند تا وارد روابط "شخصی" با افراد شوند و به نوعی خود را در جامعه ادغام کنند.
همان طور که جانشینی سریع رو به رشد امروزی چت باتها نشان میدهد تقریبا هیچ محدودیتی برای تعداد "افراد مجازی" تولید شده توسط هوش مصنوعی وجود ندارد. نیازی به گفتن نیست که این وضعیت زمینه وسیعی را برای اصلاح رفتار و شرطی سازی جمعیت انسانی باز میکند. مورد خودکشی غم انگیز مرد بلژیکی پس از گفتگوی شش هفتهای با چت بات هوش مصنوعی Chai موید این موضوع است.
جمع بندی از این بحث: فناوری اصلاح رفتار مبتنی بر هوش مصنوعی بیرون از بطری است و هیچ محدودیت مشخصی برای استفاده یا استفاده نادرست آن وجود ندارد. فیلتر کردن یا اصلاح محتوای رسانههای اینترنتی توسط سیستمهای هوش مصنوعی و مداخلات مدیریت شده توسط هوش مصنوعی در رسانههای اجتماعی میتواند زندگی ذهنی و رفتار کل جمعیت را شکل دهد. این موضوع در حال حاضر تا حدی در حال رخ دادن است مانند شناسایی مبتنی بر هوش مصنوعی و حذف "موارد توهین آمیز" از فیس بوک و سایر رسانههای اجتماعی.
ما حداکثر تنها چند گام با موقعیتی فاصله داریم که در آن معیارهای قضاوت در مورد آنچه "مضر"، "قابل اعتراض"، "درست" یا "نادرست" است توسط خود سیستمهای هوش مصنوعی تعیین شود.
یک گرایش طبیعی در جامعه امروزی وجود دارد که سیستمهای داده را در کلیتی بزرگتر ادغام میکند. این یک رویه معمول در مدیریت شرکتهای بزرگ و زنجیرههای تامین و دیجیتالی سازی خدمات دولتی و عمومی است که تا حدی با انگیزه تلاش برای کارایی بیشتر است. علیرغم مقاومت موجود یک انگیزه طبیعی برای گسترش فرآیند به اشتراک گذاری داده و یکپارچه سازی سیستمهای اطلاعاتی بسیار فراتر از محدودیتهای بخشهای جداگانه وجود دارد.
زمانی که سیستمهای اطلاعاتی مرتبط با هوش مصنوعی را به شیوههای اساسی درگیر میشوند این وضعیت به کجا میتواند منجر شود؟ برای مثال، استفاده از هوش مصنوعی برای بهینه سازی عملکرد یک کارمند همان طور که توسط یک سیستم هوش مصنوعی ارزیابی میشود با توجه به شرایط روانی و پزشکی او همانطور که توسط یک سیستم هوش مصنوعی دیگر ارزیابی میشود کاملا طبیعی است.
مثال دیگر، استفاده از هوش مصنوعی برای بهینه سازی معیارهای استفاده شده توسط سیستمهای هوش مصنوعی به منظور فیلتر کردن رسانههای اجتماعی است به طوری که احتمال ناآرامیهای اجتماعی را به حداقل میرساند همان طور که توسط یک سیستم هوش مصنوعی ارزیابی میشود. با تامل در این مثالها و نمونههای دیگر برای درک دامنه وسیع ادغام سیستمهای هوش مصنوعی درگیر در جنبههای مختلف جامعه در سیستمهای بزرگتر نیازی به تخیل زیادی وجود ندارد.
مهمتر از همه آن که روند رو به رشد یکپارچه سازی سیستمهای هوش مصنوعی به طور طبیعی به "ابر سیستم های" با ساختار سلسله مراتبی منجر میشود که در آن زیرسیستمهای بالاتر معیارهای بهینه سازی و هم چنین پایگاه دادههایی را که بر اساس آن به سیستمهای سطح پایینتر دیکته میکنند: یاد بگیرید و عمل کنید.
باید به خاطر داشت که هوش مصنوعی مبتنی بر یادگیری عمیق در نهایت چیزی جز ترکیبی از الگوریتمهای بهینه سازی ریاضی پیچیده بعلاوه رایانههای بزرگ بعلاوه مجموعه دادههای بزرگ نیست. امروزه بحثهای زیادی در زمینه هوش مصنوعی در مورد به اصطلاح "مشکل همسویی" وجود دارد: چگونه میتوان اطمینان حاصل کرد که سیستمهای هوش مصنوعی که به طور مداوم در حال تکثیر و تکامل هستند با اهداف، ترجیحات یا اصول اخلاقی انسان "همسو" باقی میمانند. برخی معتقدند که حل مشکل "هم ترازی" در مورد ابرسیستمهای دارای ساختار سلسله مراتبی عملا غیرممکن است.
شکی نیست که سیستمهای هوش مصنوعی در بسیاری از زمینههای خاص واقعا بهتر از انسانها عمل میکنند. هم چنین هوش مصنوعی به طور مداوم در حال بهبود است، اما روند مداوم گسترش و یکپارچهسازی سیستمهای هوش مصنوعی ما را به کجا میبرد به ویژه زمانی که منجر به تواناییهای قدرتمندتر و جامعتر برای شکل دهی به تفکر و رفتار انسان میشود؟
در تاریخ بشر تلاشها به منظور بهینه سازی کامل جامعه در قالب یک ابرسیستم که تحت معیارهای سخت گیرانه عمل میکند عموما به فاجعه منجر شده است. جوامع پایدار همواره با آزادی عمل قابل توجهی برای تصمیم گیری مستقل مشخص شده اند. از قضا، ارائه چنین درجاتی از آزادی تا حد زیادی بهینهترین نتایج را ایجاد میکند.
تکثیر هوش مصنوعی مبتنی بر یادگیری عمیق در حوزههای بیشتر فعالیتهای انسانی و تمایل به ادغام چنین سیستمهایی در سیستمهای سلسله مراتبی بزرگتر با هم خطر بزرگی را برای جامعه به همراه دارد. در واقع، این پرسش باید مورد تأمل قرار گیرد: در صورتی که چنین ابرسیستمی به خطا برود و پیامدهای فاجعه باری را تهدید کند چه کسی یا چه چیزی برای جلوگیری از آن مداخله خواهد کرد؟
در فیلم علمی تخیلی معروف "۲۰۰۱: ادیسه فضایی" ساخه "استنلی کوبریک" فضانورد بازمانده در آخرین لحظه مداخله میکند تا سیستم هوش مصنوعی را خاموش کند، اما آیا اگر سیستم هوش مصنوعی قبلا او را از نظر روانی شرطی کرده بود که این کار را انجام ندهد آیا فضانورد این کار را انجام میداد؟
به نظر نمیرسد منطقی باشد که سعی کنیم توسعه هوش مصنوعی را محدود کنیم بلکه آن کاری مضر و با نتیجه معکوس خواهد بود. با این وجود، حکمت حکم میکند که خطرات ناشی از گسترش سریع سیستمهای مبتنی بر هوش مصنوعی در تقریبا هر حوزهای از فعالیتهای انسانی با مقررات مناسب و نظارت انسانی مهار شود. این امر به طور خاص در مورد ظهور ابرسیستمهای هوش مصنوعی از نوعی که در اینجا مورد بحث قرار گرفت صدق میکند.