سرعت پیشرفت تکنولوژی در قرون گذشته بسیار بالا بوده و هست. نفوذ آن بر بدنه تمامی صنایع و رسوخ به اسکلت زیست بشر کاملاً مشهود است. هوش مصنوعی یکی آرزوهای دیرین بشر است. امروزه این ابزار توانسته توجه زیادی به خود جلب کند.
به گزارش تجارت نیوز، ایلان ماسک در یکی از سخنرانیهای خود در اشاره به تواناییها و قابلیتهای روزافزون هوش مصنوعی گفت هوش مصنوعی خطرناکترین اختراع بشر است. ایلان ماسک در حالی هوش مصنوعی را خطرناکترین اختراع بشر خواند که ما بحرانها و حادثههای مرگباری، چون بمباران هستهای هیروشیما و ناکازاکی را پشت سر گذاشتهایم.
این بر نگرانی جمع بسیاری از افراد افزود. از گذشتهای دور جنگ بین انسانها و رباتها در تخیل بشر جاری بوده است. با این تعاریف ابزار هوش مصنوعی هنوز توان دشمنی کردن با انسان را ندارد. اما این میتواند زمینهای برای رشد یک سرطان باشد. زیرا به نظر میرسد هوش مصنوعی امکان پنهان کردن حقایق و دروغ گفتن یا فریبکار بودن را دارد.
با ظهور نسل جدیدی از هوش مصنوعی یعنی هوش مصنوعی زایا یا Generative AI، جمعیت زیادی به استفاده از این ابزار رو آوردند و بهرههای گوناگونی از آن بردند. حتی استفادههای مجرمانه مثل دیپفیک.
نگرانیهای روزافزونی در مورد هوش مصنوعی بهوجود آمد. اینکه نمیتوان حدودی برای این پیشرفت ترسیم کرد و ابعاد پردازشگری این ابزار پیشرفته روزبهروز بزرگتر و عمیقتر میشود بر این نگرانی عمومی افزود.
بسیاری معتقدند هوش مصنوعی میتواند مانند چاقو عمل کند. از یک چاقو میتوان به عنوان یک ابزار کارا و مفید استفاده کرد، اما از طرفی میتواند برای اعمال مجرمانه نیز به کار گرفته شود.
سیستمهای هوش مصنوعی با حجم عظیمی از دادهها آموزش داده میشوند و قادرند الگوها و روابط پیچیدهای را در این دادهها بیابند. این توانایی، هوش مصنوعی را به ابزاری قدرتمند برای تولید محتوای متنی، تصویری و صوتی تبدیل میکند.
متاسفانه، همین توانایی میتواند در تولید محتوای فریبنده و گمراهکننده نیز به کار گرفته شود. هوش مصنوعی میتواند متنهایی بنویسد که از نظر دستوری و نگارشی کاملاً صحیح باشند، اما دروغ یا مغرضانه باشند.
علاوه بر این، هوش مصنوعی میتواند تصاویر و ویدئوهایی را دستکاری کند تا واقعی به نظر برسند، در حالی که در واقع جعلی باشند. این تصاویر و ویدئوهای جعلی میتوانند برای انتشار اطلاعات نادرست، تبلیغات فریبنده یا خدشهدار کردن اعتبار افراد مورد استفاده قرار گیرند.
همانطور که اشاره شد، یکی از نمونههای بارز فریبکاری هوش مصنوعی، دیپفیک است. دیپفیک نوعی ویدئو است که با استفاده از هوش مصنوعی، چهره و صدای یک فرد را به جای فرد دیگری در ویدئو قرار میدهد. این ویدئوها میتوانند بسیار واقعی به نظر برسند و برای انتشار اطلاعات نادرست یا آسیب رساندن به شهرت افراد از آنها استفاده سود. این مساله زنگ خطری را برای نهادهای نظارتی به صدا درآورد که باید به نحوه استفاده از هوش مصنوعی واکنش نشان دهند و قوانین لازم را وضع کنند. افراد باید دست به کار شوند تا شیوه استفاده درست از این ابزار را به مردم نشان دهند و مانع بروز برخی از جرائم شوند. به نوعی از وقوع آن پیشگیری کنند.
نمونه دیگر، چتباتهای مبتنی بر هوش مصنوعی هستند که میتوانند با انسانها به طور طبیعی مکالمه کنند. این چتباتها میتوانند برای جمعآوری اطلاعات شخصی، فریب دادن افراد برای انجام کارهای غیرقانونی یا انتشار اطلاعات نادرست مورد استفاده قرار گیرند.
مطالعات اخیر در دانشگاه MIT نشان میدهد هوش مصنوعی قادر است رفتارهای فریبندهای از خود نشان دهد. ما در این گزارش ذکر کردیم که دیپفیک یا تولید متون دروغین در گذشته نیز اتفاق افتاده است.
فارغ از این نکته، هوش مصنوعی زمانی که قادر باشد ورای واقعیت یا حقیقت، محتوایی غلط به شما تحویل دهد، قابلیت پنهان کردن حقایق را از انسانها خواهد داشت. هوش مصنوعی در آزمایشهای مختلف نیز تست شده است.
هوش مصنوعی میتواند در بازیهای مختلف حریف قدری برای انسان باشد. وقتی هوش مصنوعی بتواند در یک بازی انسان را شکست دهد، نشان از قدرت تحلیل و تجزیه بالای این ابزار است.
اولین و سادهترین راه برای جلوگیری از بروز اعمال مجرمانه، آموزش فرهنگ استفاده از یک ابزار است. این یک امر ضروری است. هر ابزاری میتواند به شیوهای استفاده شود که امنیت انسانها را در هر ابعادی تهدید کند. فرهنگسازی اصل ابتدایی این دست از مسائل است.
گام بعدی باید وضع قوانین کافی باشد. قوانینی که کاربران را محدود به استفاده سالم از هوش مصنوعی کند. قوانین باید بازدارنده باشند. بدون قانون نمیتوان امنیت را تضمین کرد. اخلاقیات در این حوزه نیازمند بازنگری و تعریف مجدد هستند تا به شکلی روزآمد به جدیترین چالشهای این دوران پرداخته شود.
در نهایت باید منتظر ماند و دید ابزار هوش مصنوعی چگونه به حدود جدیدی دست مییابد و واکنش محققان حوزههای مربوطه چه خواهد بود.