روزگاری هوش مصنوعی موضوعی بود که بهصورت یک مفهوم انتزاعی توصیف میشد. کمتر کسی با این فناوری رابطه مستقیم داشت یا از وجود آن آگاه بود. اما در چند ماه اخیر با عرضه عمومی ChatGPT و DALL-E همهچیز تغییر کرد. این تغییرات احتمالاً بزرگترین اثر خود را در انتخابات ۲۰۲۴ آمریکا خواهد گذاشت که میتواند به صحنه انتشار تصاویر، صداها و ویدیوهای جعلی تبدیل شود.
به گزارش دیجیاتو، امروزه فاصله میان حقیقت و آنچه تظاهر میکند واقعی است، کمرنگتر از همیشه شده. «هنری آجدر»، متخصص هوش مصنوعی، دراینباره میگوید: «در حوزه ابزارهای زایا، بهخصوص در یک سال گذشته، تغییرات بسیار بزرگی را مشاهده کردهایم. فکر میکنم مقیاس محتواهایی که شاهد تولید آنها هستیم رابطه مستقیمی با افزایش چشمگیر دسترسیپذیری [به این ابزارها]دارد.»
مسئله این نیست که محتواهای ساختهشده با هوش مصنوعی قرار است نقشی در سیاست داشته باشند یا نه، چون این اتفاق همین حالا افتاده است؛ تصاویر و ویدیوهای ساختگی از «جو بایدن» و «دونالد ترامپ» مدتی است که در سطح اینترنت دستبهدست میشوند.
جمهوریخواهان اخیراً از هوش مصنوعی برای تولید تبلیغی علیه بایدن استفاده کرده بودند. ولی سؤال اینجاست که وقتی هر کسی میتواند لپتاپش را باز کند و با کمترین زحمت ویدیوی دیپفیک یک سیاستمدار را بسازد، چه اتفاقی در جهان خواهد افتاد؟
درحالحاضر سیستمهای مختلفی مثل DALL-E، میدجرنی و Stable Diffusion وجود دارند که تولید تصویر براساس توصیفات متنی را ممکن میکنند. بهعلاوه، ابزارهایی مثل محصولات ElevenLabs به کاربران اجازه میدهند تا با هوش مصنوعی صدای افراد را شبیهسازی کنند. تولید ویدیوهای متقاعدکننده البته هنوز نیازمند مهارت فنی است، ولی آجدر میگوید نیاز به این مهارت هم تا یک الی دو سال آینده از بین میرود.
او ادامه میدهد: «ساخت دیپفیکهای واقعاً باکیفیت هنوز مستلزم سطح مناسبی از تخصص و دانش پسا-تولید است تا بتوانید خروجی هوش مصنوعی را بهینهسازی کنید. ویدیو بهواقع گام مهم بعدی درزمینه هوش مصنوعی زایا محسوب میشود.»
ازجمله ویدیوهای ساختگی سیاستمداران میتوان به ویدیویی اشاره کرد که پارسال منتشر شد و در آن «ولودمیر زلنسکی»، رئیسجمهور اوکراین، به نیروهایش گفته بود باید در جنگ تسلیم شوند. پس زمانی که فناوری بهاندازه کافی پیشرفته شود (که با توجه به پیشرفتهای چند وقت اخیر احتمالاً فاصله زیادی با آن نداریم)، باید منتظر ویدیوهای بیشتری از این دست باشیم؛ ویدیوهایی که میتوانند قانعکنندهتر باشند و با زحمت کمتری تولید شوند.
«هانی فرید»، استاد دانشگاه کالیفرنیا، برکلی میگوید: «فکر نمیکنم [فعلاً]وبسایتی وجود داشته باشد که بگویید: برایم ویدیویی از جو بایدن را بساز که ایکس را میگوید. چنین چیزی هنوز وجود ندارد، اما بهزودی ساخته خواهد شد. تنها بحث زمان مطرح است. افراد همین حالا مشغول کار روی فناوریهای تبدیل متن به ویدیو هستند.»
شرکتهایی مثل Runway، گوگل و متا در این زمینه فعالند. زمانی که یکی از این شرکتها نسخه باکیفیت ابزار هوش مصنوعی تبدیل متن به ویدیوی خود را منتشر کند، میتوانیم منتظر باشیم که بسیاری شرکتهای دیگر هم ابزارهای خود را عرضه کنند. فرید میگوید هیچکس نمیتواند از این روند عقب بماند؛ بنابراین شرکتها دست به انتشار همان چیزی میزنند که در آن لحظه در اختیار دارند.
او ادامه میدهد: «همیشه شگفتزده میشوم که در جهان فیزیکی وقتی محصولی را عرضه میکنیم باید تابع دستورالعملهای سختگیرانه باشیم. شما نمیتوانید محصولی را به بازار بفرستید و امیدوار باشید که مشتری را نکشد. منتها درباره نرمافزارها معتقدیم که این محصول درست کار نمیکند، اما بگذارید ببینیم وقتی آن را در اختیار میلیاردها آدم قرار دادیم، چه میشود.»
اگر حین انتخابات پیش رو در آمریکا شمار زیادی ویدیوی دیپفیک منتشر شود، احتمالاً خیلیها، حتی افراد سرشناس، دست به بازنشر آنها خواهند زد. ممکن است یک هفته مانده به انتخابات ویدیویی از یکی از نامزدها منتشر شود که در آن حرف نامناسبی را به زبان میآورد و خیلیها نتوانند متوجه شوند که این ویدیو ساختگی است. تحقیقات نشان داده که اخبار جعلی خیلی سریعتر از اخبار واقعی دستبهدست میشوند.
حتی اگر دیپفیک تا پیش از انتخابات ۲۰۲۴ آمریکا همهگیر نشود، همین واقعیت که امکان ساخت چنین محتواهایی وجود دارد، میتواند بر نتیجه انتخابات تأثیر بگذارد. چون افراد با آگاهی نسبت به امکان ساخت تصاویر، صداها و ویدیوهای جعلی دیگر به اخبار واقعی که میتوانند سرنوشتساز باشند، اعتمادی نخواهند داشت.
آجدر میگوید: «دیپفیک و هوش مصنوعی زایا از برخی جهات لازم نیست حتی در انتخابات درگیر شوند تا روی آن اثر بگذارند؛ زیرا چاه آب حالا با این ایده که هر چیزی میتواند جعلی باشد، مسموم شده است. این مسئله بهانهای بسیار کاربردی را بهوجود میآورد تا چنانچه مدرکی نامناسب علیه نامزدها بیرون آمد، آن را جعلی بخوانند.»
با این مشکل چه میتوان کرد؟ یک راهکار چیزی تحت عنوان C۲PA است. این فناوری بهصورت رمزنگاریشده هر محتوایی را که توسط یک دستگاه، خواه موبایل باشد یا دوربین، ساخته میشود امضا میکند و مینویسد که چه کسی، کجا و چه موقع تصویر یا ویدیو را ثبت کرده است. سپس این امضای رمزنگاریشده درون یک دفتر مرکزی غیرقابلدستکاری ذخیره میشود. این پایگاه داده به افراد اجازه خواهد داد تا صحت تصاویر و ویدیوها را بررسی کنند.
راهکار بعدی استفاده از اثرانگشت و برچسبزدن (واترمارکینگ) روی تصاویر و ویدیوهاست. اثرانگشت شامل برداشتن بخشی از محتوا موسوم به «هش» میشود که اساساً رشتههایی از دادههای فایل هستند و میتوانند به اعتبارسنجی آنها کمک کنند. برچسبزدن هم شامل افزودن یک علامت دیجیتالی روی تصاویر و ویدیوهاست.
از سوی دیگر، برخی میگویند میتوان از خود هوش مصنوعی برای تشخیص ویدیوهای دیپفیک استفاده کرد، اما آجدر چنین باوری ندارد. او میگوید این فناوری بهاندازه کافی قابل اطمینان نیست و نمیتواند تغییرات پیوسته ابزارهای هوش مصنوعی زایا را دنبال کند.
آخرین راهکار میتواند توسعه یک سیستم راستیآزمایی برای کاربران شبکههای اجتماعی باشد. «آویو اووادیا»، محقق دانشگاه هاروارد، میگوید با این سیستمها میتوان یک محتوا را در اپهای شبکههای اجتماعی انتخاب کرد و آن را به موتور خاصی فرستاد که صحت محتوا را بررسی میکند. به عبارت دیگر، اگر چیزی را در این پلتفرمها ببینید که جعلی باشد، این ابزار میتواند بهسرعت ماهیت آن را برملا کند. اووادیا میگوید چنین سیستمهایی میتوانند درون توییتر یا واتساپ قرار داده شوند تا از نشر اطلاعات نادرست جلوگیری کنند.
اینکه راهکارهای بالا تا پیش از انتخابات سال ۲۰۲۴ پیادهسازی خواهند شد یا خیر، مشخص نیست، اما تهدیدها درحال افزایشند. هر روز پول بیشتری به توسعه ابزارهای هوش مصنوعی زایا اختصاص داده میشود، اما سرمایه خاصی برای جلوگیری از نشر اطلاعات تقلبی در نظر گرفته نمیشود.
آجدر میگوید: «فکر میکنم [بهزودی]با سیلی از ابزارها روبهرو میشویم؛ چنانچه همین حالا هم آنها را میبینیم. ولی فکر میکنم [توسعه ابزارهای تولید محتوای سیاسی با هوش مصنوعی]ادامه خواهد داشت. ما از نظر بنیادی برای مقابله با این فناوریهای قدرتمند که با سرعتی شگفتآور درحال تغییر هستند، در موقعیت مناسبی قرار نداریم.»