فرارو-امروزه هوش مصنوعی قادر است یک متن را به تصویر تبدیل کند. شما میتوانید هر متن دلخواهی را به برنامه بدهید و تصاویری مطابق با توضیحات اعلام شده در متن دریافت کنید. تصاویر تولید شده توسط هوش مصنوعی میتواند با طیف وسیعی از سبک ها، از نقاشیهای رنگ روغن گرفته تا رندرهای CGI و حتی تصاویر مطابقت داشته باشند.
به گزارش فرارو، تا به امروز پیشروترین نرم افزار در این زمینه، DALL-E میباشد. این برنامه توسط آزمایشگاه تجاری هوش مصنوعی OpenAI طراحی و آخرین بار در ماه آوریل بروز شده است. اغلب، تصاویر تولید شده توسط این نوع اپلیکیشن ها، لکهدار یا تار به نظر میرسند. گوگل ادعا میکند که تبدیل کننده متن به تصویر Imagen تصاویر بهتری نسبت به DALL-E تولید میکند.
این اپلیکیشن بر اساس معیار جدید DrawBench کار میکند. DrawBench معیار پیچیدهای نیست، فهرستی از حدود ۲۰۰ پیام متنی است که تیم گوگل به Imagen و سایر تولیدکنندههای متن به تصویر داده است و خروجی هر برنامه توسط داوران انسانی ارزیابی میشود. گوگل دریافت که انسانها به طور کلی خروجی Imagen را به خروجی رقبا ترجیح میدهند. قضاوت در این خصوص کمی سخت است؛ زیرا گوگل Imagen را در دسترس عموم قرار نمیدهد، دلیل آن هم سواستفاده از برخی ویژگیهای آن است.
سیستمی را تصور کنید که تقریباً هر تصویری را که دوست دارید، ایجاد میکند. این سیستم میتواند برای تولید اخبار جعلی، فریبکاری و یا آزار و اذیت مورد استفاده قرار گیرد. گوگل سعی دارد چنین محتویات مشکل سازی را رمز گذاری کند. از جمله موارد نژادپرستانه، جنسیتپرستانه و سوگیریهای اجتماعی. گوگل موارد مربوط به یک سوگیری کلی نسبت به ایجاد تصاویری از افراد با یک رنگ پوست خاص و تمایل به تصاویری که حرفههای مختلف را به تصویر میکشند را رمزگذاری میکند. این چیزی است که محققان هنگام ارزیابی DALL-E نیز دریافته اند. به عنوان مثال اگر از DALL-E بخواهید تصاویری از یک" مهماندار هواپیما" نشان دهد، تقریباً همه سوژهها زن خواهند بود و یا اگر تصویری از یک "مدیرعامل" درخواست کنید، در کمال تعجب، شاهد تعداد زیادی مرد سفیدپوست خواهید بود.
به همین دلیل OpenAI تصمیم گرفت برنامه DALL-E را به صورت عمومی منتشر نکند. البته این شرکت به آزمایش کنندگان بتای این اپلیکیشن اجازه بررسی آن را داده است. DALL-E همچنین متنهای ورودی خاص را نیز فیلتر میکند تا از تولید تصاویر نژادپرستانه، خشونتآمیز و یا مستهجن جلوگیری کند. این اقدامات تا حدودی مانع سوء استفاده از این ابزار میشوند. تاریخچه هوش مصنوعی به ما میگوید که چنین مدلهای متن به تصویر با همه پیامدهای نگرانکنندهای که در پی دارند، در آینده عمومی خواهند شد. نتیجهگیری گوگل این است که Imagen در حال حاضر برای استفاده عمومی مناسب نیست و این شرکت قصد دارد روش جدیدی برای جلوگیری از سوگیری اجتماعی و فرهنگی ایجاد کند.
منبع: theverge