Rate this post

عاشق وب: شرکت اوپن ای آی(OpenAI) متعلق به ایلان ماسک اخیرا یک الگوریتم هوش مصنوعی خطرناک توسعه داده است که اخبار جعلی و گمراه کننده و باورپذیر نوشته و منتشر می کند.
به گزارش عاشق وب به نقل از ایسنا و به نقل از انگجت، شرکت OpenAI در ماه فوریه اعلام نمود که الگوریتمی را به وجود آورده است که می تواند خبرهای جعلی و قابل باور بنویسد و با عنایت به اینکه این فناوری دارای قدرتی بیش از اندازه خطرناک می باشد، یک نسخه کنترل شده و ناقص از آنرا منتشر نمود تا بتواند شمه هایی از این فنآوری را به عموم نشان دهد و نحوه استفاده از آنرا تحلیل کند.
حالا این شرکت می گوید هیچ مدرک محکمی از سوءاستفاده این هوش مصنوعی مشاهده نکرده است و طی همین هفته نسخه کامل آنرا منتشر خواهدنمود.
این هوش مصنوعی موسوم به “GPT-2” در ابتدا برای پاسخ به سؤالات، تهیه خلاصه داستان ها و ترجمه متون طراحی شده بود. اما پژوهشگران نگران این بودند که بتوان از آن بهره برد تا حجم زیادی از اطلاعات نادرست را منتشر نمود. درعوض دیدند که از آن تنها برای مواردی مانند آموزش بازی های ماجراجویی متنی و نوشتن داستان استفاده شد.
از آنجائیکه این نسخه کوچک به سوءاستفاده گسترده منجر نشد، شرکت OpenAI مدل کامل GPT-2 را منتشر می کند. این شرکت در پست وبلاگ خود ابراز امیدواری کرده که نسخه کامل به پژوهشگران کمک نماید تا مدلهای تشخیص متن تولید شده توسط هوش مصنوعی بهتری توسعه دهند و تبعیض های زبانی را ریشه کن کنند.
ایده توسعه یک هوش مصنوعی که بتواند اخبار جعلی باورپذیر تولید نماید، نگران کننده است، اما برخی معتقدند که این فناوری خواه ناخواه توسعه خواهد یافت و OpenAI باید سریعاً کار خودرا به اشتراک بگذارد تا پژوهشگران بتوانند ابزاری برای مبارزه یا حداقل شناسایی متون تولید شده توسط ربات ایجاد کنند.

منبع: