زمین تخت است! / دیگر به چشمان خود اعتماد نکنید

در دنیایی که فناوری هوش مصنوعی با سرعت چشمگیری پیش میرود، کلیپی منتشر شده که چهره و صدای معروفی چون «نِیل دِگرس تایسون» را به کار گرفته است. این نمونهای زنده از خطر «دیپفِیک»هاست که نشان میدهد تا چه حد تشخیص واقعیت از جعلیات دشوار میشود.
به گزارش خبرآنلاین، نیل دِگرس تایسون، یکی از شناخته شدهترین ستارههای علم نجوم و فیزیک عمومی در جهان است. با کمی گشت و گذار در اینترنت با عجیبترین ویدئو از این چهره سرشناس دنیای علم روبهرو میشویم. کلیپی که بهظاهر او بود و حرفی بسیار غیرمنتظره زد: «نمیتوانم نتیجه بگیرم که زمین تخت نیست!»
البته که این سخنان یکی از مشهورترین مروجان علم در جهان نیست. کلیپ، یک دیپفِیک (Deepfake) بود که به گفته برخی پژوهشگران و رسانهها یکی از «ترسناکترین نمونه»های ویدئوی جعلی است.
این رویداد، فراتر از سرگرمی یا شوخی است. نشانهای روشن از این است که چگونه فناوری هوش مصنوعی با ترکیب تصویر و صدا میتواند بهسرعت اعتماد عمومی را متزلزل کند.
چرا این مسئله مهم است؟
اولاً، صدای فردِ شناختهشدهای مانند نیل دِگرس تایسون، بهطور ناخودآگاه برای مخاطب «معتبر» تلقّی میشود. وقتی چنین فردی جملهای غیرعادی میگوید، واکنش عمومی قویتر میشود. دوم اینکه، فناوری ساخت دیپفِیکها آنقدر دسترسپذیر شده که هیچ تضمینی نیست مخاطب عادی بتواند بلافاصله تشخیص دهد چه چیزی واقعی و چه چیزی ساختگی است. در نهایت، در حوزههای حساس مانند سیاست، علوم، بهداشت عمومی یا امنیت، پخش سریع محتوای ساختگی میتواند از گمراهسازی افکار عمومی تا ضربه به اعتبار افراد یا نهادها پیامدهای جدی در پی داشته باشد.
در پی این وقایع باید به مواردی چون آموزش دیجیتال، سامانههای هویتسنجی و تایید محتوا، قوانین و چارچوبهای حقوقی و البته سواد و فرهنگ رسانهای بیشتر توجه داشت.
در نهایت وقتی شخصی مانند نیل دِگرس تایسون، که سالها در عرصه علم و عمومیسازی دانش فعالیت کرده، ناچار به تکذیب یک ویدئو میشود، یعنی ما به مرحله جدیدی از بحران اعتماد عمومی به رسانهها و واقعیت وارد شدهایم.
این دیپفِیک نه تنها درباره پیشرفت فناوری هشدار میدهد، بلکه به کاربران نیز تلنگر میزند که اگر نمیخواهید فریب بخورید، باید بهتر ببینید، بهتر بشنوید و بهتر فکر کنید.
۵۸۵۸
