۵ مورد از خطرات هوش مصنوعی؛ از دیپفیک تا سلاحهای خودمختار
وقتی صحبت از خطرات هوش مصنوعی میشود، ذهن اکثر ما ناخودآگاه به سمت فیلمهای ترمیناتور و رباتهایی میرود که قصد نابودی بشر را دارند. اما بگذارید خیالتان را راحت (یا شاید هم ناراحت) کنم: خطر اصلی فعلاً رباتهای تفنگبهدست در خیابان نیستند. خطر واقعی، ساکتتر، نامرئیتر و بسیار نزدیکتر از آن چیزی است که فکر میکنید.
امروز هوش مصنوعی دیگر یک ابزار بامزه برای ساخت عکسهای فانتزی نیست. این تکنولوژی وارد فازهایی شده که حتی خالقان آن را هم نگران کرده است. از جعل هویت عزیزان شما تا تصمیمگیری برای مرگ و زندگی در میدان جنگ، نیمه تاریک AI در حال نمایان شدن است. در این مقاله قرار است بدون تعارف، ۵ مورد از خطرناکترین جنبههای هوش مصنوعی را بررسی کنیم که همین حالا جهان ما را تهدید میکنند.
۱. دیپفیک (Deepfake)؛ مرگ حقیقت و اعتماد
تصور کنید صبح از خواب بیدار میشوید و میبینید ویدیویی از شما در شبکههای اجتماعی وایرال شده که در حال گفتن حرفهای نژادپرستانه هستید یا کاری شرمآور انجام میدهید. شما میدانید که آن ویدیو ساختگی است، اما چشم و گوش مردم چیز دیگری میگوید. ویدیو آنقدر واقعی است که حتی مادرتان هم شک میکند.
این همان دیپفیک (Deepfake) یا جعل عمیق است. هوش مصنوعی اکنون میتواند چهره و صدای هر کسی را با دقتی ترسناک روی بدن فرد دیگری قرار دهد.
-
کلاهبرداری صوتی: همین حالا پروندههایی وجود دارد که کلاهبرداران با شبیهسازی صدای رئیس یک شرکت، به کارمند بخش مالی دستور انتقال میلیونها دلار پول دادهاند. یا مادری که تماس تلفنی از فرزندش دریافت کرده که درخواست کمک مالی فوری دارد، غافل از اینکه آن طرف خط، یک هوش مصنوعی با صدای فرزندش بوده است.
-
سقوط بازار سهام: انتشار یک ویدیوی دیپفیک از انفجار در پنتاگون یا سخنرانی جعلی یک رئیسجمهور میتواند در چند ثانیه بازارهای مالی دنیا را نابود کند.
در دنیای دیپفیک، جمله معروف “شنیدن کی بود مانند دیدن” دیگر اعتباری ندارد. ما در حال ورود به دورانی هستیم که به چشمهایمان هم نمیتوانیم اعتماد کنیم.
۲. سلاحهای خودمختار (LAWS)؛ وقتی ماشین ماشه را میکشد
شاید ترسناکترین کابوس بشریت، سلاحهای مرگبار خودمختار (Lethal Autonomous Weapons Systems) باشد. بر خلاف پهپادهای نظامی فعلی که یک انسان پشت مانیتور دکمه شلیک را فشار میدهد، این سلاحها “مغز” دارند.
این رباتها یا پهپادهای ریز، با استفاده از الگوریتمهای تشخیص چهره و سنسورهای حرارتی، میتوانند هدف را شناسایی، تعقیب و نابود کنند؛ بدون اینکه هیچ انسانی دخالت کند.
چرا این موضوع خطرناک است؟
-
حذف حس مسئولیت: اگر یک ربات اشتباه کند و به جای سرباز دشمن، به یک مدرسه حمله کند، چه کسی مقصر است؟ برنامهنویس؟ فرمانده؟ یا خود ربات؟
-
جنگهای پرسرعت: سرعت تصمیمگیری هوش مصنوعی هزاران برابر سریعتر از انسان است. این میتواند منجر به شروع جنگهایی شود که در چند دقیقه هزاران کشته بر جای میگذارد، قبل از اینکه دیپلماتها حتی تلفن را بردارند.
-
ترورهای ارزان: تصور کنید دستهای از ریزپهپادهای انتحاری که هر کدام به اندازه یک کف دست هستند، با هزینه کم تولید شوند و برای ترور یک فرد خاص برنامهریزی شوند. هیچ محافظی نمیتواند جلوی صدها پهپاد هماهنگ را بگیرد.
۳. نظارت جمعی و پایان حریم خصوصی
چین در حال حاضر از سیستمهای پیشرفته تشخیص چهره برای ردیابی شهروندان و سیستم “امتیاز اجتماعی” استفاده میکند. اما این خطر فقط مخصوص یک کشور نیست.
خطرات هوش مصنوعی در حوزه حریم خصوصی یعنی:
-
دیوارها گوش دارند: دستیارهای صوتی و گوشیهای هوشمند همیشه در حال گوش دادن هستند تا علایق شما را تحلیل کنند.
-
پیشبینی رفتار: الگوریتمها با تحلیل دادههای شما میتوانند حدس بزنند فردا کجا میروید، چه میخرید و حتی به چه کسی رای میدهید.
-
کنترل افکار: وقتی هوش مصنوعی بداند شما از چه چیزی میترسید یا به چه چیزی علاقه دارید، میتواند فید خبری شما را طوری تنظیم کند که عقایدتان را تغییر دهد (مهندسی افکار عمومی).
دیگر جایی برای پنهان شدن وجود ندارد. در عصر هوش مصنوعی، گمنامی یک افسانه است.
۴. تعصب الگوریتمی؛ نژادپرستی دیجیتال
خیلیها فکر میکنند کامپیوترها بیطرف هستند چون احساسات ندارند. این بزرگترین دروغ در مورد هوش مصنوعی است. هوش مصنوعی با دادههایی آموزش میبیند که توسط انسانها تولید شدهاند، و این دادهها پر از تعصبات انسانی هستند.
-
مثال واقعی: سیستمهای هوشمند پلیس در آمریکا که برای پیشبینی جرم استفاده میشدند، به اشتباه سیاهپوستان را بیشتر به عنوان مجرم شناسایی میکردند.
-
استخدام ناعادلانه: هوش مصنوعیهایی که رزومهها را بررسی میکردند، یاد گرفته بودند که رزومه مردان را به زنان ترجیح دهند، چون در دادههای گذشته اکثر مدیران موفق مرد بودهاند.
این یعنی تبعیضها و نژادپرستیها، حالا پشت نقاب “علم و تکنولوژی” پنهان شده و سیستماتیک میشوند.
۵. جعبه سیاه (Black Box)؛ خالقی که مخلوقش را نمیفهمد
یکی از عجیبترین خطرات هوش مصنوعی پدیدهای به نام “جعبه سیاه” است. در مدلهای پیشرفته دیپ لرنینگ، حتی خودِ دانشمندانی که هوش مصنوعی را ساختهاند، دقیقاً نمیدانند سیستم چگونه به یک نتیجه خاص رسیده است.
ما ورودی را میدهیم و خروجی را میگیریم، اما فرآیند وسط تاریک است. اگر یک سیستم هوش مصنوعی که مسئول شبکه برق یا سیستم پرتاب موشک است، ناگهان تصمیم عجیبی بگیرد، ما نمیدانیم “چرا” این کار را کرده و چطور باید جلوی آن را بگیریم. سپردن زیرساختهای حیاتی به سیستمی که منطقش را درک نمیکنیم، مثل رانندگی با چشمان بسته در اتوبان است.
آیا باید سیم را بکشیم؟
ما در لبه پرتگاه ایستادهایم. هوش مصنوعی پتانسیل این را دارد که سرطان را درمان کند و تغییرات اقلیمی را متوقف کند، اما همزمان میتواند ابزاری برای دیکتاتوری دیجیتال و جنگهای بیپایان باشد. مسئله این نیست که آیا تکنولوژی بد است یا خوب؛ مسئله این است که سرعت پیشرفت آن از سرعت قانونگذاری و اخلاق ما جلو زده است.
حالا بیایید فرض کنیم در سال ۲۰۳۰ هستیم. شما صبح از خواب بیدار میشوید و متوجه میشوید حساب بانکیتان خالی شده چون هوش مصنوعی تشخیص داده رفتار خرج کردن شما “مشکوک” است و هیچ کارمند انسانی هم وجود ندارد که به شکایت شما رسیدگی کند. همزمان ویدیویی از شما پخش شده که جرمی را که مرتکب نشدهاید گردن گرفتهاید.
صادقانه بگویید، از کدام سناریو بیشتر میترسید؟ ۱. سلاحهای خودمختار و جنگ رباتها؟ ۲. یا دیپفیک و از دست رفتن هویت و آبرویتان؟
به نظر شما کدام یک محتملتر است؟ همین پایین ترسناکترین سناریویی که به ذهنتان میرسد را برای ما بنویسید. بیایید ببینیم تخیل جمعی ما چقدر به واقعیت نزدیک است!



