جاسوسی و ترور با استفاده از هوش مصنوعی

هوش مصنوعی یکی از درخشان‌ترین دستاوردهای قرن بیست‌ویکم است که با سرعتی شگفت‌آور در حال نفوذ به همه ارکان زندگی بشر است. این فناوری، که روزی تنها در حد رؤیای داستان‌های علمی‌تخیلی بود، امروز در بسیاری از عرصه‌ها چون پزشکی، آموزش، حمل‌ونقل، صنعت، رسانه، امنیت و حتی هنر حضور دارد اما مانند هر ابزار قدرتمند دیگری، هوش مصنوعی نیز خنثی نیست و بهره ‌برداری از آن بستگی مستقیم به نیت، سیاست و اهداف استفاده ‌کنندگان دارد.
دوشنبه، 30 تير 1404
تخمین زمان مطالعه:
نویسنده : سید حسین خاتمی
موارد بیشتر برای شما
جاسوسی و ترور با استفاده از هوش مصنوعی
هوش مصنوعی یکی از درخشان‌ترین دستاوردهای قرن بیست‌ویکم است که با سرعتی شگفت‌آور در حال نفوذ به همه ارکان زندگی بشر است. این فناوری، که روزی تنها در حد رؤیای داستان‌های علمی‌تخیلی بود، امروز در بسیاری از عرصه‌ها چون پزشکی، آموزش، حمل‌ونقل، صنعت، رسانه، امنیت و حتی هنر حضور دارد اما مانند هر ابزار قدرتمند دیگری، هوش مصنوعی نیز خنثی نیست و بهره ‌برداری از آن بستگی مستقیم به نیت، سیاست و اهداف استفاده ‌کنندگان دارد. وقتی این فناوری در دستان دشمنان انسانیت قرار می‌گیرد، می‌تواند به ابزار خطرناکی برای نفوذ، کنترل، سرکوب و حتی حذف فیزیکی افراد تبدیل شود.
 
در سال‌های اخیر، به‌ویژه در بستر جنگ‌های مستقیم و غیر مستقیم در غزه، لبنان، سوریه و کشور خودمان، تنش‌های اطلاعاتی و درگیری‌های ژئوپلیتیکی، استفاده سازمان‌های اطلاعاتی و امنیتی از هوش مصنوعی برای جاسوسی، جمع‌آوری اطلاعات و عملیات روانی به یکی از مهم‌ترین چالش‌های امنیتی جهان بدل شده است.
 
امروزه بسیاری از ما می‌دانیم که اطلاعات ما در فضای مجازی صرفاً در دسترس دوستان یا مخاطبان انتخابی نیست، بلکه توسط سیستم‌های عظیم پردازشی و الگوریتم‌های هوشمند نیز رصد، دسته‌بندی و تحلیل می‌شوند. کافی است چند کلمه در موتورهای جستجو بنویسیم، در یک شبکه اجتماعی درباره موضوعی نظر دهیم یا تصویری بارگذاری کنیم تا ردّ پایی دیجیتال از خود به‌جا بگذاریم که توسط سیستم‌های تحلیل داده، به شکلی پیچیده تفسیر و بازسازی می‌شود. هوش مصنوعی در این فرآیند نه‌تنها کمک می‌کند داده‌ها سریع‌تر و دقیق‌تر پردازش شوند، بلکه در سطحی عمیق‌تر، معنا و ساختار پنهان در میان انبوهی از اطلاعات را استخراج کرده و به سازمان‌های امنیتی این امکان را می‌دهد تا الگوهای رفتاری، شبکه‌های ارتباطی، باورها و حتی تصمیمات آینده افراد را پیش‌بینی کنند.
 
یکی از نگران ‌کننده‌ترین کاربردهای هوش مصنوعی در جاسوسی، شناسایی و تهدید آزادی خواهان و نیروهای مقاومت در مقابل امریکا و رژیم شرور صهیونیستی است. در برخی از جنگ‌ها و بحران‌های سال‌های اخیر، مشاهده شده است که حکومت‌های سرکوب‌گر و حتی برخی دولت‌های مدعی آزادی، از فناوری‌های پیشرفته مبتنی بر AI برای رهگیری فعالیت‌های مسالمت‌آمیز یا مبارزات انسانی و الهی استفاده کرده‌اند.
 
این افراد با برچسب‌هایی چون «اخلال‌گر»، «تهدید امنیتی» یا «مزدور» هدف قرار می‌گیرند، حال آن‌که بسیاری از آنان فقط به دنبال حقیقت و اصلاح‌گری اجتماعی هستند. هوش مصنوعی در این میان، با تحلیل رفتار دیجیتال آنان، استخراج داده‌های خصوصی، رصد مکالمات، شناسایی چهره در فضاهای عمومی و بازسازی شبکه‌های انسانی مرتبط با فرد، نقش کلیدی در پرونده‌ سازی‌های اطلاعاتی ایفا می‌کند. برخی از ترورهای سال جاری و قبل از آن یا حملات سایبری هدفمند علیه محور مقاومت و زیر ساخت‌های کشورمان، با پشتیبانی سیستم‌های هوشمند انجام شده‌اند که توانسته‌اند رد و نشان افراد و اهداف را با دقت بالا شناسایی کنند.
 

ربات‌های نامرئی شبیه انسان

در عرصه جنگ‌های رسانه‌ای، ما با نوعی از سربازان نامرئی مواجه هستیم که با بهره‌گیری از هوش مصنوعی، در فضای دیدگاه‌ها و شبکه‌های اجتماعی حضور دارند. این حساب‌ها به ظاهر واقعی‌اند: دارای عکس، لهجه، زبان، رفتار انسانی و حتی تاریخچه فعالیت اما در واقع، مجموعه‌ای از ربات‌های هوشمندند که به شکلی دقیق طراحی شده‌اند تا فضای گفتگو را مسموم کنند. آنان به دیدگاه‌های منطقی و واقعی حمله می‌کنند، با ساختن اجماع‌های جعلی کاربران را سردرگم می‌سازند و در نهایت سبب تضعیف صدای حقیقت می‌شوند.
 
این نوع رفتار که «مهندسی ادراک» نام دارد، می‌تواند سبب شود تا افراد حقیقی احساس کنند نظرشان بی‌ارزش، غیرمقبول یا در اقلیت مطلق است، حال آنکه واقعیت کاملاً برعکس است. چنین فرآیندی افراد را وارد «مارپیچ سکوت» می‌کند؛ وضعیتی که در آن فرد، به دلیل ترس از انزوا یا مخالفت، از ابراز نظر خود خودداری می‌کند و به مرور، گفتمان عمومی به نفع دروغ، تحریف یا سانسور دگرگون می‌شود.
 
این رویکرد مخرب، مبتنی بر ترکیبی از الگوریتم‌های هوش مصنوعی و روان‌شناسی رفتاری است. هوش مصنوعی می‌آموزد که چه نوع دیدگاه‌هایی بیشترین حساسیت را در مخاطب برمی‌انگیزند، چگونه می‌توان بحث‌ها را از مسیر اصلی منحرف کرد و چه ترکیب واژگانی برای تحریک احساسات و برانگیختن خشم، ترس یا تردید مؤثرتر است. سپس با کمک هزاران حساب جعلی و تقویت سیگنال‌های مصنوعی، فضای گفتگو را دست‌کاری می‌کند. این چیزی فراتر از سانسور سنتی است؛ ما با نوعی «بازنویسی واقعیت» مواجهیم که توسط ماشین‌هایی با توان پردازش بسیار بالا انجام می‌شود.
 
در لایه‌های فنی‌تر، کاربردهای هوش مصنوعی در جاسوسی به چند حوزه اصلی تقسیم می‌شود: اول: «تجسس الکترونیکی» که شامل استخراج اطلاعات از پیام‌ها، ایمیل‌ها، تماس‌ها، فایل‌های ذخیره‌شده و حتی رمزهای عبور است. هوش مصنوعی با تحلیل رفتار کاربر، می‌تواند از میان انبوهی از اطلاعات، داده‌های معنادار و حساس را استخراج کرده و روابط پنهان میان افراد را کشف کند. ابزارهایی چون بدافزارهای هوشمند، کی‌لاگرها، حملات فیشینگِ شخصی ‌سازی ‌شده و تحلیل محتوای رمزگذاری ‌شده، همگی با کمک هوش مصنوعی ارتقا یافته‌اند و اکنون تهدیدی جدی برای حریم خصوصی به شمار می‌روند.
 
جاسوسی و ترور با استفاده از هوش مصنوعی

دوم: «تجسس تصویری» است. امروزه سیستم‌های تشخیص چهره، تحلیل حرکت، شناسایی اشیاء و تشخیص الگوهای غیرعادی در تصاویر و ویدیوها، با دقت بالایی از طریق هوش مصنوعی انجام می‌شود. در کشورهای پیشرفته، دوربین‌های شهری متصل به سامانه‌های هوش مصنوعی، می‌توانند چهره افراد را حتی در شرایط نوری نامناسب یا با ماسک و تغییر ظاهر شناسایی کنند. پهپادهای نظارتی و ماهواره‌ها نیز با بهره‌گیری از تحلیل تصویر، قابلیت شناسایی دقیق رفتارهای مشکوک را پیدا کرده‌اند.
 
سوم: «تجسس صوتی» است. هوش مصنوعی اکنون قادر است صدا را تجزیه کند، گوینده را شناسایی نماید، محتوای گفتار را تحلیل کند و حتی احساسات، لهجه و زمینه ‌سازی روانی صحبت‌ها را تشخیص دهد. ابزارهایی که قبلاً برای تشخیص خودکار صدا یا ترجمه گفتار استفاده می‌شدند، اکنون می‌توانند گفت‌وگوهای تلفنی یا صوت‌های واتس‌اپی را شنود، تحلیل و تفسیر کنند.
 
چهارم: «تجسس اجتماعی یا Social Listening» است. این حوزه بر تحلیل محتوای منتشر شده در شبکه‌های اجتماعی، وبلاگ‌ها، کانال‌های پیام‌رسان و نظرات کاربران تمرکز دارد. هوش مصنوعی می‌تواند از میان میلیون‌ها داده، الگوهای رفتاری، علایق، گرایش‌های سیاسی و حتی نگرانی‌های شخصی افراد را استخراج کند. این داده‌ها برای پایش افکار عمومی، پیش‌بینی ناآرامی‌ها، مداخله در انتخابات و حتی هدف قرار دادن افراد یا گروه‌های خاص به کار گرفته می‌شود.
 

چالش‌های فردی و اجتماعی نظارت دائمی

در تمام این موارد، آنچه نگران ‌کننده است نه صرفاً قدرت فنی هوش مصنوعی، بلکه نحوه بهره ‌برداری از آن توسط ساختارهای قدرت است. وقتی دولت‌ها، پلتفرم‌های عظیم فناوری یا پیمانکاران نظامی-اطلاعاتی به ابزارهایی با این سطح از نفوذ و تحلیل دسترسی دارند، توازن قدرت به‌طور جدی دچار اختلال می‌شود. شهروند عادی دیگر در موقعیتی برابر با نهادهای نظارتی قرار ندارد، بلکه عملاً در معرض نظارت دائمی و تحلیل رفتار بدون رضایت قرار می‌گیرد.
 
این وضعیت، هم چالش اخلاقی دارد و هم تبعات اجتماعی عمیق. اخلاقاً، نقض حریم خصوصی، شنود بدون مجوز، تحلیل رفتار فردی بدون آگاهی و رضایت، همگی خلاف اصول بنیادین کرامت انسانی است. از نظر اجتماعی نیز، تضعیف اعتماد عمومی، گسترش خود سانسوری و سلب امکان تفکر مستقل از جمله نتایج بلند مدت این روند است. انسانی که احساس کند هر حرکت، کلمه، یا تفکر او ممکن است ضبط، تحلیل و علیه او استفاده شود، دیگر انسان آزادی نیست؛ او در قفس شیشه‌ایِ نظارت هوشمند گرفتار شده است. سوءاستفاده از توانمندی‌های هوش مصنوعی در استخراج اطلاعات، نه‌تنها به حریم خصوصی افراد لطمه می‌زند، بلکه «آسیب‌های اجتماعی» عمیق و گسترده‌ای ایجاد می‌کند.
 
۱. تخریب اعتماد عمومی و فروپاشی روابط انسانی
وقتی افراد بدانند که مکالمات، پیام‌ها، حرکات و حتی احساسات‌شان ممکن است بدون رضایت توسط سیستم‌های هوش مصنوعی تحلیل و ذخیره شود، اعتماد خود را به فضای عمومی و روابط اجتماعی از دست می‌دهند. این بی‌اعتمادی تدریجی: باعث سردی روابط انسانی؛ کاهش تعاملات سالم اجتماعی؛ و گسترش ترس، احتیاط افراطی و خودسانسوری می‌شود. در چنین فضایی، جامعه از درون دچار فرسایش ارتباطی و عاطفی خواهد شد.
 
۲. رشد احساس ناامنی روانی و اضطراب اجتماعی
افرادی که تحت نظارت دائمی ابزارهای مبتنی بر AI قرار می‌گیرند (حتی اگر گناهی نداشته باشند)، دچار نوعی اضطراب دائمی می‌شوند. این اضطراب می‌تواند به شکل‌های زیر بروز پیدا کند: وسواس در رفتار و گفتار؛ بی‌اعتمادی به فناوری و دیگران؛ پرهیز از مشارکت‌های اجتماعی یا مدنی (مثلاً اعتراض یا اظهار نظر). در سطح کلان، این پدیده موجب «انجماد اجتماعی» می‌شود؛ جایی که افراد ترجیح می‌دهند سکوت کنند و کناره بگیرند، حتی اگر شاهد ظلم باشند.
 
۳. تهدید فعالان اجتماعی، روزنامه‌نگاران و افراد صلح‌طلب
در مواردی، دولت‌ها یا گروه‌های خرابکار با بهره‌گیری از تحلیل داده‌های هوش مصنوعی: فعالان صلح و عدالت را شناسایی کرده و آنان را زیر نظر می‌گیرند؛ از اطلاعات شخصی آنان برای تهدید، باج‌گیری یا ترور شخصیت استفاده می‌کنند؛ یا حتی آنان را به شکل فیزیکی هدف قرار می‌دهند. در برخی کشورها، استفاده از AI برای سرکوب اعتراضات مردمی یا خاموش کردن صدای منتقدان، به شکل سیستماتیک و پیچیده‌ای صورت می‌گیرد، و این یک تهدید جدی برای آزادی‌های بنیادی بشر است.
 
۴. مهندسی اجتماعی و دست‌کاری افکار عمومی
با جمع‌آوری اطلاعات کلان درباره باورها، علایق، ترس‌ها و سبک زندگی افراد، امکان «هدایت افکار عمومی از طریق تبلیغات هدفمند، ترساندن یا تطمیع» فراهم می‌شود. این اتفاق: استقلال فکری و آزادی انتخاب افراد را تهدید می‌کند؛ سبب می‌شود تصمیم‌گیری‌های اجتماعی یا سیاسی مردم، تحت‌تأثیر اطلاعات دست‌کاری‌شده باشد و در نهایت منجر به تحریف دموکراسی، مشروعیت‌زدایی از جنبش‌های مردمی و تقویت نظام‌های سلطه‌گر می‌شود.
 
۵. پراکندگی نابرابری اطلاعاتی
یکی از آسیب‌های مهم اجتماعی این است که «قدرت اطلاعات» در دست عده‌ای معدود متمرکز می‌شود. سازمان‌های اطلاعاتی، شرکت‌های بزرگ فناوری یا دولت‌های خاص، می‌توانند اطلاعات حساس مردم را در اختیار داشته باشند، در حالی‌که خود مردم هیچ ابزار دفاعی در برابر آن ندارند. این عدم توازن اطلاعاتی: شکاف طبقاتی و دیجیتالی را تشدید می‌کند؛ سلطه اطلاعاتی صاحبان قدرت را تقویت می‌کند؛ و جامعه را از عدالت و شفافیت دور می‌سازد.
 
جاسوسی و ترور با استفاده از هوش مصنوعی

۶. کاهش مشارکت اجتماعی و سیاسی
افرادی که احساس کنند حرف زدن یا اقدام مدنی ممکن است آن‌ها را در معرض پیگرد، تخریب یا حمله قرار دهد، به ‌مرور: از فعالیت‌های مدنی و سیاسی کناره‌گیری می‌کنند؛ مشارکت‌شان در انتخابات، انجمن‌ها یا اعتراضات کاهش می‌یابد و جامعه به‌سوی «خاموشی مدنی» سوق داده می‌شود. این پدیده، دموکراسی را از درون خالی می‌کند، حتی اگر ظاهراً ساختار آن برقرار باشد.
 
۷. آسیب به حریم شخصی خانواده‌ها و نوجوانان
در بسیاری موارد، ابزارهای هوش مصنوعی از طریق اپلیکیشن‌ها، اسباب‌بازی‌های هوشمند، دوربین‌های خانگی یا شبکه‌های اجتماعی، اطلاعات خانوادگی و عاطفی را جمع‌آوری می‌کنند. این اطلاعات گاه برای تبلیغات هدفمند و گاه برای اهداف امنیتی به‌کار می‌رود، اما در هر دو حالت: آرامش روانی خانواده‌ها را مخدوش می‌کند؛ اعتماد کودکان و والدین را نسبت به محیط دیجیتال کاهش می‌دهد و کودکان را در معرض «نظارت دائمی و غیرانسانی» قرار می‌دهد، که می‌تواند در شکل‌گیری هویت روانی‌شان آسیب جدی وارد کند.
 
۸. ترور شخصیت و نابودی اعتبار افراد
در برخی پروژه‌های جاسوسی دیجیتال، از اطلاعات شخصی افراد برای تخریب آن‌ها در رسانه‌ها یا شبکه‌های اجتماعی استفاده می‌شود: افشای پیام‌های خصوصی یا ایمیل‌ها؛ جعل تصاویر یا ویدیوهای تقلبی (Deepfake)؛ انتشار اطلاعات گمراه‌ کننده درباره رفتار، علایق یا گذشته افراد. این اقدامات می‌تواند زندگی حرفه‌ای و اجتماعی افراد را نابود کرده، آن‌ها را به انزوا یا حتی خودکشی سوق دهد.
 
۹. تهدید به کنترل ذهنی و تربیت مصنوعی
وقتی الگوریتم‌های هوش مصنوعی بتوانند از طریق تبلیغات هدفمند، محتواهای طراحی‌شده و تحلیل دقیق رفتار، مسیر فکری افراد را کنترل کنند، جامعه وارد دوران «مهندسی ذهن انسان» می‌شود. در این حالت: افراد نه از روی تأمل و تفکر، بلکه تحت تأثیر جریان‌های پنهان تصمیم می‌گیرند؛ هویت فرهنگی و عقیدتی جوامع به‌تدریج تغییر داده می‌شود؛ و اراده‌ی آزاد انسان به‌نفع صاحبان تکنولوژی تضعیف می‌شود. هوش مصنوعی ابزاری بسیار قدرتمند است، اما اگر این ابزار در اختیار جریان‌های غیرشفاف، استبدادی یا سودمحور قرار گیرد، می‌تواند به ابزار «کنترل، ارعاب، تهدید، تحریف حقیقت و سرکوب انسانیت» تبدیل شود.
 
جامعه انسانی نیازمند آن است که: قوانین صریح و ناظرانه بر استفاده از AI در حوزه اطلاعات و نظارت وضع کند؛ فرهنگ عمومی را در زمینه‌ شناخت تهدیدهای هوش مصنوعی بالا ببرد؛ و اخلاق دیجیتال را به‌عنوان یک ضرورت بنیادین در عرصه جهانی جدی بگیرد. اگر انسان بر این تکنولوژی نظارت نداشته باشد، تکنولوژی بر انسان مسلط خواهد شد؛ و این سلطه، برخلاف ظاهر هوشمندانه‌اش، ممکن است تاریک‌ترین شکل بی‌عدالتی و استثمار مدرن باشد.
 
با این‌حال، مسیر بسته نیست. همان‌گونه که هوش مصنوعی می‌تواند برای کنترل و جاسوسی استفاده شود، می‌توان آن را در خدمت شفافیت، امنیت حقیقی، عدالت و گسترش دانایی نیز به‌کار گرفت. طراحی الگوریتم‌های اخلاق‌ محور، تدوین مقررات بین‌المللی برای محدود سازی سوء‌ استفاده از فناوری، آموزش عمومی برای افزایش سواد رسانه‌ای و امنیت سایبری، حمایت از پلتفرم‌های شفاف و بومی و توسعه ابزارهای مقابله با نفوذ دیجیتال، همگی راه‌هایی برای مقابله با سلطه‌جویی دیجیتال مبتنی بر AI هستند.
 
هوش مصنوعی در ذات خود، خیر یا شر نیست. آنچه آن را خطرناک یا نجات‌بخش می‌سازد، جهت و نیت بهره ‌برداری از آن است. اگر تمدن بشری بخواهد آینده‌ای انسانی، آزاد و عادلانه داشته باشد، باید از اکنون برای حکمرانی اخلاقی بر فناوری برنامه ‌ریزی کند. در غیر این صورت، ممکن است به عصری وارد شویم که در آن «ادراک» ما نه حاصل تجربه انسانی، بلکه ساخته و پرداخته الگوریتم‌هایی باشد که ما را بهتر از خودمان می‌شناسند، اما خیر ما را نمی‌خواهند.
 

مواجهه با هوش مصنوعی مخرب

سوالی که اینجا ایجاد می‌شود این است که آیا امکان دارد انسان‌ها سیستمی طراحی کنند برای مقابله و حتی نابودی با هوش مصنوعی، به دلیل اینکه از ناحیه این تکنولوژی و توانمندی احساس خطر می‌کنند برای آینده بشریت؟ بله، امکان طراحی سیستم‌هایی برای مقابله با تهدیدهای هوش مصنوعی کاملاً وجود دارد و در واقع، از هم‌اکنون نیز بسیاری از متخصصان، نهادهای علمی، دولت‌ها و حتی خود شرکت‌های فناوری در حال کار روی این موضوع هستند. دلیل این تلاش‌ها، همان چیزی است که شما اشاره کردید: «احساس خطر برای آینده بشریت» از ناحیه‌ توانمندی‌های افسار گسیخته‌ هوش مصنوعی.
 
جاسوسی و ترور با استفاده از هوش مصنوعی

برخی از رویکردهای موجود و قابل ‌تصور برای طراحی چنین سیستم‌هایی را در زیر می‌آوریم:
۱. سیستم‌های نظارتی و تنظیم‌گر (Regulatory Systems): دولت‌ها و سازمان‌های بین‌المللی می‌توانند قوانین و سامانه‌هایی طراحی کنند که: توسعه و کاربرد هوش مصنوعی را محدود یا کنترل کنند (مثلاً در حوزه نظامی، جاسوسی یا تصمیم‌گیری‌های انسانی مانند قضاوت یا درمان)، سازوکارهای بررسی اخلاقی و فنی هر محصول AI را الزامی کنند و شرکت‌ها را ملزم کنند تا به شفافیت، پاسخگویی و احترام به حقوق بشر پایبند باشند. این سیستم‌ها مانند فیلتر، مهار یا «کمربند ایمنی» برای هوش مصنوعی عمل می‌کنند.
 

۲. سیستم‌های «هوش مصنوعی برای نظارت بر هوش مصنوعی» (AI for AI Safety)؛ یکی از رویکردهای پیشرفته، طراحی «هوش مصنوعی نگهبان» یا (AI Watchdog) است. در این رویکرد: هوش مصنوعی‌های ویژه‌ای ساخته می‌شوند که تنها وظیفه‌شان نظارت بر عملکرد سایر AIهاست؛ این سامانه‌ها رفتار مشکوک، الگوریتم‌های خطرناک، یا تحرکات ناخواسته را شناسایی و خنثی می‌کنند؛ این کار به‌صورت پیوسته، خودکار و مستقل انجام می‌شود تا واکنش سریع‌تری نسبت به تهدیدها ممکن شود. در واقع، از همان ابزار استفاده می‌شود برای مهار خودش؛ مشابه واکسن که نسخه ضعیف‌شده ویروس است.
 
۳. پروژه‌های جهانی ایمنی و اخلاق هوش مصنوعی
سازمان‌هایی مانند:
[OpenAI](https://openai.com),
[Center for Human-Compatible AI](https://humancompatible.ai) به رهبری استوارت راسل، [Future of Life Institute](https://futureoflife.org)
[Partnership on AI](https://partnershiponai.org)، در حال تدوین چارچوب‌های اخلاقی، فنی و امنیتی برای هوش مصنوعی هستند. این نهادها تلاش می‌کنند استانداردهایی جهانی برای توسعه و نظارت ایجاد کنند و جامعه علمی را نسبت به تهدیدهای احتمالی بیدار نگاه دارند.
 
۴. استفاده از فناوری بلاک‌ چِین برای مهار سوءاستفاده
برخی دانشمندان معتقدند می‌توان از «بلاک‌ چِین» برای ایجاد شفافیت و عدم‌قابلیت تغییر در داده‌هایی که AI از آن‌ها استفاده می‌کند بهره گرفت. این کار باعث می‌شود: داده‌ها قابل ردیابی و قابل حساب‌کشی باشند؛ امکان تقلب، دست‌کاری یا سواستفاده از داده کاهش یابد.
 
۵. طراحی سامانه‌های قطع اضطراری (Kill Switch)
 
در برخی کشورها (مثلاً اتحادیه اروپا)، بحث‌هایی جدی درباره‌ی الزام شرکت‌ها به تعبیه‌ی «سوئیچ خاموشی اضطراری» در سیستم‌های AI در جریان است: این سوئیچ‌ها در صورت بروز رفتار غیرمنتظره، خرابکارانه یا خارج از کنترل، بلافاصله سیستم را غیرفعال می‌کنند؛ شبیه به ترمز اضطراری قطار یا خاموش‌کن رآکتور هسته‌ای.
 
۶. ایجاد سازمان‌های اطلاعاتی برای حفاظت از انسان در برابر AI
ممکن است در آینده، سازمان‌هایی جهانی با مأموریت ویژه تأسیس شوند: نه برای استفاده از هوش مصنوعی، بلکه برای دفاع از بشر در برابر آن؛ این نهادها شبیه نهادهای مقابله با جنگ بیولوژیک یا تروریسم سایبری عمل خواهند کرد؛ با واحدهای پیشگیری، مقابله، هشدار زودهنگام و واکنش سریع.
 
۷. افزایش توان فرهنگی، فکری و اخلاقی جوامع انسانی
علاوه بر راهکارهای فنی، مهم‌ترین «سیستم دفاعی» انسان در برابر تهدیدهای هوش مصنوعی، «آگاهی، تفکر انتقادی، سواد رسانه‌ای و اخلاق عمومی» است. اگر جوامع انسانی: به سطح بالایی از بلوغ فکری، مسئولیت‌پذیری و کنشگری اخلاقی برسند؛ کمتر دچار فریب، دستکاری یا سوءاستفاده خواهند شد. در غیر این صورت، حتی بهترین قوانین و سیستم‌ها نیز فریب داده خواهند شد یا دور زده می‌شوند.
 
انسان‌ها می‌توانند و باید سیستم‌هایی برای مقابله با تهدیدات هوش مصنوعی طراحی کنند. این تهدیدها اگرچه واقعی‌اند، اما با آمیختن تدبیر فنی، سیاست‌گذاری عقلانی و اخلاق انسانی می‌توان آن‌ها را مهار کرد و حتی هوش مصنوعی را به خادم راستین بشریت تبدیل ساخت. در غیر این صورت، بدون چنین سیستم‌هایی، آینده‌ای محتمل خواهد بود که در آن انسان‌ها: یا برده الگوریتم‌ها می‌شوند یا زیر سلطه‌ شبکه‌هایی از هوش مصنوعی قرار می‌گیرند که هدف‌شان دیگر سعادت بشر نیست، بلکه صرفاً افزایش قدرت، اطلاعات یا کنترل است. از همین‌رو، طراحی چنین سیستم‌هایی نه فقط ممکن است، بلکه «ضرورتی فوری و حیاتی» برای آینده بشری است.


ارسال نظر
با تشکر، نظر شما پس از بررسی و تایید در سایت قرار خواهد گرفت.
متاسفانه در برقراری ارتباط خطایی رخ داده. لطفاً دوباره تلاش کنید.
مقالات مرتبط