در سالهای اخیر، بهویژه در بستر جنگهای مستقیم و غیر مستقیم در غزه، لبنان، سوریه و کشور خودمان، تنشهای اطلاعاتی و درگیریهای ژئوپلیتیکی، استفاده سازمانهای اطلاعاتی و امنیتی از هوش مصنوعی برای جاسوسی، جمعآوری اطلاعات و عملیات روانی به یکی از مهمترین چالشهای امنیتی جهان بدل شده است.
امروزه بسیاری از ما میدانیم که اطلاعات ما در فضای مجازی صرفاً در دسترس دوستان یا مخاطبان انتخابی نیست، بلکه توسط سیستمهای عظیم پردازشی و الگوریتمهای هوشمند نیز رصد، دستهبندی و تحلیل میشوند. کافی است چند کلمه در موتورهای جستجو بنویسیم، در یک شبکه اجتماعی درباره موضوعی نظر دهیم یا تصویری بارگذاری کنیم تا ردّ پایی دیجیتال از خود بهجا بگذاریم که توسط سیستمهای تحلیل داده، به شکلی پیچیده تفسیر و بازسازی میشود. هوش مصنوعی در این فرآیند نهتنها کمک میکند دادهها سریعتر و دقیقتر پردازش شوند، بلکه در سطحی عمیقتر، معنا و ساختار پنهان در میان انبوهی از اطلاعات را استخراج کرده و به سازمانهای امنیتی این امکان را میدهد تا الگوهای رفتاری، شبکههای ارتباطی، باورها و حتی تصمیمات آینده افراد را پیشبینی کنند.
یکی از نگران کنندهترین کاربردهای هوش مصنوعی در جاسوسی، شناسایی و تهدید آزادی خواهان و نیروهای مقاومت در مقابل امریکا و رژیم شرور صهیونیستی است. در برخی از جنگها و بحرانهای سالهای اخیر، مشاهده شده است که حکومتهای سرکوبگر و حتی برخی دولتهای مدعی آزادی، از فناوریهای پیشرفته مبتنی بر AI برای رهگیری فعالیتهای مسالمتآمیز یا مبارزات انسانی و الهی استفاده کردهاند.
این افراد با برچسبهایی چون «اخلالگر»، «تهدید امنیتی» یا «مزدور» هدف قرار میگیرند، حال آنکه بسیاری از آنان فقط به دنبال حقیقت و اصلاحگری اجتماعی هستند. هوش مصنوعی در این میان، با تحلیل رفتار دیجیتال آنان، استخراج دادههای خصوصی، رصد مکالمات، شناسایی چهره در فضاهای عمومی و بازسازی شبکههای انسانی مرتبط با فرد، نقش کلیدی در پرونده سازیهای اطلاعاتی ایفا میکند. برخی از ترورهای سال جاری و قبل از آن یا حملات سایبری هدفمند علیه محور مقاومت و زیر ساختهای کشورمان، با پشتیبانی سیستمهای هوشمند انجام شدهاند که توانستهاند رد و نشان افراد و اهداف را با دقت بالا شناسایی کنند.
رباتهای نامرئی شبیه انسان
در عرصه جنگهای رسانهای، ما با نوعی از سربازان نامرئی مواجه هستیم که با بهرهگیری از هوش مصنوعی، در فضای دیدگاهها و شبکههای اجتماعی حضور دارند. این حسابها به ظاهر واقعیاند: دارای عکس، لهجه، زبان، رفتار انسانی و حتی تاریخچه فعالیت اما در واقع، مجموعهای از رباتهای هوشمندند که به شکلی دقیق طراحی شدهاند تا فضای گفتگو را مسموم کنند. آنان به دیدگاههای منطقی و واقعی حمله میکنند، با ساختن اجماعهای جعلی کاربران را سردرگم میسازند و در نهایت سبب تضعیف صدای حقیقت میشوند.این نوع رفتار که «مهندسی ادراک» نام دارد، میتواند سبب شود تا افراد حقیقی احساس کنند نظرشان بیارزش، غیرمقبول یا در اقلیت مطلق است، حال آنکه واقعیت کاملاً برعکس است. چنین فرآیندی افراد را وارد «مارپیچ سکوت» میکند؛ وضعیتی که در آن فرد، به دلیل ترس از انزوا یا مخالفت، از ابراز نظر خود خودداری میکند و به مرور، گفتمان عمومی به نفع دروغ، تحریف یا سانسور دگرگون میشود.
این رویکرد مخرب، مبتنی بر ترکیبی از الگوریتمهای هوش مصنوعی و روانشناسی رفتاری است. هوش مصنوعی میآموزد که چه نوع دیدگاههایی بیشترین حساسیت را در مخاطب برمیانگیزند، چگونه میتوان بحثها را از مسیر اصلی منحرف کرد و چه ترکیب واژگانی برای تحریک احساسات و برانگیختن خشم، ترس یا تردید مؤثرتر است. سپس با کمک هزاران حساب جعلی و تقویت سیگنالهای مصنوعی، فضای گفتگو را دستکاری میکند. این چیزی فراتر از سانسور سنتی است؛ ما با نوعی «بازنویسی واقعیت» مواجهیم که توسط ماشینهایی با توان پردازش بسیار بالا انجام میشود.
در لایههای فنیتر، کاربردهای هوش مصنوعی در جاسوسی به چند حوزه اصلی تقسیم میشود: اول: «تجسس الکترونیکی» که شامل استخراج اطلاعات از پیامها، ایمیلها، تماسها، فایلهای ذخیرهشده و حتی رمزهای عبور است. هوش مصنوعی با تحلیل رفتار کاربر، میتواند از میان انبوهی از اطلاعات، دادههای معنادار و حساس را استخراج کرده و روابط پنهان میان افراد را کشف کند. ابزارهایی چون بدافزارهای هوشمند، کیلاگرها، حملات فیشینگِ شخصی سازی شده و تحلیل محتوای رمزگذاری شده، همگی با کمک هوش مصنوعی ارتقا یافتهاند و اکنون تهدیدی جدی برای حریم خصوصی به شمار میروند.
.png)
دوم: «تجسس تصویری» است. امروزه سیستمهای تشخیص چهره، تحلیل حرکت، شناسایی اشیاء و تشخیص الگوهای غیرعادی در تصاویر و ویدیوها، با دقت بالایی از طریق هوش مصنوعی انجام میشود. در کشورهای پیشرفته، دوربینهای شهری متصل به سامانههای هوش مصنوعی، میتوانند چهره افراد را حتی در شرایط نوری نامناسب یا با ماسک و تغییر ظاهر شناسایی کنند. پهپادهای نظارتی و ماهوارهها نیز با بهرهگیری از تحلیل تصویر، قابلیت شناسایی دقیق رفتارهای مشکوک را پیدا کردهاند.
سوم: «تجسس صوتی» است. هوش مصنوعی اکنون قادر است صدا را تجزیه کند، گوینده را شناسایی نماید، محتوای گفتار را تحلیل کند و حتی احساسات، لهجه و زمینه سازی روانی صحبتها را تشخیص دهد. ابزارهایی که قبلاً برای تشخیص خودکار صدا یا ترجمه گفتار استفاده میشدند، اکنون میتوانند گفتوگوهای تلفنی یا صوتهای واتساپی را شنود، تحلیل و تفسیر کنند.
چهارم: «تجسس اجتماعی یا Social Listening» است. این حوزه بر تحلیل محتوای منتشر شده در شبکههای اجتماعی، وبلاگها، کانالهای پیامرسان و نظرات کاربران تمرکز دارد. هوش مصنوعی میتواند از میان میلیونها داده، الگوهای رفتاری، علایق، گرایشهای سیاسی و حتی نگرانیهای شخصی افراد را استخراج کند. این دادهها برای پایش افکار عمومی، پیشبینی ناآرامیها، مداخله در انتخابات و حتی هدف قرار دادن افراد یا گروههای خاص به کار گرفته میشود.
چالشهای فردی و اجتماعی نظارت دائمی
در تمام این موارد، آنچه نگران کننده است نه صرفاً قدرت فنی هوش مصنوعی، بلکه نحوه بهره برداری از آن توسط ساختارهای قدرت است. وقتی دولتها، پلتفرمهای عظیم فناوری یا پیمانکاران نظامی-اطلاعاتی به ابزارهایی با این سطح از نفوذ و تحلیل دسترسی دارند، توازن قدرت بهطور جدی دچار اختلال میشود. شهروند عادی دیگر در موقعیتی برابر با نهادهای نظارتی قرار ندارد، بلکه عملاً در معرض نظارت دائمی و تحلیل رفتار بدون رضایت قرار میگیرد.این وضعیت، هم چالش اخلاقی دارد و هم تبعات اجتماعی عمیق. اخلاقاً، نقض حریم خصوصی، شنود بدون مجوز، تحلیل رفتار فردی بدون آگاهی و رضایت، همگی خلاف اصول بنیادین کرامت انسانی است. از نظر اجتماعی نیز، تضعیف اعتماد عمومی، گسترش خود سانسوری و سلب امکان تفکر مستقل از جمله نتایج بلند مدت این روند است. انسانی که احساس کند هر حرکت، کلمه، یا تفکر او ممکن است ضبط، تحلیل و علیه او استفاده شود، دیگر انسان آزادی نیست؛ او در قفس شیشهایِ نظارت هوشمند گرفتار شده است. سوءاستفاده از توانمندیهای هوش مصنوعی در استخراج اطلاعات، نهتنها به حریم خصوصی افراد لطمه میزند، بلکه «آسیبهای اجتماعی» عمیق و گستردهای ایجاد میکند.
۱. تخریب اعتماد عمومی و فروپاشی روابط انسانی
وقتی افراد بدانند که مکالمات، پیامها، حرکات و حتی احساساتشان ممکن است بدون رضایت توسط سیستمهای هوش مصنوعی تحلیل و ذخیره شود، اعتماد خود را به فضای عمومی و روابط اجتماعی از دست میدهند. این بیاعتمادی تدریجی: باعث سردی روابط انسانی؛ کاهش تعاملات سالم اجتماعی؛ و گسترش ترس، احتیاط افراطی و خودسانسوری میشود. در چنین فضایی، جامعه از درون دچار فرسایش ارتباطی و عاطفی خواهد شد.
۲. رشد احساس ناامنی روانی و اضطراب اجتماعی
افرادی که تحت نظارت دائمی ابزارهای مبتنی بر AI قرار میگیرند (حتی اگر گناهی نداشته باشند)، دچار نوعی اضطراب دائمی میشوند. این اضطراب میتواند به شکلهای زیر بروز پیدا کند: وسواس در رفتار و گفتار؛ بیاعتمادی به فناوری و دیگران؛ پرهیز از مشارکتهای اجتماعی یا مدنی (مثلاً اعتراض یا اظهار نظر). در سطح کلان، این پدیده موجب «انجماد اجتماعی» میشود؛ جایی که افراد ترجیح میدهند سکوت کنند و کناره بگیرند، حتی اگر شاهد ظلم باشند.
۳. تهدید فعالان اجتماعی، روزنامهنگاران و افراد صلحطلب
در مواردی، دولتها یا گروههای خرابکار با بهرهگیری از تحلیل دادههای هوش مصنوعی: فعالان صلح و عدالت را شناسایی کرده و آنان را زیر نظر میگیرند؛ از اطلاعات شخصی آنان برای تهدید، باجگیری یا ترور شخصیت استفاده میکنند؛ یا حتی آنان را به شکل فیزیکی هدف قرار میدهند. در برخی کشورها، استفاده از AI برای سرکوب اعتراضات مردمی یا خاموش کردن صدای منتقدان، به شکل سیستماتیک و پیچیدهای صورت میگیرد، و این یک تهدید جدی برای آزادیهای بنیادی بشر است.
۴. مهندسی اجتماعی و دستکاری افکار عمومی
با جمعآوری اطلاعات کلان درباره باورها، علایق، ترسها و سبک زندگی افراد، امکان «هدایت افکار عمومی از طریق تبلیغات هدفمند، ترساندن یا تطمیع» فراهم میشود. این اتفاق: استقلال فکری و آزادی انتخاب افراد را تهدید میکند؛ سبب میشود تصمیمگیریهای اجتماعی یا سیاسی مردم، تحتتأثیر اطلاعات دستکاریشده باشد و در نهایت منجر به تحریف دموکراسی، مشروعیتزدایی از جنبشهای مردمی و تقویت نظامهای سلطهگر میشود.
۵. پراکندگی نابرابری اطلاعاتی
یکی از آسیبهای مهم اجتماعی این است که «قدرت اطلاعات» در دست عدهای معدود متمرکز میشود. سازمانهای اطلاعاتی، شرکتهای بزرگ فناوری یا دولتهای خاص، میتوانند اطلاعات حساس مردم را در اختیار داشته باشند، در حالیکه خود مردم هیچ ابزار دفاعی در برابر آن ندارند. این عدم توازن اطلاعاتی: شکاف طبقاتی و دیجیتالی را تشدید میکند؛ سلطه اطلاعاتی صاحبان قدرت را تقویت میکند؛ و جامعه را از عدالت و شفافیت دور میسازد.
.jpg)
۶. کاهش مشارکت اجتماعی و سیاسی
افرادی که احساس کنند حرف زدن یا اقدام مدنی ممکن است آنها را در معرض پیگرد، تخریب یا حمله قرار دهد، به مرور: از فعالیتهای مدنی و سیاسی کنارهگیری میکنند؛ مشارکتشان در انتخابات، انجمنها یا اعتراضات کاهش مییابد و جامعه بهسوی «خاموشی مدنی» سوق داده میشود. این پدیده، دموکراسی را از درون خالی میکند، حتی اگر ظاهراً ساختار آن برقرار باشد.
۷. آسیب به حریم شخصی خانوادهها و نوجوانان
در بسیاری موارد، ابزارهای هوش مصنوعی از طریق اپلیکیشنها، اسباببازیهای هوشمند، دوربینهای خانگی یا شبکههای اجتماعی، اطلاعات خانوادگی و عاطفی را جمعآوری میکنند. این اطلاعات گاه برای تبلیغات هدفمند و گاه برای اهداف امنیتی بهکار میرود، اما در هر دو حالت: آرامش روانی خانوادهها را مخدوش میکند؛ اعتماد کودکان و والدین را نسبت به محیط دیجیتال کاهش میدهد و کودکان را در معرض «نظارت دائمی و غیرانسانی» قرار میدهد، که میتواند در شکلگیری هویت روانیشان آسیب جدی وارد کند.
۸. ترور شخصیت و نابودی اعتبار افراد
در برخی پروژههای جاسوسی دیجیتال، از اطلاعات شخصی افراد برای تخریب آنها در رسانهها یا شبکههای اجتماعی استفاده میشود: افشای پیامهای خصوصی یا ایمیلها؛ جعل تصاویر یا ویدیوهای تقلبی (Deepfake)؛ انتشار اطلاعات گمراه کننده درباره رفتار، علایق یا گذشته افراد. این اقدامات میتواند زندگی حرفهای و اجتماعی افراد را نابود کرده، آنها را به انزوا یا حتی خودکشی سوق دهد.
۹. تهدید به کنترل ذهنی و تربیت مصنوعی
وقتی الگوریتمهای هوش مصنوعی بتوانند از طریق تبلیغات هدفمند، محتواهای طراحیشده و تحلیل دقیق رفتار، مسیر فکری افراد را کنترل کنند، جامعه وارد دوران «مهندسی ذهن انسان» میشود. در این حالت: افراد نه از روی تأمل و تفکر، بلکه تحت تأثیر جریانهای پنهان تصمیم میگیرند؛ هویت فرهنگی و عقیدتی جوامع بهتدریج تغییر داده میشود؛ و ارادهی آزاد انسان بهنفع صاحبان تکنولوژی تضعیف میشود. هوش مصنوعی ابزاری بسیار قدرتمند است، اما اگر این ابزار در اختیار جریانهای غیرشفاف، استبدادی یا سودمحور قرار گیرد، میتواند به ابزار «کنترل، ارعاب، تهدید، تحریف حقیقت و سرکوب انسانیت» تبدیل شود.
جامعه انسانی نیازمند آن است که: قوانین صریح و ناظرانه بر استفاده از AI در حوزه اطلاعات و نظارت وضع کند؛ فرهنگ عمومی را در زمینه شناخت تهدیدهای هوش مصنوعی بالا ببرد؛ و اخلاق دیجیتال را بهعنوان یک ضرورت بنیادین در عرصه جهانی جدی بگیرد. اگر انسان بر این تکنولوژی نظارت نداشته باشد، تکنولوژی بر انسان مسلط خواهد شد؛ و این سلطه، برخلاف ظاهر هوشمندانهاش، ممکن است تاریکترین شکل بیعدالتی و استثمار مدرن باشد.
با اینحال، مسیر بسته نیست. همانگونه که هوش مصنوعی میتواند برای کنترل و جاسوسی استفاده شود، میتوان آن را در خدمت شفافیت، امنیت حقیقی، عدالت و گسترش دانایی نیز بهکار گرفت. طراحی الگوریتمهای اخلاق محور، تدوین مقررات بینالمللی برای محدود سازی سوء استفاده از فناوری، آموزش عمومی برای افزایش سواد رسانهای و امنیت سایبری، حمایت از پلتفرمهای شفاف و بومی و توسعه ابزارهای مقابله با نفوذ دیجیتال، همگی راههایی برای مقابله با سلطهجویی دیجیتال مبتنی بر AI هستند.
هوش مصنوعی در ذات خود، خیر یا شر نیست. آنچه آن را خطرناک یا نجاتبخش میسازد، جهت و نیت بهره برداری از آن است. اگر تمدن بشری بخواهد آیندهای انسانی، آزاد و عادلانه داشته باشد، باید از اکنون برای حکمرانی اخلاقی بر فناوری برنامه ریزی کند. در غیر این صورت، ممکن است به عصری وارد شویم که در آن «ادراک» ما نه حاصل تجربه انسانی، بلکه ساخته و پرداخته الگوریتمهایی باشد که ما را بهتر از خودمان میشناسند، اما خیر ما را نمیخواهند.
مواجهه با هوش مصنوعی مخرب
سوالی که اینجا ایجاد میشود این است که آیا امکان دارد انسانها سیستمی طراحی کنند برای مقابله و حتی نابودی با هوش مصنوعی، به دلیل اینکه از ناحیه این تکنولوژی و توانمندی احساس خطر میکنند برای آینده بشریت؟ بله، امکان طراحی سیستمهایی برای مقابله با تهدیدهای هوش مصنوعی کاملاً وجود دارد و در واقع، از هماکنون نیز بسیاری از متخصصان، نهادهای علمی، دولتها و حتی خود شرکتهای فناوری در حال کار روی این موضوع هستند. دلیل این تلاشها، همان چیزی است که شما اشاره کردید: «احساس خطر برای آینده بشریت» از ناحیه توانمندیهای افسار گسیخته هوش مصنوعی.
برخی از رویکردهای موجود و قابل تصور برای طراحی چنین سیستمهایی را در زیر میآوریم:
۱. سیستمهای نظارتی و تنظیمگر (Regulatory Systems): دولتها و سازمانهای بینالمللی میتوانند قوانین و سامانههایی طراحی کنند که: توسعه و کاربرد هوش مصنوعی را محدود یا کنترل کنند (مثلاً در حوزه نظامی، جاسوسی یا تصمیمگیریهای انسانی مانند قضاوت یا درمان)، سازوکارهای بررسی اخلاقی و فنی هر محصول AI را الزامی کنند و شرکتها را ملزم کنند تا به شفافیت، پاسخگویی و احترام به حقوق بشر پایبند باشند. این سیستمها مانند فیلتر، مهار یا «کمربند ایمنی» برای هوش مصنوعی عمل میکنند.
۲. سیستمهای «هوش مصنوعی برای نظارت بر هوش مصنوعی» (AI for AI Safety)؛ یکی از رویکردهای پیشرفته، طراحی «هوش مصنوعی نگهبان» یا (AI Watchdog) است. در این رویکرد: هوش مصنوعیهای ویژهای ساخته میشوند که تنها وظیفهشان نظارت بر عملکرد سایر AIهاست؛ این سامانهها رفتار مشکوک، الگوریتمهای خطرناک، یا تحرکات ناخواسته را شناسایی و خنثی میکنند؛ این کار بهصورت پیوسته، خودکار و مستقل انجام میشود تا واکنش سریعتری نسبت به تهدیدها ممکن شود. در واقع، از همان ابزار استفاده میشود برای مهار خودش؛ مشابه واکسن که نسخه ضعیفشده ویروس است.
۳. پروژههای جهانی ایمنی و اخلاق هوش مصنوعی
سازمانهایی مانند:
[OpenAI](https://openai.com),
[Center for Human-Compatible AI](https://humancompatible.ai) به رهبری استوارت راسل، [Future of Life Institute](https://futureoflife.org)
[Partnership on AI](https://partnershiponai.org)، در حال تدوین چارچوبهای اخلاقی، فنی و امنیتی برای هوش مصنوعی هستند. این نهادها تلاش میکنند استانداردهایی جهانی برای توسعه و نظارت ایجاد کنند و جامعه علمی را نسبت به تهدیدهای احتمالی بیدار نگاه دارند.
۴. استفاده از فناوری بلاک چِین برای مهار سوءاستفاده
برخی دانشمندان معتقدند میتوان از «بلاک چِین» برای ایجاد شفافیت و عدمقابلیت تغییر در دادههایی که AI از آنها استفاده میکند بهره گرفت. این کار باعث میشود: دادهها قابل ردیابی و قابل حسابکشی باشند؛ امکان تقلب، دستکاری یا سواستفاده از داده کاهش یابد.
۵. طراحی سامانههای قطع اضطراری (Kill Switch)
در برخی کشورها (مثلاً اتحادیه اروپا)، بحثهایی جدی دربارهی الزام شرکتها به تعبیهی «سوئیچ خاموشی اضطراری» در سیستمهای AI در جریان است: این سوئیچها در صورت بروز رفتار غیرمنتظره، خرابکارانه یا خارج از کنترل، بلافاصله سیستم را غیرفعال میکنند؛ شبیه به ترمز اضطراری قطار یا خاموشکن رآکتور هستهای.
۶. ایجاد سازمانهای اطلاعاتی برای حفاظت از انسان در برابر AI
ممکن است در آینده، سازمانهایی جهانی با مأموریت ویژه تأسیس شوند: نه برای استفاده از هوش مصنوعی، بلکه برای دفاع از بشر در برابر آن؛ این نهادها شبیه نهادهای مقابله با جنگ بیولوژیک یا تروریسم سایبری عمل خواهند کرد؛ با واحدهای پیشگیری، مقابله، هشدار زودهنگام و واکنش سریع.
۷. افزایش توان فرهنگی، فکری و اخلاقی جوامع انسانی
علاوه بر راهکارهای فنی، مهمترین «سیستم دفاعی» انسان در برابر تهدیدهای هوش مصنوعی، «آگاهی، تفکر انتقادی، سواد رسانهای و اخلاق عمومی» است. اگر جوامع انسانی: به سطح بالایی از بلوغ فکری، مسئولیتپذیری و کنشگری اخلاقی برسند؛ کمتر دچار فریب، دستکاری یا سوءاستفاده خواهند شد. در غیر این صورت، حتی بهترین قوانین و سیستمها نیز فریب داده خواهند شد یا دور زده میشوند.
انسانها میتوانند و باید سیستمهایی برای مقابله با تهدیدات هوش مصنوعی طراحی کنند. این تهدیدها اگرچه واقعیاند، اما با آمیختن تدبیر فنی، سیاستگذاری عقلانی و اخلاق انسانی میتوان آنها را مهار کرد و حتی هوش مصنوعی را به خادم راستین بشریت تبدیل ساخت. در غیر این صورت، بدون چنین سیستمهایی، آیندهای محتمل خواهد بود که در آن انسانها: یا برده الگوریتمها میشوند یا زیر سلطه شبکههایی از هوش مصنوعی قرار میگیرند که هدفشان دیگر سعادت بشر نیست، بلکه صرفاً افزایش قدرت، اطلاعات یا کنترل است. از همینرو، طراحی چنین سیستمهایی نه فقط ممکن است، بلکه «ضرورتی فوری و حیاتی» برای آینده بشری است.