نگرانی فزاینده پلیس اروپا درباره ی ظهور جرائم رباتیک در آینده نزدیک

برتریها: سازمان پلیس اتحادیه اروپا در گزارشی تازه نسبت به ظهور موج نوظهور جرائم مبتنی بر روبات های مجهز به هوش مصنوعی و سیستم های خودمختار اخطار داد. نگرانی فزاینده پلیس اروپا درباره ی ظهور جرائم رباتیک در آینده نزدیک به گزارش برتریها به نقل از مهر؛ تحول در سیستم های خودران و روبات های انسان نما طی سالیان اخیر، از حوزه های آزمایشگاهی و صنعتی عبور کرده و به میدان های واقعی عملیات و زندگی روزمره رسیده است. تجربه پهپادهای خودمختار در جنگ های معاصر، بخصوص در جبهه های درگیری روسیه و اکراین، نشان داده است که فناوری های مبتنی بر هوش مصنوعی نه فقط توان نظامی را دگرگون می کنند، بلکه مرزهای اخلاق، مسئولیت و انتساب کنش را نیز مبهم می سازند. در چنین شرایطی، پرسش اصلی دیگر فقط به جنگ محدود نمی ماند. گزارش تازه لابراتوار نوآوری نهاد پلیس اروپایی یوروپل، چشم اندازی را ترسیم می کند که در آن قابلیت های خودکار و نیمه خودکار، به دست شبکه های جنایی و تروریستی می افتد و کیفیت تهدیدات داخلی را متحول می کند. در این روایت، افق ۲۰۳۵ یک نقطه دوردست نیست. گزارش تاکید می کند که نشانه های انقلاب فناورانه از حالا وجود دارند. از افزایش مشاهده پهپادهای مورد استفاده در زیرساخت های اروپایی تا ایجاد بازارهای آنلاین برای عرضه خدمات هدایت پهپاد که به ادعای گزارش، الگوی «جرم بعنوان خدمت» را بسمت «جرم از طریق دور» سوق می دهد. مسئله کلیدی اینست که وقتی ابزارهای پیچیده، ارزان و در دسترس شوند، هم هزینه ارتکاب جرم کاسته می شود و هم نسبت کشف و انتساب دشوارتر می شود. از همین روی، نیروی پلیس نه فقط باید با فناوری روبرو شود، بلکه باید قواعد مسئولیت، استانداردهای اثبات و سازوکارهای پاسخ را نیز بازطراحی نماید.

از سلاح در میدان نبرد تا ابزاری برای ارتکاب جرایم شهری

متن گزارش یوروپل بر پیوند میان دو روند عادی شدن استفاده از سیستم های خودکار در میدان های درگیری و سرریز تدریجی همان ابزارها به حوزه جرایم سازمان یافته و تروریسم تاکید دارد. این سرریز الزاماً به معنای انتقال مستقیم تسلیحات پیشرفته نیست، بلکه انتقال دانش عملیاتی، مهارت های فنی، قطعات، الگوهای تاکتیکی و حتی نیروی انسانی آموزش دیده را شامل می شود. هنگامی که پهپاد به ابزار روزمره جنگ تبدیل می شود، در مرحله بعد، منطق بهره برداری از آن به حوزه های غیرنظامی راه می یابد. این انتقال، همان نقطه ای است که نظم عمومی با یک تهدید چندلایه مواجه می شود؛ تهدیدی که به شکل توأمان فیزیکی و سایبری است و همزمان ماهیتی محلی و شبکه ای دارد. در همین چارچوب، گزارش هشدار می دهد که تا سال ۲۰۳۵ پلیس باید با پدیده «ارتکاب جرایم توسط روبات ها» مواجه شود. منظور از این عبارت، فقط ارتکاب جرم با روبات بعنوان ابزار نیست، بلکه طیفی از سناریوها را در بر می گیرد؛ از پهپادهایی که در سرقت و عملیات تخریبی به کار می روند تا خودرو های خودران که در اثر سوءاستفاده یا حمله سایبری می توانند سبب لطمه به عابران شوند. گزارش در این بخش به نکته ای واقع گرایانه اشاره می کند: رخدادهای لطمه زا پیرامون خودرو های خودران، در مقطع فعلی و حال حاضر نیز مشاهده می شوند. ازاین رو بخش مهمی از هشدار یوروپل، بر «تسریع» و «گسترده شدن» مسئله ای موجود تمرکز دارد و بر وقوع یک امر بطورکامل ناشناخته مبتنی نیست.

پیچیدگی روبات انسان نما و دشواری تشخیص اهداف

اگر پهپادها و خودرو های خودران را بتوان در چارچوب ابزارهای نسبتاً شفاف تحلیل کرد، روبات انسان نما یک لایه پیچیدگی جدید به این پروسه می افزاید. گزارش تصریح می کند که روبات های انسان نما می توانند طوری طراحی شوند که تعامل پیچیده تری با انسان داشته باشند و همین ویژگی، تشخیص رفتار عمدی از اقدامات تصادفی را دشوارتر می سازد. در عمل، هرچه تعامل طبیعی تر و انسانی تر شود، «برداشت انسانی» از کنش نیز نقش پررنگ تری می گیرد و خطای ادراکی محتمل تر می شود. در چنین وضعیتی، مسئله پلیس فقط مهار یک دستگاه الکترونیکی نیست و چالش اصلی فهمیدن «قصد» و «زنجیره کنترل» شمرده می شود. به بیانی دیگر، پاسخ به این پرسش که آیا یک رفتار خطرناک ناشی از دستور هدفمند در چارچوب حمله سایبری بوده است یا پیامد نقص فنی یا خطای یادگیری سامانه، اهمیت مضاعفی می یابد. این نکته در سطح حقوقی نیز نتایج بسیاری در بر دارد. برای اینکه نظام عدالت کیفری، به شکل سنتی بر انتساب قصد و تقصیر بنا شده است. وقتی یک سامانه به ظاهر خودمختار کنشی انجام می دهد، تعیین فرد مسئول نیازمند بازسازی دقیق مسیر تصمیم گیری است. مسیری که می تواند میان کاربر، تولیدکننده، ارایه کننده نرم افزار، کاربر و مهاجم سایبری تقسیم شود. گزارش یوروپل با برجسته کردن همین ابهام، در عمل مدعی می شود که تخصص های فنی صرف برای آینده کافی نخواهد بود و باید توان تحلیل انتسابی و فنی توأمان شکل بگیرد.

ربات های درمانی لطمه پذیری انسان در حساس ترین نقطه

یکی از هشدارهای برجسته گزارش، مسئله ورود هوش مصنوعی و روبات ها به حوزه سلامت است. بر همین اساس، اگر روبات هایی مورد استفاده برای کمک در محیط های درمانی، هک شوند، نه فقط یک دارایی فناورانه را در معرض خطر می گذارند، بلکه بیمار را در وضعیت لطمه پذیری مستقیم قرار می دهند. معنای این گزاره، ارتقاء سطح تهدید از «اختلال در خدمت» به «تهدید مقابل جان و سلامت» است. به بیان دقیق تر، وقتی زیرساخت رباتیک در بستر سلامت قرار می گیرد، لطمه سایبری می تواند به نتایج فوری و ملموس فیزیکی منجر شود. این بخش از گزارش، یادآور این واقعیت راهبردی است که پیوند خوردن هوشمندسازی با خدمات حیاتی، سطح ریسک را به شکل کیفی تغییر می دهد. در چنین وضعیتی، امنیت سایبری دیگر یک مسئله فقط فناورانه نیست، بلکه جزئی از ایمنی عمومی و اعتماد اجتماعی می شود. در چنین شرایطی، هر رخداد بزرگ در این عرصه، می تواند هراس عمومی بوجود آورد و پذیرش اجتماعی نوآوری را عقب براند.

اقتصاد خودکار و انگیزه های جدید برای جرم

گزارش یوروپل همین طور تصویری اجتماعی نیز در رابطه با مسئله جرایم رباتیک عرضه می کند. بر همین اساس، اشخاصی که درنتیجه اتوماسیون شغل خویش را از دست می دهند، ممکنست برای بقا به سمت جرم گرایش پیدا کنند و در چارچوب های مختلف همچون جرم سایبری، تخریب و سرقت سازمان یافته اقدام نمایند. در این تصویر، هدف حملات می تواند «زیرساخت رباتیک» باشد. این بخش از گزارش یک گزاره قطعی نیست، اما بعنوان یک سناریوی قابل تصور مطرح می شود و اهمیت آن در پیوند دادن سیاست فناوری با سیاست اجتماعی خیلی برجسته است. به زبان سیاست گذاری، اگر اتوماسیون به شکل نامتوازن پیش برود و سازوکارهای حمایت اجتماعی، آموزش مجدد و تبدیل مهارت ها بموقع طراحی نشود، احتمال ایجاد ناامنی اجتماعی پیرامون فناوری افزایش خواهد یافت. حتی اگر این سناریو در نهایت رخ ندهد، صرف طرح آن از جانب نهاد پلیسی اروپا، نشان میدهد که موضوع جرم مبتنی بر روبات تنها با ابزارهای انتظامی حل شدنی نیست و به بسته های مکمل اقتصادی و اجتماعی نیاز دارد.

پلیس آینده از تشخیص نقص فنی تا تشخیص حمله هدفمند

علاوه بر همه موارد ذکر شده، یک نیاز عملیاتی نیز در قلب هشدار یوروپل قرار دارد. در این راستا، پلیس باید سریع تکامل یابد تا بتواند میان یک اختلال فنی و یک حمله عمدی تمایز بگذارد. مثال کلیدی گزارش، تصادف یک خودرو خودران است. در وضعیت فرضی، مأمور باید تشخیص دهد که حادثه بر اثر دستور هدفمند ناشی از حمله سایبری روی داده یا فقط نقص فنی بوده است. این تشخیص، فقط یک داوری فنی نیست. نکته جالب آنکه متن گزارش حتی از برخی ابزارهای آینده نگرانه مانند تفنگ های موسوم به «RoboFreezer» یا تورهایی اختصاصی مهار پهپاد نیز برای مواجهه با جرایم مذکور یاد می کند. به عقیده خیلی از کارشناسان، فارغ از اینکه توسعه این ابزارها تا چه حد واقع بینانه یا عملیاتی شمرده می شود، مواجهه با تهدید رباتیک، نیازمند تلفیقی از تجهیزات فیزیکی و قابلیت های سایبری و توان تحلیل داده است. از همین روی، پلیس آینده باید بتواند هم در میدان، یک سامانه پهپادی خودکار را مهار کند و هم در سطح دیجیتال، منشأ کنترل و مسیر فرمان را بازسازی نماید.

شکاف میان سناریوی بدبینانه و موانع فنی و مقرراتی

نکته مهم دیگر در گزارش مذکور و سناریوهای واکنشی نقل شده اینست که خود یوروپل نیز بر قطعیت پیشبینی تاکید نمی نماید. سخنگوی این نهاد تصریح کرده است که آینده قابل پیشبینی و قطعی نیست. برخی کارشناسان نیز باور دارند که پیشبینی در رابطه با سال ۲۰۳۵ دشوار است، برای اینکه فناوری با سرعت تغییر می کند. در کنار این، دیدگاه های تردیدآمیز نیز به سناریوهای مطرح شده وجود دارد؛ همچون این که موانع فنی و موانع مقرراتی ممکنست مانع تحقق سناریوهای خیلی افراطی شود و نباید انتظار داشت که پلیس رباتیک به سرعت در خیابان ها مستقر شود یا روبات ها به صورت کامل کار و اشتغال را از بین ببرند. در عین حال، این اختلاف نظرها، به جای آنکه از ارزش هشدار بکاهند، آنرا دقیق تر می کنند. مسئله اصلی، تحقق دقیق یک تصویر سینمایی نیست؛ بلکه مسئله اینست که دامنه فناوری های خودکار درحال افزایش است و جرم و مواجهه با جرم، دیر یا زود از این تحول اثر می پذیرد. حتی اگر بخشی از سناریوهای شدید هیچ گاه رخ ندهد، بخش های میانه آنکه شامل افزایش سوءاستفاده از پهپادها، اختلال در زیرساخت های هوشمند و پیچیده شدن انتساب و اثبات است، می تواند بطورکامل واقع گرایانه باشد.

پیام راهبردی گزارش امنیت رباتیک به مثابه حکمرانی ریسک

هشدار یوروپل را می توان بعنوان نوعی دعوت به «حکمرانی پیش دستانه ریسک» فهم کرد. در این چارچوب، سیاست گذار باید هم زمان چند مسیر را دنبال کند. نخست، استانداردسازی امنیت برای سیستم های خودکار و رباتیک بخصوص در حوزه های حساس دوم، توانمندسازی پلیس و دستگاه عدالت در حوزه ادله دیجیتال، انتساب حمله و تحلیل فنی حوادث سوم، ایجاد سازوکارهای نظارتی و پاسخگویی برای پیشگیری از تجاوز به حریم خصوصی به بهانه مواجهه با جرم گزاره کلیدی که از زبان مدیر اجرایی یوروپل نقل شده است، نقطه جمع بندی را می سازد. همانطور که اینترنت و تلفن هوشمند فرصت ها و چالش های مهمی ایجاد کردند، فناوری های خودکار نیز همین مسیر را طی خواهند کرد. به بیان دیگر، می توان فناوری را یک «بستر دوگانه» توصیف کرد که ظرفیت ارتقاء رفاه و ایمنی و با این وجود ظرفیت گسترش تهدید را دارد. دراین میان، عنصر تعیین کننده، سرعت و کیفیت سازوکارهای امنیتی، مقرراتی و اجتماعی است که همگام با توسعه فناوری شکل می گیرد. بالاخره، چنین پیداست که جرم برپایه فناوری رباتیک یک برساخته تخیلی نیست، بلکه یک افق محتمل است که رگه های آن از حالا مشاهده می شود و در این راستا، آینده پلیس و آینده امنیت عمومی، به میزان آمادگی دولت ها، صنعت و جامعه مدنی، قبل از وقوع بحران های بزرگ، وابسته است.
خلاصه اینکه در عمل، هرچه تعامل طبیعی تر و انسانی تر شود، برداشت انسانی از کنش نیز نقش پررنگ تری می گیرد و خطای ادراکی محتمل تر می شود. معنای این گزاره، ارتقاء سطح تهدید از اختلال در خدمت به تهدید مقابل جان و سلامت است. این بخش از گزارش یک گزاره قطعی نیست، اما به عنوان یک سناریوی قابل تصور مطرح می شود و اهمیت آن در پیوند دادن سیاست فناوری با سیاست اجتماعی خیلی برجسته است.

منبع:

1404/10/08
09:12:26
5.0 / ۵
13
تگهای خبر: آنلاین , اقتصاد , اینترنت , برند
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد نگرانی فزاینده پلیس اروپا درباره ی ظهور جرائم رباتیک در آینده نزدیک
نظر شما در مورد نگرانی فزاینده پلیس اروپا درباره ی ظهور جرائم رباتیک در آینده نزدیک
نام:
ایمیل:
نظر:
سوال:
= ۳ بعلاوه ۱
برتریها bartariha
bartariha.ir - حقوق سایت برتریها محفوظ است

برتریها

معرفی برترینهای فناوری و وبسایتها: برتری ها، با معرفی بالاترین فناوری ها و وب سایت ها، شما را در انتخاب بهترین ها یاری می کند. دنیای فناوری، در دستان شما.