هشدار دانشمندان: تا دیر نشده جلوی روبات‌های قاتل تمام خودکار و قابل هک را بگیرید

۳۱ مرداد اخبار روز

هشدار دانشمندان: تا دیر نشده جلوی روبات‌های قاتل را بگیرید

بیش از ۱۰۰ متخصص فناوری و هوش مصنوعی از سازمان ملل خواسته‌اند که مانع گسترش استفاده از ابزارهای هوشمند کشتار معروف به “روبات‌های قاتل” شود.

در این نامه پیشتازان تکنولوژی از جمله ایلان ماسک، بنیانگذار خودروی تسلا، درباره “انقلاب سوم در صنعت جنگ” هشدار داده‌اند.

آنها به طور مشخص خواسته‌اند که این فناوری به فهرست سلاح‌های ممنوعه کشتار جمعی سازمان ملل اضافه و توسعه و ساخت آن متوقف شود.

روبات کشنده یا قاتل، سلاحی تمام خودکار است که بدون دخالت انسان هدف خود را انتخاب می‌کند. در حال حاضر از این سلاح استفاده نمی‌شود اما دانشمندان به ساخت آن بسیار نزدیک شده‌اند.

در این نامه گفته شده که تکنولوژی “خودکار مرگبار” مانند “جعبه پاندورا” است. منظور جعبه‌ای اساطیری است که گفته می‌شود با گشودن آن، مصیبت‌ها و غم‌ها در زمین پراکنده شد.

دانشمندان مخالف استفاده از روبات‌های نظامی می‌گویند فرصت زیادی برای جلوگیری از تکمیل این سلاح مرگبار باقی نمانده است. چون “اگر جعبه پاندورا باز شود، بستن آن دشوار خواهد بود.”

۱۱۶ متخصص علم روباتیک نامه به سازمان ملل را امضا کرده‌اند.

به گفته این دانشمندان، سلاح‌های مرگبار هوشمند می‌تواند “به طور غیراخلاقی” توسط “تروریست‌ها” علیه انسان‌های بی‌گناه به کار گرفته شود و همچنین با هک شدن، در برنامه‌ای غیر از آنچه هدفش بوده، مورد استفاده قرار بگیرد.

دو سال پیش هم، متخصصان و دانشمندان درباره خطرات سلاح‌های خودکار هشدار دادند.

استیون هاوکینگ، دانشمند و نظریه‌پرداز و استیو وازنیک، از بنیانگذاران اپل، آن نامه را امضا کرده بودند.

روبات‌ قاتل نفعی برای بشریت ندارد

  • ۲۸ ژوئیه ۲۰۱۵ – ۰۶ مرداد ۱۳۹۴

 

بیش از صد دانشمند، پژوهشگر و کارشناس برجسته تکنولوژی درباره خطر روبات‌های قاتل هشدار داده‌اند.

آنها در نامه‌ای سرگشاده از راه افتادن مسابقه برای به کارگیری هوش مصنوعی در مقاصد نظامی اظهار نگرانی کرده‌اند.

این نامه در سال ۲۰۱۵  به بیست و پنجمین کنفرانس مشترک هوش مصنوعی در بوئنوس آیرس آرژانتین ارائه شده است.

این دانشمندان معتقدند فناوری هوش مصنوعی برای تولید روبات‌هایی که خود راسا می‌توانند برای کشتن تصمیم گرفته و اقدام کنند آنقدر پیشرفت کرده که تولید این ماشین‌ها در چند سال آینده کاملا امکان‌پذیر خواهد بود:

“برخلاف سلاح اتمی، این روبات‌ها به مواد اولیه‌ای که دسترسی به آن دشوار باشد نیاز ندارند بنابراین برای تمام قدرت‌های نظامی مطرح تولید انبوه آنها کاملا میسر و ارزان خواهد شد.”

“سلاح‌های خودمختار برای عملیاتی مثل ترور، بی‌ثبات کردن کشورها، مهار مردم و کشتن گزینشی یک گروه اقلیت، ایده‌آل هستند. بنابراین ما معتقدیم مسابقه برای تولید هوش مصنوعی با کاربرد نظامی به نفع بشریت نیست.”

“در حالیکه راه‌های بسیاری هست که از هوش مصنوعی برای کاستن از خطرات میدان جنگ، بخصوص غیر نظامیان، استفاده کرد و نیازی به ابزاری جدید برای کشتار نیست.”

“در موافقت یا مخالفت با سلاح‌های خودمختار زیاد بحث شده است، مثلا جایگزین کردن انسان با ماشین در میدان جنگ تلفات انسانی را کم می‌کند و این خوب است اما از این نظر هم بد است که آستانه تحمل برای شروع جنگ را کم می‌کند.”

سوال مهمی که پیش روی بشریت است این است که آیا مسابقه جهانی برای تولید سلاح‌های هوش مصنوعی را شروع کند یا اینکه مانع از شروع چنین مسابقه‌ای شود.”

“همانطور که بیشتر شیمی‌دانها و زیست‌شناسان علاقه‌ای به تولید سلاح‌های شیمیایی و بیولوژیک ندارند، بیشتر محققان هوش مصنوعی هم علاقه‌ای به سلاح هوش مصنوعی ندارند و نمی‌خواهند وجهه این حوزه اینگونه مخدوش شود.”

یکی از امضاکنندگان برجسته این نامه، پروفسور استیون هاوکینگ کیهان‌شناس معروف است که تقریبا شش ماه پیش از این تاریخ در مصاحبه ای اختصاصی با بی‌بی‌سی در همین باره اظهار نگرانی کرده و گفته بود: “تکامل زیستی در انسان‌ها به کندی اتفاق می‌افتد از این رو بشر نمی‌تواند با هوش مصنوعی رقابت کند و مقهور آن خواهد شد.”

با این حال بسیاری از متخصصان از جمله اریک هورویتز رییس پژوهشگران مایکروسافت، که این نامه را امضا کرده، در باره فواید وسیع هوش مصنوعی برای انسان، مثل درمان بیماران یا نجات جان افراد در عملیات امداد و نجات،اشاره کرده‌اند:

“هوش مصنوعی با خود امیدهای بسیار، فواید احتمالی فراوان و برخی نگرانی‌ها به همراه می آورد.”

“من فکر می کنم در این راه باید مسائل بسیار جالبی حل شوند اما من انتظار دارم نتایج بسیار مفیدی از این تحقیقات حاصل شود چون ما آن را هدایت خواهیم کرد.”

 

فعالان حقوق بشر: روبات‌های قاتل را ممنوع کنید

  • ۳۰ مهٔ ۲۰۱۳ – ۰۹ خرداد ۱۳۹۲

 

شورای حقوق بشر سازمان ملل متحد خواستار تعلیق استفاده از سلاح جدید ‘روبات‌های قاتل’ شده است. فعالان حقوق بشر می‌گویند این سلاح ثبات و امنیت بین‌المللی را تهدید می‌کند و قبل از آنکه استفاده از آن آغاز شود، باید آن را ممنوع کرد.

این شورا روز پنج شنبه، نهم خرداد، سال ۱۳۹۲ در نشستی در ژنو گزارش خود را درباره سلاح جدید ‘روبات‌های مهلک خودکار’ یا به اصطلاح روبات‌های قاتل ارائه کرد.

این روبات‌ها برای کشتن و تخریب برنامه‌ریزی می‌شوند و برخلاف هواپیماهای بی سرنشین (پهپاد)، کسی کنترل آنها را در میدان نبرد در دست ندارد.

وقتی برنامه‌ای که به روبات داده شده فعال و روبات روی آن قفل شود، می‌تواند بدون مداخله انسان، بکشد و تخریب کند.

از این رو فعالان حقوق بشر می گویند این سلاح ثبات و امنیت بین‌المللی را تهدید می‌کند و قبل از آنکه استفاده از آن آغاز شود، باید آن را ممنوع کرد.

ایموجین فوکس، خبرنگار بی‌بی‌سی در ژنو می‌گوید در حالی که فعالان حقوق بشر خواستار منع کامل این سلاح شده‌‌اند اما گزارش سازمان ملل فعلا خواستار تعلیق استفاده از آن است تا به سوال هایی که درباره آن وجود دارد، پاسخ داده شود.

مدافعان این سلاح می گویند استفاده از روبات‌ها تلفات انسانی را در میدان نبرد کاهش می‌دهد اما گروه‌های حقوق بشر معتقدند که استفاده از آن، مسائل اخلاقی مهمی را مطرح می‌کند از جمله اینکه اگر این روبات‌ها غیر‌نظامیان را به قتل برسانند، چه کسی مسئول خواهد بود.

آنها می‌پرسند تصمیم نهایی را برای صدور فرمان کشتن چه کسی می گیرد و روبات چگونه می تواند فرد نظامی را از غیرنظامی تشخیص دهد؟ اگر روباتی باعث کشته شدن تعداد زیادی غیر‌نظامی شود آیا می توان آن را در دادگاه جنایت جنگی محاکمه کرد؟

کریستف هینز، کارشناس سازمان ملل می‌گوید به طور سنتی “سرباز بوده و اسلحه‌. اما الان اسلحه، سرباز شده و خودش تصمیم می‌گیرد.”

آقای هینز معتقد است روبات فاقد اخلاقیات است بنابراین نباید مرگ و زندگی انسان‌ها در اختیارش باشد.

او هواپیماهای بدون سرنشین را مثال می‌زند که ابتدا برای شناسایی و نظارت به کار گرفته شدند و استفاده ایذایی از آنها ممنوع بود اما به محض اینکه کارایی آنها در نابود کردن اهداف روشن شد، تمام اعتراض‌ها نادیده گرفته شد.

تاکنون آمریکا، بریتانیا و اسرائیل روبات قاتل تولید کرده‌اند اما هنوز از آن استفاده نکرده‌اند.

کشورهای بسیاری در پی تولید روبات‌های قاتل هستند و مثلا کره جنوبی در منطقه غیر نظامی حائل بین دو کره از روبات‌های نگهبان SGR-1 استفاده می کند که با سنجش حرارت و حرکت، ورود افراد به منطقه را ردیابی می‌‌کند. در حال حاضر این روبات را یک انسان هدایت می‌کند اما گفته می‌شود این روبات وضعیت خودکار هم دارد که اگر فعال شود، می‌تواند به طور مستقل عمل کند.

البته روبات‌هایی که کاملا مستقل عمل کنند هنوز ساخته نشده‌اند و بیشتر در حوزه داستان‌های علمی-تخیلی مطرح هستند اما صاحب نظران می‌گویند دولت‌ها بسرعت به تولید روبات کاملا خودکار نزدیک می‌شوند.

بانی داکرتی، استاد حقوق دانشگاه هاروارد و یکی از نویسندگان گزارش دیده‌بان حقوق بشر درباره روبات‌های قاتل می‌گوید روبات‌های صددرصد خودکار، “ده تا بیست سال دیگر ساخته می‌شوند.”

هواپیماهای بدون سرنشین هم روزبه روز به خودکار شدن کامل نزدیک‌تر می‌شوند و نمونه آن X-47B ساخت نیروی دریایی آمریکا است.

 

هوش مصنوعی: منجی یا قاتل بشر؟

  • ۲۵ اکتبر ۲۰۱۶ – ۰۴ آبان ۱۳۹۵

دو سال پیش از ۲۰۱۶ استیون هاوکینگ به بی‌بی‌سی گفت کمال هوش مصنوعی یعنی زوال بشر.

او البته تنها نبود. چهره‌هایی چون ایلون ماسک و بیل‌ گیتس و استیو ووزنیاک هم پیش و پس از او در مورد پیشرفت هوش مصنوعی هشدار داده‌اند. اما تصویر پروفسور هاوکینگ آخرالزمانی‌تر از همه بود – دنیایی که روبات‌ها به این نتیجه می‌رسند دیگر نیازی به آدمیزاد ندارند.

هاوکینگ و دیگران می‌خواستند تلنگری به دنیا بزنند بلکه جهان به خود بیاید و ببیند علم کجا می‌رود. می‌خواستند دیگران هم در این بحث به دانشمندان بپیوندند – و دستکم در این هدف دوم موفق بودند.

اخیرا “مرکز آینده هوش” در دانشگاه کمبریج افتتاح شد، مرکزی که راه افتاده تا به پیامدهای هوش مصنوعی بپردازد. پروفسور هاوکینگ هم آنجا بود. می‌گفت: “خوشحالم که یکی حرف ما را جدی گرفت.”

او با زبانی شفاف فرصت‌ها و تهدیدهای تکنولوژی را برشمرد، به بعضی دستاوردهای تازه از جمله در خودروهای بی‌راننده پرداخت، و البته از آینده گفت.

می‌گفت: “من معتقدم کاری که مغز می‌تواند بکند و کاری که یک کامپیوتر می‌تواند بکند، تفاوت اساسی ندارد. با این فرض، کامپیوترها در تئوری می‌توانند هوش انسانی را تقلید کنند و از آن پیشی بگیرند.”

به باور پروفسور هاوکینگ، چنین پیشرفتی می‌تواند بیماری و فقر را از بین ببرد، حتی معضل تغییرات اقلیمی زمین را حل کند. در عین حال می‌تواند چیزهایی بیافریند که ما دوست نداشته باشیم: سلاح‌های خودمختار، بحران‌های اقتصادی، یا ماشین‌هایی که اراده داشته باشند و جلوی بشر بایستند.

می‌گفت: “خلاصه کلام اینکه، ظهور هوش مصنوعی می‌تواند بهترین یا بدترین اتفاق برای بشریت باشد. و ما هنوز نمی‌دانیم کدام خواهد بود.”

مرکز تازه‌تأسیس دانشگاه کمبریج قرار است محلی باشد برای تحقیق در این باره. به همین یک پرسش پیش‌پاافتاده پاسخ بدهد کافیست: بالاخره هوش مصنوعی ما را می‌کشد یا نه.

از شوخی گذشته، مرکز آینده هوش جایی است که فیلسوف‌ها و روان‌شناس‌ها و وکیل‌ها و متخصصان کامپیوتر برای پاسخ به پرسش‌هایی عملی گرد هم می‌آیند.

به‌عنوان نمونه – پیش از آنکه به آنجا برسیم که روبات‌ها بخواهند تصمیم بگیرند بشر کلا مازاد است یا نه – باید فکر کنیم ببینیم خودروی بی‌راننده باید برای حفظ جان سرنشین برنامه‌ریزی شود یا حفظ جان عابر؟

از دیگر سخنرانان مراسم افتتاحیه پروفسور مگی بادن بود، از چهره‌های برجسته هوش مصنوعی در پنجاه سال گذشته.

او می‌گفت مدت‌هاست جای این بحث خالی است. اما نگران انقراض نوع بشر نبود. در واقع، تردید داشت که – آن‌طور که پروفسور هاوکینگ می‌گوید – با سرعتی عجیب به آینده هوش مصنوعی نزدیک می‌شویم.

دغدغه پروفسور بادن بیشتر تأثیر رومزه ماشینی شدن زندگی بود، مثلا بر سالخوردگان در ژاپن. می‌گفت آنها روزبه‌روز بیشتر از روبات برای مراقبت از بیماران و سا‌لخوردگان استفاده می‌کنند، و جامعه باید از خود بپرسد این کار انسانی است یا نه.

پروفسور بادن پس از دهه‌ها پژوهش در باره هوش مصنوعی، همچنان معتقد است روبات‌ها در کارهایی که هم‌دلی و هوش احساسی می‌طلبد نمی‌توانند جایگزین آدم بشوند. می‌گفت هوش مصنوعی ممکن است هزینه سرسام‌آور خدمات اجتماعی دولت‌ها را کم کند، اما آنها که به این کمک‌ها نیاز دارند ضرر خواهند کرد.

این صرفا یکی از مسایلی است که مرکز آینده هوش به آن خواهد پرداخت – مسئله‌ای که به نظر واجب‌تر از تهدید احتمالی ترمیناتور در دهه‌های آینده است.

 

منبع : بی بی سی

———————————————————–

آدرس “دختران آنارشیست افغانستان ” در اینستاگرام

https://www.instagram.com/dokhtarananarshist_afghanestan

————————————————————–

آدرس “دختران آنارشیست افغان ” در فیسبوک

https://www.facebook.com/Afghan-Anarchist-Girls-116992605591873

————————————————————–

آدرس آنارشیستهای رشت در اینستاگرام

https://www.instagram.com/anarshist.rasht

———————————————————

آدرس صفحه آنارشیستهای شهر بوکان (  ئانارکیسته کانی بوکان ) در اینستاگرام :

https://www.instagram.com/bokan_anarchy

———————————————————–

آدرس آنارشیستهای شاهین شهر در تلگرام

https://t.me/Anarshistsh2

 

آدرس آنارشیستهای شاهین شهر در اینستاگرام

https://www.instagram.com/anarshistshahinshahr

———————————————————

آدرس کانال آنارشیستهای شهر سنندج در تلگرام

ئانارکیستەکانی شاری سنە
بڵاوکردنەوەی بیرو هزری ئانارکیستی

—————————————————-

آدرس آنارشیستهای مریوان در کانال نلگرام

https://t.me/anarchyinmarivan

——————————————–

آدرس عصر آنارشیسم در اینستاگرام

https://instagram.com/asranarshism/

 

آدرس عصر آنارشیسم در تلگرام

https://telegram.me/asranarshism

——————————————————————————————————————————————————————————————————–

آدرس و اسامی صفحات مرتبط با مجموعه عصر آنارشیسم  The names and addresses that related to anarchism era website


۱۴۶۷۲۸۵۱_۶۹۳۳۰۷۲۳۷۴۹۹۲۸۳_۱۵۵۷۱۵۳۰۲۵_o

 

۱- سایت عصر آنارشیسم

http://asranarshism.com

 

آدرس و اسامی صفحات ما در فیسبوک

 

۲- فیسبوک عصر آنارشیسم

https://www.facebook.com/asranarshism

 

۳- فیسبوک بلوک سیاه ایران

https://www.facebook.com/iranblackbloc

 

۴ – فیسبوک آنارشیستهای همراه روژاوا و باکورAnarchists in solidaritywiththeRojava

https://www.facebook.com/%D8%A2%D9%86%D8%A7%D8%B1%D8%B4%DB%8C%D8%B3%D8%AA%D9%87%D8%A7%DB%8C-%D9%87%D9%85%D8%B1%D8%A7%D9%87-%D8%B1%D9%88%DA%98%D8%A7%D9%88%D8%A7-%D9%88-%D8%A8%D8%A7%DA%A9%D9%88%D8%B1-Anarchists-in-solidarity-with-the-Rojava-434646579975914

 

۵- فیسبوک دفاع از زندانیان و اعدامیان غیر سیاسی

https://www.facebook.com/sedaye.bisedayan

 

۶ – فیسبوک کارگران آنارشیست ایران

https://www.facebook.com/irananarchistlabors

 

۷- فیسبوک کتابخانه آنارشیستی

https://www.facebook.com/anarchistlibraryfa

 

۸ – فیسبوک آنارشیستهای همراه بلوچستان

https://www.facebook.com/anarchistinsupportbaluchistan

 

۹ – فیسبوک  هنرمندان آنارشیست

https://www.facebook.com/anarchistartistss

 

۱۰ – فیسبوک دانشجویا ن آنارشیست

https://www.facebook.com/anarchiststudents

 

۱۱ – فیسبوک شاهین شهر پلیتیک

https://www.facebook.com/shahre.shahin

 

۱۲ – فیسبوک آنتی فاشیست

https://www.facebook.com/ShahinShahrPolitik

 

۱۳ – عصر آنارشیسم در تلگرام

https://telegram.me/asranarshism

 

۱۴- عصر آنارشیسم در اینستاگرام

https://instagram.com/asranarshism/ 

 

۱۵ – عصر آنارشیسم در توئیتر

https://twitter.com/asranarshism

 

۱۶ – بالاچه عصر آنارشیسم در بالاترین

https://www.balatarin.com/b/anarchismera

 

۱۷- فیسبوک میتینگ دهه هفتاد و هشتادی ها

https://www.facebook.com/%D9%85%DB%8C%D8%AA%DB%8C%D9%86%DA%AF-%D8%AF%D9%87%D9%87-%D9%87%D9%81%D8%AA%D8%A7%D8%AF-%D9%88-%D9%87%D8%B4%D8%AA%D8%A7%D8%AF%DB%8C-%D9%87%D8%A7-505093803031731/

 

۱۸ – گوگل پلاس عصر آنارشیسم

https://plus.google.com/u/0/114261734790222308813

 

۱۹ –  ساوندکلاود رادیو آنارشی

به اشتراک بگذارید Twitter Google+ Facebook Email بالاترین
برداشت از مطالب این وب سایت آزاد است