درس‌هایی از عصر هسته‌ای برای کنترل هوش مصنوعی

چالش‌های وحشتناک‌ هوش مصنوعی

اگر بایدن، شی و دیگر رهبران جهان اکنون برای رویارویی با چالش‌های ایجاد شده توسط هوش مصنوعی به همان اندازه که پیشینیان شان در مقابله با تهدیدات هسته‌ای در دهه‌های قبل تلاش کردند اقدام کنند آیا به همان اندازه موفق خواهند بود؟ با نگاهی به صفحه بزرگتر تاریخ و قطبی شدن فزاینده امروز خوش بین بودن دشوار است.

گراهام آلیسون، استاد برجسته علوم سیاسی دانشگاه هاروارد است. او از متفکران برجسته مکتب واقع گرایی در نظریه روابط بین الملل می‌باشد. آلیسون به عنوان دانشجوی دکترا زیر نظر هنری کیسینجر تحصیل کرد و در سال ۱۹۷۱ میلادی اثر مهم “جوهر تصمیم” را نوشت که نظریه رایج “بازیگر منطقی” روابط بین الملل را به چالش می‌کشید و به طور گسترده به عنوان مطالعه‌ای مورد درباره بحران موشکی کوبا قلمداد می‌شود.

فاواپرس: هنگامی که نابودی اتمی هیروشیما و ناکازاکی توسط ایالات متحده، ژاپن را مجبور به تسلیم بی قید و شرط فوری کرد هیچ کس تصور نمی‌کرد که جهان شاهد توقف عملی استفاده از سلاح‌های هسته‌ای برای هفت دهه آینده باشد. حتی غیر محتمل‌تر به نظر می‌رسید که تقریبا هشت دهه پس از آن صرفا ۹ کشور دارای سلاح هسته‌ای وجود داشته باشند. 

امروزه در حالی که جهان با چالش‌های منحصر به فردی مواجه است که توسط فناوری بی سابقه و از برخی جهات حتی وحشتناک‌تر هوش مصنوعی ایجاد می‌شود جای تعجبی ندارد که بسیاری برای آموزش به دنبال تاریخ بوده اند. آیا ماشین‌هایی با قابلیت‌های مافوق بشری موقعیت بشریت به عنوان ارباب جهان را تهدید می‌کنند؟ آیا هوش مصنوعی انحصار کشور‌ها را در زمینه ابزار خشونت جمعی تضعیف می‌کند؟ آیا هوش مصنوعی افراد یا گروه‌های کوچک را قادر می‌سازد تا ویروس‌هایی را با قابلیت کشتن در مقیاسی تولید کنند که پیش‌تر در اختیار قدرت‌های بزرگ بود؟ آیا هوش مصنوعی می‌تواند بازدارنده‌های هسته‌ای که ستون نظم جهانی امروزی بوده اند را از بین ببرد؟

در این مرحله هیچ کس نمی‌تواند با اطمینان به این سوالات پاسخ دهد. با این وجود، همان طور که در دو سال گذشته با گروهی از رهبران فناوری در خط مقدم انقلاب هوش مصنوعی همراه با “هنری کیسینجر” وزیر خارجه اسبق آمریکا به بررسی این موضوعات پرداخته ام به این نتیجه رسیده ایم که پیشرفت بدون محدودیت هوش مصنوعی، عواقب فاجعه باری را برای ایالات متحده و جهان ایجاد خواهد کرد. این استدلال به قدری قانع کننده است که رهبران دولت‌ها باید هم اکنون اقدام کنند.

همان طور که رهبران این انتخاب‌ها را انجام می‌دهند درس‌های آموخته شده در عصر هسته‌ای می‌تواند تصمیمات آنان را تعیین کند. حتی دشمنانی که برای توسعه و استقرار یک فناوری بی سابقه که می‌تواند صد‌ها میلیون نفر را بکشد مسابقه می‌دهند منافع مشترک را کشف کرده اند. امریکا و شوروی به عنوان دو قطب، منافعی در جلوگیری از گسترش سریع این فناوری به کشور‌های دیگر داشتند که می‌توانست آنان را تهدید کند. هم واشنگتن و هم مسکو دریافتند که اگر فناوری هسته‌ای به دست بازیگران یا تروریست‌های سرکش در داخل مرز‌های شان بیفتد می‌توانند از آن برای تهدید کشور‌های شان استفاده کنند و بنابراین هر یک سیستم‌های امنیتی قوی را برای زرادخانه‌های خود توسعه دادند.

از آنجایی که در صورت دستیابی بازیگران سرکش دشمن به سلاح هسته‌ای، هر یک ممکن بود تهدید شوند هر دو ابرقدرت به نفع خود می‌دانستند که در مورد این خطر با یکدیگر بحث کنند و شیوه‌ها و فناوری‌هایی را که برای اطمینان از عدم تحقق آن سناریوی کابوس‌وار، برای یکدیگر توصیف کنند. هنگامی که زرادخانه تسلیحات هسته‌ای دو کشور به سطحی رسید که هیچ یک نمی‌توانست بدون این که پاسخی برای نابودی خود ایجاد کند به دیگری حمله کند دو کشور به ثبات متناقض نابودی حتمی طرفین* (MAD) پی بردند. با درونی شدن این واقعیت زشت، هر قدرتی یاد گرفت که خود را محدود کند و راه‌هایی را پیدا کند برای متقاعد کردن دشمن خود به محدود کردن ابتکار عمل‌هایش به منظور اجتناب از رویارویی‌هایی که می‌تواند منجر به جنگ شود. در واقع، رهبران ایالات متحده و دولت شوروی دریافتند که اجتناب از جنگ هسته‌ای که کشورشان اولین قربانی آن خواهد بود یک مسئولیت اساسی است.

چالش‌های امروزی ناشی از هوش مصنوعی صرفا فصل دوم عصر هسته‌ای نیست. تاریخ یک کتاب آشپزی با دستور العمل‌هایی نیست که بتوان آن را برای تولید سوفله مو به مو دنبال کرد. تفاوت بین هوش مصنوعی و سلاح‌های هسته‌ای حداقل به اندازه شباهت‌ها قابل توجه است. با این وجود، درس‌های آموخته شده در شکل دهی نظم بین‌المللی که تقریبا هشت دهه بدون جنگ قدرت‌های بزرگ ایجاد شده اگر به درستی درک و تطبیق داده شود، بهترین راهنمایی‌ها را به رهبرانی که امروز با هوش مصنوعی مواجه هستند ارائه می‌کند.

در حال حاضر، تنها دو ابرقدرت هوش مصنوعی وجود دارند: ایالات متحده و چین تنها کشور‌هایی هستند که استعداد، موسسات تحقیقاتی و ظرفیت محاسبات انبوه مورد نیاز برای آموزش پیشرفته‌ترین مدل‌های هوش مصنوعی را در اختیار دارند. این وضعیت به آنان فرصت باریکی برای ایجاد دستورالعمل‌هایی می‌دهد که از خطرناک‌ترین پیشرفت‌ها و کاربرد‌های هوش مصنوعی جلوگیری کنند. جو بایدن رئیس‌جمهور ایالات متحده و شی جین پینگ رئیس‌جمهور چین باید از این فرصت استفاده کنند و اجلاسی را شاید بلافاصله پس از نشست همکاری‌های اقتصادی آسیا – اقیانوسیه در سانفرانسیسکو در نوامبر برگزار کنند که در آن می‌توانند گفتگو‌های گسترده، مستقیم و رو در رو در مورد مسائل را انجام دهند.

فاواپرس / هوش مصنوعی

درس‌هایی از عصر هسته‌ای

پس از آن که بمب‌های اتمی شهر‌های ژاپن را در سال ۱۹۴۵ ویران کردند دانشمندانی که جعبه اتمی پاندورا را باز کرده بودند آنچه را که خلق کرده بودند دیدند و با وحشت پس زدند. رابرت اوپنهایمر دانشمند اصلی پروژه منهتن خطی از بهگود گیتا مهم‌ترین و اسرارآمیزترین بخش حماسه هندی موسوم به ماهابهاراتا را با این مضمون به یاد می‌آورد: “اکنون من به مرگ تبدیل شده ام، ویرانگر دنیاها”. اوپنهایمر چنان طرفدار سرسخت اقدامات رادیکال برای کنترل بمب شد که مجوز امنیتی اش سلب شد. مانیفست راسل-انیشتین که در سال ۱۹۵۵ توسط ۱۱ دانشمند برجسته از جمله برتراند راسل و آلبرت انیشتین و نیز لینوس پاولینگ و مکس بورن شیمی دانان و فیزیکدانان برجسته امضا شد در مورد قدرت‌های ترسناک سلاح‌های هسته‌ای هشدار داد و از رهبران جهان درخواست کرد که هرگز از آن تسلیحات استفاده نکنند.

اگرچه هری ترومن رئیس جمهور وقت امریکا هرگز در مورد تصمیم خود اظهار نظر نکرد نه او و نه اعضای تیم امنیت ملی اش دیدگاه قابل قبولی در مورد چگونگی ادغام این فناوری عالی در نظم بین المللی پس از جنگ نداشتند. آیا ایالات متحده باید برای حفظ موقعیت انحصاری خود به عنوان تنها قدرت اتمی تلاش کند؟ آیا این تصمیم اصلا امکان پذیر بود؟ آیا ایالات متحده در تعقیب هدف می‌تواند فناوری خود را با اتحاد جماهیر شوروی به اشتراک بگذارد؟ آیا بقا در دنیایی با این سلاح به رهبرانی نیاز داشت که قدرتی برتر از دولت‌های ملی اختراع کنند؟ این موارد پرسش‌های مطرح شده در آن زمان بودند.

هنری استیمسون وزیر جنگ ترومن (که به تازگی به پیروزی بر آلمان و ژاپن کمک کرده بود) پیشنهاد کرد که ایالات متحده انحصار بمب اتمی خود را با جوزف استالین رهبر شوروی و وینستون چرچیل نخست وزیر بریتانیا تقسیم کند تا قدرتی بزرگ ایجاد شود که از گسترش سلاح‌های هسته‌ای جلوگیری می‌کند. ترومن کمیته‌ای به ریاست دین آچسون معاون وزیر امور خارجه ایالات متحده ایجاد کرد تا راهبردی برای پیگیری پیشنهاد استیمسون ایجاد کند.

آچسون اساسا با استیمسون موافق بود: تنها راه برای جلوگیری از یک مسابقه تسلیحات هسته‌ای که به جنگ فاجعه بار ختم می‌شد ایجاد یک مرجع بین‌المللی بود که تنها دارنده سلاح‌های اتمی باشد. این امر مستلزم آن بود که ایالات متحده اسرار هسته‌ای خود را با اتحاد جماهیر شوروی و دیگر اعضای شورای امنیت سازمان ملل متحد در میان می‌گذاشت، سلاح‌های هسته‌ای خود را به یک مرجع توسعه اتمی جدید سازمان ملل منتقل می‌کرد و همه کشور‌ها را از توسعه سلاح یا ساخت توانایی‌های خود برای تولید مواد هسته‌ای با درجه تسلیحاتی منع می‌شدند. ترومن در سال ۱۹۴۶ میلادی برنارد باروخ سرمایه دار و مشاور رئیس‌جمهور را به سازمان ملل فرستاد تا در مورد توافقی برای اجرای طرح آچسون مذاکره کنند. با این وجود، این پیشنهاد قاطعانه توسط آندری گرومیکو نماینده شوروی در سازمان ملل رد شد.

سه سال پس از آن زمانی که اتحاد جماهیر شوروی موفق به ساخت بمب اتمی شد، ایالات متحده و اتحاد جماهیر شوروی وارد چیزی شدند که مردم آن را جنگ سرد نامیدند: رقابتی که به هر طریقی بمب و گلوله نداشت. یکی از ویژگی‌های اصلی این رقابت تلاش برای برتری هسته‌ای بود. زرادخانه‌های هسته‌ای دو ابرقدرت در اوج خود شامل بیش از ۶۰۰۰۰ سلاح بود که برخی از آن‌ها کلاهک‌هایی با قدرت انفجاری بیش‌تر از تمام سلاح‌هایی که در تمام جنگ‌های تاریخ ثبت شده بود در اختیار داشتند.

کارشناسان بحث کردند که آیا یک جنگ هسته‌ای همه جانبه به معنای پایان هر جاندار روی زمین است یا خیر. در طول دهه‌های متمادی واشنگتن و مسکو تریلیون‌ها دلار برای زرادخانه‌های هسته‌ای خود هزینه کرده اند. بودجه سالانه فعلی برای شرکت هسته‌ای ایالات متحده بیش از ۵۰ میلیارد دلار است. در دهه‌های اولیه این مسابقه هم ایالات متحده و هم اتحاد جماهیر شوروی به امید به دست آوردن یک مزیت قاطع، جهش‌های که پیش‌تر غیر قابل تصور قلمداد می‌شد را رقم زدند. افزایش قدرت انفجاری تسلیحات مستلزم ایجاد معیار‌های جدیدی بود: از کیلوتن (معادل انرژی آزاد شده توسط ۱۰۰۰ تن تی ان تی) برای سلاح‌های شکافت اولیه تا مگاتون (معادل انرژی آزاد شده با یک میلیون تن) برای بمب‌های همجوشی هیدروژنی.

دو طرف موشک‌های قاره پیما را اختراع کردند که می‌توانست در ۳۰ دقیقه کلاهک‌ها را به اهدافی در آن سوی کره زمین برساند. دو طرف ماهواره‌هایی را ساختند که در ارتفاع صد‌ها مایلی کره زمین می‌چرخیدند و مجهز به دوربین‌هایی بودند که می‌توانست مختصات اهداف را در مقیاس اینچ شناسایی کند. برخی از ناظران به طور جدی دفاعی را تصور می‌کردند که به قول رونالد ریگان رئیس جمهور اسبق امریکا سلاح‌های هسته‌ای را ناتوان و منسوخ می‌کرد. در تلاش برای شکل دادن به این تحولات، استراتژیست‌ها سه گانه هسته‌ای زیردریایی ها، بمب افکن‌ها و موشک‌های مستقر در زمین را توسعه دادند تا اطمینان حاصل کنند که اگر دشمن یک آسیب پذیری را کشف کند سایر اجزای زرادخانه برای پاسخ ویرانگر باقی می‌ماند.

درک خطرات پرتاب تصادفی یا غیرمجاز تسلیحات باعث اختراعات تازه شد برای مثال، قفل‌های الکترونیکی تعبیه شده در سلاح‌های هسته‌ای که از فعال شدن آن تسلیحات بدون کد‌های پرتاب هسته‌ای مناسب جلوگیری می‌کرد. افزودن این نوآوری‌ها برای محافظت در برابر پیشرفت‌های تکنولوژیکی که ممکن بود سیستم‌های فرمان و کنترل را به خطر بیندازند انگیزه اختراع یک شبکه رایانه‌ای بود که به اینترنت تبدیل شد. همان طور که هرمان کان استراتژیست معروف می‌گوید آنان به چیز‌های غیرقابل تصور فکر می‌کردند. هسته استراتژی هسته‌ای مفهوم بازدارندگی بود: جلوگیری از حمله دشمن با تهدید هزینه‌های خارج از هر سود قابل تصور. بازدارندگی موفقیت آمیز نه تنها به توانایی بلکه به اعتبار نیز نیاز داشت. قربانیان بالقوه نه تنها به ابزار‌هایی برای پاسخ قاطع بلکه به اراده نیز نیاز داشتند.

در سال ۱۹۶۲ میلادی زمانی که جان اف کندی رئیس جمهور وقت ایالات متحده با نیکیتا خروشچف، رهبر وقت اتحاد جماهیر شوروی بر سر موشک‌هایی با کلاهک هسته‌ای که شوروی در کوبا قرار داده بود مواجه شد جامعه اطلاعاتی ایالات متحده تخمین زد که حتی اگر کندی اولین حمله موفقیت آمیز را انجام دهد واکنش تلافی جویانه شوروی با آن امکان پذیر است و امکان کشته شدن ۶۲ میلیون امریکایی وجود داشت.

در سال ۱۹۶۹ میلادی زمانی که ریچارد نیکسون رئیس جمهور شد ایالات متحده باید در رویکرد خود تجدید نظر می‌کرد. استراتژیست‌ها اصطلاح نابودی حتمی طرفین را مطرح کردند که ماهیت آن با عبارت مکررا به کار برده شده توسط ریگان خلاصه می‌شد:”در یک جنگ هسته‌ای نمی‌توان برنده شد و بنابراین هرگز نباید در آن جنگید”.

از نظر عملیاتی نابودی حتمی طرفین به معنای آسیب پذیری متقابل تضمین شده بود. در حالی که ایالات متحده و اتحاد جماهیر شوروی هر دو به دنبال فرار از این شرایط بودند در نهایت متوجه شدند که قادر به انجام این کار نیستند و باید اساسا روابط خود را دوباره مفهوم سازی کنند. در سال ۱۹۵۵ میلادی چرچیل با طنزی عالی به این موضوع اشاره کرده بود: “ایمنی فرزند محکم وحشت خواهد بود و زنده ماندن برادر دوقلوی نابودی”. بدون انکار تفاوت در ارزش‌ها یا به خطر انداختن منافع ملی حیاتی رقبای مرگبار باید استراتژی‌هایی را برای شکست دادن دشمن خود به هر وسیله ممکن به جز جنگ همه جانبه ایجاد می‌کردند. یکی از ستون‌های این استراتژی‌ها مجموعه‌ای از محدودیت‌های ضمنی و صریح بود که اکنون به عنوان کنترل تسلیحات شناخته می‌شوند. برای کاهش خطر بروز اشتباهات ایالات متحده و اتحاد جماهیر شوروی در گفتگو‌های غیررسمی توافق کردند که برای محافظت از شهروندان خود در برابر پرتو‌های رادیواکتیو آزمایش اتمسفر را ممنوع کنند. دو طرف هم چنین در معاهده موشکی ضد بالستیک ۱۹۷۲ توافق کردند که دفاع موشکی را محدود کنند.

ریگان و میخائیل گورباچف رهبر اتحاد جماهیر شوروی در معاهده نیرو‌های هسته‌ای میان برد که در سال ۱۹۸۷ امضا شد توافق کردند که نیرو‌های هسته‌ای میان برد را حذف کنند. مذاکرات محدودسازی تسلیحات استراتژیک که منجر به امضای معاهداتی در سال‌های ۱۹۷۲ و ۱۹۷۹ شد افزایش محدود پرتاب کننده‌های موشک را به همراه داشت و بعدا معاهده کاهش تسلیحات استراتژیک (استارت) که در سال ۱۹۹۱ امضا شد و استارت جدید که در سال ۲۰۱۰ امضا شد از تعداد پرتاب کننده‌های موشک کاست. شاید مهم‌تر از همه بتوان به این موضوه اشاره کرد که ایالات متحده و اتحاد جماهیر شوروی به این نتیجه رسیدند که گسترش سلاح‌های هسته‌ای به سایر کشور‌ها تهدیدی برای هر دو کشور بوده و در نهایت خطر هرج و مرج هسته‌ای را به دنبال دارد. در نتیجه، دو کشور چیزی را به وجود آوردند که امروزه به عنوان رژیم منع گسترش سلاح‌های هسته‌ای شناخته می‌شود که محور اصلی آن معاهده منع گسترش تسلیحات هسته‌ای ۱۹۶۸ است که از طریق آن امروزه ۱۸۶ کشور متعهد شده اند از توسعه زرادخانه‌های هسته‌ای خود خودداری کنند.

کنترل هوش مصنوعی

برای تطبیق درس‌های تاریخ هسته‌ای برای مقابله با چالش کنونی ناشی از هوش مصنوعی شناخت تفاوت‌های برجسته بین هوش مصنوعی و سلاح‌های هسته‌ای ضروری است. نخست آن که در حالی که دولت‌ها توسعه فناوری هسته‌ای را رهبری می‌کردند، امروزه کارآفرینان خصوصی و شرکت‌ها در حال پیشرفت در عرصه هوش مصنوعی هستند. دانشمندانی که برای مایکروسافت، گوگل، آمازون، متا، اوپن‌ای آی و تعداد انگشت شماری از استارت آپ‌های کوچک‌تر کار می‌کنند بسیار جلوتر از تلاش‌های مشابه صورت گرفته درون دولت هستند. علاوه بر این، این شرکت‌ها اکنون درگیر یک مبارزه گلادیاتوری میان خود هستند که بدون شک باعث نوآوری می‌شود، اما هزینه‌هایی به دنبال دارد. از آنجایی که این بازیگران خصوصی بین ریسک‌ها و پاداش‌ها معاوضه می‌کنند مطمئنا از وزن منافع ملی کاسته خواهد شد.

نکته دوم آن که هوش مصنوعی دیجیتال است. تولید تسلیحات هسته‌ای دشوار بود و به زیرساخت‌های پیچیده‌ای برای انجام همه چیز از غنی‌سازی اورانیوم گرفته تا طراحی سلاح‌های هسته‌ای نیاز داشت. در آن دوره محصولات اشیاء فیزیکی و در نتیجه قابل شمارش بودند. در جایی که امکان بررسی کاری که دشمن انجام می‌دهد وجود داشت محدودیت‌هایی ظاهر شد. هوش مصنوعی یک چالش کاملا متفاوت را نشان می‌دهد. تحولات عمده آن در ذهن انسان‌ها رخ می‌دهد. کاربرد آن در آزمایشگاه‌ها تکامل می‌یابد و مشاهده استقرار آن دشوار است. سلاح‌های هسته‌ای ملموس هستند در حالی که ماهیت هوش مصنوعی مفهومی است.

سوم آن که هوش مصنوعی با سرعتی در حال پیشرفت و گسترش است که مذاکرات طولانی را غیرممکن می‌سازد. کنترل تسلیحات طی چند دهه توسعه یافته است. محدودیت‌هایی برای هوش مصنوعی باید پیش از آن که هوش مصنوعی در ساختار امنیتی هر جامعه ایجاد شود رخ دهد یعنی پیش از آن که ماشین‌ها شروع به تعیین اهداف خود کنند که اکنون برخی کارشناسان می‌گویند احتمالا در پنج سال آینده رخ خواهد داد.

خوشبختانه شرکت‌های بزرگی که هوش مصنوعی مولد را توسعه داده اند تشخیص می‌دهند که نه تنها در قبال سهامداران خود بلکه در قبال کشور و بشریت در کلیت آن مسئولیت‌هایی دارند. بسیاری از شرکت از پیش دستورالعمل‌های خود را برای ارزیابی ریسک قبل از استقرار هوش مصنوعی، کاهش سوگیری در داده‌های آموزشی و محدود کردن استفاده خطرناک از مدل‌های شان ایجاد کرده اند. شرکت‌های دیگر در حال بررسی راه‌هایی برای محدود کردن آموزش و تحمیل الزامات “مشتری خود را بشناسید” برای ارائه دهندگان رایانش ابری هستند.

هر یک از شرکت‌هایی که توانایی محاسبات انبوه برای آموزش مدل‌های جدید هوش مصنوعی را دارند و هر شرکت یا گروه تحقیقاتی که مدل‌های جدید را توسعه می‌دهند باید گروهی برای تجزیه و تحلیل پیامد‌های انسانی و ژئوپولیتیکی عملیات تجاری هوش مصنوعی خود ایجاد کنند.

دو ابرقدرت هوش مصنوعی

حتی در مرحله اولیه فعلی در حالی که ایالات متحده هنوز در حال ایجاد چارچوب خاص خود برای مدیریت هوش مصنوعی در داخل کشور است هنوز برای شروع گفتگو‌های جدی با تنها ابرقدرت هوش مصنوعی جهان خیلی زود نیست. قهرمانان ملی چین در بخش فناوری یعنی بایدو (برترین موتور جستجوی چین)، بایت دنس (خالق تیک تاک)، تنسنت (سازنده وی چت) و علی بابا (پیشروو در تجارت الکترونیک) در حال ساخت آنالوگ‌های اخصاصی چت جی پی تی به زبان چینی هستند اگرچه سیستم سیاسی چین مشکلات خاصی را برای هوش مصنوعی ایجاد کرده است. در حالی که چین هنوز از نظر فناوری ساخت نیمه هادی‌های پیشرفته عقب مانده است، اما دارای ملزومات لازم برای تولید برق در آینده نزدیک است.

بنابراین، بایدن و شی باید در آینده نزدیک برای گفتگوی خصوصی در مورد کنترل تسلیحات هوش مصنوعی با یکدیگر ملاقات کنند. نشست همکاری اقتصادی آسیا و اقیانوسیه در نوامبر در سانفرانسیسکو این فرصت را ارائه می‌دهد. هر رهبر باید در مورد این که چگونه شخصا خطرات ناشی از هوش مصنوعی را ارزیابی می‌کند، کشورش برای جلوگیری از برنامه‌هایی که خطرات فاجعه بار ایجاد می‌کنند چه می‌کند و چگونه کشورش تضمین می‌کند که شرکت‌های داخلی خطرات را صادر نمی‌کنند بحث کند. آنان باید یک گروه مشورتی متشکل از دانشمندان آمریکایی و چینی در عرصه هوش مصنوعی و دیگرانی که در مورد پیامد‌های این پیشرفت‌ها فکر کرده اند را ایجاد کنند.

اگر بایدن، شی و دیگر رهبران جهان اکنون برای رویارویی با چالش‌های ایجاد شده توسط هوش مصنوعی به همان اندازه که پیشینیان شان در مقابله با تهدیدات هسته‌ای در دهه‌های قبل اقداماتی را انجام دادند عمل کنند آیا به همان اندازه موفق خواهند بود؟ با نگاهی به صفحه بزرگتر تاریخ و قطبی شدن فزاینده امروز خوش بین بودن دشوار است. با این وجود، این واقعیت درخشان که ما اکنون ۷۸ سال صلح را در میان قدرت‌های هسته‌ای جشن می‌گیریم باید الهام بخش همه باشد تا بر چالش‌های انقلابی و اجتناب ناپذیر آینده هوش مصنوعی غلبه کنیم.


*MAD: آموزه‌ای در راهبرد نظامی و سیاست امنیت ملی است که بنا بر آن استفاده همه جانبه از سلاح‌های پرقدرت کشتارجمعی توسط دو یا چند دولت متخاصم منجر به نابودی کامل هم مهاجم و هم مدافع خواهد شد.

 

 

منبع فارین افیرز
مطالب مرتبط
ارسال یک پاسخ

نشانی رایانامه‌ی شما منتشر نخواهد شد.