Web Analytics Made Easy - Statcounter

ظاهرا مقامات معتقدندکه تنها چیزی که ضعف ارتش آمریکا را در برابر قدرت نظامی متعارف و بزرگی ارتش خلق چین، در درگیری نظامی محتمل آینده، جبران خواهد کرد، توسعه‌ی بی‌وقفه‌ی تسلیحات هوش‌مصنوعی است.

به گزارش سرویس جهان مشرق، نشریه‌ی آمریکایی «THE NATION»، در مقاله‌ای به تاریخ 6 دسامبر، نسبت به ذهنیت و روند موجود در دولت آمریکا، به ویژه در پنتاگون، برای توسعه‌ی شتابناک تسلیحات خودگردان مبتنی بر هوش مصنوعی، هشدار داد.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

به نوشته‌ی این مقاله، مقامات وزارت دفاع به جد معتقدند تنها چیزی که کمبود و ضعف ارتش آمریکا را در برابر قدرت نظامی متعارف و حجم و بزرگی ارتش خلق چین، در درگیری نظامی بسیار محتمل آینده، جبران خواهد کرد، توسعه‌ی بی‌وقفه‌ی تسلیحات خودگردان هوش‌مصنوعی است، از این رو، پنتاگون عملا بدون توجه به دغدغه‌های جدی متخصصان امر درباره خطرات عمیق و پردامنه‌ی این حوزه، در حال توسعه‌ی این نوع تسلیحات است، روندی که به عقیده‌ی نویسندگان، می تواند فاجعه‌ای به بزرگی انقراض تمدن بشری را رقم بزند.

«شتاب پنتاگون در به کارگیری تسلیحات مبتنی بر هوش مصنوعی می رود که همه‌ی ما را به کشتن بدهد»

نمایش اخیر اتاق هیئت مدیره بر سر رهبری OpenAI - استارت‌آپ فناوری مستقر در سانفرانسیسکو که پشت برنامه کامپیوتری بسیار محبوب ChatGPT قرار دارد - به عنوان یک جنگ قدرت شرکتی، یک درگیری شخصیتی مبتنی بر جاه‌طلبی و یک مناقشه استراتژیک بر سر انتشار نسخه‌های دیگری از ChatGPT و...توصیف شد. همه این‌ها، و بیشتر از این‌ها، بود، اما در بطن خود، نشان‌دهنده یک جدال تلخِ غیرمعمول بین آن دسته از مقامات شرکتی بود که طرفدار تحقیقات نامحدود در مورد اشکال پیشرفته هوش مصنوعی (AI) هستند و کسانی که از ترس نتایج بالقوه فاجعه بار چنین تلاش هایی، به دنبال راهی برای کاهش سرعت توسعه هوش مصنوعی می گردند.

تقریباً همزمان با شروع این جدال نمادین و تاریخی در هیات مدیره‌ی OpenAI، جدال مشابهی در سازمان ملل متحد در نیویورک و دفاتر دولتی در واشنگتن دی سی بر سر توسعه سیستم‌های تسلیحاتی خودگردان– یعنی کشتی‌های بدون سرنشین، هواپیماها و تانک‌های هدایت‌شونده با هوش‌مصنوعی- در جریان بود. در این رقابت، ائتلاف گسترده‌ای از دیپلمات ها و فعالان حقوق بشر به دنبال اِعمال ممنوعیت‌های الزام‌آور قانونی برای چنین وسایلی - که توسط مخالفان "روبات های قاتل" نامیده می شوند- هستند. این در حالی است که مقامات وزارت خارجه و دفاع ایالات متحده برای توسعه سریع آن‌ها استدلال می کنند.

در هر دو دسته از اختلافات، دیدگاه‌های رقیب بر سر قابل‌اعتمادبودن اشکال پیشرفته‌ی هوش مصنوعی، به ویژه "مدل‌های زبان بزرگ" مورد استفاده در سیستم‌های "هوش مصنوعی مولد" مانند ChatGPT مطرح است. (برنامه هایی از این دست «تولید کننده» نامیده می شوند زیرا می توانند متن یا تصاویر با کیفیت انسانی را بر اساس تجزیه و تحلیل آماری داده‌های جمع آوری شده از اینترنت ایجاد کنند). کسانی که طرفدار توسعه و کاربرد هوش مصنوعی پیشرفته - چه در بخش خصوصی و چه در ارتش - هستند، ادعا می‌کنند که چنین سیستم‌هایی را می‌توان با خیال راحت توسعه داد. کسانی که در برابر چنین اقدامی هشدار می دهند، می گویند که حداقل بدون تدابیر اساسی نمی توان چنین توسعه‌ای را صورت داد.

بدون پرداختن به جزئیات درام هیات‌مدیره‌ی OpenAI - که فعلاً در 21 نوامبر با انتصاب اعضای جدید هیئت مدیره و بازگشت سام آلتمن، مشهور به جادوگر هوش مصنوعی به عنوان مدیر اجرایی پس از برکناری پنج روز پیش‌تر او به پایان رسید - بدیهی است که این بحران به دلیل نگرانی اعضای هیئت مدیره اولیه ایجاد شد، یعنی این نگرانی که آلتمن و کارکنانش، علی‌رغم تعهدات قبلی خود مبنی بر احتیاط بیشتر، برعکس با شیب تند و سرعت بالا در جهت توسعه شتابناک هوش مصنوعی حرکت کردند.

از منظر آلتمن و بسیاری از همکارانش، تکنسین‌های انسانی در آستانه ایجاد «هوش مصنوعی عام» یا «اَبَر-هوش» هستند – برنامه‌های هوش مصنوعیِ به قدری قدرتمند که می توانند تمام جنبه‌های شناخت انسان را تقلید نمایند، خودشان برنامه ریزی کنند و برنامه نویسی انسان را غیرضروری بسازند. ادعا می‌شود که چنین سیستم‌هایی می‌توانند اکثر بیماری‌های انسانی را درمان کنند و معجزات مفید دیگری را انجام دهند – اما ناظرانی که این اندازه خوش‌بین نیستند، هشدار می‌دهند که با این روند توسعه‌ی عجولانه‌ی هوش مصنوعی، اکثر مشاغل انسانی حذف خواهند شد و در نهایت ممکن است خود انسان‌ها نیز از صحنه خارج شوند.

آلتمن و معاونان ارشدش در ماه مه نوشتند:

«از نظر جنبه‌های مثبت و منفی بالقوه، ابر-هوش قوی‌تر از سایر فناوری‌هایی است که بشر در گذشته مجبور به مبارزه با آن‌ها بوده است». ما می‌توانیم آینده‌ای، به نحوی چشمگیر، مرفه‌تر داشته باشیم. اما برای رسیدن به آن باید ریسک را مدیریت کنیم.»

از نظر آلتمن، مانند بسیاری دیگر از فعالان در زمینه‌ی هوش مصنوعی، این خطر یک بعد «وجودی» دارد که دربردارنده‌ی تهدید فروپاشی احتمالی تمدن بشری و در نهایت، انقراض انسانی است. او در جلسه استماع سنا در 16 مِی گفت: «من فکر می‌کنم اگر این فناوری اشتباه پیش برود، می‌تواند اشتباه از نوع محض و کامل باشد." او همچنین نامه‌ای سرگشاده از سوی «مرکز ایمنی هوش مصنوعی» را امضا کرد که در آن به خطر بالقوه‌ی انقراض نوع بشر اذعان شده بود و تاکید شد که که کاهش این خطر "باید یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی مانند بیماری های همه گیر و جنگ هسته‌ای باشد."

با این وجود، آلتمن و دیگر مقامات ارشد هوش مصنوعی بر این باورند که تا زمانی که حفاظت‌های کافی در این راه پیش‌بینی و تعبیه شده باشد، می‌توان و باید به دنبال آن بود. او به کمیته فرعی سنا برای حریم خصوصی، فناوری و قانون گفت: "ما معتقدیم که مزایای ابزارهایی که تاکنون به کار گرفته‌ایم، بسیار بیشتر از خطرات است، اما اطمینان از ایمنی آن‌ها برای کار ما حیاتی است."

محاسبات مشابهی در مورد بهره برداری از هوش مصنوعی پیشرفته بر دیدگاه مقامات ارشد وزارت خارجه و دفاع حاکم است، آن‌ها استدلال می کنند که هوش مصنوعی می تواند و باید برای به کارگیری سیستم های تسلیحاتی آینده مورد استفاده قرار گیرد - تا زمانی که این کار به شیوه‌ای"مسئولانه" انجام شود.

بانی جنکینز، معاون وزیر امور خارجه در امور کنترل تسلیحات و عدم اشاعه، در یک سخنرانی در سازمان ملل در 13 نوامبر اعلام کرد:

«ما نمی‌توانیم پیش‌بینی کنیم که فناوری‌های هوش مصنوعی چگونه تکامل می‌یابند یا در یک یا پنج سال آینده چه توانایی‌هایی دارند.» با این وجود، او خاطرنشان کرد، ایالات متحده مصمم است «سیاست‌های لازم را اعمال و ظرفیت‌های فنی را ایجاد کند تا توسعه و استفاده مسئولانه [از هوش مصنوعی توسط ارتش] صرف‌نظر از پیشرفت‌های فناوری امکان‌پذیر باشد».

جنکینز در آن روز در سازمان ملل بود تا از «اعلامیه سیاسی استفاده نظامی مسئولانه از هوش مصنوعی و خودمختاری» رونمایی کند، یک فراخوان الهام‌گرفته از ایالات متحده برای محدودیت داوطلبانه در توسعه و استقرار تسلیحات خودگردان مجهز به هوش مصنوعی. این بیانیه، از جمله، متذکر می‌شود که «دولت‌ها باید اطمینان حاصل کنند که ایمنی، امنیت و اثربخشی قابلیت‌های هوش مصنوعی نظامی تحت آزمایش‌های مناسب و دقیق قرار می‌گیرد» و «دولت‌ها باید پادمان‌های مناسب را برای کاهش خطرات ناشی از شکست در هوش مصنوعی نظامی اعمال کنند. قابلیت‌هایی مانند توانایی غیرفعال کردن سیستم‌های مستقر شده، زمانی که چنین سیستم‌هایی رفتار ناخواسته نشان می‌دهند.»

با این حال، هیچ یک از اینها، الزام قانونی برای کشورهای امضاکننده اعلامیه نیست. بلکه صرفاً دربرگیرنده‌ی تعهد به مجموعه‌ای از بهترین شیوه‌ها است، بدون نیاز به نشان دادن انطباق با آن اقدامات یا خطر مجازات در صورت عدم رعایت آن.

اگرچه چندین ده کشور - عمدتاً متحدان نزدیک ایالات متحده - این بیانیه را امضا کرده اند، بسیاری از کشورها از جمله اتریش، برزیل، شیلی، مکزیک، نیوزیلند و اسپانیا اصرار دارند که مطابقت داوطلبانه با مجموعه‌ای از استانداردهای طراحی شده توسط ایالات متحده برای محافظت در برابر خطرات ناشی از استقرار سلاح‌های مجهز به هوش مصنوعی کافی نیست. در عوض، آن‌ها به دنبال یک ابزار الزام‌آور قانونی هستند که محدودیت‌های سختی را برای استفاده از چنین سیستم‌هایی تعیین کند یا آن‌ها را به طور کلی ممنوع کند. برای این بازیگران، خطر "سرکش شدن" این گونه سلاح ها، و انجام حملات غیرمجاز علیه غیرنظامیان، آشکارا بیش از آن بزرگ است که اجازه استفاده از آن‌ها در نبرد را بدهد.

الکساندر کمنت، مذاکره کننده ارشد اتریش در زمینه خلع سلاح، کنترل تسلیحات و عدم اشاعه، به The Nation گفت:

«زمانی که تصمیم گیری در مورد زندگی و مرگ انسان‌ها، دیگر توسط خود انسان‌ها گرفته نمی شود، بلکه بر اساس الگوریتم‌های از پیش برنامه‌ریزی شده اتخاذ می شود، به این معنی است که بشریت در شُرُف عبور از آستانه‌ی مهمی است. این موضوع، مسائل اخلاقی بنیادین را مطرح می کند.»

برای سال‌ها، اتریش و تعدادی از کشورهای آمریکای لاتین در پی اعمال ممنوعیت این گونه سلاح‌ها تحت حمایت کنوانسیون سلاح‌های متعارف معیّن (CCW) و معاهده 1980 سازمان ملل متحد هستند که هدف آن محدود کردن یا ممنوع کردن سلاح‌هایی است که به نظر می‌رسد باعث وارد آمدن رنج غیرضروری به جنگجویان یا تحت تأثیر قرارگرفتن غیرنظامیان به طور بی رویه می‌شوند. این کشورها به همراه کمیته بین‌المللی صلیب سرخ و سایر سازمان‌های غیردولتی ادعا می‌کنند که سلاح‌های کاملاً خودمختار در این دسته قرار می‌گیرند، زیرا ثابت می‌کنند که قادر به تمایز بین جنگجویان و غیرنظامیان در گرماگرم نبرد، آن‌طور که در قوانین بین‌الملل الزامی است، نیستند. اگرچه به نظر می‌رسد اکثر طرف‌های عضو CCW با این دیدگاه موافق هستند و از کنترل‌های شدید بر سلاح‌های خودمختار حمایت می‌کنند، تصمیمات کشورهای امضاکننده با اجماع اتخاذ می‌شود و تعداد معدودی از کشورها از جمله اسرائیل، روسیه و ایالات متحده از حق وتوی خود استفاده کرده‌اند. برای جلوگیری از اتخاذ چنین اقدامی. این به نوبه خود، طرفداران مقررات محدودکننده را به سمت استفاده از ظرفیت مجمع عمومی سازمان ملل متحد سوق داده است - جایی که تصمیمات با اکثریت آرا به جای اجماع اتخاذ می شود.

در 12 اکتبر سال جاری، برای اولین بار، اولین کمیته مجمع عمومی - مسئول صلح، امنیت بین‌المللی و خلع سلاح - به خطرات ناشی از تسلیحات خودمختار، با اکثریت گسترده - 164 رای موافق در برابر 5 (با 8 رای ممتنع) – مصوبه‌ای را از تایید گذراند که دبیرکل سازمان ملل را ملزم می سازد تا مطالعه جامعی در این زمینه انجام دهد. این مطالعه که قرار است به موقع برای نشست بعدی مجمع عمومی (در پاییز 2024) تکمیل شود، برای بررسی «چالش‌ها و نگرانی‌هایی» است که چنین سلاح‌هایی «از چشم‌اندازهای بشردوستانه، حقوقی، امنیتی، فناوری و اخلاقی و همچنین در میزان نقش‌آفرینی انسان در استفاده از زور» ایجاد می کنند.

اگرچه اقدام سازمان ملل هیچ گونه محدودیت الزام‌آور برای توسعه یا استفاده از سیستم‌های تسلیحاتی خود مختار اعمال نمی‌کند، اما با شناسایی طیفی از نگرانی‌ها در مورد استقرار آن‌ها زمینه را برای اتخاذ چنین اقداماتی در آینده فراهم می‌کند. به ویژه این که، این مصوبه با تأکید بر این که دبیرکل، هنگام تهیه‌ی گزارش مورد نیاز، این خطرات را با جزئیات و با استفسار نظرات دانشمندان و سازمان های جامعه مدنی صورت‌بندی کند، گام قابل قبولی محسوب می شود.

سفیر کیمنت خاطرنشان کرد:

«هدف بدیهی ما این است که در سامان‌دهی به سیستم‌های تسلیحاتی خودمختار، رو به جلو حرکت کنیم. این قطعنامه روشن می کند که اکثریت قاطع کشورها می خواهند با فوریت به این موضوع رسیدگی شود.»

با این حال، برای مقامات وزارت دفاع آمریکا، ظاهرا این موضوع تا حد زیادی حل شده است: ایالات متحده به توسعه و استقرار سریع انواع متعددی از سامانه‌های تسلیحاتی خودمختار مجهز به هوش مصنوعی ادامه خواهد داد. این امر در 28 آگوست با اعلام ابتکار عمل "Replicator" توسط کاتلین هیکس، معاون وزیر دفاع، آشکار شد.

با اشاره به اینکه ایالات متحده باید برای جنگ احتمالی با ارتش آزادیبخش خلق چین (PLA) در آینده ای نه چندان دور آماده شود و نیروهای آمریکایی نمی توانند در برابر موجودی‌های تسلیحاتی ارتش آزادیبخش خلق چین، به صورت اقلام به اقلام (تانک در برابر تانک، کشتی در مقابل کشتی، و غیره) موازنه ایجاد کنند، هیکس استدلال کرد که ایالات متحده باید آماده غلبه بر برتری چین در اقدامات متعارف قدرت - "انبوهه‌ی نظامی" آن – از طریق استقرار "چندین هزار" از تسلیحات خودمختار باشد.

او در جلسه انجمن صنایع دفاع ملی به مدیران شرکت گفت:

«برای این که جلوتر بمانیم، می‌خواهیم وضعیت جدیدی از هنر{رزم} ایجاد کنیم - درست همانطور که آمریکا قبلاً ایجاد کرده است - با استفاده از سیستم‌های قابل‌جایگزین[یعنی یکبار مصرف] و خودمختار در همه حوزه‌ها. در واشنگتن ما با توده‌های نیروهای ارتش خلق چین مقابله خواهیم کرد، اما برنامه‌ریزی برای ما سخت‌تر، ضربه زدن سخت‌تر و شکست دادن سخت‌تر خواهد بود.»

هیکس در سخنرانی بعدی خود که در 6 سپتامبر ایراد شد، جزئیات (کمی) بیشتری در مورد آنچه که سامانه‌های تسلیحاتی خودگردان جایگزین‌پذیر جامع(ADA2) نامید، ارائه کرد:

«تصور کنید غلاف‌های توزیع‌شده از سیستم‌های ADA2 خودکششی بر سطح آب شناور هستند... مملو از حسگرهای فراوان…. ناوگانی از سیستم‌های ADA2 زمین‌پایه را تصور کنید که پشتیبانی لجستیکی بدیعی را ارائه می دهند و برای ایمن نگه‌داشتن نیروها پیشروی می‌کنند. دسته‌هایی از سیستم‌های [هوایی] ADA2 را تصور کنید که در انواع ارتفاعات پرواز می‌کنند، طیف وسیعی از ماموریت‌ها را انجام می‌دهند و بر اساس آنچه در اوکراین دیده‌ایم، ساخته می‌شوند.»

طبق دستورالعمل رسمی، هیکس مدعی شد که همه این سیستم‌ها «در راستای رویکرد مسئولانه و اخلاقی ما نسبت به هوش مصنوعی و سیستم‌های خودمختار، توسعه داده خواهند شد.» اما به جز آن اشاره تک خطی به ایمنی، تمام تاکید در گفتگوهای او بر شکستن گلوگاه های بوروکراتیک به منظور سرعت بخشیدن به توسعه و استقرار سلاح های خودمختار بود. او در 28 آگوست اعلام کرد: «اگر [این تنگناها] برطرف نشود، دنده‌های ما همچنان بسیار آهسته می‌چرخند و موتورهای نوآوری ما هنوز با سرعت و مقیاسی که ما نیاز داریم، کار نمی‌کنند. و ما نمی توانیم از آن {روند} تبعیت کنیم.»

و بنابراین، قدرت‌های موجود - هم در سیلیکون ولی(مرکز فناوری‌های نوین در آمریکا) و هم در واشنگتن - تصمیم گرفته‌اند با وجود هشدارهای دانشمندان و دیپلمات‌ها مبنی بر این که نمی‌توان از ایمنی این برنامه‌ها اطمینان حاصل کرد، به توسعه و استفاده از نسخه‌های پیشرفته‌تر هوش مصنوعی ادامه دهند، سامانه‌های که استفاده نادرست از آن‌ها می تواند عواقب فاجعه‌باری داشته باشد، فاجعه‌ای در حد انقراض بشر.

منبع: مشرق

کلیدواژه: تحلیل روز طوفان الاقصی قیمت پنتاگون سازمان ملل تسلیحات خودگردان هوش مصنوعی انقراض بشری ارتش آمریکا خودرو قیمت های روز در یک نگاه حوادث سلامت سیستم های تسلیحاتی تسلیحاتی خود هوش مصنوعی ایالات متحده ی هوش مصنوعی سازمان ملل برای توسعه ی تسلیحات توسعه ی ی نظامی خلق چین سلاح ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.mashreghnews.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «مشرق» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۳۴۲۷۲۹ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

ایران رتبه ۱۷ هوش مصنوعی را در جهان دارد

معاون علمی، فناوری واقتصاد دانش بنیان رییس جمهوری از رتبه هفدهم ایران در زمینه هوش مصنوعی در جهان خبر داد. - اخبار اجتماعی -

به گزارش خبرنگار اجتماعی خبرگزاری تسنیم، نشست خبری سالیانه دکتر روح الله دهقانی معاون علمی، فناوری واقتصاد دانش بنیان رییس جمهوری در محل معاونت علمی برگزار شد.

دکتر دهقانی در ابتدای این نشست خبری اظهار کرد: سال گذشته یک گفتگوها و تعاملات زیادی انجام شد تا یک مرکز ملی توسعه هوش مصنوعی و شورای راهبری هوش مصنوعی تشکیل شود.  ما مدل های مختلفی را از کشورهای دیگر بررسی کردیم و با ده‌ها ساعت جلسه توسط متخصصان حوزه هوش مصنوعی به این نتیجه رسیدیم که مرکز ملی هوش مصنوعی داشته باشیم که شامل نظارت،‌ تنظیم‌گری و ... است.

وی گفت: در اسفندماه سال گذشته مرکز ملی هوش مصنوعی تأسیس شد و اعضای شورای ملی راهبری هوش مصنوعی معرفی شدند. و جلسات متعددی با سرمایه‌گذاران دولتی و صندوق های بزرگ کشور انجام شد و یک صندوق توسعه هوش مصنوعی تشکیل شد و این صندوق با سرمایه‌گذاری 10 هزار میلیاردی برنامه‌ریزی شد.

دهقانی ادامه داد: کارهای عملیاتی زیادی انجام شده و یک مرکز ملی در نخستین گام یک اپراتور هوش مصنوعی بالا بیاورد که خدمات مختلفی از جمله دیتاسنتر بزرگ و کتابخانه‌های زبان تصویری ارایه می‌کند.

معاون علمی رییس جمهور گفت: ما از نظر دانش فنی و تولید مقالات علمی رتبه 17 را داریم اما در حوزه کاربردها رتبه 70 یا 80 را دارد که به خاطر نبود زیرساخت‌ها است.

وی ادامه داد: این مرکز زیر نظر ریاست جمهوری تشکیل می‌شود. معاونت علمی وظیفه حمایت از توسعه فناوری را دار. ستاد توسعه فناوری‌های هوش مصنوعی وظیفه حمایت از هوش مصنوعی را دارد.

نقش‌آفرینی "مراکز نوآوری" در حفظ قانون جهش دانش‌بنیان

دهقانی گفت: امسال تا آخر سال به چندصد GPU دسترسی پیدا می‌کنیم البته بحث های تحریمی شدیدی در این موضوع وجود دارد و ما نیز از همه دانشگاه‌ها و اساتید دعوت می‌کنیم تا در اینجا شرکت کنند.

انتهای پیام/

دیگر خبرها

  • پایش سطح زیر کشت محصولات کشاورزی با استفاده از داده های فضایی
  • راه‌اندازی اپراتور هوش مصنوعی در کشور / GPU هایتان را با اپراتور به اشتراک بگذارید
  • تحول در هوش مصنوعی در کشور با ایجاد اپراتور اختصاصی
  • ۳ خدمت اصلی اپراتور هوش مصنوعی/ دسترسی به چند صد GPU در سال ۱۴۰۳
  • ایران رتبه ۱۷ هوش مصنوعی را در جهان دارد
  • برنامه‌نویسی، زندگی را هدایت می‌کند | گفت‌وگوی همشهری با مخترع زبان برنامه‌نویسی روبی
  • بسته تسلیحاتی 6 میلیارد دلاری آمریکا در مسیر اوکراین
  • پروژه مشترک آلمان و فرانسه برای تولید تانک‌های مدرن
  • چرا ربات‌ها و هوش مصنوعی هنوز به گرد پای حیوانات نرسیده‌اند؟
  • اعتراف معاون پنتاگون به شکست تسلیحات ارسال شده آمریکا به اوکراین