به گزارش «فاواپرس»، سامسونگ الکترونیک روز چهارشنبه گفت که حافظه با پهنای باند بالا (HBM) را با قدرت پردازش هوش مصنوعی ادغام کرده است. این شرکت ادعا کرده که معماری جدید عملکرد سیستم های هوش مصنوعی را دو برابر خواهد کرد.
معماری پردازش جدید در حافظه(PIM) موتورهای هوش مصنوعی را به HBM2 Aquabolt سامسونگ اضافه می کند که اولین بار در سال ۲۰۱۸ راه اندازی شد.
سامسونگ ادعا کرد این تراشه که HBM-PIM نامیده می شود، عملکرد سیستم های هوش مصنوعی را دو برابر می کند در حالی که در مقایسه با HBM2 معمولی مصرف برق را بیش از ۷۰درصد کاهش می دهد.
غول فناوری کره جنوبی توضیح داد که این امکان وجود دارد زیرا نصب موتورهای هوش مصنوعی در داخل هر حافظه پردازشی را به حداکثر می رساند در حالی که حرکت داده ها را به حداقل می رساند. سامسونگ با ارائه این عملکرد بهبود یافته گفت که انتظار دارد این تراشه جدید پردازش در مقیاس بزرگ را در مراکز داده، سیستم های محاسباتی با عملکرد بالا و برنامه های تلفن همراه با هوش مصنوعی تسریع کند.
سامسونگ افزود HBM-PIM از همان رابط HBM استفاده می کند، این بدان معناست که مشتریان برای اعمال تراشه در سیستم های موجود خود مجبور به تغییر هیچ سخت افزار و نرم افزاری نخواهند بود.
این تراشه در حال حاضر در داخل شتاب دهنده های هوش مصنوعی مشتریانی قرار خواهد گرفت که در نیمه اول سال تکمیل شود. سامسونگ همچنین در حال کار با مشتریان برای ساخت یک اکوسیستم و استاندارد سازی پلتفرم است.
مقاله این شرکت در مورد تراشه در کنفرانس بین المللی « virtual International Solid-State Circuits» هفته آینده ارائه می شود.