کد مطلب: ۹۳۱۲۰۵
|
|
۰۸ آبان ۱۴۰۴ - ۱۲:۰۶

کارایی پردازش مدل‌های زایا با این شتابنده‌ها افزایش می‌یابد!

کارایی پردازش مدل‌های زایا با این شتابنده‌ها افزایش می‌یابد!
کوالکام با معرفی دو شتاب‌دهنده هوش مصنوعی جدید خود، AI ۲۰۰ و AI ۲۵۰، وعده داد سرعت و کارایی پردازش مدل‌های زایا را در مراکز داده تا ۱۰ برابر افزایش دهد.

به گزارش مجله خبری نگار/برنا،تراشه‌های جدید کوالکام با ۱۰ برابر پهنای باند و ۷۶۸ گیگابایت حافظه، آینده پردازش هوش مصنوعی در مراکز داده را متحول می‌کنند.

به گزارش نیواطلس، کوالکام با معرفی شتاب‌دهنده‌های جدید هوش مصنوعی خود با نام‌های AI ۲۰۰ و AI ۲۵۰، گامی بزرگ در جهت افزایش سرعت، بهره‌وری و مقیاس‌پذیری پردازش مدل‌های زایا (Generative AI) در مراکز داده برداشته است.

این تراشه‌ها که بر پایه فناوری واحد پردازش عصبی (NPU) کوالکام طراحی شده‌اند، عملکردی در مقیاس رک (Rack-scale) با ظرفیت حافظه بسیار بالا ارائه می‌دهند. هدف اصلی کوالکام از این محصول، فراهم کردن امکان اجرای سریع و کم‌هزینه مدل‌های هوش مصنوعی زایا با حداکثر بهره‌وری انرژی و هزینه است معیاری کلیدی در زیرساخت‌های مدرن هوش مصنوعی.

قدرت در مقیاس انبوه

مدل AI ۲۰۰ به‌طور ویژه برای پردازش مدل‌های زبانی بزرگ و چندوجهی طراحی شده و هر کارت آن از ۷۶۸ گیگابایت حافظه LPDDR پشتیبانی می‌کند که امکان مقیاس‌پذیری بالا و انعطاف در پردازش حجم عظیمی از داده‌ها را فراهم می‌سازد.

در مقابل، مدل AI ۲۵۰ با معماری جدید «محاسبه نزدیک به حافظه» (Near-Memory Computing) عرضه می‌شود که به گفته کوالکام، بیش از ۱۰ برابر پهنای باند مؤثر حافظه بیشتر و مصرف انرژی کمتر دارد. این نوآوری باعث می‌شود سخت‌افزار‌ها به‌صورت بهینه‌تر و با هزینه کمتر مورد استفاده قرار گیرند.

هر دو سیستم از خنک‌کننده مایع مستقیم برای کارایی حرارتی بالا و رابط‌های PCIe و Ethernet برای مقیاس‌پذیری بیشتر بهره می‌برند. توان مصرفی در سطح رک حدود ۱۶۰ کیلووات است، که نشان‌دهنده عملکردی در سطح زیرساخت‌های ابرمقیاس با تمرکز بر پایداری و بهینه‌سازی عملیاتی است.

یکپارچگی نرم‌افزاری و سازگاری گسترده

«در کوالکام با سری AI ۲۰۰ و AI ۲۵۰، تعریف تازه‌ای از توان پردازش هوش مصنوعی در مقیاس رک ارائه کرده‌ایم»،

«دورگا مالادی»، معاون ارشد کوالکام در حوزه فناوری لبه و مراکز داده گفت. او افزود این زیرساخت جدید، اجرای مدل‌های هوش مصنوعی زایا را با هزینه کل مالکیت (TCO) بی‌سابقه‌ای ممکن می‌سازد.

این پلتفرم با پشتیبانی از اکوسیستم باز نرم‌افزاری کوالکام، امکان ادغام آسان مدل‌های از پیش آموزش‌دیده، مدیریت مقیاس‌پذیر و استقرار یک‌کلیکی را فراهم می‌کند. همچنین از کتابخانه «Efficient Transformers» و مجموعه ابزار «AI Inference Suite» پشتیبانی می‌کند تا توسعه‌دهندگان بتوانند مدل‌های خود را مستقیماً از پلتفرم‌هایی مانند Hugging Face بارگذاری کنند.

نقشه راه آینده

کوالکام اعلام کرد مدل AI ۲۰۰ در سال ۲۰۲۶ و مدل پیشرفته‌تر AI ۲۵۰ در ۲۰۲۷ به بازار عرضه خواهند شد. این شرکت قصد دارد هر سال نسل جدیدی از محصولات مرکز داده خود را معرفی کند که بر افزایش کارایی، بهره‌وری انرژی و بهبود مستمر در استنتاج هوش مصنوعی (AI Inference) تمرکز دارند.

برچسب ها: تراشه هوش مصنوعی
ارسال نظرات
قوانین ارسال نظر