تکنولوژی

OpenAI خرید تراشه‌های Nvidia را متوقف می‌کند

اکوایران: نارضایتی OpenAI از سرعت برخی تراشه‌های انویدیا در مرحله پاسخ‌گویی مدل‌های هوش مصنوعی، این شرکت را به سمت بررسی گزینه‌های جایگزین سوق داده؛ تحولی که می‌تواند توازن قدرت در بازار تراشه‌های هوش مصنوعی را تغییر دهد.

به گزارش اکوایران- به نقل از رویترز، اخیرا ۸ منبع مطلع گفته اند که شرکت هوش مصنوعی OpenAI از عملکرد برخی از تراشه‌های جدید Nvidia رضایت کامل ندارد و از سال گذشته به‌طور جدی به‌دنبال گزینه‌های جایگزین بوده است. این تحول می‌تواند روابط میان دو بازیگر اصلی و اثرگذار در رونق فعلی صنعت هوش مصنوعی را وارد مرحله‌ای پیچیده‌تر کند.

سرعت پاسخ مدل، چالش جدید OpenAI

این تغییر در رویکرد راهبردی سازنده ChatGPT، که جزئیات آن برای نخستین‌بار در این گزارش منتشر می‌شود، به اهمیت روزافزون تراشه‌های تخصصی در مرحله «استنتاج» (Inference) هوش مصنوعی بازمی‌گردد. استنتاج به آخرین بخش از فرآیند کار با مدل گفته می‌شود که در آن مدل‌های هوش مصنوعی به پرسش‌ها و درخواست‌های کاربران پاسخ می‌دهند. در حالیکه Nvidia همچنان جایگاه مسلط خود را در بازار تراشه‌های اختصاصی مورد استفاده برای آموزش مدل‌های بزرگ حفظ کرده، بخش استنتاج به حوزه‌ای تازه برای رقابت میان شرکت‌ها تبدیل شده است.

تصمیم OpenAI و برخی دیگر از شرکت‌ها برای بررسی گزینه‌های جایگزین در تأمین تراشه‌های مورد استفاده در مرحله پاسخ‌گویی مدل‌ها، چالشی جدی برای سلطه Nvidia در صنعت هوش مصنوعی به شمار می‌رود؛ آن هم در شرایطی که دو شرکت هم‌زمان در حال مذاکره درباره یک سرمایه‌گذاری بزرگ هستند.

Nvidia در ماه سپتامبر اعلام کرد که قصد دارد تا سقف ۱۰۰ میلیارد دلار در OpenAI سرمایه‌گذاری کند. بر اساس این طرح، Nvidia در ازای دریافت بخشی از سهام OpenAI، منابع مالی لازم برای خرید تراشه‌های پیشرفته را در اختیار این شرکت قرار می‌داد. انتظار می‌رفت این توافق ظرف چند هفته نهایی شود، اما روند مذاکرات ماه‌ها طول کشیده است. در این فاصله، OpenAI با شرکت‌هایی از جمله AMD (شرکت فعال در حوزه نیمه‌هادی‌ها) قراردادهایی برای استفاده از پردازنده‌های گرافیکی که به‌عنوان رقیب محصولات انویدیا شناخته می‌شون، امضا کرده است.

با این حال، به گفته یکی از منابع آگاه، تغییر در برنامه‌های توسعه محصولات OpenAI باعث شده نیازهای محاسباتی این شرکت نیز تغییر کند؛ موضوعی که روند مذاکرات با Nvidia را کندتر و پیچیده‌تر کرده است.

در واکنشی غیررسمی، مدیرعامل انویدیا اخیرا نقل‌قول‌ها درباره وجود تنش با OpenAI را رد کرد و این ادعاها را نادرست دانست. او تأکید کرد که Nvidia همچنان برنامه‌ای جدی برای سرمایه‌گذاری گسترده در OpenAI دارد. Nvidia  همچنین در بیانیه‌ای رسمی اعلام کرد: «مشتریان همچنان محصولات Nvidia را برای پردازش انتخاب می‌کنند، زیرا ما بهترین عملکرد و مقرون‌به‌صرفه‌ترین راه‌حل را در مقیاس بزرگ ارائه می‌دهیم.»

در مقابل، سخنگوی OpenAI در بیانیه‌ای جداگانه گفت که این شرکت برای تأمین توان بخش عمده‌ای از زیرساخت پردازشی مربوط به پاسخ‌گویی مدل‌های خود همچنان به Nvidia وابسته است و محصولات این شرکت از نظر کارایی در برابر هزینه، بهترین بازده را ارائه می‌کنند.

پس از انتشار گزارش رویترز، Sam Altman، مدیرعامل OpenAI، در پستی در شبکه اجتماعی X تأکید کرد که Nvidia «بهترین تراشه‌های هوش مصنوعی جهان» را تولید می‌کند و ابراز امیدواری کرد که OpenAI «برای مدت بسیار طولانی، یکی از بزرگ‌ترین مشتریان این شرکت باقی بماند».

با این حال، هفت منبع آگاه گفته‌اند که OpenAI از سرعت سخت‌افزارهای Nvidia در پاسخ‌گویی به کاربران ChatGPT برای برخی کاربردهای خاص، از جمله توسعه نرم‌افزار و ارتباط هوش مصنوعی با دیگر سامانه‌های نرم‌افزاری، رضایت ندارد. یکی از این منابع به رویترز گفته است که OpenAI به سخت‌افزار جدیدی نیاز دارد که بتواند حدود ۱۰ درصد از نیازهای آینده این شرکت در حوزه پردازش مرحله استنتاج را پوشش دهد.

بر اساس گفته‌های دو منبع مطلع، سازنده ChatGPT گفت‌وگوهایی را با چند استارت‌آپ، از جمله Cerebras و Groq، با هدف تأمین تراشه‌هایی برای افزایش سرعت فرآیند استنتاج آغاز کرده بود. با این حال، یکی از منابع به رویترز گفت که Nvidia با امضای یک قرارداد اعطای مجوز فناوری به ارزش ۲۰ میلیارد دلار با Groq، عملاً این مذاکرات را متوقف کرد.

کارشناسان صنعت نیمه‌هادی معتقدند تصمیم Nvidia برای واگذاری مجوز فناوری به Groq، تلاشی برای تقویت سبد فناوری این شرکت و حفظ قدرت رقابتی آن در صنعت هوش مصنوعی است؛ صنعتی که با سرعت بالایی در حال تغییر است. Nvidia نیز در بیانیه‌ای اعلام کرده که مالکیت فکری Groq، مکمل مهمی برای نقشه راه محصولات این شرکت به شمار می‌رود.

SRAM؛ برگ برنده تراشه‌های نسل جدید

پردازنده‌های گرافیکی Nvidia برای پردازش حجم بالای داده‌های مورد نیاز در آموزش مدل‌های بزرگ هوش مصنوعی، مانند ChatGPT، بسیار کارآمد هستند؛ مدل‌هایی که تاکنون نقش اصلی را در رشد سریع هوش مصنوعی در سطح جهان داشته‌اند. اما تمرکز تحولات اخیر هوش مصنوعی به‌طور فزاینده‌ای به استفاده از مدل‌های آموزش‌دیده برای «استنتاج» و «استدلال» معطوف شده است؛ مرحله‌ای که می‌تواند بازار بزرگ‌تر و جدیدتری را در این حوزه شکل دهد و همین موضوع، انگیزه OpenAI برای بررسی گزینه‌های جایگزین را افزایش داده است.

جست‌وجوی OpenAI برای یافتن جایگزین‌هایی برای پردازنده‌های گرافیکی از سال گذشته، بیشتر بر شرکت‌هایی متمرکز بوده که تراشه‌هایی با حجم بالای حافظه تعبیه‌شده در داخل خود تراشه، موسوم به SRAM، تولید می‌کنند. افزایش میزان این حافظه پرهزینه در هر تراشه می‌تواند سرعت پردازش درخواست‌ها را بالا ببرد و عملکرد چت‌بات‌ها و دیگر سامانه‌های هوش مصنوعی را در پاسخ‌گویی هم‌زمان به میلیون‌ها کاربر بهبود دهد.

فرآیند استنتاج نسبت به مرحله آموزش، به حافظه بیشتری نیاز دارد، زیرا در این مرحله تراشه زمان بیشتری را صرف دسترسی به داده‌ها می‌کند. فناوری پردازنده‌های گرافیکی Nvidia و AMD به حافظه‌های خارجی متکی است؛ موضوعی که زمان پردازش را افزایش می‌دهد و در نهایت سرعت تعامل کاربران با چت‌بات‌ها را کاهش می‌دهد.

یکی از منابع آگاه گفته است که این محدودیت به‌طور مشخص در محصول «Codex» دیده می‌شود؛ محصول جدید OpenAI که در در کد زدن به برنامه‌نویسان کمک می‌کند و این شرکت به‌طور فعال در حال بازاریابی آن است. به گفته این منبع، برخی کارکنان OpenAI بخشی از ضعف‌های Codex را به سخت‌افزار مبتنی بر پردازنده‌های گرافیکی Nvidia نسبت می‌دهند.

مدیرعامل OpenAI، در تماس تلفنی با خبرنگاران در تاریخ ۳۰ ژانویه گفت مشتریان استفاده‌کننده از مدل‌های کدنویسی این شرکت، «سرعت در فرایند کدنویسی را عامل بسیار مهمی» می‌دانند. او افزود یکی از راه‌های پاسخ به این نیاز، توافق اخیر OpenAI با شرکت Cerebras است و تأکید کرد که سرعت برای کاربران عمومی ChatGPT در اولویت پایین‌تری قرار دارد.

در همین حال، محصولات رقیب مانند «Claude» از شرکت Anthropic و «Gemini» hc از Google، بیش از پیش به زیرساخت‌هایی متکی هستند که از تراشه‌های طراحی‌شده داخلی گوگل، موسوم به واحدهای پردازش تنسور (TPU)، استفاده می‌کنند. این تراشه‌ها به‌طور خاص برای محاسبات مورد نیاز در فرآیند استنتاج طراحی شده‌اند و می‌توانند در این مرحله، نسبت به تراشه‌های عمومی هوش مصنوعی مانند پردازنده‌های گرافیکی Nvidia، عملکرد بهتری ارائه دهند.

واکنش سریع Nvidia به تغییر موازنه بازار

هم‌زمان با مطرح شدن نگرانی‌های OpenAI درباره فناوری Nvidia، این شرکت گفت‌وگوهایی را با سازندگان تراشه‌های مبتنی بر حافظه SRAM، از جمله Cerebras و Groq، درباره امکان خرید احتمالی آن‌ها آغاز کرد. Cerebras این پیشنهاد را نپذیرفت و ماه گذشته یک توافق تجاری با OpenAI امضا کرد.

بر اساس گفته افراد آگاه از مذاکرات، Groq نیز با OpenAI برای تأمین توان محاسباتی وارد گفت‌وگو شد و حتی با استقبال سرمایه‌گذاران برای تأمین مالی در ارزش‌گذاری حدود ۱۴ میلیارد دلار روبه‌رو شد. البته این شرکت از اظهارنظر رسمی در این باره خودداری کرده است.

با این حال، منابع معتبر می‌گویند تا دسامبر گذشته، Nvidia با امضای یک قرارداد غیرانحصاری و تمام‌نقد برای دریافت مجوز فناوری Groq، مسیر فعالیت این استارت‌آپ را تغییر داد. هرچند این قرارداد به دیگر شرکت‌ها نیز اجازه استفاده از فناوری Groq را می‌دهد، اما تمرکز این استارت‌آپ اکنون بر فروش نرم‌افزارهای ابری قرار گرفته است؛ تغییری که پس از پیوستن طراحان تراشه Groq به Nvidia رخ داده است.

به نقل از : اقتصاد خبر

منبع: اکو ایران

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا