Nvidia, yeni Blackwell mimarisi ile yapay zeka çip oyununda bahis oranını artırdı

TAKİP ET

Nvidia, beş yıl aradan sonra ilk kişisel GPU Teknoloji Konferansı'nda (GTC) Pazartesi günü Blackwell GPU mimarisini duyurarak yapay zeka çipleri serisinin gücünü artırıyor.

Nvidia, beş yıl aradan sonra ilk kişisel GPU Teknoloji Konferansı'nda (GTC) Pazartesi günü Blackwell GPU mimarisini duyurarak yapay zeka çipleri serisinin gücünü artırıyor.

Nvidia'ya göre, AWS, Azure ve Google gibi şirketlere güç veren büyük veri merkezlerinde kullanılmak üzere tasarlanan çip, yapay zeka eğitimi iş yüklerinde 4 kat, yapay zekada ise 30 kat daha hızlı olan 20 PetaFLOPS yapay zeka performansı sunuyor. iş yüklerini çıkarsama ve önceki modele göre 25 kata kadar daha fazla güç verimliliği.

Nvidia, selefi H100 "Hopper" ile karşılaştırıldığında B200 Blackwell'in hem daha güçlü hem de enerji açısından daha verimli olduğunu savundu. Örneğin GPT-4 boyutunda bir yapay zeka modelini eğitmek için 8.000 H100 yongası ve 15 megawatt güç gerekiyor. Aynı görev için yalnızca 2.000 B200 yongası ve dört megavatlık güç gerekiyor.

Technalytics Research'ün kurucusu ve baş analisti Bob O'Donnell , haftalık LinkedIn bülteninde "Bu, iki yıl önce Hopper mimarisinin piyasaya sürülmesinden bu yana şirketin çip tasarımındaki ilk büyük ilerlemesi" diye yazdı.

Yeniden Paketleme Alıştırması

Ancak Tayvanlı bir elektronik şirketi olan Phison Electronics'in CTO'su Sebastien Jean , çipi "yeniden paketleme egzersizi" olarak nitelendirdi.

TechNewsWorld'e "Bu iyi ama çığır açıcı değil" dedi. "Daha hızlı çalışacak, daha az güç kullanacak ve daha küçük bir alanda daha fazla bilgi işlem yapılmasına olanak sağlayacak, ancak teknoloji uzmanı perspektifinden bakıldığında, aslında temel hiçbir şeyi değiştirmeden alanı küçülttüler."

"Bu, sonuçlarının rakipleri tarafından kolayca kopyalanabileceği anlamına geliyor" dedi. "Her ne kadar birinci olmanın değeri olsa da, çünkü rakipleriniz yetişirken bir sonraki şeye geçersiniz."

"Rakiplerinizi kalıcı bir yakalama oyununa zorladığınızda, çok güçlü bir liderliğe sahip olmadıkları sürece, farkına varmadan 'hızlı takipçi' zihniyetine düşecekler" dedi.

"Agresif davranarak ve ilk olarak Nvidia, tek gerçek yenilikçiler olduğu fikrini güçlendirebilir ve bu da ürünlerine olan talebin artmasına neden olabilir."

Blackwell bir yeniden paketleme çalışması olsa da, bunun gerçekten net bir faydası olduğunu da ekledi. "Pratik anlamda, Blackwell kullanan kişiler aynı güç ve alan bütçesiyle daha fazla hesaplamayı daha hızlı yapabilecek" diye belirtti. "Bu, Blackwell'e dayalı çözümlerin rakiplerini geride bırakmasına ve daha iyi performans göstermesine olanak tanıyacak."

Geçmişle Fiş Uyumlu

O'Donnell, Blackwell mimarisinin ikinci nesil transformatör motorunun önemli bir ilerleme olduğunu, çünkü AI kayan nokta hesaplamalarını sekiz bitten dört bit'e düşürdüğünü ileri sürdü. "Pratik olarak konuşursak, bu hesaplamaları önceki nesillerdeki 8 bitten aşağıya düşürerek, bu tek değişiklikle Blackwell'de destekleyebilecekleri bilgi işlem performansını ve model boyutlarını iki katına çıkarabilirler" dedi.

Yeni çipler aynı zamanda öncekilerle de uyumlu. Northborough, Massachusetts'te bir BT danışmanlık şirketi olan J.Gold Associates'in kurucusu ve baş analisti Jack E. Gold, "Nvidia'nın H100'lü sistemleri zaten varsa, Blackwell fiş uyumludur" dedi .
TechNewsWorld'e "Teoride H100'lerin fişini çıkarıp Blackwell'leri takabilirsiniz" dedi. “Bunu teorik olarak yapabilseniz de finansal olarak yapamayabilirsiniz.” Örneğin, Nvidia'nın H100 çipinin tanesinin fiyatı 30.000 ile 40.000 dolar arasında. Nvidia yeni AI çip serisinin fiyatını açıklamamış olsa da fiyatlandırma muhtemelen bu doğrultuda olacaktır.

Gold, Blackwell çiplerinin geliştiricilerin daha iyi yapay zeka uygulamaları üretmesine yardımcı olabileceğini ekledi. "Ne kadar çok veri noktasını analiz ederseniz yapay zeka da o kadar iyi olur" diye açıkladı. "Nvidia'nın Blackwell ile bahsettiği şey milyarlarca veri noktasını analiz etmek yerine trilyonları analiz edebilirsiniz."

GTC'de ayrıca Nvidia Inference Microservices (NIM) de duyuruldu. Morningstar Research'ten sermaye stratejisti Brian Colello, "NIM araçları, Nvidia'nın CUDA platformunun üzerine inşa edildi ve işletmelerin özel uygulamaları ve önceden eğitilmiş yapay zeka modellerini üretim ortamlarına getirmesine olanak tanıyacak, bu da bu firmaların pazara yeni yapay zeka ürünleri getirmesine yardımcı olacak" dedi. Chicago'daki Services , Salı günü bir analistin notunda şunu yazdı.

Yapay Zekanın Dağıtılmasına Yardımcı Olmak

“Veri merkezlerine sahip büyük şirketler yeni teknolojileri hızlı bir şekilde benimseyebilir ve bunları daha hızlı devreye alabilir, ancak insanların çoğu yeni teknolojileri satın alacak, özelleştirecek ve dağıtacak kaynaklara sahip olmayan küçük ve orta ölçekli işletmelerde çalışıyor. Küresel bir pazar araştırma şirketi olan IDC'nin yarı iletken analisti Shane Rau, "NIM gibi yeni teknolojiyi benimsemelerine ve daha kolay dağıtmalarına yardımcı olabilecek herhangi bir şey onlara fayda sağlayacaktır" dedi.

TechNewsWorld'e "NIM ile yapmak istediğiniz işe özel modeller bulacaksınız" dedi. “Genel olarak herkes yapay zeka yapmak istemiyor. Özellikle şirketleri veya kuruluşlarıyla alakalı yapay zeka yapmak istiyorlar."

NIM, en yeni donanım tasarımları kadar heyecan verici olmasa da O'Donnell, uzun vadede çeşitli nedenlerden dolayı çok daha önemli olduğunu belirtti.

"Öncelikle" diye yazdı, "şirketlerin GenAI deneylerinden ve POC'lerden (kavramların kanıtlanması) gerçek dünya üretimine geçişini daha hızlı ve daha verimli hale getirmesi gerekiyor. Ortalıkta dolaşacak yeterli veri bilimci ve GenAI programlama uzmanı yok; GenAI'yi uygulamaya istekli pek çok şirket teknik zorluklar nedeniyle sınırlı kaldı. Sonuç olarak Nvidia'nın bu süreci kolaylaştırmaya yardımcı olduğunu görmek harika."

"İkincisi," diye devam etti, "bu yeni mikro hizmetler Nvidia için tamamen yeni bir gelir akışı ve iş stratejisi oluşturulmasına olanak tanıyor çünkü bunlar GPU başına/saat bazında (ve diğer varyasyonlarla) lisanslanabiliyor. Bu, Nvidia için gelir elde etmenin önemli, uzun ömürlü ve daha çeşitli bir yolu olabilir; dolayısıyla ilk günler olmasına rağmen bunu izlemek önemli olacak."

Sağlam Lider

Rau, Nvidia'nın öngörülebilir gelecekte tercih edilen yapay zeka işleme platformu olarak sağlam kalacağını öngördü. "Ancak AMD ve Intel gibi rakipler GPU pazarının mütevazı bir kısmını alabilecekler" dedi. Yapay zeka için kullanabileceğiniz farklı çipler (mikroişlemciler, FPGA'ler ve ASIC'ler) olduğundan, bu rakip teknolojiler pazar payı için rekabet edecek ve büyüyecek."

San Francisco'daki bir veri yönetimi şirketi olan Serene Data Ops'un kurucusu Abdullah Anwer Ahmed, "Nvidia'nın bu pazardaki hakimiyetine yönelik çok az tehdit var" diye ekledi.

TechNewsWorld'e şunları söyledi: "Üstün donanımlarının yanı sıra yazılım çözümleri CUDA, on yılı aşkın süredir temel yapay zeka segmentlerinin temelini oluşturuyor."

"Asıl tehdit Amazon, Google ve Microsoft/OpenAI'nin bu modeller etrafında optimize edilmiş kendi çiplerini oluşturmaya çalışmalarıdır" diye devam etti. “Google'ın 'TPU' çipi zaten üretimde. Amazon ve OpenAI benzer projelerin ipuçlarını verdi.”

"Her durumda, kişinin kendi GPU'sunu oluşturması yalnızca en büyük şirketlerin kullanabileceği bir seçenektir" diye ekledi. “LLM endüstrisinin çoğu Nvidia GPU'ları satın almaya devam edecek.”