Microsoft, Nvidia'ya meydan okuyor ve yapay zekaya özel çipler piyasaya sürüyor - Dünyadan Güncel Teknoloji Haberleri

Microsoft, Nvidia'ya meydan okuyor ve yapay zekaya özel çipler piyasaya sürüyor - Dünyadan Güncel Teknoloji Haberleri
Bazı tahminlere göre OpenAI’nin ChatGpt’i eğitmek için 30 binden fazla Nvidia’nın eski A100 GPU’suna ihtiyaç duyacağını söylemek yeterli Buna ek olarak Amerikan devi, bulut iş yüklerine özel Arm tabanlı bir CPU tasarladığını da doğruladı



genel-18

Çevrimiçi olarak 40 bin dolara kadar çıkabilen, gerçek maliyeti ise bunun yarısı kadar olan Nvidia kartları, H100M var Ancak Nvidia’ya alternatif olması rekabet ve uyumluluk açısından sektörün gelişimi açısından avantaj sağlayabilir


Artık spekülasyon değil gerçek: Microsoft, büyük dil modellerini eğitmek ve Nvidia’ya olan pahalı bağımlılığı önlemek için kullanılabilecek bir çip geliştirdi Daha düşük maliyet, daha fazla güç ve tamamen yapay zekaya ayrılmış bir yığınla Microsoft’un çipleri, hem tedarikçiler hem de müşteriler için yapay zekanın “fiyatını” düşürmeye yardımcı olabilir

Azure Maia 100 nasıl yapılır?

Adını bir yıldızdan alan Azure Maia 100, büyük dil modellerinin eğitimi ve çıkarımı gibi yapay zeka iş yüklerini bulutta çalıştırmak için tasarlandı
Bu, en az 20 yıldan bu yana Xbox için çiplerin geliştirilmesinde işbirliği yapan ve çeşitli yüzeylerin işlemcilerini birlikte tasarlayan Microsoft için tamamen yeni bir durum değil Azure’daki genel bulut hizmetlerini desteklemek üzere tasarlanmıştır 5 nanometrelik bir TSMC süreci üzerine inşa edilen Maia’nın 105 milyar transistörü var; bu, AMD’nin Nvidia rakibi MI300X AI GPU’nun 153 milyar transistöründen yaklaşık %30 daha az Microsoft, AI modelleri için yeni nesil veri formatlarını standartlaştırmayı amaçlayan AMD, Arm, Intel, Meta, Nvidia ve Qualcomm’u içeren bir grubun parçasıdır OpenAI’nin Maia’nın tasarım ve test aşamalarında Redmond ile işbirliği yapması tesadüf değil Microsoft’un ChatGpt ve ortaklarının gelişimine güç verdiği OpenAI ile milyarlarca dolarlık ortaklığın bazı kısımları da dahil olmak üzere, şirketin Azure’daki en büyük projelerinden bazılarına güç sağlamak için kullanılacak İlk testler, Cobalt’ın performansının, Arm sunucularını kullanan Microsoft veri merkezlerinde bulunan performanstan %40 daha yüksek olduğunu gösteriyor Maia 100 şu anda ChatGpt, Bing AI ve GitHub Copilot iş yüklerine güç veren aynı model olan GPT 3 Pazardaki ayırt edici bir özellik, çekirdek başına ve her bir sanal makinedeki performansı ve güç tüketimini kontrol etme yeteneğidir Azure Maia ve Azure Kobalt, 2024 yılında piyasaya çıkması planlanan yarı iletkenlerin ve CPU’ların adlarıdır Doğru olan şu ki, bulutun çalıştığı ölçekte yığının her katmanını optimize etmek ve entegre etmek, performansı en üst düzeye çıkarmak, tedarik zincirini çeşitlendirmek zordur 5 Turbo üzerinde test ediliyor Microsoft, sanal makineleri kullanılabilir hale getirmek amacıyla şu anda Kobalt CPU’sunu Microsoft Teams ve SQL Server gibi iş yükleri üzerinde test ediyor Yalnızca kendilerini Nvidia’dan kurtarmanın değil, aynı zamanda yapay zeka işleme için çılgın görünen bir senaryonun ihtiyaçlarını da karşılamanın bir yolu Hem Azure Maia hem de Azure Kobalt CPU, performansı, gücü ve maliyeti optimize etmek amacıyla tüm bulut sunucu yığınının büyük bir revizyonuyla birlikte Microsoft tarafından şirket içinde üretildi

Soru Maia’nın aslında Nvidia’nın doğrudan rakibi olan H100 GPU’dan bir adım önde olup olmadığıdır

Azure Kobalt: nereden geliyor?

Adını mavi pigmentten alan Azure Kobalt CPU, CSS Arm Neoverse tasarımı üzerine inşa edilmiş ve Microsoft için özelleştirilmiş 128 çekirdekli bir çiptir Her ikisinin de tek bir hedefi var: Azure veri merkezlerine güç veren özel bir ekosistem oluşturmak ve dünyayı yapay zekanın üstün geleceği bir geleceğe hazırlamak Microsoft, tüm sistemleri yapay zekanın ihtiyaçlarına uyarlamak için Açık Hesaplama Projesi’nin (OCP) işbirlikçi ve açık çalışmasını temel alarak, en azından ticari hedefleri açısından yapay zekanın geleceğini tasarlayabileceğini düşünüyor gelecek yıl çeşitli kapsamlar için müşteriler Ortaklarla donanım ve yazılım tasarımını basitleştirmek için 8 bitten küçük veri türlerinin uygulanmasını destekler 2017 yılında şirket, bulut donanım yığınını tasarlamaya başladı ve onu yeni özel çipleri oluşturma yoluna koydu