Ahogy az MI használata egyre népszerűbbé válik, úgy alakul át az MI hardverek piaca is egy egyre inkább kompetitív, kiélezettebb területté. Nyolc gyártót sorolt fel a TechTarget, akik nagyon gyorsan tudtak váltani, és láthatóan képesek lépést tartani az igényekkel is. Ezek általában CPU-kat és adatközpont-megoldásokat szállítanak, de egyre inkább látszik, hogy képesek specializálódni a kialakult helyzettel összhangban.
1. Nvidia
A Nvidia piaci értéke 2023 elején meghaladta az ezermilliárd dollárt, egyúttal erős szereplővé vált az MI hardverpiacon - talán a két esemény nem is független egymástól. A vállalat jelenleg egy 10.000 dolláros A100 chip és az adatközpontok számára fejlesztett Volta GPU fejlesztésén dolgozik. Az Nvidia továbbá MI által támogatott hardvert kínál a játékipar számára is.
kép forrása: Nvidia
2023 augusztusában a Nvidia bejelentette legújabb technológiai áttörését: a világ első HBM3e processzorát, valamint bemutatta a Grace Hopper platformot, egy szuperchipet, amelynek sávszélessége háromszorosa és a memóriakapacitása több mint háromszorosa a jelenlegi generáció technológiájának.
A vállalat NVLink technológiája lehetővé teszi a Grace Hopper szuperchip összekapcsolását más szuperchipekkel, valamint nagy sebességű összeköttetésen keresztül teszi lehetővé több GPU kommunikációját.
2. Intel
Az Intel is elég erősen odatette magát a CPU piacon az MI termékeivel. Bár nem nyomták le a Nvidia GPU-ját, a saját szakterületükön vezető pozíciót szereztek. Például a 2022-es Xeon processzorainak piacra dobása ismét kiemelte a versenytársak közül.
Az Intel Xeon Platinum sorozata egy olyan CPU, amelyben beépített gyorsítók vannak, és majdnem háromszor annyi memóriakapacitása és majdnem kétszer annyi sávszélessége van, mint az előző generációnak.
Az utóbbi időben az Intel azon dolgozik, hogy előnyt szerezzen a szélesebb MI hardverpiacon. Habár az Intel CPU-i globálisan az adatközpontok 70%-ban megtalálhatóak, a vállalat terjeszkedni kíván. Különösen, hogy ez az érték az elmúlt években csökkent.
3. Alphabet
Az Alphabet, a Google anyavállalata a Cloud TPU v5e gyorsítóval robbant a hírekbe nemrég: célzottan a nyelvi modellekre és generatív AI-ra készült eszköz költsége az előző generáció felét tette ki, ami szintén fontos szempont piacvezető pozíció célzásánál. A modellek adatfeldolgozási sebessége ötször gyorsabb a Cloud TPU v5e használatával. Bejelentették a Multislice-t, egy teljesítményskálázó technológiát is.
4. Apple
A Neural Engine az Apple chipjeben található specializált magok. A Neural Engine vezetett a M1 chiphez a MacBookokon. Az M1 chipet használó MacBookok általános teljesítményben 3,5-szer gyorsabbak a korábbi generációhoz képest, és grafikus teljesítményben ötször gyorsabbak.
Az M1 chip sikere után az Apple bejelentette a következő generációt, sőt már idén kiadta az M3 alapú laptopjait, amikben a Neural Engine már 60%-kal gyorsabb, mint az M1-ekben. Ezzel a cég a végfelhasználók számára nyitotta meg a mesterséges intelligencia és machine learning lehetőségeit azzal, hogy az ilyen feladatokat nem a CPU és GPU végez, hanem erre optimalizált hardver.
5. IBM
Az első MI chip, a Telum sikere után az IBM létrehozta az Artificial Intelligence Unit-ját. Az MI chipjeik célzottan készülnek és emiatt jobb teljesítményt hozhatnak ilyen feladatokra, mint a átlagos általános célú CPU-k.
6. Qualcomm
Bár a Qualcomm viszonylag új az MI hardverpiacon a versenytársaihoz képest, tapasztalatai a telekommunikációs és mobil szektorban ígéretes versenytársává teszik.
A Qualcomm Cloud AI 100 chipje legyőzte a Nvidia H100-at egy tesztsorozatban. Az egyik teszt például arra irányult, hogy megnézze, hány adatközponti szerverlekérdezést tud végrehajtani egyes chip egységnyi Watt teljesítményre vetítve. A Qualcomm Cloud AI 100 chipje összesen 227 szerverlekérdezést hajtott végre, míg a Nvidia H100-é 108-at, Wattonként. A Cloud AI 100 chipje 3,8 lekérdezést ért el az objektumfelismerés során (Wattonként), míg a Nvidia H100-é csupán 2,4-et.
7. Amazon
Az AWS fókusza a felhőinfrastruktúráról lassan átvándorolt a chipek fejlesztésére. Az Elastic Compute Cloud Trn1s célzottan deep learninghez és nagyméretű generatív modellekhez készült. Ezekbe AWS Trainium chipeket és AI gyorsítókat pakoltak.
8. AMD
Az AMD piacra dobta az Epyc processzorok következő generációját. A vállalat tervei szerint 2024-re piacra dobja az MI300 AI chipet. Azt állítják, ez a termékük fogja a leggyorsabban elérni az egymilliárd dolláros bevételt.