Az izraeli startup, a NeuReality szerint az MI szervereknek sokkal olcsóbbnak és gyorsabbnak kellene lenni, csak el kellene felejteni a korábbi berögződéseket. Ennek megfelelően a korábban 70 millió dolláros befektetéssel működő cég bemutatja az első NAPU-kat, amikkel kapcsolatban gyorsan kiemelték: nem MI CPU-kal tartalmaznak.
A CPU centrikus architektúrák több más hardverkomponenst igényelnek ahhoz, hogy jó MI szervert építsünk, így a Deep Learning Accelerators (DLAs) kihasználatlanok maradhatnak a CPU okozta szűk keresztmetszet miatt – állítják a NeuReality szakértői.
A megoldást szerintük egy olyan NR1AI Inference Solution jelenti, ami egy egyedi szoftver és egy a hálózaton egyedileg megcímezhető server-on-a-chip kombinációja. Szerintük ez a teljesítményt és a skálázhatóságot is növeli, miközben csökkenti a költségeket és az energiafogyasztást.
"Nem próbáltunk egy már eleve hibás rendszert javítani. Ehelyett az ideális AI Inference rendszert alulról definiáltuk újra, hogy áttörő teljesítményt, költségmegtakarítást és energiahatékonyságot érjünk el” – olvashatjuk a hangzatos állítást a cég vezetőitől.
A vállalatnak két terméke van, amelyek az új server-on-a-chipre épülnek: az NR1-M AI Inference Module és az NR1-S AI Inference Appliance. Az előbbi egy Full-Height, Double-wide PCIe kártya, amely egy NR1 NAPU rendszerchipet és egy hálózatcímző Inference Server-t tartalmaz, és csatlakozhat egy külső DLA-hoz. A másik egy szerver, ami NR1-M modulokat tartalmaz egy NR1 NAPU-val karöltve. A NeuReality szerint a szerver "akár 50-szeres teljesítménynövekedést is biztosíthat, miközben nem igényli az IT munkáját a végfelhasználónál való felhasználás indításához."
"Az egyre több DLA, GPU, LPU, TPU beruházása nem oldja meg a rendszer hatékonyságának a fő problémáját," mondta Moshe Tanach, a cég vezérigazgatója. "Mintha gyorsabb motort szerelnél az autódba annak érdekében, hogy végül forgalmi dugókban és zsákutcákban próbálj előre jutni - egyszerűen nem jutsz gyorsabban célodhoz."