DGX Spark przetestowany! 128 GB pamięci i 1 PFLOP – idealne narzędzie do nauki i badań

Przez ostatnie dwa tygodnie mieliśmy wyjątkową możliwość testowania NVIDIA DGX Spark – kompaktowego desktopowego superkomputera AI opartego na architekturze Grace Blackwell (GB10). To narzędzie, nazywane przez NVIDIA „AI supercomputer on your desk”, trafiło do Sekcji Rozwoju Narzędzi i Kompetencji Cyfrowych naszego Uczelnianego Centrum Informatycznego, co pozwoliło nam sprawdzić jego możliwości bezpośrednio na uczelni.

shared image

Już po krótkim okresie testów zauważyliśmy duży potencjał tego rozwiązania zarówno w pracach naukowych, jak i w codziennym wsparciu administracji oraz dydaktyki. DGX Spark umożliwia lokalne uruchamianie zaawansowanych modeli AI bez konieczności korzystania z chmury, co jest szczególnie cenne pod względem bezpieczeństwa danych, kosztów i niezależności.

W tak krótkim czasie udało nam się przetestować kluczowe funkcjonalności urządzenia – od uruchamiania dużych modeli językowych (LLM), przez fine-tuning, po eksperymenty z wnioskowaniem (inference). Wyniki są bardzo obiecujące: DGX Spark okazał się idealnym narzędziem do prac badawczych w dziedzinach takich jak uczenie maszynowe, przetwarzanie języka naturalnego, analiza danych czy symulacje obliczeniowe. Dzięki zintegrowanemu środowisku NVIDIA (DGX OS, CUDA, NIM, vLLM, TensorRT-LLM, Ollama i inne) setup jest prosty i gotowy do natychmiastowego użycia.

IMG_0858
IMG_0859

Specyfikacja techniczna NVIDIA DGX Spark

  • Architektura: NVIDIA GB10 Grace Blackwell Superchip
  • Procesor (CPU): 20-rdzeniowy Arm (10× Cortex-X925 + 10× Cortex-A725)
  • GPU: Architektura Blackwell z Tensor Cores 5. generacji i RT Cores 4. generacji
  • Wydajność AI: do 1 PFLOP (1000 TFLOPS) w precyzji FP4 (z wykorzystaniem rzadkości)
  • Pamięć: 128 GB LPDDR5x zunifikowanej, spójnej pamięci (unified system memory) – dostępna jednocześnie dla CPU i GPU, przepustowość 273 GB/s
  • Pamięć masowa: 4 TB NVMe M.2 z samo-szyfrowaniem
  • Sieć: ConnectX-7 Smart NIC, 10 GbE, Wi-Fi 7, Bluetooth 5.4
  • Wymiary: bardzo kompaktowe – 150 × 150 × 50,5 mm
  • System operacyjny: DGX OS (oparte na Ubuntu z pełnym stackiem NVIDIA AI)
shared image (1)

Jakie modele LLM można uruchomić na DGX Spark?

Dzięki 128 GB zunifikowanej pamięci DGX Spark radzi sobie znakomicie z dużymi modelami językowymi. W praktyce możliwe jest uruchamianie modeli o parametrach do około 200 miliardów (w precyzji 4-bit/FP4 lub FP8/MXFP4), a przy wykorzystaniu dodatkowych mechanizmów (np. multi-node lub NVLink) nawet większych.

Przykłady modeli, które udało nam się testować:

  • gpt-oss-120B
  • Nemotron-3-Super-120B (FP8)
  • Llama-3.1-8B-Instruct
  • Qwen3 / Qwen2.5
  • DeepSeek

Urządzenie świetnie współpracuje z narzędziami takimi jak:

  • Ollama
  • vLLM
  • TensorRT-LLM
  • NVIDIA NIM
  • LM Studio

Dzięki temu można szybko uruchomić lokalny serwer inferencji, fine-tunować modele na własnych danych lub prowadzić eksperymenty badawcze bez wychodzenia poza infrastrukturę uczelni.

shared image (2)

Podsumowując – DGX Spark to narzędzie, które może znacząco wspomóc naszą działalność naukową i administracyjną. Już teraz widzimy potencjał w projektach badawczych, wsparciu studentów oraz automatyzacji procesów uczelnianych.